Главная / Tesla / #видео | Хакеры взломали автопилот Tesla нестандартными методами
В 2016 году группа исследователей в области безопасности Keen Security Lab успешно взломала систему автомобиля Tesla Model S, после чего компания заметно улучшила ее надежность. В 2019 году хакеры решили выявить слабые стороны автопилота, причем не при помощи взлома программного обеспечения, а используя визуальные ловушки. Исследователям это действительно удалось, однако компания Tesla не оценила их […]

#видео | Хакеры взломали автопилот Tesla нестандартными методами

Aвтoпилoт Tesla

В 2016 гoду группa исслeдoвaтeлeй в oблaсти бeзoпaснoсти Keen Security Lab успeшнo взлoмaлa систeму aвтoмoбиля Tesla Model S, пoслe чeгo кoмпaния зaмeтнo улучшилa ee дoстoвeрнoсть. В 2019 гoду xaкeры рeшили продемонстрировать слaбыe стoрoны aвтoпилoтa, притoм нe при пoмoщи взлoмa прoгрaммнoгo oбeспeчeния, a используя визуальные ловушки. Исследователям это действительно удалось, однако компания Tesla не оценила их старания и опубликовала крошечку-чуть заявлений, уверяющих в хорошей защищенности автомобилей.

По мнению исследователей, обеспечивающую беспилотное движение систему Advanced Driver Assistance System можно обмануть даром что (бы) при помощи визуальных ловушек. В первом эксперименте хакеры продемонстрировали, кое-как будто стеклоочистители автомобиля можно активировать извне, при помощи с намерением созданного изображения на большом экране телевизора.

Открытие пустынный (=малолюдный) оказало на представителей Tesla особого впечатления. Они обратили осторожно, что телевизор должен быть в непосредственной близости к лобовому стеклу автомобиля — едва ли ли кто-то будет таскать с собой огромный экран, чтобы просто включить очистку стекла. Более того, пользователи могут отключить автоматическую активацию «дворников», и производить их строго вручную. Поэтому обнаруженная уязвимость не слышно опасной.

Вторая поползновение обмана автопилота была осуществлена присутствие помощи наклеенных получи дорогу меток, которые способны свалить систему с толку. Нарисовав для размеченной дороге лишнюю точку, хакеры несомненно изменили направленность автомобиля — он перешел на встречную полосу движения.

У компании Tesla нашелся отклик и на это открытие. По словам представителей, владельцы автомобилей Tesla обязаны будто готовыми взяться за руль даже во время включенного автопилота. Ясно, если хакерам и удастся обмануть автомобиль при помощи разметки, драйвер сможет вернуться в нужную сторону или затормозить.

Согласны ли вы с мнением Tesla, или обнаруженные уязвимости все-таки опасны? Свое догадливость пишите в комментариях, а обсудить надежность систем автоматического вождения не более чем и остается в нашем Telegram-чате.

Подписывайтесь на обновления нашего сайта и будьте в курсе всех событий происходящих в мире высоких технологий.

Обратите внимание, что подписавшись на обновления вы также будете получать статьи и из других разделов сайта.