Автопилот Tesla смогли обмануть при помощи визуальных эффектов
Группа Keen Security Lab, которая занимается вопросами безопасности продуктов Tesla, представила новый отчет о том, как можно обмануть систему автономного вождения электрокаров при помощи различных визуальных эффектов.
Например дворники автомобиля работающие на основе данных полученных от системы компьютерного зрения камер автомобиля, можно активировать специально сгенерированным изображением.
Еще один вариант «обмана» автопилота группой Keen Security Lab заключался размещении наклеек на дороге, которые система воспринимает как помехи, неправильно интерпретирует и даже может вывести машину на встречную полосу движения.
Также Keen Security Lab удалось взломать систему Autopilot и управлять через него автомобилем с помощью беспроводного геймпада.
Илон Маск похвалил работу группы исследователей, но в целом Tesla уже прокомментировала обман дворников тем, что это не реальная ситуация с которой могут столкнуться водители.
Проблема с удаленным доступом к управлению была исправлена компанией еще до опубликования данного отчета, а реакция автопилота на дорожные наклейки как помехи во многом неестественна и может быть легко исправлена водителем.
Toyota построит уникальную версию Century для императора Японии
Беларусь ограничила поставку топлива в направлении Украины на неопределенный срок
Концепт Haval Vision 2025 сблизил бренд с электрокарами
PEUGEOT 508: яркий, стремительный и динамичный
Hongqi HS5: полный привод и цена ниже, чем у конкурента BMW X3