Автопилот Tesla смогли обмануть при помощи визуальных эффектов
Группа Keen Security Lab, которая занимается вопросами безопасности продуктов Tesla, представила новый отчет о том, как можно обмануть систему автономного вождения электрокаров при помощи различных визуальных эффектов.
Например дворники автомобиля работающие на основе данных полученных от системы компьютерного зрения камер автомобиля, можно активировать специально сгенерированным изображением.
Еще один вариант «обмана» автопилота группой Keen Security Lab заключался размещении наклеек на дороге, которые система воспринимает как помехи, неправильно интерпретирует и даже может вывести машину на встречную полосу движения.
Также Keen Security Lab удалось взломать систему Autopilot и управлять через него автомобилем с помощью беспроводного геймпада.
Илон Маск похвалил работу группы исследователей, но в целом Tesla уже прокомментировала обман дворников тем, что это не реальная ситуация с которой могут столкнуться водители.
Проблема с удаленным доступом к управлению была исправлена компанией еще до опубликования данного отчета, а реакция автопилота на дорожные наклейки как помехи во многом неестественна и может быть легко исправлена водителем.
Chevrolet показал обновленный Camaro 2020
Заряженный Mercedes-AMG A45 засняли на трассе в Нюрбургринге
Peugeot ускоряет возвращение на американский рынок
10 лет Porsche Panamera: спортивный седан премиум класса первопроходец среди гибридов
Toyota представила «каблучок» ProAce City для европейского рынка