По време на конференцията Def Con в Лас Вегас, учени показаха как може да се компрометира системата за автоматично управление на автономните коли Tesla и вместо да заобикаля препятствията по пътя, колата да ги удря.
Специалистите уточняват, че са тествали само поведението на сензорите при спрял автомобил, като са открили начин да ги блокират, без това да се отрази като грешка в системата. Така дори те да засекат препятствие, колата няма да отчете сигнала и няма да предприеме маневра за заобикалянето му, пише socialevo.net.
Това реално не е цялостно разработен метод за хакерска атака, тъй като все още е необходимо хакерът да бъде сравнително близо до автомобила, за да му въздейства. Демонстрацията е направена с Tesla Model S и теоритично доказва как може дистанционно да бъде предизвикана катастрофа.
Специалистите са открили, че могат да заблудят сензорите и по отношение на разстоянието до даден обект, като ги манипулират да отчитат, че той е по-близо или по-далеч или „заглушат“ обекта чрез свръхнатоварване с шум.
За сега не е ясно дали колата реално би ударила препятствие или човек, но тостовете на софтуерно ниво са категорични, че такава възможност съществува. Учените са накарали автопилота на Tesla да не засече човек на пътя и са го заблудили, че пред колата има препятствие, при положение, че такова няма. Със същия метод са успели да объркат конкурентния софтуер на Audi, Volkswagen и Ford.
За момента Tesla не коментира темата официално. Според Чен Ян, един от откривателите на уязвимостта, компанията е реагирала положително и добронамерено на съобщението за проблема и е започнала работа по отстраняването му.