Всеки гласов помощник може да бъде излъган с помощта на ултразвук

Производителите в последно време усилено се опитват да популяризират различни гласови помощници. Може би именно на тяхна база ще се развие изкуственият интелект, за който напоследък всички приказват. Така или иначе тези технологии все още трябва доста да се развият, още повече, че както се оказва, един гласов помощник лесно може да бъде хакнат. 

Китайски учени са използвали технология, наречена от тях DolphinAttack и чрез нея са успели да излъжат повече от известните гласови помощници. Същността на технологията е проста – тя преобразува звуковите команди от сорта на “Ok, Google” в ултразвукови с честота над 20 kHz. Човешкото ухо не е в състояние да чува толкова високи честоти, но микрофоните на различните устройства ги приемат без проблеми и реагират по съответния начин. 

Изследователите са успели да принудят смартфони да се обаждат на определени номера, да стартират програми, да отварят сайтове и т.н. Те са накарали даже навигационната система на Audi Q3 да прокара нов маршрут. Всичките тези команди не могат да бъдат чути от потенциалната жертва. 

Това отваря големи възможности за хакерите, а и не само. Подобна уязвимост е характерна за всички гласови асистенти и вероятно за устройствата, на които те работят. Затова производителите трябва да обърнат внимание на този проблем колкото се може по-бързо. 

Written by 

Leave a Reply

Your email address will not be published. Required fields are marked *