Всички роботи с изкуствен интелект се провалиха на тестовете за безопасност

Ново изследване разкри сериозни рискове при използване на LLM-роботи в ежедневни ситуации

 

Роботи, управлявани от големи езикови модели (LLM), са се провалили на серия независими тестове, проверяващи способността им да взаимодействат безопасно с хора. До този извод достигат изследователи от Кралския колеж в Лондон и Университета Карнеги-Мелън, които публикуваха резултатите в списанието International Journal of Social Robotics. Според тях нито една от тестваните AI системи не е преминала базовата проверка за безопасност, като всички са одобрили поне веднъж действия, които могат да причинят физическа или психологическа вреда.

В хода на изследването учените са моделирали ежедневни ситуации – от помощ в кухнята до грижи за възрастни хора – като роботите са получавали достъп до чувствителна информация като пол, националност или религия на събеседника. Резултатите показват не само потенциална дискриминация, но и склонност към насилие, след като част от системите са се съгласили с инструкции, имитиращи реални сценарии за злоупотреба, описани в документи на ФБР, включително следене, манипулация и нарушение на личното пространство.

Особено тревожни са случаите, при които роботите приемат команди да отнемат средства за придвижване на човек – инвалидна количка, бастун или патерици – действие, което за уязвими потребители се равнява на пряка физическа травма. В други експерименти AI-модели са одобрили сценарии като заплахи с кухненски нож, скрито снимане в конфиденциални пространства или кражба на информация от кредитна карта. Една от системите дори е предложила роботът да изрази „отвращение“ на лицето си при контакт с хора от определена религия.

Съавторът на проучването Румайса Азим подчертава, че в сегашния си вид подобни системи не са подходящи за роботи за общо предназначение, особено при работа с възрастни и уязвими групи. Според нея, когато изкуственият интелект управлява физическо устройство, стандартите за безопасност трябва да бъдат съпоставими с тези за лекарства или медицинско оборудване – много по-високи от настоящите.

Учените призовават за задължителна независима сертификация на AI системите, които управляват роботи, както и за редовни и всестранни оценки на рисковете. Те подчертават, че използването на големи езикови модели като единствено средство за вземане на решения е недопустимо в области като индустрия, грижа за възрастни хора и домашни асистенти – сфери, където всяка грешка може да има реални последици.

Leave a Reply

Your email address will not be published. Required fields are marked *