Учени обучават робот да не се подчинява на човешки команди

Когато става въпрос за роботи, които не се подчиняват на човешки заповеди, първата ни реакция може да варира от притеснение до сериозна тревога. Все пак точно така започват всички беди за човечеството във филмите, в които машините се изправят срещу нас и ни завладяват.

В реалността обаче нещата не стоят точно така, на мнение са учените Гордън Бригс и Матиас Шойц от Лабораторията по взаимодействие между хора и роботи към Университета Tufts. Според тях обучаването на роботите да казват „не“ на човешките команди може да се окаже ключово за безопасното навлизане на машините в обществото, както и за развитието на етичен код в областта.

Според изследователите това е важно, защото ако в близко бъдеще роботите правят опасни неща, това вероятно ще бъде по човешка заповед. Всъщност бихме могли да кажем, че това вече се случва, в зависимост от определението ни за „робот“. Автономни самолети от няколко години поразяват цели в различни краища на света, а компютърни вируси атакуват стотици хиляди крайни устройства, след активиране от незнайни хакери.

Затова и според Бригс и Шойц, ако в бъдеще светът може да бъде разрушен от роботи, то много по-вероятно е това да стане по човешка заповед, отколкото като свободен избор, направен от самата машина. Това е и причината двамата учени да предлагат възможност роботите в бъдеще да могат да казват „абсолютно не“ на хората, които ги командват.

За тази цел, според тях, трябва да бъдат внедрени набор от въпроси, на които всеки робот да отговаря, преди да приеме команда от човек: знам ли как да направя това; мога ли да го направя физически; мога ли да го направя в този момент; трябва ли на база на моята обществена роля да правя това; ако го направя, ще наруша ли някой нормативен принцип?

Ако и вие виждате прилика с трите закона на роботиката, измислени от фантастичния писател Айзък Азимов, вероятно това не е случайно. Нека ги припомним: 1. Роботът не трябва да наранява човек или чрез бездействието си да допусне човек да бъде наранен; 2. Роботът трябва да се подчинява на човешките заповеди, освен когато това противоречи на първия закон; 3. Роботът трябва да защитава собственото си съществуване, освен ако това не противоречи на първия и втория закон.

Макар и правилата на Бригс и Шойц да са по-сложно дефинирани, и двете концепции до голяма степен задават на роботите сходна рамка на взимане на решения, като характерно и за двете е поставянето под въпрос на добронамереността на човешките заповеди.

Leave a Reply

Your email address will not be published. Required fields are marked *