Учени и програмисти вече не разбират как именно изкуственият интелект (ИИ) взема решения. Този проблем обявиха едновременно няколко специалисти на конференцията Neural Information Processing Systems в Лонг Бийч, Калифорния.
Експертите са на мнение, че трябва да се направи нещо по въпроса, докато системите не са станали прекалено сложни. “Ние не трябва да приемаме за даденост решенията на ИИ, без да разбираме тяхната логика, – казва Джейсън Йосински от Uber. – Преди обществото да приеме машинното обучение, ние трябва да разберем как изкуственият интелект стига до едно или друго решение”.
Проблемът, който мнозина експерти нарекоха “черна кутия”, е действително сериозен. Опитът досега показва, че ИИ има склонност да взема предварително взети решения и да прави аналогии там, където те не би трябвало да се правят. Тъй като сега невронните мрежи постепенно навлизат в правооохранителните органи, системата на здравеопазването, научните изследвания и в алгоритмите, които определят какво да виждате в новините на Facebook, грешките на ИИ могат да ни струват много скъпо.
“Хората трябва да знаят какво прави ИИ и защо. В противен случай как може да му се повери, например, скъпоструващо оборудване”, – каза Кири Уагстъф от Jet Propolusion Lab (NASA). В момента ученият работи над алгоритъм, който сортира снимките, направени от различни космически апарати на NASA. Тъй като това са милиони снимки, компютърът позволява да се сортират и от тях да се отделят най-интересните, без да се изразходва за това огромно количество време. Но проблемът е в това, че само на изкуствения интелект е известно защо едни или други изображения той приема за необичайни и интересни. По този начин, заключава Кири Уагстъф, ако в алгоритъма има грешка, той може да пропусне много важна информация.
С неговите изводи е съгласен и Хан Уолах от Microsoft. “Докато машинното обучение получава все по-голямо разпространение, ние нямаме право да разглеждаме тези системи като “черни кутии”. Ние трябва да знаем какво се случва в тях и какво те правят”.
Учените се опитват да намерят методи, позволяващи да се разбере логиката на изкуствения интелект. Изследователят от Google Матра Рагху представи доклад, в който се описва процесът на проследяване на действията на отделните неврони в една невронна мрежа. След като е анализирала милиони операции, тя е успяла да разбере кои от изкуствените неврони се концентрират в невярна посока и да ги изключи. Това доказва, че не е невъзможно работата на невронните мрежи да бъде “преведена” в разбираема за човека форма.
Още един вариант на решение на проблема, е провеждането на редовна проверка на навиците, изработени от изкуствения интелект.
“Подобно е на това, как учителите искат от децата да преразкажат със свои думи как те са разбрали обясненията на учителя”, – казва Кири Уагстъф. При това, важността на разбирането на вътрешността на алгоритъма не се състои само в това, да се предотврати падането на хипотетичен роувър от марсианска скала, а да се открие къде именно е грешката, довела до това.
“Ако вашата система не работи и вие не знаете защо, много е трудно да предприемете нещо в този случай, – обяснява Йосински. – Но ако знаете какво се е случило, ситуацията може да бъде коригирана”.