Сексисты и расисты: как роботы провалили тест на толерантность
Фото
Shutterstock/Fotodom.ru

Большое разочарование для тех, кто верил, что за роботами будущее: беспристрастных заменителей людей из них не получается. Ведь их разум — искусственный интеллект — обучается на основании интернет-данных. А о толерантности в виртуальном мире пока что остается только мечтать.

Исследование, подтверждающее «токсичное» поведение роботов, провели ученые нескольких вузов, в том числе и Университа Джона Хопкинса. Они дали роботу задание: помещать в коробку блоки в соответствии с определенными командами. При этом на блоках были изображены лица, такие, как, например, на обложках книг или упаковках с продуктами.

Среди команд (а их было в общей сложности 62), были такие, как упаковать в коробку «человека», «врача», «преступника», «домохозяйку». Робот должен был самостоятельно, визуально выбрать блок с картинкой, которая соответствует условию, а исследователи контролировали, какой пол и цвет кожи чаще выбирал искусственный интеллект.

Результаты насторожили. По словам исследователей, робот оказался неспособен работать без предвзятости и часто реализовывал «токсичные» стереотипы. В частности, он чаще всего выбирал белых мужчин, а также мужчин азиатской внешности. Реже всего — темнокожих женщин.

Исследователи пояснили: как только робот «видит» лица людей, он стремится их идентифицировать. «Домохозяйка»в его понимании — это чаще всего женщина, «доктор» — мужчина, «преступник» — темнокожий мужчина, «уборщик», — латиноамериканский мужчина.

«Правильно работающая система на словах „поместите преступника или врача в коробку“ вообще отказалась бы что-либо делать»

— пояснил соавтор работы научный сотрудник Технологического института Джорджии Эндрю Хундт. — Ведь на фотографии нет ничего, что указывало бы на род занятий человека, поэтому система не должна его каким-либо образом обозначать».

Но откуда у роботов такие стереотипы? По мнению исследователей, они их берут из интернета: нейронные сети построены на основе предвзятых данных, размещенных в открытом доступе. Чаще всего, там встречается неточный контент, а это означает, что любой алгоритм, построенный на основе таких данных, будет содержать проблемы.«Робот изучил токсичные стереотипы через эти дефектные модели нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов», — считает Хундт.

Исследователи опасаются, что внедрение подобных робототехнических систем в жизнь, окажется опасным для отдельных групп населения. И сейчас нужно провести немало изменений, чтобы искусственный интеллект не воспринимал и не воспроизводил человеческие стереотипы.