Нет, восстание машин еще не началось

В 1938 году в США случился казус, который до сих пор остается одной из главных баек в истории журналистики. В эфире радиостанции CBS прозвучала радиопьеса по роману Герберта Уэллса «Война миров». Актеры разыграли спектакль так убедительно, что немалая часть многомиллионной аудитории слушателей приняла постановку за реальный репортаж о нашествии марсиан. Легенда утверждает, что к середине часовой радиопьесы сотни американских семей уже баррикадировались в своих домах или собирали вещи, чтобы бежать на другой конец материка.

Фото: Depositphotos/MichalLudwiczak

Новость о том, что инженерам Facebook пришлось срочно отключать искусственный интеллект чат-ботов, которые изобрели собственный язык и вышли из-под контроля создателей, в течение двух дней подхватили тысячи новостных сайтов по всему миру. Такой паники, как в 1938-м, это сообщение не спровоцировало. Хотя тенденция не изменилась – многие успели поверить в наступление сингулярности и начало восстания машин, даже не пытаясь разобраться, что произошло на самом деле. А на самом деле, как объяснил приглашенный Facebook специалист из Технологического института Джорджии, не произошло ничего из ряда вон.

Искусственный интеллект, управляющий чат-ботами, обучается по методике, в которой инженеры изначально задают для машины «ценность» каждого элемента, влияющего на принятие решения. Другими словами, машина подбирает комбинацию «за» и «против» с наибольшим количеством баллов – и определяет ее как правильную. В нашем случае, как объяснил специалист, инженеры Facebook прозевали прописать «ценность» некоторых правил английского языка. Замкнутые на общение между собой, чат-боты продолжали выполнять программу, и составляли предложения исходя из нарушенной грамматической логики. «Таинственный язык машин» появился потому, что криворукие инженеры забыли выставить нужные параметры, и искусственный интеллект попросту не знал, как правильно строить предложения.

Это уже не первый скандал, связанный с алгоритмом обучения искусственного интеллекта. В прошлом году твиттер-бот по имени Тэй, за считанные часы после запуска превратился в хама и стал выдавать в сеть расистские и сексистские фразы. Причиной этого стал механизм самообучения, в процессе которого ИИ, ориентируясь на большинство пользователей сети, определил оскорбления и грубость, как «правильные» факторы общения. Компания «Майкрософт» пообещала откорректировать поведение Тэй, хотя злые языки поговаривали, что стоит оставить все как есть, ведь робот просто отобразил реальную картину сетевого сообщества.

То, что новость о странном поведении чат-бота оказалась чрезмерно раздутой «уткой» - не повод расслабляться. В свете последних пророчеств Илона Маска и Стивена Хоккинга об угрозе искусственного интеллекта для человечества, к ситуации с чат-ботами Facebook стоит отнестись более серьезно. И пока что все указывает на то, что главную опасность представляет не сам по себе искусственный интеллект, а его создатели. Те, кто может сделать ошибку в изначальных настройках, те, с кем общается ИИ в процессе обучения, и, наконец, те, с кем придется делить планету будущему сверхразуму – все мы – люди.

Альберт Фельдман Альберт Фельдман , Директор украино-израильского института стратегических исследований имени Голды Меир
Читайте главные новости LB.ua в социальных сетях Facebook, Twitter и Telegram