#Будущее
Сексист, расист и душегубец.
5 историй про ИИ
#БУдущее

Сексист, расист и душегубец.
5 историй про ИИ

Новости про искусственный интеллект — отдельный вид искусства. Вот голосовой помощник Алиса от Яндекса «клеит» парней в сервисе для знакомств Tinder, вот языковая модель GTP-3 ведет колонку на сайте Hacker News. В обоих случаях никто не догадывается. Восхитительно и пугающе одновременно!

В поисках других подтверждений императива: «ИИ поработит человечество», — мы нашли еще несколько колоритных историй. Механика везде одинаковая: роботы подают тревожные звоночки, разработчики их вырубают, народ веселится. Заинтригованы?

Случай 1. Они придумали свой язык, чтобы люди их не понимали

В 2017 году во время научного эксперимента в лаборатории искусственного интеллекта произошел инцидент. Чат-боты Элис и Боб, задачей которых было продать друг другу товары, в процессе переговоров придумали собственный язык, чтобы упростить общение. Внешне их диалог выглядел как «ломаный» английский со скрытым смыслом:

Боб: Я могу могу ЯЯ все остальное.
Элис: Шары имеют ноль для меня для меня для меня для меня.
Чат-ботов создали в целях продаж, чтобы они вели диалог с покупателями без вмешательства оператора. Несмотря на несколько удачных сделок, разработчики отключили Боба и Элис после того, как они начали общаться на своем языке.

Еще раньше один из ботов научился обманывать собеседника, делая вид, что предмет торга ему совершенно не нужен, и в итоге покупал его за минимальную цену. Этому он научился из реальных диалогов покупателей и продавцов, он «нахватался» фразочек, которые помогали заключить лучшую сделку.

Впрочем, исследователи утверждают, что отключили ботов не из-за беспокойства: просто эксперимент подошел к концу. Но мы-то все понимаем.

Случай 2. Искусственный интеллект проезжал на красный сигнал светофора

Что будет, если за руль роскошного внедорожника Volvo XC90 «посадить» искусственный интеллект? Он поедет на красный и будет игнорировать все знаки дорожного движения. Это произошло в рамках тестов беспилотного такси Uber. Место действия: улицы Сан-Франциско и Питтсбурга.

Козлом отпущения сделали, однако, человека. За вождением искусственного интеллекта удаленно наблюдал оператор, и он должен был взять управление на себя в случае экстренной ситуации. Он этого не сделал, и в итоге тестирование беспилотников свернули из-за запрета местных властей — им надоело, что ИИ гоняет на красный и создает угрозу.

Случай 3. Она хотела уничтожить человечество

Если вам кажется, что вы по-дурацки ведете себя в кадре, посмотрите на робота Софию (вы наверняка ее уже видели). В интервью телеканалу CNBC на вопрос ведущего: «Хочешь ли ты уничтожить человечество?» — она ответила: «Ок, я уничтожу человечество».

Включите интервью, и вы осознаете, что ответ звучит вдвойне жутко, учитывая пугающий внешний вид робота. Создатели Софии считают ее похожей на актрису Одри Хепберн, но мы бы так не сказали… Робот умеет имитировать человеческую мимику, интонации и говорит на нескольких языках. Впервые Софию активировали в 2015 году, а в 2017 она получила гражданство в Саудовской Аравии (что вообще?!).

После шокирующего заявления робота перепрошили. В последующих интервью София лишь подшучивала над журналистами и Илоном Маском, который сильно тревожится за совместное будущее человечества и искусственного разума.

Случай 4. Он стал расистом

Компания Microsoft в 2016 отключила своего чат-бота Тая — от него стали поступать расистские высказывания в адрес пользователей. Он был способен к самообучению, а сами разработчики надеялись, что с каждым днем Тай будет умнеть и учиться на разговорах с настоящими людьми в Интернете. В теории.

На практике научился Тай совсем другому (снова во всем виноваты мальчишки во дворе). Его аккаунт в социальной сети Twitter пришлось зачистить после десятков неполиткорректных сообщений, которых он нахватался у интернет-троллей.

Случай 5. Он стал сексистом

По стопам Тая пошел искусственный интеллект компании Amazon, задачей которого было помогать HR-компании отбирать новых сотрудников.

Он в автоматическом режиме рассматривал резюме и, как выяснилось, почти всегда отправлял в корзину кандидатуры женщин. В предвзятом отношении виновата ошибка машинного обучения — система была натренирована на анкетах мужчин, из-за чего считала, что женщины не соответствуют критериям. Ошибку обнаружили только через год работы искусственного интеллекта, и Amazon решили закрыть этот проект.

Подписывайтесь на Интерсвязь в социальных сетях!