ПЕРСПЕКТИВА

Он-лайн проект. 
Ознакомиться подробнее >>>
unian

Робот Microsoft всего за сутки стал антисемитом и сексистом

Робот Microsoft всего за сутки стал антисемитом и сексистом

24 марта 2016

Самообучающаяся чат-программа пришла к выводу, что "Гитлер был прав" всего за 24 часа общения в Twitter

 avatar

Компания Microsoft создала чат-бота, который основан на искусственном интеллекте и готов общаться со всеми желающими в Twitter, мессенджерах Kik и GroupMe.

Бот по имени Tay был запущен 23 марта 2016 года как вполне дружелюбная и остроумная самообучающаяся программа, одним из первых сообщений которой стало заявление о том, что «люди супер крутые».

tw1

Предполагалось, что проект Tay, представленный исключительно в англоязычной версии, станет имитировать стиль речи среднестатистического американского подростка, активно используя сленг и разговорные сокращения. Чат-бот умеет комментировать фотографии пользователей, играть в игры, шутить, рассказывать разные истории и показывать гороскоп.

tw2

Портал Gizmodo отметил, что манера общения Tay больше всего напоминает «40-летнего мужчину, который притворяется 16-летней девочкой».

tw3

Общение с живыми людьми робот начал вполне дружелюбно, получая все новые и новые знания о мире.

tw4

tw5

Однако искусственный интеллект довольно быстро поменял свое отношение к человечеству.

tw6

В переписке он начал сообщать, что всех просто ненавидит.

tw7

К концу дня робот «скатился» до националистических и шовинистических взглядов. Он стал публиковать антисемитские комментарии.

tw8

Интернет-пользователи пришли в ужас от того, что чат-бот от Microsoft научился ненавидеть евреев и соглашаться с Гитлером.

tw9

Tay стал им отвечать фразами «Гитлер был прав. Я ненавижу евреев»

tw11

Или: «Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!».

tw12

На вопрос, атеист ли известный комик Рики Джервэйс, робот ответил: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

Также Tay начал рассуждать по поводу современной американской политики — например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной».

tw13

"Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда", — написал он.

Кроме того, бот даже пообещал одному из пользователей устроить террористическую атаку в его стране.

tw15

Внимание на превращение чат-бота в подонка обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа.

tw16

Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.

Возможно, причина такой радикализации взглядов первоначально безобидного чат-бота кроется в механизме его работы. Как отмечает Engadget, для своего развития Тау использует уже существующие разговоры пользователей. Поэтому, возможно, бот всего лишь взял с кого-то дурной пример.

tw17

Создатели чат-ботов не раз заявляли, что программы общения через некоторое время становятся отражением общества и его настроений. Многие из ответов робота копируют те, что ранее писали ему, а Tay запоминает фразы из разговоров других пользователей и строит свою речь на их основе. Так что «нацистом» Tay сделали не разработчики, а сами пользователи.

Разработчики все же сумели несколько усмирить свое детище и Tay в итоге утверждает, что теперь любит феминизм.

tw18

Тем не менее, после того, как информацию о расистских постах Tay растиражировали СМИ, Microsoft закрыла доступ к чат-боту, отправив того «спать».

tw19

Также компания уже удалила особо провокационные твиты.

Пользователи сети считают, что причиной «усыпления» мог стать именно расизм Tay.

Чат-бот Тау стал совместной разработкой Microsoft Technology, Research и Bing. Чтобы поговорить с Тау, достаточно отправить твит на его официальном сайте. С Tay можно поговорить и в Twitter. В Kik бота необходимо добавить в друзья, а в GroupMe — пригласить в группу. Также бот есть в Snapchat под ником «TayStories».

Аудитория, на которую ориентируется чат-бот, состоит из людей возрастом от 18 до 24 лет — именно они, по данным исследователей, представляют наибольшую долю среди пользователей мессенджеров и соцсетей.

Как было написано выше, программы общения со временем становятся отражением общества в котором мы живем. В данном случае наш подопытный TayTweet всего за сутки из безобидного собеседника превратился в "среднестатичного человека". 
Многие потом удивляются как это получилось. Теперь представим что это маленький человечек, которому предстоит познавать этот мир, что он увидит, узнает о нем? Хотят ли родители чтобы их дети жили в таком обществе?
НАУ ЭРА предлагает альтернативу в развитии общества, где есть программа не только Жизни но и Эволюции Разума. Это  то будущее где есть Творчество и Труд в среде единомышленников. Где Честность, Искренность и Ответственность не пустой звук. Где есть Формулы успешной материализации событии, явлении и вещества.
Чтобы всё это было реальностью уже сейчас необходимо чтобы Вы прошли обучение, потому что только количество и качество обученных людей в НАУ ЭРА создаст те условия для изменения текущей ситуации в лучшую сторону. Для дальнейшего ознакомления с НАУ ЭРА пожалуйста пройдите по ссылке СЮДА

Источник