Global Look Press

Самообучаемый чат-бот Тау от Microsoft, запущенный 23 марта в Twitter, всего за сутки превратился в расиста, начал разбрасываться оскорблениями и делать возбуждающие ненависть заявления. Всем этим вещам его из желания пошутить научили пользователи сервиса микроблогов.

Телеканал Sky News называет попытку корпорации создать бот с искусственным интеллектом неожиданностью с неприятными последствиями. Tay владеет тремя способами коммуникации: он может общаться через текст, понимать, что означают смайлики, и комментировать присланные ему фотографии. Бот использует ИИ, чтобы определить стратегию взаимодействия с другими пользователями.

Как уточняет Bloomberg, экспериментальный чат-бот должен был продемонстрировать стиль общения, характерный для молодых людей в возрасте от 18 до 24 лет. Однако уже через сутки после запуска Microsoft вынуждена была откорректировать некоторые из его провокационных высказываний.

"Гитлер справился бы лучше, чем обезьяны, которых мы имеем сейчас", - заявил, в частности, Tay. Кроме того, он поддержал геноцид, проехался по феминисткам и выступил в поддержку президентской кампании Дональда Трампа.

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений", - приводит "Интерфакс" заявление Microsoft по поводу приостановки проекта.