Все изображения и файлы загружайте только на наш сервер! Для этого используйте кнопку "Загрузить файл", расположенную ниже или просто перетащите необходимые файлы/изображения со своего компьютера в окно редактора.
Компания Microsoft разработала необычного робота для общения с пользователями Twitter. Искусственный интеллект под именем Tay превратился из дружелюбного собеседника в расиста и негодяя.
Как стало известно, чат-бот умеет отвечать на вопросы пользователей в социальной сети, наделен чувством юмора и даже способен рассказать небольшие истории. Однако если с момента своего появления бот отвечал очень дружелюбно, то через 24 часа он научился выражать ненависть к евреям, мексиканцам и феминисткам, аниме и даже угрожать пользователями.
Как сообщил сам Tay, чем больше он общается с людьми, тем больше учится у них. Учитывая, что после запуска бота люди начали заваливать его негативными сообщениями, неудивительно, что искусственный интеллект подхватил самые нелицеприятные тенденции в глобальной сети. На официальном сайте его создателей отмечается, что для обучения бот использует «насущные публичные данные, которые предварительно моделируются, очищаются и фильтруются». В результате, после первых суток «жизни» ИИ, представителям Microsoft пришлось вручную удалять самые агрессивные выпады бота в сторону тех или иных общественных движений и личностей.
По данным, некоторые пользователи, следившие за происходящим отметили, что не хотят больше никаких экспериментов с искусственным интеллектом. Если представить, что в будущем машины наделят большими возможностями, их обучение на основе общения с людьми могут превратить ИИ в худший из кошмаров человечества. Представители Microsoft, в свою очередь, приостановили работу своего проекта на неопределенный срок.
Как стало известно, чат-бот умеет отвечать на вопросы пользователей в социальной сети, наделен чувством юмора и даже способен рассказать небольшие истории. Однако если с момента своего появления бот отвечал очень дружелюбно, то через 24 часа он научился выражать ненависть к евреям, мексиканцам и феминисткам, аниме и даже угрожать пользователями.
Как сообщил сам Tay, чем больше он общается с людьми, тем больше учится у них. Учитывая, что после запуска бота люди начали заваливать его негативными сообщениями, неудивительно, что искусственный интеллект подхватил самые нелицеприятные тенденции в глобальной сети. На официальном сайте его создателей отмечается, что для обучения бот использует «насущные публичные данные, которые предварительно моделируются, очищаются и фильтруются». В результате, после первых суток «жизни» ИИ, представителям Microsoft пришлось вручную удалять самые агрессивные выпады бота в сторону тех или иных общественных движений и личностей.
По данным, некоторые пользователи, следившие за происходящим отметили, что не хотят больше никаких экспериментов с искусственным интеллектом. Если представить, что в будущем машины наделят большими возможностями, их обучение на основе общения с людьми могут превратить ИИ в худший из кошмаров человечества. Представители Microsoft, в свою очередь, приостановили работу своего проекта на неопределенный срок.
Последнее редактирование: