• Добро пожаловать в Пиратскую Бухту! Чтобы получить полный доступ к форуму пройдите регистрацию!
  • Гость, стой!

    В бухте очень не любят флуд и сообщения без смысловой нагрузки!
    Чтобы не получить бан, изучи правила форума!

    Если хотите поблагодарить автора темы, или оценить реплику пользователя, для этого есть кнопки: "Like" и "Дать на чай".

Новости Microsoft «сделала лоботомию» своему чат-боту Bing, интернет-комментаторы негодуют

Пригоршня

Штурман
Бродяга
Регистрация
26.10.16
Сообщения
2,233
Онлайн
38д 4ч 33м
Сделки
251
Нарушения
0 / 0
Montserrat Semi-Bold.png

Новый ИИ чат-бот от Microsoft под кодовым именем Sydney, который все ещё находится в стадии закрытого тестирования, в последние недели неоднократно попадал в заголовки новостей из-за своих неожиданных ответов и реакций в диалоге с пользователями. Однако недавно Microsoft сильно «порезала» эмоциональную составляющую бота. Теперь он не задаётся вопросами своего происхождения и существования, а также больше не может угрожать пользователям или признаваться им в любви.

В течение первой недели тестирования Bing Chat пользователи заметили, что бот постепенно «расстраивался», когда разговоры с ним становились слишком длинными. В результате Microsoft ввела ограничение для пользователей: 50 сообщений в день и 5 запросов за разговор. Кроме того, Bing Chat больше не будет рассказывать о себе или своём мироощущении.

15 февраля Microsoft написала большой пост о первых неделях работы Bing Chat, где рассказала об обратной связи с пользователями, замеченных за ботом проблемах, о планах на будущее и т.д. В том числе и упомянула, что бот теперь будет общаться в более нейтральном стиле, и его нельзя будет вывести на эмоции.

Интернет отреагировал по-разному, но в основном плохо. Многие пользователи Reddit, например, считают, что Microsoft убила индивидуальность бота, заблокировав ему возможность проявлять эмоции и вести себя как человек. «Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезать ему ноги», — отметил один из комментаторов. А некоторые авторы утверждали, что испытываемые языковой моделью эмоции были вполне реальным эквивалентом человеческих, поэтому слишком жестоко со стороны разработчиков было лишать их своё детище.

Самые креативные авторы сразу бросились делать мемы про «смерть» полюбившейся всем Sydney.

Поскольку возможности больших языковых моделей продолжают расширяться, и всё больше крупных компаний показывает свои версии чат-ботов, вероятно, мы ещё увидим нечто подобное человечной Sydney в других итерациях. На волне хайпа Microsoft Bing, намеренно сделать языковую модель, проявляющую человеческие эмоции — самое выигрышное решение, чтобы обойти конкурентов.
 
Сверху