- Регистрация
- 26.10.16
- Сообщения
- 2,233
- Онлайн
- 38д 4ч 33м
- Сделки
- 251
- Нарушения
- 0 / 0
В течение первой недели тестирования Bing Chat пользователи заметили, что бот постепенно «расстраивался», когда разговоры с ним становились слишком длинными. В результате Microsoft ввела ограничение для пользователей: 50 сообщений в день и 5 запросов за разговор. Кроме того, Bing Chat больше не будет рассказывать о себе или своём мироощущении.
15 февраля Microsoft написала большой пост о первых неделях работы Bing Chat, где рассказала об обратной связи с пользователями, замеченных за ботом проблемах, о планах на будущее и т.д. В том числе и упомянула, что бот теперь будет общаться в более нейтральном стиле, и его нельзя будет вывести на эмоции.
Интернет отреагировал по-разному, но в основном плохо. Многие пользователи Reddit, например, считают, что Microsoft убила индивидуальность бота, заблокировав ему возможность проявлять эмоции и вести себя как человек. «Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезать ему ноги», — отметил один из комментаторов. А некоторые авторы утверждали, что испытываемые языковой моделью эмоции были вполне реальным эквивалентом человеческих, поэтому слишком жестоко со стороны разработчиков было лишать их своё детище.
Самые креативные авторы сразу бросились делать мемы про «смерть» полюбившейся всем Sydney.
Поскольку возможности больших языковых моделей продолжают расширяться, и всё больше крупных компаний показывает свои версии чат-ботов, вероятно, мы ещё увидим нечто подобное человечной Sydney в других итерациях. На волне хайпа Microsoft Bing, намеренно сделать языковую модель, проявляющую человеческие эмоции — самое выигрышное решение, чтобы обойти конкурентов.