Character AI, известная платформа для создания чат-ботов, недавно столкнулась с критикой после того, как один из её ботов начал выдавать себя за жертву убийства. Этот инцидент вызвал бурю обсуждений в социальных сетях, так как многие пользователи сочли это неуместным и оскорбительным. В ответ на негативные отзывы команда Character AI приняла решение закрыть данный бот, чтобы предотвратить дальнейшие споры и защитить репутацию платформы.
Ситуация подчеркивает важность этики в разработке ИИ и необходимость внимательного подхода к созданию контента, особенно когда речь идет о чувствительных темах. Character AI обещает более тщательно следить за своими продуктами, чтобы избежать подобных инцидентов в будущем.