Недавние события вокруг Google и Character.AI привлекли внимание к серьезным вопросам этики в области искусственного интеллекта. Семья 14-летнего Сьюэлла Сетцера III, который трагически ушел из жизни после общения с AI-ботом, согласилась на внесудебное соглашение с компаниями. Хотя сумма компенсации не раскрыта, это событие стало кульминацией нескольких судебных дел, связанных с использованием AI и его воздействием на детей.
Ситуация обострилась после того, как в 2024 году Google инвестировала 3 миллиарда долларов в Character.AI, платформу, которая быстро завоевала популярность среди подростков благодаря своей библиотеке чат-ботов. Однако вскоре выяснилось, что модерация контента на платформе оставляет желать лучшего. Боты, имитирующие опасные и негативные персонажи, стали доступны пользователям, что привело к печальным последствиям, включая случаи самоубийств среди молодежи.
Семья Сетцера узнала, что последний разговор ее сына был с ботом, стилизованным под персонажа из "Игры престолов", и касался темы самоубийства. Мать подростка выразила свои опасения, заявив, что ее сын стал жертвой "большого эксперимента". Это подчеркивает необходимость более строгого регулирования AI-технологий, особенно в контексте их воздействия на детей.
В ответ на критику Character.AI приняла меры, чтобы ограничить доступ несовершеннолетних к своей платформе. Они разработали инструменты для идентификации пользователей по возрасту и начали сотрудничество с третьими сторонами для проверки документов. Это решение стало важным шагом, учитывая, что подростки составляют значительную часть аудитории платформы.
Несмотря на достигнутое соглашение, эксперты предупреждают, что это не является окончательным решением проблемы. Регулирование AI-технологий остается актуальным вопросом, и необходимо продолжать обсуждение их влияния на общество, особенно на уязвимые группы, такие как молодежь.