В последние месяцы ChatGPT стал настоящим хитом среди молодежи в Южной Корее, где пользователи активно делятся "терапевтическими" подсказками на платформах, таких как X и TikTok. Эти подсказки позволяют чат-боту выступать в роли профессионального консультанта, который интерпретирует эмоции и предлагает теплые, поддерживающие ответы.
Молодые люди, такие как 24-летняя Ким Джи-хён, отмечают, что общение с ChatGPT не требует эмоциональных затрат, в отличие от общения с друзьями. Она говорит: "Мой близкий друг однажды сказал мне прекратить повторять одну и ту же проблему, но ChatGPT всегда готов выслушать, даже если я повторяюсь".
С момента своего появления в конце 2022 года искусственный интеллект (ИИ) стал не просто инструментом для повышения продуктивности, но и заменой для доверительного общения. По данным исследовательской компании Global Information, рынок ИИ в области психического здоровья, который в 2023 году оценивался в 1,5 миллиарда долларов, ожидает роста до 5,1 миллиарда долларов к 2030 году.
Для многих представителей поколения Z, выросших в эпоху постоянного онлайн-присутствия, общение с ИИ кажется естественным. Например, 23-летняя Бэк Ин-кё делится, как ChatGPT помог ей справиться со стрессом, связанным с проблемами со здоровьем и учебой. "Он сравнил различные планы медицинского страхования и даже предложил мне режим упражнений", - говорит она.
Однако не все так однозначно. Некоторые молодые люди выражают сомнения в том, что ИИ может заменить человеческое общение. 29-летний Ён Мин-джун подчеркивает, что доверять ChatGPT в эмоциональных вопросах опасно, ссылаясь на случаи, когда пользователи сталкивались с серьезными проблемами после общения с чат-ботом.
Эксперты предупреждают, что ИИ не может заменить профессиональных терапевтов, и общение с ним не является юридически конфиденциальным. Кроме того, существует риск утечки личных данных, что вызывает у молодежи опасения по поводу безопасности их информации.
Таким образом, хотя ChatGPT и стал для многих виртуальным другом и советником, важно помнить о возможных рисках и ограничениях, связанных с использованием ИИ в эмоциональной поддержке.