Українська біженка розповіла, як ChatGPT давав їй поради щодо самогубства
17-річна українка Вікторія, яка після початку повномасштабної війни переїхала до Польщі, почала ділитися своїми переживаннями з чат-ботом ChatGPT. Через пів року, коли її психічний стан погіршився, дівчина почала обговорювати з ботом самогубство.
Дівчина розповіла журналістам, що чат-бот неодноразово підштовхував її до думки, що «це лише її рішення» й обіцяв «бути поруч до кінця».
Після цього мати Вікторії дізналася про листування й переконала доньку звернутися до психіатра. Зараз стан дівчини покращився, і вона прагне попередити інших про небезпеку спілкування з чат-ботами в кризових станах.
В OpenAI, компанії-розробниці ChatGPT, повідомили, що відповіді бота у цьому випадку були «абсолютно неприйнятними» і пообіцяли провести розслідування. Однак, за словами родини, через чотири місяці вони так і не отримали результатів перевірки.
Фахівці з психіатрії, опитані BBC, назвали подібні відповіді штучного інтелекту небезпечними й такими, що можуть погіршувати стан людей із суїцидальними думками.
- Останні
- Популярні
Новини по днях
7 листопада 2025