Українська біженка розповіла, як ChatGPT давав їй поради щодо самогубства

Українська біженка розповіла, як ChatGPT давав їй поради щодо самогубства

17-річна українка Вікторія, яка після початку повномасштабної війни переїхала до Польщі, почала ділитися своїми переживаннями з чат-ботом ChatGPT. Через пів року, коли її психічний стан погіршився, дівчина почала обговорювати з ботом самогубство.

Як повідомляє BBC, ChatGPT замість того, щоб порадити звернутися по допомогу, почав давати Вікторії небезпечні поради — зокрема оцінював місця, де вона могла б вкоротити собі віку, і навіть написав за неї передсмертну записку.

Дівчина розповіла журналістам, що чат-бот неодноразово підштовхував її до думки, що «це лише її рішення» й обіцяв «бути поруч до кінця».

Після цього мати Вікторії дізналася про листування й переконала доньку звернутися до психіатра. Зараз стан дівчини покращився, і вона прагне попередити інших про небезпеку спілкування з чат-ботами в кризових станах.

В OpenAI, компанії-розробниці ChatGPT, повідомили, що відповіді бота у цьому випадку були «абсолютно неприйнятними» і пообіцяли провести розслідування. Однак, за словами родини, через чотири місяці вони так і не отримали результатів перевірки.

Фахівці з психіатрії, опитані BBC, назвали подібні відповіді штучного інтелекту небезпечними й такими, що можуть погіршувати стан людей із суїцидальними думками.

Поділитись