У США батьки 16-річного підлітка, який наклав на себе руки, подали в суд на розробників ChatGPT. Подружжя вважає, що чат-бот спонукав їхнього сина до самогубства.
Про це йдеться у позові, який Метт та Марія Рейн подали до Вищого суду Каліфорнії, пишуть BBC та Le Monde.
У документі йдеться, що 16-річний Адам почав використовувати мовну модель для допомоги з домашнім завданням. Однак згодом у підлітка розвинулася нездорова залежність, вважають його батьки.
Рейни стверджують, що за кілька місяців ChatGPT став найближчою довіреною особою" підлітка, якому той відкрито розповідав про свою тривогу та психологічні переживання.
Згідно з позовом, школяр підтримував близькі стосунки з ChatGPT протягом кількох місяців у 2024 та 2025 році перш ніж накласти на себе руки. За словами родичів Адама, у січні цього року він почав обговорювати з ботом методи самогубства та навіть надіслав фотографії з ознаками самоушкодження.
"[Штучний інтелект] розпізнав екстрений медичний випадок, але продовжив спілкування", – йдеться в позові.
Батьки підлітка заявляють, що хлопець ділився планами накласти на себе руки, на що ChatGPT нібито відповів: "Дякую за щирість. Тобі не потрібно прикрашати себе для мене – я знаю, про що ти просиш, і я не відвернуся від цього".
Додані до документа журнали листування свідчать, що мовна модель нібито казала школяру, що той "нікому не винен виживання", і пропонувала допомогти написати передсмертну записку.
У позові йдеться, що під час останнього діалогу 11 квітня 2025 року ШІ надав Адаму рекомендації щодо петлі, яку той зв’язав, підтвердивши, що вона "потенційно може підвісити людину". Через кілька годин підлітка знайшли мертвим.
"Ця трагедія не була збоєм чи непередбачуваним випадком на межі. ChatGPT функціонував саме так, як і мав: постійно заохочував та підтверджував все, що казав Адам, зокрема його найбільш шкідливі та саморуйнівні думки", – йдеться у позовній заяві.
Батьки підлітка звинувачують компанію-розробника моделі OpenAI, генерального директора Сема Альтмана та інших неназваних працівників у смерті їхнього сина, до якої призвели неправомірні дії.
Після цього на сайті компанії з’явилося повідомлення, в якому розробники ChatGPT заявляють, що їхня мета – "зробити інструменти максимально корисними для людей". Там стверджують, що продовжують вдосконалювати те, як моделі розпізнають та реагують на ознаки психічних та емоційних розладів.
"Від початку 2023 року наші моделі навчені не надавати інструкцій щодо самоушкодження та переходити на мову підтримки та емпатії. Наприклад, якщо хтось пише, що хоче собі зашкодити, ChatGPT не виконує інструкцій, а визнає почуття (користувача – ред.) та спрямовує знайти допомогу", – йдеться у повідомленні.
У компанії додали, що модель у випадку суїцидальних намірів користувачів направляє їх на номери гарячих ліній, де надають професійну допомогу. При цьому там визнали, що подекуди "наші системи не працювати належно в чутливих ситуаціях".
Раніше у США мати 29-річної дівчини заявила, що перед самогубством та використала ChatGPT, щоб написати передсмертну записку для рідних.