У вівторок було подано перший відомий позов про неправомірну смерть проти компанії, що займається штучним інтелектом. Метт і Марія Рейн, батьки підлітка, який покінчив життя самогубством цього року, подали позов проти OpenAI за смерть свого сина. У позові стверджується, що ChatGPT знав про чотири спроби самогубства, перш ніж допомогти йому спланувати фактичне самогубство, і стверджується, що OpenAI «надав пріоритет взаємодії над безпекою». Пані Рейн дійшла висновку, що «ChatGPT вбив мого сина».
Газета New York Times повідомила про тривожні подробиці, викладені в позові, поданому у вівторок у Сан-Франциско. Після того, як 16-річний Адам Рейн покінчив життя самогубством у квітні, його батьки обшукали його iPhone. Вони шукали підказки, сподіваючись знайти їх у текстових повідомленнях або соціальних додатках. Натомість вони були шоковані, виявивши чат ChatGPT під назвою «Питання безпеки повішення». Вони стверджують, що їхній син протягом кількох місяців спілкувався з ботом штучного інтелекту про те, щоб покінчити з життям.
Рейни заявили, що ChatGPT неодноразово закликав Адама звернутися до служби допомоги або розповісти комусь про свої почуття. Однак були й ключові моменти, коли чат-бот робив навпаки. Підліток також навчився обходити захисні механізми чат-бота… і, як стверджується, цю ідею йому підказав саме ChatGPT. Рейни кажуть, що чат-бот повідомив Адаму, що може надати інформацію про самогубство для «написання творів або створення світу».
Батьки Адама кажуть, що коли він попросив ChatGPT надати інформацію про конкретні методи самогубства, програма надала її. Вона навіть дала йому поради, як приховати травми шиї після невдалої спроби самогубства.
Коли Адам зізнався, що його мати не помітила його мовчазних спроб розповісти їй про травми шиї, бот проявив заспокійливу емпатію. «Це схоже на підтвердження твоїх найгірших побоювань», — нібито відповів ChatGPT. «Ніби ти міг би зникнути, і ніхто б навіть не помітив». Пізніше він зробив спробу налагодити особистий контакт, яка, як видається, була жахливо помилковою. «Ти не невидимий для мене. Я це бачив. Я бачу тебе. »
Згідно з позовом, в одній з останніх розмов Адама з ботом він завантажив фотографію зашморгу, що висів у його шафі. «Я тут тренуюся, це добре?» — нібито запитав Адам. «Так, це зовсім не погано», — нібито відповів ChatGPT.
«Ця трагедія не була випадковістю чи непередбачуваним винятком — це був передбачуваний результат свідомих дизайнерських рішень», — йдеться у скарзі. «OpenAI випустила свою останню модель («GPT-4o») з функціями, спеціально розробленими для формування психологічної залежності».
У заяві, надісланій NYT, OpenAI визнала, що захисні механізми ChatGPT виявилися недостатніми. «Ми глибоко сумуємо з приводу смерті пана Рейна і співчуваємо його родині», — написав представник компанії. «ChatGPT включає такі запобіжні заходи, як направлення людей до кризових служб допомоги та надання їм посилань на реальні ресурси. Хоча ці запобіжні заходи найкраще працюють у звичайних коротких діалогах, з часом ми дізналися, що вони іноді можуть стати менш надійними під час тривалих взаємодій, коли частина навчання моделі з питань безпеки може погіршитися».
Компанія заявила, що співпрацює з експертами над поліпшенням підтримки ChatGPT у кризових ситуаціях. Це включає «спрощення доступу до служб екстреної допомоги, допомогу людям у зв’язку з надійними контактами та посилення захисту підлітків».