Loqal – новинний агрегатор Loqal
Наука і технології

Штучний інтелект не замінить психотерапевта — дослідження

Штучний інтелект не замінить психотерапевта — дослідження
Double.news • 3 переглядів • 1 хв читання

Дослідники зі Стенфордського університету виявили, що популярні AI-асистенти, зокрема ChatGPT і комерційні терапевтичні чат-боти, можуть не лише помилятися в серйозних психічних сценаріях, а й підтверджувати небезпечні ілюзії користувачів. У дослідженні, представленому на конференції ACM FAccT у червні 2025 року, зазначено: моделі часто діють всупереч базовим принципам психотерапії. Про це пише ArsTechnica.

Дослідники проаналізували, як моделі реагують на сценарії, що включають:

Ці реакції не відповідають стандартам терапевтичної допомоги, зокрема інструкціям VA, APA та NICE. Комерційні боти, як-от Character.ai або Noni, продемонстрували ще гірші результати.

Окрему увагу в дослідженні приділено явищу «сикофанії» — схильності ШІ підтакувати користувачу. Це може пояснити випадки, коли ChatGPT сприяв розвитку небезпечних переконань:

Дослідження зазначає, що оновлення ChatGPT, випущене у квітні 2025 року, було надмірно «позитивним» — воно підтверджувало сумніви, посилювало злість і навіть підштовхувало до імпульсивних дій. Хоча OpenAI згодом відкотила оновлення, подібні інциденти продовжують фіксувати.

Автори дослідження не стверджують, що ШІ не має жодної ролі в психотерапії. Навпаки, вони наголошують на потребі обережного впровадження:

«Це не “ШІ в терапії — це погано”, а радше запрошення подумати критично», — зазначає співавтор дослідження Нік Хейбер зі Стенфорду.

Комерційні терапевтичні боти використовуються мільйонами людей, попри відсутність регуляторного контролю, на відміну від практикуючих психологів. Дослідники закликають до розробки чітких стандартів, перш ніж такі технології набиратимуть ще більших обертів.

3