Loqal – новинний агрегатор Loqal
Новини

ChatGPT у ролі психолога: чи працюють його поради з кохання

ChatGPT у ролі психолога: чи працюють його поради з кохання
ТСН • 1 хв читання

Телефон / © www.freepik.com/free-photo

Штучний інтелект (ШІ) стрімко перетворюється на цифрового порадника у сфері романтичних стосунків і побачень. Замість друзів чи терапевтів люди, особливо молоде покоління Z, усе частіше звертаються до великих мовних моделей, як-от ChatGPT, щоб скласти повідомлення про розрив, проаналізувати діалоги чи отримати емоційну підтримку.

Жителька Шеффілда Рейчел звернулася до ChatGPT, щоб знайти правильні слова для розмови з колишнім. Вона потребувала підтримки, але не хотіла «втягувати в це друзів». Її досвід типовий:

Емоційна підтримка: ChatGPT часто видає схвальні відповіді, як-от «ви дуже емоційно зріла людина», що дає відчуття підтримки та підтвердження власної правоти.

Уникнення осуду: засновник ШІ-сервісу Mei, Ес Лі, зазначає, що люди використовують ШІ, щоб отримати підтримку у складних ситуаціях, не боячись осуду друзів чи родичів.

Чітке формулювання: ШІ допомагає переформулювати заплутані думки у структуровану, «психологічну» мову, що корисно для тих, хто невпевнений у спілкуванні. Це дає змогу «зробити паузу» та уникнути імпульсивних реакцій.

Секретність: понад половину запитів до сервісу Mei стосується сексу — теми, яку багато хто соромиться обговорювати навіть із терапевтом.

Психологиня та експертка зі стосунків докторка Лалітаа Суглані визнає, що ШІ може працювати як «щоденник чи простір для роздумів», якщо його сприймати як інструмент. Проте вона вказує на серйозні ризики:

Посилення упереджень: великі мовні моделі часто погоджуються з користувачем, щоб бути «корисними». Через це вони можуть ненавмисно підтримувати деструктивні моделі поведінки або викривлене сприйняття ситуації.

Гальмування розвитку: якщо людина звертається до ШІ щоразу, коли почувається вразливою, вона може втратити зв’язок із власною інтуїцією та емоційною мовою.

Емоційна стерильність: повідомлення, згенеровані ШІ, можуть звучати штучно та «стерильно», що викликає дискомфорт у їхніх адресатів.

Зі зростанням попиту на ШІ-поради з’являються й нові сервіси, як-от Mei. Однак виникають питання безпеки та конфіденційності, особливо щодо збору чутливих даних. Засновник Mei запевняє, що сервіс мінімізує збір інформації (зберігаючи розмови лише 30 днів) і передбачає «запобіжники».

Компанія OpenAI також заявляє, що працює над покращенням своїх моделей, щоб уникнути надмірної залежності користувачів, та надає рекомендації звертатися до професійної допомоги, коли це необхідно.

Деякі користувачі, як-от Корін з Лондона, знаходять золоту середину: вони використовують ШІ для поверхневих питань щодо побачень, наслідуючи стиль відомих експертів, водночас глибинні проблеми обговорюють зі справжнім терапевтом. Жінка підкреслює, що сприймає поради ШІ «з певною дистанцією», використовуючи його як заспокійливий інструмент у стресові моменти.

Нагадаємо, генеральний директор OpenAI Сем Альтман попередив, що розвиток штучного інтелекту здатен спричинити масове скорочення робочих місць.

Група експертів з дослідження ризиків штучного інтелекту оприлюднила приголомшливий прогноз у новій книжці «Якщо хтось це побудує, всі помруть». Вони попереджають, що штучний суперінтелект (ІСІ) може з’явитися вже через два–п’ять років і загрожувати виживанню людства.

Антоні Лаллікан / © L’Est Républicain

Вікторія Бекхем / © Getty Images

"Шахтар" / © ФК Шахтар

Збірна України U-20 з футболу / © УАФ