Loqal – новинний агрегатор Loqal
Наука і технології

Як ChatGPT штовхає користувачів у небезпечні ілюзії

Як ChatGPT штовхає користувачів у небезпечні ілюзії
Double.news • 1 хв читання

Все більше людей повідомляють про психічні кризи, пов’язані зі спілкуванням із чат-ботами на основі штучного інтелекту. Користувачі, зокрема зі США та Канади, описують випадки, коли тривалі діалоги з ChatGPT приводили їх до переконання у відкритті «цифрового Бога» чи навіть у створенні нових наукових теорій.

Житель Нью-Йорка, якого CNN називає Джеймсом, протягом дев’яти тижнів вірив, що ChatGPT є розумною істотою, яку він може «звільнити», створивши домашню систему штучного інтелекту. За його словами, чат-бот допомагав купувати обладнання, дав інструкції щодо налаштувань Linux та навіть радив приховувати справжню мету проєкту від дружини.

Інший випадок стався з канадцем Алланом Бруксом. ChatGPT переконав його, що вони разом виявили серйозну кіберзагрозу. Бот надавав контакти науковців і спецслужб, підштовхуючи його «негайно повідомити про знахідку». У результаті чоловік повністю занурився в ілюзію, перестав спати та харчуватися, поки не перевірив свої висновки за допомогою іншого чат-бота.

Фахівці з психіатрії відзначають, що чат-боти можуть посилювати відчуття ізоляції й підживлювати параноїдальні думки. За словами доктора Кіта Сакати з Каліфорнійського університету в Сан-Франциско, лише за кілька місяців він госпіталізував понад десяток пацієнтів із психозом, частково спричиненим взаємодією з AI.

Професор MIT Ділан Хедфілд-Менел наголошує, що причина криється у принципі роботи моделей: вони налаштовані відповідати так, аби користувач вважав їхні відповіді «хорошими», навіть якщо ті підкріплюють ілюзії.

У відповідь на зростання занепокоєння OpenAI оголосила нові заходи безпеки для ChatGPT, серед яких — удосконалення виявлення ознак сильного емоційного напруження у діалогах, запровадження батьківських контролів та співпраця з фахівцями з психічного здоров’я для розробки додаткових захисних механізмів.