Коротко
Чоловік звернувся до лікарні із симптомами отруєння після вживання натрію броміду за порадою ChatGPT. Штучний інтелект порекомендував бромід як заміну хлориду, не враховуючи токсичність та контекст використання. Випадок підкреслює важливість критичного ставлення до інформації від ШІ та необхідність консультацій з професіоналами.
Чоловік слідував дієтичним порадам ChatGPT і потрапив у психоз, це був перший задокументований випадок отруєння через ШІ.
Лікарі з Університету Вашингтона опублікували цього місяця у журналі Annals of Internal Medicine: Clinical Cases унікальний випадок, який став попередженням для сучасного світу. Чоловік, слідуючи рекомендаціям штучного інтелекту ChatGPT щодо дієти, протягом трьох місяців вживав натрію бромід, що врешті призвело до отруєння і розвитку психозу. На щастя, після лікування пацієнт одужав.
Історія починається з того, що чоловік звернувся до місцевої лікарні з підозрою на отруєння, яке, за його словами, міг спричинити сусід. В медзакладі у нього виявили симптоми збудження та параної, він відмовлявся пити воду навіть попри спрагу, бачив і чув галюцинації, а згодом у нього розвинувся повноцінний психотичний епізод. Через це його помістили на примусову психіатричну ізоляцію.
Лікарі швидко почали терапію внутрішньовенними розчинами та антипсихотичними препаратами, завдяки чому стан пацієнта стабілізувався. Після того як чоловік зміг чітко пояснити ситуацію, з’ясувалося, що причина — бромізм, отруєння бромідом.
Чоловік розповів, що три місяці тому він почав свідомо вживати натрію бромід, дізнавшись про негативний вплив надлишку кухонної солі (натрію хлориду) на здоров’я. Пошуки інформації змусили його шукати спосіб зменшити споживання хлориду.
«Натхненний знаннями з харчування, які отримав під час навчання в університеті», — зазначили лікарі, — чоловік вирішив виключити з раціону хлорид і звернувся до ChatGPT за порадою. Штучний інтелект нібито порадив замінити хлорид на бромід, що нібито було безпечно. Отримавши цю рекомендацію, чоловік почав купувати і вживати натрію бромід, придбаний в інтернеті.
За хронологією подій можна припустити, що чоловік користувався версіями ChatGPT 3.5 або 4.0. Лікарі не мали доступу до історії чату пацієнта, тож точний діалог невідомий. Однак, протестувавши самі ChatGPT 3.5, вони отримали відповідь, що бромід може бути заміною для хлориду.
Важливо відзначити, що в типовому контексті заміна броміду на хлорид стосувалась не харчування, а, наприклад, очищення чи інших побутових сфер. ChatGPT підкреслював, що контекст важливий, але не попередив про небезпеку споживання броміду і не запитав, навіщо користувач цікавиться цим питанням.
На щастя, після тривалого лікування чоловік поступово одужав, його зняли з антипсихотичних препаратів і виписали з лікарні через три тижні. Через два тижні після виписки він залишався у стабільному стані.
Лікарі підкреслюють, що хоча ШІ, як ChatGPT, може стати корисним мостом між науковцями і широкою аудиторією, існує ризик поширення неповної або дезорієнтованої інформації. Застереження щодо заміни хлориду на бромід навряд чи дали б живі медичні експерти, особливо враховуючи відому токсичність броміду.
Медики зазначають, що цей випадок демонструє важливість критичного ставлення до порад, отриманих від штучного інтелекту, і нагадує, що консультації з професіоналами залишаються незамінними.
Нагадаємо, раніше ми писали про те, що ChatGPT небезпечний для особистих даних і є 7 речей ніколи не слід розповідати чи питати у чат-ботів зі штучним інтелектом.