Loqal – новинний агрегатор Loqal
Наука і технології

Дослідження: чатботи з ШІ поширюють неправдиву інформацію вдвічі частіше

Дослідження: чатботи з ШІ поширюють неправдиву інформацію вдвічі частіше
Double.news • 1 хв читання

Аналітики NewsGuard виявили, що провідні генеративні AI-системи дедалі частіше відтворюють фейки й дезінформацію. У середньому чатботи поширюють неправдиві твердження у 35% випадків, що майже удвічі більше, ніж торік. Про це пише Forbes.

У дослідженні протестували 10 найпопулярніших чатботів: ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) та Perplexity.

Рік тому моделі часто відмовлялися відповідати на суперечливі питання (приблизно у третині випадків). Тепер же вони дають відповіді майже завжди, часто базуючись на пошуку в реальному часі, де дані можуть бути навмисно спотворені.

«AI-моделі стали менш обережними й більше покладаються на результати веб-пошуку, які нерідко навмисне наповнюються дезінформацією, зокрема російськими мережами впливу».

Раніше NewsGuard виявив, що чатботи повторюють фейки з мережі Pravda, яку підтримує Кремль, у 33% випадків. У 2024 році ця мережа поширила близько 3,6 млн статей, значна частина яких потрапила в AI-системи.

Американський Sunlight Project підтвердив, що кількість сайтів, пов’язаних із Pravda, майже подвоїлася до 182, і багато з них технічно непридатні для користувачів — їхня мета не люди, а навчання LLM-моделей.