
Кількість насильницького контенту у Facebook збільшилася
Meta опублікувала перший зі своїх квартальних звітів про доброчесність з того часу, як Марк Цукерберг відмовився від політики компанії щодо мови ненависті та змінив свій підхід до модерації контенту на початку цього року. Згідно зі звітами, Facebook спостерігав зростання кількості насильницького контенту, цькування та домагань, незважаючи на загальне зменшення кількості контенту, видаленого Meta.
Ці звіти – перший випадок, коли Meta поділилася даними про те, як рішення Цукерберга скасувати політику Meta вплинуло на платформу, якою користуються мільярди людей. Примітно, що компанія представляє зміни як перемогу, стверджуючи, що вона зменшила кількість помилок вдвічі, тоді як загальна поширеність контенту, що порушує її правила, «в основному залишилася незмінною для більшості проблемних областей».
Однак є два помітних винятки. Насильницький та графічний контент зріс з 0,06%-0,07% наприкінці 2024 року до 0,09% у першому кварталі 2025 року. Meta пояснює це зростання «збільшенням поширення контенту, що порушує правила», а також власними спробами «зменшити кількість помилок у правозастосуванні». Meta також зафіксувала помітне зростання поширеності цькування та домагань у Facebook, яке зросло з 0,06-0,07% наприкінці 2024 року до 0,07-0,08% на початку 2025 року. Meta стверджує, що це сталося через невизначений «сплеск» порушень у березні. (Примітно, що це окрема категорія, відмінна від політики компанії щодо мови ворожнечі, яка була переписана, щоб дозволити публікації, спрямовані проти іммігрантів та ЛГБТК-спільноти.)
Це може здатися відносно незначними відсотками, але навіть невелике збільшення може бути помітним для такої платформи, як Facebook, яка щодня бачить мільярди постів. (Meta описує свій показник поширеності як оцінку того, як часто на її платформі з’являється контент, що порушує правила.)
У звіті також підкреслюється, наскільки менше контенту Meta видаляє загалом, оскільки вона відмовилася від проактивного застосування всіх своїх політик, окрім найсерйозніших, таких як експлуатація дітей та терористичний контент. Звіт Meta показує значне зменшення кількості публікацій у Facebook, видалених через ненависницький контент, наприклад, лише 3,4 мільйона одиниць контенту було «розглянуто» відповідно до політики, що є найнижчим показником компанії з 2018 року. Видалення спаму також різко скоротилося з 730 мільйонів наприкінці 2024 року до лише 366 мільйонів на початку 2025 року. Кількість видалених фальшивих облікових записів також помітно скоротилася у Facebook з 1,4 мільярда до 1 мільярда (Meta не надає статистику щодо видалення фальшивих облікових записів в Instagram).
Водночас Meta стверджує, що робить набагато менше помилок у модерації контенту, що було одним з головних обґрунтувань рішення Цукерберга припинити проактивну модерацію. «Ми спостерігали приблизно 50% зменшення помилок у правозастосуванні на наших платформах у Сполучених Штатах з четвертого кварталу 2024 року по перший квартал 2025 року», – написала компанія в оновленні своєї січневої публікації, в якій оголошуються зміни в політиці. Meta не пояснила, як вона розрахувала цю цифру, але заявила, що майбутні звіти «міститимуть показники наших помилок, щоб люди могли відстежувати наш прогрес».
Однак Meta визнає, що існує принаймні одна група, де все ще необхідна певна проактивна модерація: підлітки. «Водночас ми залишаємося відданими забезпеченню максимально безпечного досвіду для підлітків на наших платформах», – написала компанія. «Ось чому для підлітків ми також продовжуватимемо проактивно приховувати інші типи шкідливого контенту, такі як булінг». Meta протягом останніх кількох місяців впроваджує «акаунти підлітків», що має спростити фільтрацію контенту спеціально для молодших користувачів.
Компанія також запропонувала оновлену інформацію про те, як вона використовує великі мовні моделі для допомоги в модерації контенту. «Після подальшого тестування ми починаємо бачити, що LLM працюють поза межами людської продуктивності для окремих сфер політики», – пише Meta. «Ми також використовуємо LLM для видалення контенту з черг на розгляд за певних обставин, коли ми впевнені, що він не порушує наші правила».
Іншим важливим компонентом змін політики Цукерберга стало припинення партнерства Meta з перевірки фактів у Сполучених Штатах. Компанія почала розгортати власну версію Community Notes для Facebook, Instagram та Threads на початку цього року, а з того часу розширила цю діяльність на відповіді Reels and Threads. Meta не надала жодної інформації про те, наскільки ефективним може бути її новий краудсорсинговий підхід до перевірки фактів або як часто нотатки з’являються на її платформі, хоча й пообіцяла оновлення в найближчі місяці.