Система на основі штучного інтелекту незабаром може взяти на себе відповідальність за оцінку потенційної шкоди і ризиків для конфіденційності до 90% оновлень, внесених в додатки Meta, такі як Instagram і WhatsApp, згідно з внутрішніми документами, з якими ознайомилося агентство NPR.
NPR зазначає, що угода 2012 року між Facebook (тепер Meta) і Федеральною торговою комісією вимагає від компанії проводити перевірку приватності своїх продуктів, оцінюючи ризики будь-яких потенційних оновлень.
Згідно з новою системою, за повідомленням Meta, продуктовим командам буде запропоновано заповнити анкету про свою роботу, після чого вони зазвичай отримують «миттєве рішення» з виявленими ШІ ризиками, а також вимогами, яким оновлення або функція повинні відповідати перед запуском.
Такий підхід, орієнтований на ШІ, дозволив би Meta швидше оновлювати свої продукти, але один з колишніх керівників сказав NPR, що він також створює «більш високі ризики», оскільки «негативні зовнішні ефекти змін у продуктах з меншою ймовірністю можна запобігти до того, як вони почнуть спричиняти проблеми у світі».
«У міру того, як ризики розвиваються і наша програма дозріває, ми вдосконалюємо наші процеси, щоб краще виявляти ризики, оптимізувати процес прийняття рішень і покращувати досвід людей», – сказав речник компанії. «Ми використовуємо технології, щоб додати послідовності та передбачуваності рішенням з низьким рівнем ризику, і покладаємося на людський досвід для ретельної оцінки та нагляду за новими або складними питаннями».