У четвер компанія Anthropic анонсувала Claude Gov – продукт, розроблений спеціально для оборонних та розвідувальних відомств США. Моделі штучного інтелекту мають послаблені обмеження для використання урядом і навчені краще аналізувати засекречену інформацію.
Компанія заявила, що моделі, які вона анонсує, “вже використовуються відомствами на найвищому рівні національної безпеки США”, і що доступ до цих моделей буде обмежений державними установами, які мають справу з секретною інформацією. Компанія не підтвердила, як довго вони були у використанні.
Моделі Claude Gov спеціально розроблені для унікальних урядових потреб, таких як оцінка загроз та аналіз розвідувальних даних, йдеться у блозі Anthropic. І хоча компанія заявила, що вони “пройшли такі ж суворі випробування на безпеку, як і всі наші моделі Claude”, моделі мають певні специфікації для роботи з національною безпекою. Наприклад, вони “менше відмовляються при роботі з секретною інформацією”, яку їм подають, і це те, що Claude, орієнтований на споживача, навчений помічати і уникати.
За словами Anthropic, моделі Claude Gov також краще розуміють документи та контекст у сфері оборони та розвідки, а також краще володіють мовами та діалектами, що мають відношення до національної безпеки.
Використання штучного інтелекту державними установами вже давно піддається ретельному вивченню через його потенційну шкоду та несприятливі наслідки для меншин і вразливих спільнот. Існує довгий список неправомірних арештів у багатьох штатах США через використання поліцією розпізнавання облич, задокументовані докази упередженості в предиктивній поліцейській діяльності та дискримінації в урядових алгоритмах, які оцінюють соціальну допомогу. Протягом багатьох років в індустрії точаться суперечки щодо того, чи дозволяють великі технологічні компанії, такі як Microsoft, Google і Amazon, військовим, зокрема в Ізраїлі, використовувати свої продукти зі штучним інтелектом, що супроводжуються кампаніями та громадськими протестами в рамках руху “Ні технологіям для апартеїду”.
Політика використання Anthropic конкретно диктує, що будь-який користувач повинен “не створювати і не сприяти обміну незаконною або суворо регульованою зброєю або товарами”, включаючи використання продуктів або послуг Anthropic для “виробництва, модифікації, проектування, продажу або розповсюдження зброї, вибухових речовин, небезпечних матеріалів або інших систем, призначених для заподіяння шкоди або втрати людських життів”.
Щонайменше одинадцять місяців тому компанія заявила, що створила низку договірних винятків зі своєї політики використання, які “ретельно вивірені, щоб уможливити корисне використання ретельно відібраними державними установами”. Певні обмеження – такі як дезінформаційні кампанії, розробка або використання зброї, створення систем цензури та зловмисні кібероперації – залишатимуться забороненими. Але Anthropic може вирішити “адаптувати обмеження використання до місії та юридичних повноважень державної установи”, хоча вона буде прагнути “збалансувати корисне використання наших продуктів і послуг з пом’якшенням потенційної шкоди”.
Claude Gov – це відповідь Anthropic на ChatGPT Gov, продукт OpenAI для державних установ США, який компанія запустила в січні. Це також частина більш широкої тенденції, коли як гіганти АІ, так і стартапи прагнуть зміцнити свій бізнес з державними установами, особливо в умовах невизначеного регуляторного ландшафту.
Коли OpenAI анонсувала ChatGPT Gov, компанія заявила, що протягом минулого року понад 90 000 співробітників федеральних, регіональних і місцевих органів влади використовували її технологію для перекладу документів, створення резюме, підготовки політичних меморандумів, написання коду, створення додатків і багато чого іншого. Anthropic відмовилася поділитися цифрами або подібними кейсами використання, але компанія є частиною програми FedStart від Palantir, що пропонує SaaS для компаній, які хочуть розгорнути програмне забезпечення для федерального уряду.
Scale AI, гігант ШІ, який надає навчальні дані лідерам галузі, таким як OpenAI, Google, Microsoft і Meta, у березні підписав угоду з Міністерством оборони про створення першої у своєму роді програми ШІ-агентів для військового планування США. Відтоді компанія розширила свою діяльність на світові уряди, нещодавно уклавши п’ятирічну угоду з Катаром про надання інструментів автоматизації для державної служби, охорони здоров’я, транспорту та інших сфер.