Loqal – новинний агрегатор Loqal
Наука і технології

Anthropic обмежила OpenAI доступ до моделей Claude через порушення умов

Anthropic обмежила OpenAI доступ до моделей Claude через порушення умов
Double.news • 5 переглядів • 1 хв читання

Компанія Anthropic офіційно припинила доступ OpenAI до свого сімейства мовних моделей Claude. Причиною такого кроку стало використання моделей у спосіб, який, за словами Anthropic, суперечить комерційним умовам співпраці.

Як повідомляє Wired , OpenAI використовувала Claude для підключення до внутрішніх інструментів, що дозволяло проводити порівняння з власними мовними моделями у сферах програмування, генерації тексту та безпеки. Крім того, технічні спеціалісти OpenAI застосовували Claude як інструмент для розробки перед запуском GPT-5, що Anthropic вважає прямим порушенням умов використання сервісу.

В офіційному коментарі для TechCrunch представник Anthropic заявив:

“Технічні фахівці OpenAI використовували наші інструменти для кодування перед запуском GPT-5, що є порушенням наших умов надання послуг.”

Хоча Anthropic й заблокувала OpenAI загальний доступ до API Claude, вона залишила можливість для обмеженого використання з метою тестування та оцінки безпеки. Це відповідає галузевій практиці щодо прозорості та взаємного контролю якості ШІ-моделей.

Однак у компанії підкреслили: використання Claude для розробки конкурентних рішень є неприпустимим. За даними джерел, така позиція вже вплинула на інші взаємини — наприклад, на рішення припинити співпрацю з Windsurf (пізніше придбана компанією Cognition), яку підозрювали у зв’язках з OpenAI.

У відповідь OpenAI заявила, що використання Claude було “галузевим стандартом”. Представник компанії зазначив:

“Ми поважаємо рішення Anthropic, хоча воно й розчаровує, враховуючи, що наш API залишається доступним для них.”

Таким чином, OpenAI натякає на односторонність обмеження, адже сама компанія не перешкоджає Anthropic у використанні своїх продуктів.

5