Apple розглядає можливість інтеграції сторонніх LLM-моделей для покращення голосового асистента Siri. Це може стати серйозним кроком у гонці за лідерство в галузі мобільного ШІ.
Apple активно працює над вдосконаленням голосового асистента Siri, залучаючи до цього провідні компанії зі сфери штучного інтелекту — OpenAI та Anthropic. За даними Bloomberg, технологічний гігант тестує сторонні LLM-моделі на власних хмарних серверах, аби оцінити їхню ефективність у виконанні базових запитів.
Відомо, що Siri мала отримати оновлення ще в березні, однак запуск було відкладено через недосконалість внутрішніх моделей. Після цього керівництво проєктом передали Майку Роквеллу, голові підрозділу Vision Pro. За інформацією журналіста Bloomberg Марка Гурмана, рішення ухвалили після того, як CEO Apple Тім Кук висловив незадоволення результатами роботи попередньої команди під керівництвом Джона Джанандреа.
Команда Роквелла протестувала можливості моделей від OpenAI (ChatGPT), Anthropic (Claude) і Google (Gemini), порівнюючи їх із власними розробками Apple. Джерела вказують, що модель від Anthropic наразі вважається найперспективнішою.
Google уже впроваджує Gemini на Android та у власну лінійку Pixel, а Samsung використовує цю ж модель у своїх пристроях. Крім того, Samsung веде перемовини з Perplexity — компанією, яка вже співпрацює з Motorola. Раніше Bloomberg повідомляв, що Apple навіть розглядала можливість придбання Perplexity для посилення своїх позицій у сфері ШІ.
Під час конференції WWDC 2025 компанія не представила оновлену версію Siri. Старший віцепрезидент Apple з маркетингу Ґреґ Джосвяк визнав, що нова технологія ще не досягла необхідного рівня якості. Попри це, Apple не відмовляється від планів інтегрувати сторонній ШІ до Siri, хоча наразі ці плани перебувають на ранній стадії.
У той же час компанія продовжує розвивати власні мовні моделі, залишаючи відкритою можливість використання внутрішніх рішень замість партнерських.