Apple задействует кастомную AI-модель Google Gemini на 1,2 трлн параметров для обновлённой Siri
Apple заключает соглашение с Google об использовании модифицированной версии AI-модели Gemini, содержащей 1,2 трлн параметров, чтобы поддержать обновлённую Siri в облаке. Эта модель значительно превосходит текущую облачную модель Siri, разработанную Apple, которая ограничена лишь 1,5 миллиардами параметров.
Компания провела тестирование ChatGPT от OpenAI и Claude от Anthropic, но в итоге остановилась на кастомизированной версии Gemini, способной обрабатывать сложные пользовательские запросы в рамках инфраструктуры Private Cloud Compute. Эта архитектура обеспечивает защиту приватности за счёт зашифрованных и не сохраняемых данных.
По данным Bloomberg, Apple ежегодно будет платить Google около $1 млрд за использование этой модели. Параллельно Google уже платит Apple порядка $20 млрд в год за статус поисковика по умолчанию в Safari и других сервисах компании. Внутренний проект Apple по улучшению Siri получил кодовое имя Glenwood и курируется Майком Рокуэллом (создатель Vision Pro) и Крейгом Федериги (глава софтверной инженерии).
Обновлённая Siri будет состоять из трёх ключевых компонентов:
-
Query planner — система планирования, определяющая способ выполнения команды: веб-поиск, доступ к личным данным или взаимодействие с приложениями через App Intents;
-
Knowledge search system — база знаний для ответов на стандартные вопросы без обращения к ChatGPT или вебу;
-
Summarizer — инструмент, использующий сторонние модели (включая ChatGPT), для создания сводок уведомлений, веб-страниц, заметок и т.п.
Gemini будет задействована для Query planner и Summarizer, тогда как модуль Knowledge останется за локальными LLM от Apple. Хотя Apple не планирует использовать Gemini вечно, на момент запуска Siri в iOS 26.4 именно эта модель станет основой для поддержки экранного и контекстного взаимодействия с голосовым помощником.




