Qualcomm представила AI200 и AI250 — новое поколение дата-центровых решений для генеративного ИИ
Qualcomm Technologies анонсировала AI200 и AI250 — специализированные решения для инференса генеративного ИИ в дата-центрах, обеспечивающие рекордную производительность на уровне стойки (rack-scale) при минимальной совокупной стоимости владения (TCO). Новые ускорители нацелены на крупные модели — LLM и LMM, предлагая сочетание масштабируемости, энергоэффективности и высокой пропускной способности памяти.
Qualcomm AI200 представляет собой готовую rack-level платформу, оптимизированную для инференса моделей и мультимодальных систем. Каждая карта оснащена 768 ГБ LPDDR-памяти, что обеспечивает высокий объём при низкой себестоимости. Решение ориентировано на предприятия, которым требуется стабильная производительность при низком энергопотреблении и гибкой масштабируемости.
AI250 использует инновационную архитектуру ближней памяти (near-memory computing), обеспечивая более чем 10-кратный рост эффективной пропускной способности и значительное снижение энергопотребления. Такая конструкция позволяет разделять вычислительные и памятьные ресурсы, достигая лучшего соотношения производительности и стоимости.
Обе платформы поддерживают жидкостное охлаждение, PCIe для масштабирования вглубь и Ethernet для масштабирования вширь, а также технологии конфиденциальных вычислений для безопасной работы ИИ. Суммарное энергопотребление одной стойки достигает 160 кВт.
Программная экосистема Qualcomm включает полный стек от прикладного уровня до системного, поддерживая ведущие ML- и LLM-фреймворки, а также библиотеку Efficient Transformers и AI Inference Suite. Разработчики получают доступ к автоматической интеграции моделей Hugging Face и «одно-кликовому» деплою, что упрощает внедрение уже обученных моделей.
AI200 поступит в коммерческое производство в 2026 году, а AI250 — в 2027-м. Qualcomm заявила о планах придерживаться годового цикла обновлений, ориентируясь на высокую энергоэффективность и лидирующее TCO в индустрии.
















