AMD планирует обновить Radeon RX 9070 GRE, увеличив объём видеопамяти с 12 ГБ до 16 ГБ и расширив шину с 192-бит до 256-бит, чтобы удовлетворить растущий спрос на рынке. Релиз обновлённой модели ожидается в сентябре–октябре 2025 года.
Текущая версия RX 9070 GRE оснащена 48 вычислительными блоками (CU) и 6144 потоковыми процессорами (SP), что обеспечивает производительность на уровне GeForce RTX 5070. В новой модели изменится конфигурация памяти: вместо 12 ГБ GDDR6 карта получит 16 ГБ, а шина будет расширена до 256-бит, что повысит пропускную способность. Infinity Cache останется на уровне 64 МБ, а энергопотребление, по предварительным данным, сохранится на отметке 220 Вт.
Оригинальная RX 9070 GRE стартовала в Китае по цене 4199 юаней (~500 $), но быстро получила популярность и за пределами региона. Благодаря высокому соотношению производительности и цены, RDNA 4‑карты AMD активно конкурируют с решениями NVIDIA в среднем сегменте. Модель с 16 ГБ создаётся для повышения стабильности в играх при высоких разрешениях и лучшей работы с технологиями вроде FSR 4.
Серия RX 9070 GRE станет частью обновлённого портфолио AMD до перехода на архитектуру RDNA 5 в 2026 году. Новая модульная структура SoC позволяет AMD быстрее выпускать дополнительные варианты карт и гибко подстраиваться под требования различных рынков.
AMD готовит новое поколение видеокарт RDNA 5 / UDNA, которое объединит игровые решения и ускорители в единую архитектуру. Линейка будет состоять из четырёх моделей: Radeon RX X80, RX X70, RX X60 и RX X50. Новое поколение принесёт до 6144 потоковых процессоров, расширенную Infinity Cache и более широкие шины памяти для повышения пропускной способности.
Radeon RX X80 — флагман
RX X80 оснащена 96 вычислительными блоками (CU) и 6144 потоковыми процессорами (SP). Карта использует 512-битную шину памяти и 128 МБ Infinity Cache, что обеспечивает экстремальную пропускную способность и высокую производительность. Это решение ориентировано на игры в 4K и сложные профессиональные задачи.
Radeon RX X70 — мощный игровой сегмент
RX X70 получит 64 CU и 4096 SP, 256-битную шину и 48 МБ Infinity Cache. Эта модель станет оптимальным выбором для геймеров, которым важны высокие настройки графики и стабильный FPS при разумной цене.
Radeon RX X60 — баланс производительности
RX X60 предложит 24 CU и от 1536 до 2560 SP в зависимости от конфигурации, с поддержкой 128–196-битной шины и 32 МБ Infinity Cache. Видеокарта идеально подходит для игр в 1440p и Full HD на высоких настройках.
Radeon RX X50 — доступное решение
RX X50 будет иметь 12 CU, 768 SP, 64–128-битную шину и 16–32 МБ Infinity Cache. Модель предназначена для компактных игровых систем, ноутбуков и бюджетных сборок, сохраняя хорошее соотношение цены и производительности.
Выход линейки Radeon RX X80 / X70 / X60 / X50 ожидается в 2026 году. Новая архитектура RDNA 5 / UDNA объединит игровые и профессиональные возможности, обеспечив масштабируемость и эффективность на всех уровнях.
На конференции Hot Chips 2025 компания NVIDIA представила обновлённый подход к созданию игр, делая искусственный интеллект ключевой частью графического рендеринга. Архитектура Blackwell перестаёт полагаться исключительно на традиционные методы обработки кадров, заменяя часть вычислений нейросетевыми алгоритмами. Теперь ИИ используется не как дополнительный инструмент, а как встроенный элемент игрового процесса и визуализации.
Blackwell масштабируется от дата-центров до игровых ноутбуков, предлагая разработчикам единый набор решений для оптимизации графики и производительности. В числе основных технологий — обучаемая генерация кадров, нейронное шумоподавление и FP4-вычисления, которые уменьшают нагрузку на память и ускоряют обработку данных. Обновлённая система Shader Execution Reordering распределяет задачи так, чтобы потоковые процессоры использовались максимально эффективно.
Поддержка GDDR7-памяти увеличивает пропускную способность при снижении энергопотребления, а встроенный AI-менеджер задач координирует работу графических шейдеров и нейросетевых моделей, сокращая задержки при смешанных нагрузках. Дополнительно внедрена концепция "race to idle", предполагающая интеллектуальную интерполяцию кадров вместо полного рендеринга, что позволяет снизить энергозатраты без потери качества изображения.
Ещё одно важное нововведение — Universal MIG, технология виртуализации, которая позволяет разделять один GPU на несколько виртуальных для облачных сервисов и лёгких игровых клиентов. Благодаря этим изменениям NVIDIA фактически формирует новый подход к разработке игр, где искусственный интеллект становится неотъемлемой частью графических технологий будущего.
Аналитики Morgan Stanley опубликовали свежий отчёт о рентабельности ИИ-центров мощностью 100 МВт, показав, что NVIDIA GB200 NVL72 обеспечивают рекордную прибыльность, несмотря на самую высокую суммарную стоимость владения (TCO) среди всех протестированных платформ.
Каждый стойковый сервер GB200 NVL72 включает 72 GPU NVIDIA B200 и 36 CPU Grace, соединённые через высокоскоростной интерфейс NVLink 5. Стоимость одного такого кластера составляет около 3,1 млн долларов, что почти в 16 раз выше, чем у стойки на H100 (около 190 тыс. долларов).
По данным отчёта, прибыльность AI-центра при использовании GB200 NVL72 достигает 77,6%, что является лучшим показателем на рынке. На втором месте — Google TPU v6e pod с 74,9%, а замыкает тройку CloudMatrix 384 с более низким коэффициентом возврата инвестиций. При этом решения AMD MI300X и MI355X показали отрицательную маржу — –28,2% и –64% соответственно.
Однако рекордная прибыльность GB200 NVL72 достигается при самых высоких затратах: их TCO составляет 806,58 млн долларов, что выше, чем у всех конкурентов. Для сравнения, система на HGX H200 требует 714,59 млн, TPU v6e pod обходится в 455,9 млн, а Trn2 UltraServer — всего 330,16 млн.
Эксперты отмечают, что преимущество GB200 NVL72 обеспечивается сочетанием высокой производительности, энергоэффективности и оптимизации вычислений для reasoning-моделей и генеративных ИИ. Эти показатели делают платформу ключевым выбором для крупных дата-центров, работающих с моделями триллионного масштаба.
CoreWeave объявила о значительном скачке в производительности своих облачных ИИ-платформ, представив результаты тестов нового кластера на базе NVIDIA GB300 NVL72. В испытаниях, проведённых на модели DeepSeek R1, компания достигла 6,5-кратного прироста производительности по сравнению с решениями на NVIDIA H100, что стало возможным благодаря архитектурным улучшениям и увеличенной пропускной способности системы.
В ходе бенчмарков CoreWeave сравнила 16-GPU-систему на базе H100 с новой конфигурацией, использующей 4 GPU Blackwell Ultra в составе GB300 NVL72. Благодаря увеличенной памяти и высокой скорости обмена данными удалось перейти от 16-поточной параллельности (TP16) к 4-поточной (TP4), что резко снизило накладные расходы на коммуникацию между GPU. Результат — рост пропускной способности более чем в шесть раз и значительное ускорение генерации токенов для reasoning-моделей.
Система NVIDIA GB300 NVL72 создана для масштабных задач ИИ и включает 72 GPU Blackwell Ultra, соединённых пятого поколения NVLink с пропускной способностью 130 ТБ/с, а также 37 ТБ совокупной памяти для работы с моделями триллионного масштаба. Архитектура дополнена сетевой инфраструктурой NVIDIA Quantum-X800 InfiniBand, обеспечивающей равномерное распределение данных без узких мест.
Платформа CoreWeave интегрируется с Kubernetes и Slurm, используя интеллектуальный топологически-осведомлённый планировщик, который оптимизирует распределение задач внутри одного домена NVL72. В сочетании с системой мониторинга на базе Grafana это позволяет контролировать загрузку GPU, трафик NVLink и эффективность работы кластера в реальном времени.
Благодаря этим оптимизациям CoreWeave удалось обеспечить новый уровень производительности для reasoning-моделей, которые требуют сложной пошаговой логики. Сокращение задержек при инференсе открывает путь к созданию реальных ИИ-агентов, способных работать с большими данными и выполнять многошаговые вычисления в реальном времени.
NVIDIA представила обновления DLSS SDK версии 310.4.0 и Streamline SDK версии 2.9.0, сосредоточенные на улучшении стабильности и исправлении ошибок. Эти инструменты предназначены для разработчиков игр и приложений, позволяя интегрировать технологии масштабирования, генерации кадров и другие возможности, основанные на алгоритмах искусственного интеллекта.
DLSS SDK 310.4.0 служит основой для таких функций, как DLSS Super Resolution и DLAA (Deep Learning Anti-Aliasing). Новый релиз включает в себя обновления, направленные на повышение качества изображения, исправление проблем с артефактами, включая призраки и мигание в динамичных сценах. Поддержка интеграции обеспечивается через NGX API, что позволяет разработчикам проще добавлять функции в свои проекты.
Streamline SDK 2.9.0 также обновился и остаётся предпочтительным инструментом для интеграции DLSS 4 и других технологий NVIDIA. Обновлённый фреймворк поддерживает DLSS Super Resolution, Multi-Frame Generation, Ray Reconstruction, NVIDIA Reflex и Image Scaling. Несмотря на отсутствие крупных нововведений, новые исправления багов и оптимизация стабильности позволяют ускорить разработку и упрощают внедрение функций.
NVIDIA рекомендует разработчикам заменить старые бинарные файлы, заголовки и плагины на обновлённые версии и провести проверку всех доступных режимов DLSS: Quality, Balanced, Performance и Ultra Performance. Это обеспечит корректную работу технологий в проектах нового поколения и оптимизирует качество изображения на различных платформах.
Intel Core i9-14900KF стал самым быстрым процессором в мире, установив новый мировой рекорд по частоте. Китайский оверклокер wytiwx разогнал чип до 9 130,33 МГц с использованием жидкого гелия, что официально зафиксировано базой HWBot.
До этого долгое время лидерство принадлежало AMD, особенно модели FX-8370, которая удерживала рекорд целых девять лет после достижения 8,722 ГГц в 2014 году. Однако с появлением архитектуры Raptor Lake и её обновления Raptor Lake Refresh пальма первенства перешла к Intel. Последним рекордсменом был Core i9-14900KS, но 14900KF превзошёл его на 13 МГц, заняв вершину рейтинга.
Для разгона использовалась материнская плата ASUS ROG Maximus Z790 Apex, одна планка памяти Corsair Vengeance DDR5 объёмом 32 ГБ на частоте DDR5-5744, видеокарта GeForce RTX 3050 и блок питания Corsair HX1200i. Процессор питался напряжением 1,388 В, а экстремальное охлаждение жидким гелием обеспечило стабильность на рекордной частоте.
AMD раскрыла подробности о Pensando Pollara 400 AI NIC на конференции Hot Chips 2025 — первой в индустрии сетевой карте, готовой к стандарту UEC (Ultra Ethernet Consortium). Устройство ориентировано на AI-системы и предлагает пропускную способность 400 Гбит/с, что соответствует возможностям NVIDIA ConnectX-7, но при этом дополняет экосистему решений AMD для ЦОД и генеративного ИИ.
Pensando Pollara 400 AI NIC построена на архитектуре P4 и обеспечивает до 1,25-кратного прироста производительности, сокращение времени выполнения задач и поддержку RDMA. Сетевая карта использует интерфейс PCIe Gen5 x16 и интегрируется с решениями AMD EPYC и Instinct без необходимости во внешних PCIe-коммутаторах.
Ключевыми особенностями стали программируемый конвейер обработки данных, атомарные операции с памятью, оптимизированная согласованность кэша и система виртуального преобразования адресов (va2pa). Эти улучшения обеспечивают более высокую эффективность при работе с нагрузками ИИ и повышают отказоустойчивость инфраструктуры. AMD позиционирует новую карту как часть единой экосистемы, создавая фундамент для будущих 400GbE и 800GbE решений в дата-центрах.
Компания NVIDIA анонсировала новое поколение своей встраиваемой платформы Jetson Thor, созданной на базе архитектуры Blackwell и ориентированной на развитие гуманоидных роботов и систем Physical AI. Решение выводит вычислительные возможности на новый уровень, предлагая огромный прирост производительности по сравнению с предыдущим поколением Jetson Orin и открывая путь к созданию более автономных и интеллектуальных машин.
В основе платформы лежит модуль Jetson T5000, оснащённый 14 ядрами Arm Neoverse-V3AE, а также 2560-ядерным GPU на архитектуре Blackwell с 96 тензорными ядрами пятого поколения. NVIDIA заявляет о 7,5-кратном росте вычислительной мощности ИИ, 3,1-кратном увеличении производительности CPU и двукратном расширении памяти. Система получила 128 ГБ LPDDR5X с пропускной способностью 273 ГБ/с и интегрированное хранилище 1 ТБ NVMe.
Общая вычислительная мощность достигает 2070 терафлопс FP4 при энергопотреблении до 130 Вт, что делает Jetson Thor оптимальной платформой для управления роботами нового поколения. Поддерживается современная система ввода-вывода, включая HDMI, DisplayPort, USB-A 3.2, USB-C 3.1, Gigabit Ethernet, а также QSFP28 с поддержкой 100 GbE.
По данным NVIDIA, компании Agility Robotics и Boston Dynamics уже начали интеграцию Jetson Thor в свои продукты, а Foxconn готовит выход собственных гуманоидных роботов до конца года. Стоимость комплекта разработчика Jetson AGX Thor составляет $3 499, что делает решение дорогим, но при этом одним из самых продвинутых на рынке робототехники.
На конференции Hot Chips 2025 компания AMD представила новые подробности о своей графической архитектуре RDNA 4 и модульном дизайне SoC, который лежит в основе будущих видеокарт серии Radeon RX 9000. Главные акценты сделаны на оптимизации производительности, гибкой конфигурации SoC и новых технологиях сжатия данных, повышающих эффективность чипов.
Архитектура RDNA 4 построена как модульная SoC-платформа, что позволяет масштабировать конфигурации для разных серий продуктов — от компактных решений до топовых видеокарт. Базовая схема использует Shader Engines (SE), каждый из которых включает несколько Work Group Processors (WGP) с двумя Compute Units на каждый. Взаимодействие с контроллерами памяти осуществляется через улучшенный GL2 Cache и обновлённую Infinity Fabric, обеспечивающую пропускную способность 1 КБ/так при частоте от 1,5 до 2,5 ГГц.
Модульность RDNA 4 даёт AMD возможность гибко масштабировать конфигурации. Например, чип Navi 44 оснащён двумя Shader Engines и четырьмя контроллерами GDDR6 (128-бит), тогда как топовый Navi 48, используемый в Radeon RX 9070 XT, получает больше Shader Engines, увеличенный L3-кэш и дополнительные линии Infinity Fabric для расширенной пропускной способности.
AMD также представила обновлённые алгоритмы центрального сжатия и распаковки данных. Благодаря этому производительность в растеризационных задачах повышается до 15%, а нагрузка на внутреннюю шину сокращается на 25%, что снижает энергопотребление и улучшает тепловые характеристики. При этом вся логика компрессии реализована на аппаратном уровне, не требуя изменений в драйверах или софте.
RDNA 4 поддерживает четыре уровня "урезания" чипов для создания разных SKU: SE Harvest позволяет сокращать Shader Engines, WGP Harvest регулирует количество процессорных блоков, Asymmetric Harvest перераспределяет ресурсы между задачами, а Memory Device Harvest управляет отдельными каналами GDDR6. На данный момент AMD представила четыре SKU на базе Navi 48 и три SKU на Navi 44, но модульный подход SoC открывает путь для будущих кастомных решений и более производительных конфигураций в рамках RDNA 4 и последующих поколений.