arzh-CNenfrdejakoplptesuk
Search find 4120  disqus socia  tg2 f2 lin2 in2 X icon 3 y2  p2 tik steam2

MAXHUB AI+ с процессором KX-7000 представлен для офисных решений

KX 7000 1

MAXHUB представила новый AI+ компьютер, построенный на базе процессора KX-7000, который совмещает поддержку искусственного интеллекта и функции традиционной офисной системы. Устройство разработано для корпоративного сегмента и ориентировано на повышение производительности за счёт интеграции современных AI-инструментов.

KX 7000 3

Процессор KX-7000 получил 8 ядер и 8 потоков, работает на частоте до 3,6 ГГц, оснащён 4 МБ кэша L2 и 32 МБ кэша L3, что делает его в два раза производительнее по сравнению с предыдущим поколением KX-6000, у которого было 16 МБ L3. Встроенная графика C-1190 поддерживает DirectX 12, OpenGL 4.6, OpenCL 1.2 и аппаратное декодирование H.264/H.265, обеспечивая плавное воспроизведение 4K-видео и уверенную работу с мультимедийными задачами.

KX 7000 2

Корпус объёмом 10 литров выполнен в компактном форм-факторе, что упрощает размещение устройства в офисных условиях. Конструкция с применением модульной архитектуры и прямого соединения компонентов снижает количество кабелей, улучшает обслуживание и повышает стабильность работы. Использование бесшумного блока питания с пассивным охлаждением позволяет снизить уровень шума практически до нуля, что важно для офисной среды.

KX 7000 4

AI-возможности системы реализованы на уровне операционной среды: компьютер способен анализировать большие массивы данных, предсказывать действия пользователя, ускорять обработку текстов, изображений и документов. Среди доступных инструментов — автоматическая конвертация файлов, интеллектуальная обрезка изображений, извлечение текста, работа с PDF и интеграция с корпоративными экосистемами.

MAXHUB AI+ компьютер становится конкурентоспособным решением среди отечественных ПК для бизнеса, предлагая сочетание компактного дизайна, высокой производительности и интеграции AI-инструментов для автоматизации офисных процессов.

Добавить комментарий

AMD Ryzen AI на архитектуре Zen 6: до 24 ядер, RDNA 3.5 и память DDR5-8000

Компания AMD готовит новое поколение процессоров Zen 6 Ryzen AI, выход которых ожидается в 2026 году. Линейка получит значительное увеличение количества ядер, расширенный кэш-память и поддержку современных технологий, включая DDR5‑6400 в стоке, разгон памяти до DDR5‑8000+ через EXPO 2.0, новые платы серии AMD 900 и поддержку модулей CUDIMM.

Zen 6 Ryzen AI

Флагманская модель Ryzen AI 9 X950X получит 24 ядра и 48 потоков, а объём кэш-памяти L3 вырастет до 96 МБ против 80 МБ у предшественника Ryzen 9 9950X с 16 ядрами и 32 потоками. Для игр предусмотрен аналогичный по ядрам чип Ryzen AI 9 X950X3D, который предложит тот же набор ядер — 24 / 48, но благодаря двухслойному V‑Cache получит до 240 МБ кэша L3 — это более чем в 3 раза больше, чем у прошлых моделей.

Следующая модель в линейке — Ryzen AI 9 X900X, который оснащён 16 ядрами и 32 потоками, а объём кэша L3 увеличен до 96 МБ против 76 МБ у предыдущего Ryzen 9 9900X с 12 ядрами и 24 потоками.

Игровой процессор Ryzen AI 7 X800X3D, преемник популярного Ryzen 7 9800X3D, теперь получит 12 ядер и 24 потока вместо прежних 8 ядер и 16 потоков. Объём кэш-памяти увеличится с 96 МБ до 144 МБ за счёт дополнительного слоя V‑Cache, что должно обеспечить серьёзный прирост производительности в играх.

Модель Ryzen AI 7 X700X предложит 12 ядер и 24 потока, а объём L3 возрастёт до 64 МБ против 40 МБ у Ryzen 7 9700X с 8 ядрами и 16 потоками.

Для среднего сегмента Ryzen AI 5 X500X получит 8 ядер и 16 потоков, а кэш L3 увеличится до 48 МБ по сравнению с 38 МБ у предыдущего Ryzen 5 9600X, который имел 6 ядер и 12 потоков.

Благодаря увеличению количества ядер, значительному росту объёмов кэш-памяти и поддержке высокоскоростной DDR5-памяти новое поколение Zen 6 Ryzen AI станет серьёзным шагом вперёд в производительности, как в профессиональных приложениях, так и в современных играх.

Добавить комментарий

Intel Core Ultra 400 и AMD Medusa: раскрыт новый роадмап процессоров до 2028 года

В сеть утекла подробная дорожная карта мобильных и настольных процессоров Intel и AMD до 2028 года, подтверждающая ключевые анонсы для следующих поколений чипов. Согласно документу, Intel Nova Lake будет выпущен как серия Core Ultra 400, а Panther Lake станет частью Core Ultra 300, выход которых ожидается в 2026 году.

GzXLGkya4AEaxb7

Согласно роадмапу, вторая половина 2025 года будет посвящена запуску Intel Panther Lake на новом техпроцессе 18A, что сделает его первым клиентским продуктом компании с использованием этой технологии. Nova Lake (Core Ultra 400) запланирован на 2027 год и получит полностью переработанную архитектуру. Интересно, что в настольном сегменте Intel пропустит поколение Panther Lake — напрямую перейдя от Arrow Lake (Core Ultra 200) к Nova Lake (Core Ultra 400).

Со стороны AMD ключевым событием станет выход Medusa Point — семейства APU на архитектуре Zen 6, которое заменит Strix Point и Kraken Point. Первые устройства с Medusa появятся в 2026 году и будут использовать улучшенную интегрированную графику нового поколения. AMD уже тестирует Medusa на платформах FP10 "PLUM" REVB в 45-ваттных конфигурациях, готовясь к серийному запуску.

Таким образом, в 2026 году нас ждёт масштабное обновление лэптопов и ультрабуков: Intel Panther Lake и AMD Medusa Point станут основными решениями, предлагая новые архитектуры, улучшенную графику и более энергоэффективные техпроцессы.

Добавить комментарий

NVIDIA готовится к квартальному отчёту: ожидаются рекордные результаты

NVIDIA сегодня представит финансовые результаты за прошедший квартал, и рынок готовится к значительным колебаниям акций. По данным опционного рынка, цена на акции компании может измениться в диапазоне от $10,5 до $13,05 уже к пятнице. Для сравнения, каждая динамика акций NVIDIA на $4 эквивалентна рыночной капитализации Intel (около $100 млрд), что указывает на возможное движение в пределах 2,6–3,26 капитализации Intel за один день.

GzXMpIIbgAAKbs4

Аналитики ожидают, что NVIDIA превзойдёт прогноз по выручке в $45 млрд благодаря активному наращиванию производства чипов GB200 и запуску линии GB300. Согласно оценкам JPMorgan, прогноз на следующий квартал может составить $53–54 млрд. В прошлом отчётном периоде NVIDIA показала выручку в $44 млрд, включая $4,5 млрд продаж H20 GPU, но учитывая неопределённость на китайском рынке, JPMorgan рекомендует исключить этот фактор при анализе динамики.

Отдельное внимание инвесторов сосредоточено на H20 GPU. На складах NVIDIA остаётся запас чипов стоимостью $1,9 млрд, который может принести дополнительную выручку в $5–6 млрд при полной реализации. JPMorgan подсчитал, что каждые 100 000 проданных H20 GPU приносят около $1 млрд дохода, что создаёт потенциал прироста $3–4 млрд за квартал в течение ближайших 2–3 кварталов.

Добавить комментарий

AMD готовит Radeon RX 9070 GRE с 16 ГБ памяти

AMD планирует обновить Radeon RX 9070 GRE, увеличив объём видеопамяти с 12 ГБ до 16 ГБ и расширив шину с 192-бит до 256-бит, чтобы удовлетворить растущий спрос на рынке. Релиз обновлённой модели ожидается в сентябре–октябре 2025 года.

Текущая версия RX 9070 GRE оснащена 48 вычислительными блоками (CU) и 6144 потоковыми процессорами (SP), что обеспечивает производительность на уровне GeForce RTX 5070. В новой модели изменится конфигурация памяти: вместо 12 ГБ GDDR6 карта получит 16 ГБ, а шина будет расширена до 256-бит, что повысит пропускную способность. Infinity Cache останется на уровне 64 МБ, а энергопотребление, по предварительным данным, сохранится на отметке 220 Вт.

Оригинальная RX 9070 GRE стартовала в Китае по цене 4199 юаней (~500 $), но быстро получила популярность и за пределами региона. Благодаря высокому соотношению производительности и цены, RDNA 4‑карты AMD активно конкурируют с решениями NVIDIA в среднем сегменте. Модель с 16 ГБ создаётся для повышения стабильности в играх при высоких разрешениях и лучшей работы с технологиями вроде FSR 4.

Серия RX 9070 GRE станет частью обновлённого портфолио AMD до перехода на архитектуру RDNA 5 в 2026 году. Новая модульная структура SoC позволяет AMD быстрее выпускать дополнительные варианты карт и гибко подстраиваться под требования различных рынков.

Добавить комментарий

AMD готовит линейку Radeon RX X80, X70, X60 и X50 на базе RDNA 5 / UDNA

AMD готовит новое поколение видеокарт RDNA 5 / UDNA, которое объединит игровые решения и ускорители в единую архитектуру. Линейка будет состоять из четырёх моделей: Radeon RX X80, RX X70, RX X60 и RX X50. Новое поколение принесёт до 6144 потоковых процессоров, расширенную Infinity Cache и более широкие шины памяти для повышения пропускной способности.

UDNA

Radeon RX X80 — флагман

RX X80 оснащена 96 вычислительными блоками (CU) и 6144 потоковыми процессорами (SP). Карта использует 512-битную шину памяти и 128 МБ Infinity Cache, что обеспечивает экстремальную пропускную способность и высокую производительность. Это решение ориентировано на игры в 4K и сложные профессиональные задачи.

Radeon RX X70 — мощный игровой сегмент

RX X70 получит 64 CU и 4096 SP, 256-битную шину и 48 МБ Infinity Cache. Эта модель станет оптимальным выбором для геймеров, которым важны высокие настройки графики и стабильный FPS при разумной цене.

Radeon RX X60 — баланс производительности

RX X60 предложит 24 CU и от 1536 до 2560 SP в зависимости от конфигурации, с поддержкой 128–196-битной шины и 32 МБ Infinity Cache. Видеокарта идеально подходит для игр в 1440p и Full HD на высоких настройках.

Radeon RX X50 — доступное решение

RX X50 будет иметь 12 CU, 768 SP, 64–128-битную шину и 16–32 МБ Infinity Cache. Модель предназначена для компактных игровых систем, ноутбуков и бюджетных сборок, сохраняя хорошее соотношение цены и производительности.

Выход линейки Radeon RX X80 / X70 / X60 / X50 ожидается в 2026 году. Новая архитектура RDNA 5 / UDNA объединит игровые и профессиональные возможности, обеспечив масштабируемость и эффективность на всех уровнях.

 

Добавить комментарий

NVIDIA интегрирует ИИ в разработку игр

nv ai1

На конференции Hot Chips 2025 компания NVIDIA представила обновлённый подход к созданию игр, делая искусственный интеллект ключевой частью графического рендеринга. Архитектура Blackwell перестаёт полагаться исключительно на традиционные методы обработки кадров, заменяя часть вычислений нейросетевыми алгоритмами. Теперь ИИ используется не как дополнительный инструмент, а как встроенный элемент игрового процесса и визуализации.

nv ai2

Blackwell масштабируется от дата-центров до игровых ноутбуков, предлагая разработчикам единый набор решений для оптимизации графики и производительности. В числе основных технологий — обучаемая генерация кадров, нейронное шумоподавление и FP4-вычисления, которые уменьшают нагрузку на память и ускоряют обработку данных. Обновлённая система Shader Execution Reordering распределяет задачи так, чтобы потоковые процессоры использовались максимально эффективно.

nv ai3

Поддержка GDDR7-памяти увеличивает пропускную способность при снижении энергопотребления, а встроенный AI-менеджер задач координирует работу графических шейдеров и нейросетевых моделей, сокращая задержки при смешанных нагрузках. Дополнительно внедрена концепция "race to idle", предполагающая интеллектуальную интерполяцию кадров вместо полного рендеринга, что позволяет снизить энергозатраты без потери качества изображения.

nv ai4

Ещё одно важное нововведение — Universal MIG, технология виртуализации, которая позволяет разделять один GPU на несколько виртуальных для облачных сервисов и лёгких игровых клиентов. Благодаря этим изменениям NVIDIA фактически формирует новый подход к разработке игр, где искусственный интеллект становится неотъемлемой частью графических технологий будущего.

Добавить комментарий

NVIDIA GB200 NVL72 лидирует по прибыльности ИИ-центров

Аналитики Morgan Stanley опубликовали свежий отчёт о рентабельности ИИ-центров мощностью 100 МВт, показав, что NVIDIA GB200 NVL72 обеспечивают рекордную прибыльность, несмотря на самую высокую суммарную стоимость владения (TCO) среди всех протестированных платформ.

milioms

Каждый стойковый сервер GB200 NVL72 включает 72 GPU NVIDIA B200 и 36 CPU Grace, соединённые через высокоскоростной интерфейс NVLink 5. Стоимость одного такого кластера составляет около 3,1 млн долларов, что почти в 16 раз выше, чем у стойки на H100 (около 190 тыс. долларов).

По данным отчёта, прибыльность AI-центра при использовании GB200 NVL72 достигает 77,6%, что является лучшим показателем на рынке. На втором месте — Google TPU v6e pod с 74,9%, а замыкает тройку CloudMatrix 384 с более низким коэффициентом возврата инвестиций. При этом решения AMD MI300X и MI355X показали отрицательную маржу–28,2% и –64% соответственно.

Однако рекордная прибыльность GB200 NVL72 достигается при самых высоких затратах: их TCO составляет 806,58 млн долларов, что выше, чем у всех конкурентов. Для сравнения, система на HGX H200 требует 714,59 млн, TPU v6e pod обходится в 455,9 млн, а Trn2 UltraServer — всего 330,16 млн.

Эксперты отмечают, что преимущество GB200 NVL72 обеспечивается сочетанием высокой производительности, энергоэффективности и оптимизации вычислений для reasoning-моделей и генеративных ИИ. Эти показатели делают платформу ключевым выбором для крупных дата-центров, работающих с моделями триллионного масштаба.

Добавить комментарий

CoreWeave показала 6,5-кратный прирост производительности ИИ на NVIDIA GB300 NVL72

68add1d2aae

CoreWeave объявила о значительном скачке в производительности своих облачных ИИ-платформ, представив результаты тестов нового кластера на базе NVIDIA GB300 NVL72. В испытаниях, проведённых на модели DeepSeek R1, компания достигла 6,5-кратного прироста производительности по сравнению с решениями на NVIDIA H100, что стало возможным благодаря архитектурным улучшениям и увеличенной пропускной способности системы.

GPU H100 vs GB300

В ходе бенчмарков CoreWeave сравнила 16-GPU-систему на базе H100 с новой конфигурацией, использующей 4 GPU Blackwell Ultra в составе GB300 NVL72. Благодаря увеличенной памяти и высокой скорости обмена данными удалось перейти от 16-поточной параллельности (TP16) к 4-поточной (TP4), что резко снизило накладные расходы на коммуникацию между GPU. Результат — рост пропускной способности более чем в шесть раз и значительное ускорение генерации токенов для reasoning-моделей.

Система NVIDIA GB300 NVL72 создана для масштабных задач ИИ и включает 72 GPU Blackwell Ultra, соединённых пятого поколения NVLink с пропускной способностью 130 ТБ/с, а также 37 ТБ совокупной памяти для работы с моделями триллионного масштаба. Архитектура дополнена сетевой инфраструктурой NVIDIA Quantum-X800 InfiniBand, обеспечивающей равномерное распределение данных без узких мест.

68adce

Платформа CoreWeave интегрируется с Kubernetes и Slurm, используя интеллектуальный топологически-осведомлённый планировщик, который оптимизирует распределение задач внутри одного домена NVL72. В сочетании с системой мониторинга на базе Grafana это позволяет контролировать загрузку GPU, трафик NVLink и эффективность работы кластера в реальном времени.

Благодаря этим оптимизациям CoreWeave удалось обеспечить новый уровень производительности для reasoning-моделей, которые требуют сложной пошаговой логики. Сокращение задержек при инференсе открывает путь к созданию реальных ИИ-агентов, способных работать с большими данными и выполнять многошаговые вычисления в реальном времени.

Добавить комментарий

NVIDIA выпустила DLSS SDK 310.4.0 и Streamline SDK 2.9.0 с улучшенной стабильностью

NVIDIA представила обновления DLSS SDK версии 310.4.0 и Streamline SDK версии 2.9.0, сосредоточенные на улучшении стабильности и исправлении ошибок. Эти инструменты предназначены для разработчиков игр и приложений, позволяя интегрировать технологии масштабирования, генерации кадров и другие возможности, основанные на алгоритмах искусственного интеллекта.

DLSS SDK

DLSS SDK 310.4.0 служит основой для таких функций, как DLSS Super Resolution и DLAA (Deep Learning Anti-Aliasing). Новый релиз включает в себя обновления, направленные на повышение качества изображения, исправление проблем с артефактами, включая призраки и мигание в динамичных сценах. Поддержка интеграции обеспечивается через NGX API, что позволяет разработчикам проще добавлять функции в свои проекты.

Streamline SDK 2.9.0 также обновился и остаётся предпочтительным инструментом для интеграции DLSS 4 и других технологий NVIDIA. Обновлённый фреймворк поддерживает DLSS Super Resolution, Multi-Frame Generation, Ray Reconstruction, NVIDIA Reflex и Image Scaling. Несмотря на отсутствие крупных нововведений, новые исправления багов и оптимизация стабильности позволяют ускорить разработку и упрощают внедрение функций.

NVIDIA рекомендует разработчикам заменить старые бинарные файлы, заголовки и плагины на обновлённые версии и провести проверку всех доступных режимов DLSS: Quality, Balanced, Performance и Ultra Performance. Это обеспечит корректную работу технологий в проектах нового поколения и оптимизирует качество изображения на различных платформах.

Добавить комментарий

Топ материалов GameGPU