arzh-CNenfrdejakoplptesuk
Search find 4120  disqus socia  tg2 f2 lin2 in2 X icon 3 y2  p2 tik steam2

Ollama 0.12.6-rc0 получил экспериментальную поддержку Vulkan для AMD и Intel GPU

Популярный фреймворк Ollama, предназначенный для локального запуска больших языковых моделей (LLM), вышел в новой тестовой версии 0.12.6-rc0. Главное нововведение — экспериментальная поддержка Vulkan API, которая давно находилась в разработке и теперь впервые стала доступна пользователям.

ollama

Ollama активно используется энтузиастами благодаря лёгкому запуску моделей Llama 3/4, Gemma, GPT-OSS, DeepSeek и других. Проект тесно интегрирован с Llama.cpp, обеспечивая высокую производительность и широкую поддержку библиотек и приложений. Однако до сих пор поддержка GPU была ограничена — для использования требовались ROCm, CUDA или SYCL. Благодаря внедрению Vulkan, запуск LLM теперь становится возможен на широком спектре GPU от AMD и Intel, для которых другие решения недоступны.

Поддержка Vulkan пока доступна только при сборке из исходного кода, и относится к числу экспериментальных функций. Разработчики подтверждают, что работают над устранением оставшихся ограничений и планируют добавить эту возможность в бинарные сборки Ollama в будущем.

Заявка на внедрение Vulkan велась уже полтора года, и сегодня она официально закрыта с выходом релиз-кандидата. Это важный шаг в сторону более широкой доступности Ollama на всех типах видеокарт, включая устаревшие и альтернативные GPU, где традиционные API недоступны.

Топ материалов GameGPU