Ollama 0.12.6-rc0 получил экспериментальную поддержку Vulkan для AMD и Intel GPU
Популярный фреймворк Ollama, предназначенный для локального запуска больших языковых моделей (LLM), вышел в новой тестовой версии 0.12.6-rc0. Главное нововведение — экспериментальная поддержка Vulkan API, которая давно находилась в разработке и теперь впервые стала доступна пользователям.
Ollama активно используется энтузиастами благодаря лёгкому запуску моделей Llama 3/4, Gemma, GPT-OSS, DeepSeek и других. Проект тесно интегрирован с Llama.cpp, обеспечивая высокую производительность и широкую поддержку библиотек и приложений. Однако до сих пор поддержка GPU была ограничена — для использования требовались ROCm, CUDA или SYCL. Благодаря внедрению Vulkan, запуск LLM теперь становится возможен на широком спектре GPU от AMD и Intel, для которых другие решения недоступны.
Поддержка Vulkan пока доступна только при сборке из исходного кода, и относится к числу экспериментальных функций. Разработчики подтверждают, что работают над устранением оставшихся ограничений и планируют добавить эту возможность в бинарные сборки Ollama в будущем.
Заявка на внедрение Vulkan велась уже полтора года, и сегодня она официально закрыта с выходом релиз-кандидата. Это важный шаг в сторону более широкой доступности Ollama на всех типах видеокарт, включая устаревшие и альтернативные GPU, где традиционные API недоступны.