Ollama

Ollama обновил платформу — скорость моделей на Apple Silicon
AI 01 Апр 2026 · 2 мин

Ollama обновил платформу — ускорил работу моделей на Apple Silicon

Ollama представила обновление v0.19, ускорившее локальную работу моделей на Apple Silicon на базе MLX.

Ollama внедрила поддержку MLX — производительность на Mac
AI 01 Апр 2026 · 2 мин

Ollama внедрила поддержку MLX — производительность на Mac выросла

Ollama добавила поддержку MLX для Mac, что существенно увеличивает производительность локальных моделей. Подробности и цифры внутри.

Ollama: локальный LLM-движок для AI-моделей
AI 28 Мар 2026 · 2 мин

Ollama запустил локальный LLM-движок — модели AI на вашем ноутбуке

Ollama предлагает локальный LLM-движок для работы с моделями AI на вашем ноутбуке. Безопасность, нулевая стоимость и работа офлайн.

Локальная разработка RAG-пайплайна с Ollama и pgvector
OLLAMA 18 Мар 2026 · 2 мин

Создание локального RAG-пайплайна с Ollama и pgvector без API

Создайте локальный RAG-пайплайн с Ollama и pgvector, избегая зависимостей от облачных API и сократив расходы.

💡
AI 25 Янв 2026 · 2 мин

VS Code интегрируется с Ollama — локальный ИИ для разработчиков

Узнайте, как интегрировать VS Code с Ollama для локальной поддержки ИИ — решение для разработчиков.