Ollama

Ollama обновил платформу — ускорил работу моделей на Apple Silicon
Ollama представила обновление v0.19, ускорившее локальную работу моделей на Apple Silicon на базе MLX.

Ollama внедрила поддержку MLX — производительность на Mac выросла
Ollama добавила поддержку MLX для Mac, что существенно увеличивает производительность локальных моделей. Подробности и цифры внутри.

Ollama запустил локальный LLM-движок — модели AI на вашем ноутбуке
Ollama предлагает локальный LLM-движок для работы с моделями AI на вашем ноутбуке. Безопасность, нулевая стоимость и работа офлайн.

Создание локального RAG-пайплайна с Ollama и pgvector без API
Создайте локальный RAG-пайплайн с Ollama и pgvector, избегая зависимостей от облачных API и сократив расходы.
💡
VS Code интегрируется с Ollama — локальный ИИ для разработчиков
Узнайте, как интегрировать VS Code с Ollama для локальной поддержки ИИ — решение для разработчиков.