Новости нашего ИТ логотип
Подписаться
Опубликовано

Как поднять локальную LLM за 5 минут

Автор

Как поднять локальную LLM за 5 минут #docker Как поднять локальную LLM за 5 минут 🚀 Хотите свой ChatGPT, который работает локально и не требует интернета? В статье показываю, как развернуть Ollama + OpenWebUI в Docker: • Ollama — инструмент для запуска локальных LLM (LLaMA, Mistral, Gemma и др.) • LLaMA — серия открытых языковых моделей от Meta • OpenWebUI — удобный веб-интерфейс, похожий на ChatGPT, но для ваших локальных моделей Минимальные требования: 8 GB RAM, 4 CPU, 25 GB диска. Всё сводится к трём шагам: Установить Docker Настроить docker-compose с Ollama и OpenWebUI Зайти в локальный веб-интерфейс и протестировать свою LLM 🎉 💻 Код, конфиги и пошаговая инструкция в статье!

link

avatar
Новости нашего ИТ
12 подписчиков
4745 постов
Данный канал является агрегатором технических статей нашего любимого ИТ, так что кто устал листать тысячи сайтов в поиске технических статей присоеденяйтесь к каналу и наслаждайтесь #it_news

Свежие посты