- Опубликовано
LLM без GPU: собрать inference‑сервер на CPU
- Автор

- Имя
- Новости нашего ИТ
- Telegram
Новости нашего ИТ12 подписчиков4766 постовДанный канал является агрегатором технических статей нашего любимого ИТ, так что кто устал листать тысячи сайтов в поиске технических статей присоеденяйтесь к каналу и наслаждайтесь #it_news
«Золотая рыбка, хочу LLM без GPU»: как собрать Inference-сервер на CPU
#docker
Допустим, вам нужно протестировать LLM на сотни миллиардов или почти триллион параметров в локальной среде — на своих данных, которые вы не хотите отдавать в облако. Задача сводится к сравнительным экспериментам или вообще к развертыванию решения внутри своей сети под небольшую нагрузку, если пользователей мало. Масштаб этих моделей ведет к проблеме: памяти одной видеокарты не хватит, а использование серверов с несколькими GPU может повлечь большие расходы на инфраструктуру. В таких случаях альтернативой становится запуск LLM на центральном процессоре (CPU), который хотя и медленнее GPU, но гораздо дешевле. Например, если сервер с двумя CPU обойдется за месяц в 150 000 ₽, то сервер с GPU — более 700 000 ₽. Конечно, сервер с GPU может «прожевать» больше запросов. Но если вам столько не надо
Предыдущий пост
- Опубликовано
Замок в небесах: история Oracle
Следующий пост
- Опубликовано
Малоизвестные игровые журналы и газеты нулевых
Из подборки #ai
- Опубликовано
Хакатон Норникеля: YOLO, 2 место
- Опубликовано
Spring AI Agentic Patterns Part 2 AskUserQuestion
- Опубликовано
Roo Code: как использовать DeepSeek для тестирования
- Опубликовано
Нейросети для задач: сравнение Кэмп и ChatGPT
- Опубликовано
Я год не пишу код вручную и не вернусь
- Опубликовано
ИИ-статьи: спасение автора или смерть интернета
Свежие посты
- Опубликовано
Удобная синхронизация настроек Kafka
- Опубликовано
Spring Data 2025.1.2 и 2025.0.8 released
- Опубликовано
How Ansible does the real work in hyperautomation
- Опубликовано
OpenMedata в облаке: DataGovernance обзор Collate 1
- Опубликовано
Python без Python: как запускать код где угодно
- Опубликовано
Хакатон Норникеля: YOLO, 2 место
- Опубликовано
Nginx с человеческим лицом: обзор Nginx Proxy Manager
- Опубликовано