- Опубликовано
Инференс LLM: GPU в Proxmox и Kubernetes
- Автор
- Имя
- Новости нашего ИТ
- Telegram
- Новости нашего ИТ14 подписчиков5145 постовДанный канал является агрегатором технических статей нашего любимого ИТ, так что кто устал листать тысячи сайтов в поиске технических статей присоеденяйтесь к каналу и наслаждайтесь #it_news
Распределённый инференс и шардирование LLM. Часть 1: настройка GPU, проброс в Proxmox и настройка Kubernetes
#Kubernetes
Когда модель DeepSeek R1 стала широко обсуждаться в сообществе, я заинтересовался, можно ли эффективно использовать её и другие крупные модели в домашних условиях, не прибегая к дорогостоящим облачным сервисам. Поскольку DevOps и инфраструктурой я увлекаюсь уже несколько лет, у меня постепенно сформировалась домашняя лаборатория, на которой я и решил проверить эту идею. Эта статья в трёх частях — результат моего опыта в решении этой задачи. Внутри вас ждёт пошаговое руководство по реализации бюджетного распределённого инференса с использованием Ray Serve, vLLM, Kubernetes, Proxmox и других технологий. В первой части мы разберём настройку GPU и его проброс в Proxmox, развернём Kubernetes-кластер, установим GPU Operator и KubeRay Operator.
Из подборки #devops
- Опубликовано
Model Context Protocol на Go: 100K ops/sec
- Опубликовано
Сборка Debian пакета для Java с jdeb
- Опубликовано
Мониторинг на автопилоте: стек с VictoriaMetrics
- Опубликовано
Скрытая деградация продакшена
- Опубликовано
PT Container Security: пропускная способность ↑ 3,5×
- Опубликовано
Больше чем Proxy: Istio вместо классического Nginx
Свежие посты
- Опубликовано
Model Context Protocol на Go: 100K ops/sec
- Опубликовано
Создать Telegram‑бот погоды за 5 минут Nyagram
- Опубликовано
Регуляторные документы РФ по ИИ в 2026 году
- Опубликовано
Spring Shell 4.0.1 is out!
- Опубликовано
CDC своими руками: Kafka + Debezium в лаборатории
- Опубликовано
Kafka: обработка ошибок и Dead Letter Queues
- Опубликовано
Создание Ambilight приложения для Android на Java
- Опубликовано