DEV Community

Cover image for 🚀 Ollama Dev Stack: WebUI + Benchmark + Docker + Fallback (Open Source)
Rafael Mori
Rafael Mori

Posted on

🚀 Ollama Dev Stack: WebUI + Benchmark + Docker + Fallback (Open Source)

Um ambiente local completo para rodar LLMs como deepseek-coder e mistral com Docker, Open-WebUI, benchmarks automáticos, fallback inteligente e uma DX otimizada via Makefile ou script Bash — tudo open source, tudo fácil de estender!


🧠 Por que criei isso?

Eu queria um ambiente de IA local que fosse:

  • 💡 Simples de iniciar (make dev ou setup-dev.sh)
  • 🔁 Resiliente (reinicia containers com falha automaticamente)
  • 🧪 Benchmarkado (testa o tempo de resposta logo após subir)
  • 🐳 Totalmente Dockerizado
  • 🤖 Rodando modelos como DeepSeek Coder e Mistral direto no meu PC
  • 🧰 Personalizável para qualquer outro uso com LLMs offline

Então eu criei o mori-ollama-srv.


🔧 O que tem no stack?

  • Ollama com suporte a modelos como deepseek-coder:6.7b, mistral, llama
  • ✅ Open-WebUI (interface para chats)
  • ✅ Benchmarks automáticos via script
  • ✅ Docker Compose + Makefile para facilitar tudo
  • ✅ Ativação de modo “performance” na CPU (Linux)
  • ✅ Execução local ou remota via SSH

🧪 Exemplos de uso

# Rodar com modelo padrão (deepseek)
make dev

# Rodar com modelo leve (mistral)
make install ARGS="--light"

# Pular benchmark
make install ARGS="--no-benchmark"

# Rodar tudo remotamente
make install ARGS="[email protected]"
Enter fullscreen mode Exit fullscreen mode

🌍 Acesse o WebUI

Depois de subir tudo, o painel estará acessível em:

👉 http://localhost:3000


📁 Repositório e Gist


📄 Licença

MIT © Rafael Mori
Contribuições são super bem-vindas 🙌


Se curtir, deixa uma estrela ⭐ lá no GitHub e comenta aqui como pretende usar!

Top comments (0)