Construye tu propio servidor de IA local
virtualizacion ai, containers, docker, docker compose, ollama, open webui¿Quieres experimentar con modelos de lenguaje y visión sin depender de la nube?
Usa este repositorio GitHub: https://github.com/epalomeque/mlk_docker_ollama
¿Qué incluye?
- Ollama: gestor ligero de modelos de IA (ChatGPT, GPT‑4, Gemini, etc.).
- Open WebUI: interfaz web amigable para interactuar con los modelos.
- Todo empaquetado en un único contenedor Docker – instalación rápida y sin complicaciones.
Ventajas de un servidor local
| ✔️ | Beneficio |
|---|---|
| Privacidad total | Los datos nunca salen de tu máquina. |
| Baja latencia | Respuestas instantáneas sin depender de la conexión a internet. |
| Control absoluto | Elige qué modelos, cuánta memoria, y actualiza a tu ritmo. |
| Económico | No pagas por uso de servicios cloud. |
| Offline | Funciona incluso sin acceso a internet. |
¿Cómo empezar?
- Instala Docker y Docker‑Compose en tu máquina.
- Clona el repo:
git clone https://github.com/epalomeque/mlk_docker_ollama.git
cd mlk_docker_ollama
- Levanta el servicio:
docker-compose up -d
La primera vez puede tardar un poco: Docker descarga las imágenes base y, si no están ya descargadas, el modelo Gemma‑3.
Pero no te preocupes: todo es configurable.
- Puedes cambiar el modelo que se carga cambiando el parámetro
OLLAMA_MODELen el archivo.env. - Si prefieres no usar Gemma‑3, simplemente edita la sección correspondiente y el contenedor descargará el modelo que indiques.
- Accede a Open WebUI en
http://localhost:3000y prueba tu IA local.
¡Empieza hoy a explorar modelos de IA con la seguridad y velocidad de un servidor local! 🚀💡
¿Te gustó este proyecto? Dale ⭐ en GitHub, comparte y comenta cómo lo utilizas.
👉 Descárgalo ahora 🎉
Share via: