Progetto open source che permette di scaricare in locale diversi modelli LLM e farli girare su un server locale con API disponibili Articolo Medium (oscurato)
Messo in locale tramite docker:
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- "11434:11434"
volumes:
- ./data/ollama:/ollama
environment:
- OLLAMA_HOST=0.0.0.0:11434
- OLLAMA_ORIGINS=*
restart: unless-stopped
networks:
- ollama_network
ollamaweb:
image: ghcr.io/open-webui/open-webui:main
container_name: ollamaweb
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://ollama:11434
- WEBUI_SECRET_KEY=lpuk
- WEBUI_NAME=Ollama WebUI
- WEBUI_AUTH=True
volumes:
- ./data/ollamaweb:/app/backend/data
depends_on:
- ollama
restart: unless-stopped
networks:
- ollama_network
networks:
ollama_network:
driver: bridge
name: ollama_networkUna volta avviato il container ollama con docker compose up -d ollama verificare che localhost:11434 è raggiungibile. Poi si possono:
- installare modelli con
docker compose exec ollama ollama pull tinyllama - avviare modelli
docker compose exec ollama ollama run tinyllama - fermare modelli
docker compose exec ollama ollama stop tinyllama