CEIR-OS Bedienungsanleitung
0.1.0 - ci-build
Germany
CEIR-OS Bedienungsanleitung - Local Development build (v0.1.0) built by the FHIR (HL7® FHIR® Standard) Build Tools. See the Directory of published versions
CEIR-OS bietet eine vollständige lokale LLM-Infrastruktur: Ollama als Modell-Server, die MCP Bridge für Tool-Integration und Open WebUI als Chat-Oberfläche.
| Eigenschaft | Wert |
|---|---|
| Container | ceir-ollama |
| Port | 11434 |
| Image | ollama/ollama:latest |
| Volume | ollama-data (heruntergeladene Modelle) |
Beim ersten Start lädt der Init-Container ceir-ollama-init automatisch das Standard-Modell qwen2.5:7b herunter.
| Modell | Größe | Stärken | Empfehlung |
|---|---|---|---|
qwen2.5:7b |
4.7 GB | Gute Balance aus Qualität und Geschwindigkeit | Standard - wird automatisch geladen |
qwen3:14b |
9.0 GB | Besseres Tool Calling, komplexere Antworten | Empfohlen bei ausreichend RAM/VRAM |
llama3.1:8b |
4.7 GB | Starke allgemeine Fähigkeiten | Alternative zu Qwen |
mistral:7b |
4.1 GB | Schnell, gute europäische Sprachen | Für einfache Abfragen |
gemma2:9b |
5.4 GB | Gutes Sprachverständnis | Alternative |
Weitere Modelle können manuell geladen werden:
docker exec ceir-ollama ollama pull qwen3:14b
Für optimale Leistung auf macOS mit Apple Silicon sollte Ollama nativ auf dem Host laufen (nicht im Container):
.env:OLLAMA_URL=http://host.docker.internal:11434
Dies ist der Standard in CEIR-OS. Die MCP Bridge greift über host.docker.internal auf den nativen Ollama-Server zu.
Für NVIDIA-GPUs kommentiere in der docker-compose.yml den GPU-Abschnitt ein:
ollama:
# ...
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
Setze außerdem:
OLLAMA_URL=http://ollama:11434
Wenn keine GPU verfügbar ist, setze:
OLLAMA_URL=http://ollama:11434
Ollama läuft dann im CPU-Modus im Container. Die Inferenz ist langsamer, aber funktional.
| Eigenschaft | Wert |
|---|---|
| Container | ceir-webui |
| Port | 3080 |
| Image | ghcr.io/open-webui/open-webui:main |
Open WebUI ist die Chat-Oberfläche von CEIR-OS. Sie ist so konfiguriert, dass alle Anfragen über die MCP Bridge laufen.
Die folgenden Einstellungen sind in der docker-compose.yml bereits korrekt konfiguriert:
| Einstellung | Wert | Erklärung |
|---|---|---|
ENABLE_OLLAMA_API |
false |
Direkte Ollama-Verbindung deaktiviert |
ENABLE_OPENAI_API |
true |
OpenAI-API aktiviert (via Bridge) |
OPENAI_API_BASE_URL |
http://mcp-bridge:8000/v1 |
Zeigt auf die MCP Bridge |
OPENAI_API_KEY |
not-needed |
Kein echter Key nötig |
WEBUI_AUTH |
false |
Keine Authentifizierung (lokal) |
WEBUI_NAME |
CEIR-OS |
Branding |
Warum Ollama deaktivieren? Wenn OpenWebUI direkt mit Ollama kommuniziert, werden die MCP-Tools umgangen. Alle Anfragen müssen über die MCP Bridge laufen, damit Tool-Aufrufe (Terminologie-Suche, FHIR-Lookup etc.) funktionieren.
| Parameter | Wert | Erklärung |
|---|---|---|
| Temperature | 0.3 | Niedrig für konsistente Terminologie-Antworten |
| num_ctx | 4096 | Kontextfenster (mehr = langsamer) |
| Top P | 0.9 | Nucleus Sampling |
Diese Einstellungen können in OpenWebUI unter "Settings > Models" pro Modell angepasst werden.
http://localhost:3080 im Browserqwen2.5:7b)search_across_versions aus| Umgebungsvariable | Standard | Beschreibung |
|---|---|---|
OLLAMA_PORT |
11434 |
Ollama Host-Port |
WEBUI_PORT |
3080 |
OpenWebUI Host-Port |
BRIDGE_PORT |
8000 |
MCP Bridge Host-Port |
OLLAMA_URL |
http://host.docker.internal:11434 |
Ollama-Endpunkt für die Bridge |