Zeigen Sie Kunden in 5 Minuten, was unsere Plattform kann: Hermes Superagent, 6 autonome Claws, 3D-Visualisierungen, GraphRAG mit 192 Knoten — alles testbar im Termin.
Diese Zahlen ändern sich täglich · zeigen Sie sie als Beweis der laufenden Operationen.
Autonome KI-Agenten · klicken Sie auf einen Claw, um seinen Bot direkt zu öffnen.
Master-UI mit 13+ Slash-Commands · Letta-Memory v3 · zentrale Steuerung der Federation.
MasterContainer-Health · Restart-Befehle · Log-Tails · GPU-Auslastung · Plan + Architektur.
Operations24/7 Web-Crawling via Crawl4AI · Branchen-News · Konkurrenz-Watch · Tagesreports 06:00 UTC.
Market-WatchPen-Tests in 6 Kategorien · OpenMythos · LLM-Jailbreak · Prompt-Injection-Defense.
SecurityCode-Generation · Compose-Files · n8n-Workflows · FastAPI-Skelette auf Anfrage.
Code-GenHermes-4-405B Premium · 3D-Artefakte via /3d · Plattform-aware · Conversation-Memory · 9 Tools.
SuperagentKonkretes Beispiel aus dem Anlagen-/Hochbau: Ein Vertriebler tippt 1 Satz, Hermes generiert 3D-Visualisierung + bestellfertige Materialliste mit aktuellen Bauhaus-Preisen.
Hermes-4-405B parst die Sprach-Eingabe, ruft ShapeLLM für die Geometrie, CADCrafter für die Bauteilliste, SearXNG für Bauhaus-Preise (Mai 2026), und rendert das Ergebnis als interaktives Three.js-Modell + druckfähige Materialliste. Beide Outputs sind live nebenstehend eingebettet — Sie können das 3D-Modell drehen, View-Modi wechseln, und die Materialliste per Klick als PDF speichern.
/3d Erstelle ein Ytong-Gebäude 5x4x2,5m mit Pultdach + Materialliste
Open WebUI direkt in dieser Seite eingebettet · Demo-Account voreingestellt für Vertriebs-Termine.
Vom Cloud-Quick-Start mit unserer companyAI-Agent / galena.ai bis zur on-prem Multi-Tenant-Skala. Fünf Stufen, jede mit klarem Ziel und transparenter Investition.
Bewegen Sie die Schieber. Alle Zahlen rechnen sich live neu — FTE-Hebel, jährliche Einsparung, Payback-Monate für Ihre Investition.
6 Fragen zum Nutzungsprofil. Capacity-Modell aus vLLM-Benchmarks und realer Workload-Konkurrenz mit der Datenplattform.
| Stufe | Reicht? | Headroom | Kosten |
|---|
Was läuft auf welcher Stufe stabil — und ab wann es kippt. Ehrlicher Faktencheck zur "Frontier-Modelle"-Story.
| Modell-Klasse | Größe | VRAM | Cloud (S0) | Spark (S1) | Station (S2) | B300 (S3) | Bemerkung |
|---|---|---|---|---|---|---|---|
| Llama-3 70B Q4 | 70 B | 17–21 GB | ✓ | ✓ live | ✓ | ✓ | tägliche Workloads |
| Qwen3.6-35B-A3B FP8 (MoE) | 36B / 3B | ~35 GB | ✓ | ✓ Primary | ✓ | ✓ | Multimodal Vision |
| Mistral Large 2 | 123 B | 30–38 GB | ✓ | ✓ | ✓ | ✓ | Reasoning |
| Hermes-4-405B | 405 B | ~820 GB | ✓ via OpenRouter | ✗ OOM | ✓ knapp · TP | ✓ | Premium Reasoning |
| DeepSeek V3.2 (MoE) | 671B / 37B | 168–210 GB | ✓ via Cloud | ✗ instabil | ✓ stabil | ✓ komfortabel | Frontier-Reasoning |
| Claude Opus 4.7 | cloud | — | ✓ | ✓ via API | ✓ via API | ✓ via API | Anthropic direkt + Failover |
| ShapeLLM 7B (NL→3D-CAD) | 7 B | 4–8 GB | ~ partial | ✓ | ✓ | ✓ | Sprache → CAD |
| Hunyuan3D-1.3B | 1,3 B | ~24 GB | ~ | ✓ einzeln | ✓ parallel | ✓ parallel | 3D-Mesh-Generation |
| Whisper Large-v3 | 1,5 B | ~6 GB | ✓ | ✓ | ✓ | ✓ | Voice-Input |
Welche typischen Anwendungsfälle in welche EU-AI-Act-Risikoklasse fallen — wir liefern die passenden Workflow-Templates.
Die Begriffe, die in jeder KI-Diskussion fallen — in einfachen Worten, ohne Tech-Jargon.
NVIDIA-Server für KI auf ARM (Grace+Blackwell). Spark ≈ 10 k€ · Station GB300 ≈ 100 k€ (671B-Modelle stabil) · B300 ≈ 350 k€ (Multi-Tenant-Rack). Plus x86-Workstation ≈ 60 k€ für Datenplattform.
Wieviele Mitarbeiter gleichzeitig die KI nutzen ohne Slowdown. Nicht zu verwechseln mit Gesamtnutzern — die können beliebig hoch sein.
KI bekommt zur Frage passende interne Dokumente mitgeliefert und antwortet mit Quellenangabe. Verhindert Halluzinationen.
Wieviel Stunden Mitarbeiter-Arbeit die KI ersetzt. Hier reden wir von Effizienzgewinn — nicht Stellen-Abbau.
Entscheidet bei jeder Anfrage: einfach → lokal (gratis), schwierig → Cloud (kostet). >80% bleiben lokal = niedrige API-Kosten.
Generalist-Agent im Browser-Chat (Open-WebUI). Wählt selbst das passende Modell, kann Tools aufrufen (Web-Suche, Code, Daten-Query, 3D-Generation).
Spezialisierte Telegram-Bots, jeder mit klarem Job. Zusammen ein autonomer 24/7-Schwarm.
Plattform scannt sich täglich selbst auf Compliance. Personendaten werden automatisch gefiltert vor jedem Modell-Call. Disclosure-Banner inklusive.
Konkreter Pfad für Ihre nächsten 12 Monate. Keine Big-Bang-Investition — datengetriebener Ausbau.
companyAI Agent in der companyCloud / galena.ai live nehmen. Keine Hardware-Beschaffung. 2-3 Pilot-Use-Cases identifizieren, KPIs definieren, Anwender-Schulung.
1-2× DGX Spark + optionale x86-Workstation für Daten-Stack. Datenhoheit für sensible Use-Cases. Telemetrie zu Adoption sammeln, Hochrisiko-Use-Cases identifizieren.
Datenbasiert entscheiden: Bei <60 concurrent reicht Station GB300 (~100 k€). Bei 100+ concurrent oder Frontier-Workloads → B300 (~350 k€). Hybrid mit companyAI als Spillover für Spitzen.
Vier konkrete Demos die Sie Kunden in 30 Sekunden zeigen können.
Lassen Sie das LLM eine 3D-Szene live im Telegram-Chat generieren — z.B. Kugel, Sonnensystem, Architektur-Modell.
Hermes Agent in Open WebUI · System-Prompt mit Plattform-Wissen · 9 Tools (Crawl, GraphRAG, n8n etc.).
Aktuelle Uptime und Health-Status aller 60+ Container · zeigt Live-Operations als Beweis.
Lassen Sie sich eine maßgeschneiderte Architektur-Skizze für die Anforderung des Kunden zeichnen.
Konkrete Anwendungsfälle pro Branche · adressieren Sie den Kunden in seiner Sprache.
Audit-pflichtige Dokumenten-Reviews mit SHA-256-Hash-Chain · GxP-Templates automatisiert · WORM-Speicher 10 Jahre.
1500+ Copilot-Agenten unter zentraler Governance · 6 Agent-Kontrollen + 4 Pflichten-Hochrisiko · Audit-Pack in 18 Tagen.
Plattform-Berater Chat mit 1000+ Wissens-Einträgen · jeder FTE bekommt Cowork-AI als Kollegen · 30+ Use-Cases pro Tag.
Neo4j Knowledge-Graph mit 192 Knoten · Crawl4AI füllt aus Confluence/SharePoint · GraphRAG findet Querverbindungen.
Konservativ kalkuliert · keine "Phantom-AI-Magic".
Was ist möglich · was nicht · in welcher Tiefe.
| Feature | Cowork-AI Medialine |
ChatGPT Enterprise |
Microsoft Copilot |
Custom Stack (self-built) |
|---|---|---|---|---|
| On-prem · keine Daten-Egress | ✓ DGX Spark | ✗ Azure-bound | ✗ Azure-bound | ✓ (DIY) |
| Multi-Tenant-Isolation | ✓ 4 Tenants live | ~ Workspaces | ~ Tenants in M365 | ~ DIY |
| Eigene LLMs lokal | ✓ qwen3, gemma-4, Ollama | ✗ nur GPT | ✗ nur GPT | ✓ |
| 600+ Modelle via Gateway | ✓ LiteLLM | ✗ | ✗ | ~ DIY |
| Autonome 24/7-Bots | ✓ 6 Claws | ✗ | ✗ | ~ |
| Audit-Trail SHA-256 | ✓ Langfuse + WORM 10J | ~ Logs | ~ Logs | ~ DIY |
| EU-AI-Act-konform | ✓ 80% (Disclosure+PII+Audit) | ~ Disclosure | ~ Disclosure | ~ DIY |
| Knowledge-Graph 192 Knoten | ✓ Neo4j+GraphRAG | ✗ | ✗ | ~ |
| 3D-Artefakt-Generierung | ✓ Hermes /3d | ✗ | ✗ | ✗ |
| Pen-Test-Stack | ✓ OpenMythos 43 Cases | ✗ | ✗ | ~ DIY |
| Time-to-Production | ✓ 30 Tage | ✓ 7 Tage | ✓ 7 Tage | ✗ 6-12 Monate |
| Lock-In-Risiko | ✓ Kein Lock-In | ✗ OpenAI | ✗ Microsoft | ✓ |
Plattform-Releases der letzten Tage · echter Beweis für aktive Weiterentwicklung.
Ausklappbar · für jede Kunden-Frage die richtige Antwort.
Mehrschichtig:
12 Antworten auf typische Bedenken — von Hardware-Investment über DSGVO bis Halluzinations-Schutz.
autoheal restartet Container, gitops-watcher 60s sync, Restic 3-2-1-1-0 Backup, restic-restore-Test 4× bestanden. Plus Dein Plattform-Partner (Wartungsvertrag empfohlen).audit_events mit SHA-256-Hash, Per-User-RBAC in Keycloak, Per-Team-Budgets in LiteLLM, Tracing in Langfuse mit Redaction. Optional: SOPS-encrypted-Secrets in Git.Wir zeigen Cowork-AI auf Ihrem realen Use-Case · 30-60 Minuten · on-prem oder remote.
Kurz Bedarf skizzieren · wir melden uns mit Termin-Vorschlag (Benny Gosper oder Sales-Team).