KI & ML
KI Entwicklung | EARNST
DSGVO konforme KI auf eigener Hardware. Lokale LLMs, RAG Systeme, Dokumentenanalyse.
Was ist DSGVO konforme KI?
Die meisten "KI-Lösungen" sind API-Wrapper um OpenAI oder Anthropic. Ihre Daten fließen zu US-Unternehmen, Datenschutzbeauftragte werden nervös, und AVV (Auftragsverarbeitungsverträge) sind kompliziert. DSGVO konforme KI bedeutet: Die Modelle laufen auf Ihrer eigenen Infrastruktur. Keine externen API-Calls, keine Datenübertragung an Dritte, vollständige Kontrolle über Training-Daten und Inferenz.
Wir setzen Open-Source LLMs ein (LLaMA, Mistral, Mixtral, spezialisierte Modelle wie Code LLaMA oder BioMedLM) und bauen RAG-Systeme (Retrieval-Augmented Generation) für Dokumentenanalyse, Chatbots oder interne Knowledge-Bases. Die Modelle laufen auf Ihrer Hardware (dedizierte GPU-Server) oder auf Cloud-Instanzen in EU-Rechenzentren mit vollständiger Datenkontrolle.
Für wen ist das relevant?
Unternehmen mit strikten Datenschutz-Anforderungen: Gesundheitswesen (Patientendaten), Finanzdienstleister (Kundendaten unter Bankenaufsicht), Rechtsanwaltskanzleien (Mandantengeheimnis), oder öffentliche Institutionen. Auch für Industrieunternehmen mit sensiblem IP (Konstruktionsdaten, Forschungsergebnisse), die KI für Dokumentenanalyse oder Prozessoptimierung nutzen wollen ohne Daten extern zu verarbeiten.
Typische Use Cases: Interne Chatbots, die auf Unternehmens-Dokumentation trainiert sind (Mitarbeiter-Support, Onboarding). Dokumentenanalyse für Verträge, technische Zeichnungen oder Forschungsberichte. Code-Assistenten für Entwickler-Teams, die auf internem Codebase trainiert werden. Alles läuft lokal, keine Cloud-APIs.
Wie EARNST das macht
Wir starten mit einer Machbarkeitsanalyse: Was ist der konkrete Use Case? Welche Daten gibt es? Welche Modellgröße ist nötig (7B, 13B, 70B Parameter)? Welche Hardware-Anforderungen? Nicht jedes Problem braucht KI, manchmal reichen klassische Algorithmen oder Datenbank-Suche. Falls KI sinnvoll ist, wählen wir passende Open-Source Modelle und evaluieren ob Fine-Tuning nötig ist (für spezialisierte Tasks) oder ob Pre-Trained Modelle ausreichen.
Infrastruktur wird entweder auf Ihren Servern aufgesetzt (dedizierte GPU-Maschinen, idealerweise NVIDIA A100 oder H100 für größere Modelle) oder auf Cloud GPU Instanzen (AWS EC2 P4, Azure NC-Serie) in EU-Regionen. Deployment läuft über Docker-Container mit Orchestrierung via Kubernetes falls nötig. Wir bauen APIs für Integration in bestehende Systeme: REST oder GraphQL Endpoints mit Rate Limiting, Caching und Monitoring.
Typischer Projektumfang
Machbarkeitsanalyse: 1 Woche. Proof of Concept (PoC): 2 bis 4 Wochen. Production-Ready System: 8 bis 16 Wochen abhängig von Komplexität und Fine-Tuning Aufwand. Hardware-Setup (falls noch nicht vorhanden) kommt hinzu: Beschaffung, Installation, Netzwerk-Konfiguration.
Sie brauchen entweder eigene GPU-Server oder Cloud-Budget für GPU-Instanzen. Wir helfen bei Hardware-Auswahl und TCO (Total Cost of Ownership) Kalkulation. Nach Go-Live bekommen Sie vollständige Dokumentation: Modell-Auswahl Rationale, Training-Prozesse, API-Dokumentation und DSGVO-Compliance Dokumentation für Datenschutzbeauftragte. Optionale Wartungsverträge für Model Updates, Fine-Tuning auf neuen Daten und Infrastruktur-Monitoring.
Was Sie bekommen
Machbarkeitsanalyse
Technisches Assessment: Ist KI die richtige Lösung? Welche Modelle passen? Welche Infrastruktur?
Modellauswahl & Training
Auswahl passender Open-Source Modelle (LLaMA, Mistral, etc.) mit optionalem Fine-Tuning.
Infrastruktur Setup
Hardware-Setup (eigene Server oder Cloud GPU Instanzen) mit Docker-basiertem Deployment.
API Entwicklung
REST/GraphQL APIs für KI-Integration in bestehende Systeme. Rate Limiting, Caching, Monitoring.
DSGVO Dokumentation
Vollständige Dokumentation der Datenverarbeitung für Datenschutz-Audits und AVV.
Projekt besprechen?
Erzählen Sie uns von Ihrem Vorhaben. Wir melden uns innerhalb von 24 Stunden.
Erstgespräch buchen