KI-Integration und EU AI Act Compliance
# KI-Integration und EU AI Act Compliance - OTSM
**Dokument-Version**: 1.0
**Stand**: Februar 2026
**Verantwortlich**: Thomas [Nachname], Founder & Lead Developer
**NĂ€chste Review**: August 2026
---
## 1. Executive Summary
OTSM (Operational Technology Systems Management) nutzt lokale KI-Modelle zur UnterstĂŒtzung von Requirements Engineering, FMEA-Analyse und Compliance-Management. Alle KI-Funktionen arbeiten als **Assistenzsysteme** ohne autonome Entscheidungsbefugnis. Die finale Verantwortung fĂŒr alle Engineering-Entscheidungen liegt ausschlieĂlich beim menschlichen Nutzer.
**Risikoklassifizierung nach EU AI Act**: Minimal-Risiko-System mit Transparenzpflicht
**Rechtsgrundlage**: EU AI Act (Verordnung 2024/1689), anwendbar ab 02.08.2026
---
## 2. Zweck und Umfang der KI-Integration
### 2.1 GeschÀftlicher Kontext
OTSM ist eine B2B-SaaS-Plattform fĂŒr Requirements Engineering, Compliance Management und FMEA-Analyse, primĂ€r fĂŒr die Automotive- und Fertigungsindustrie in Baden-WĂŒrttemberg. KI-Funktionen dienen der Effizienzsteigerung und QualitĂ€tsverbesserung, ersetzen jedoch keine menschliche Expertise.
### 2.2 Grundprinzipien der KI-Nutzung
1. **Human-in-the-Loop**: Alle KI-Outputs erfordern menschliche Validierung
2. **Transparenz**: KI-generierte Inhalte sind als solche gekennzeichnet
3. **Datenschutz**: Lokale Verarbeitung, keine Ăbermittlung an externe AI-Provider
4. **Kontrolle**: Nutzer können KI-Features deaktivieren
5. **Assistenz**: KI unterstĂŒtzt, ersetzt keine Engineering-Entscheidungen
### 2.3 Keine autonomen Entscheidungen
OTSM nutzt KI **nicht** fĂŒr:
- Autonome Safety-Entscheidungen
- Finale Compliance-Bewertungen ohne menschliche Validierung
- Automatische Freigaben von Requirements oder FMEA-Analysen
- Direkte Steuerung von Produktionssystemen oder kritischer Infrastruktur
---
## 3. Eingesetzte KI-Technologien
### 3.1 Technische Architektur
| Komponente | Technologie | Zweck | Hosting |
|------------|-------------|-------|---------|
| Embedding-Modell | nomic-embed-text (Ollama) | Semantische Vektorisierung | Lokal (Deutschland) |
| LLM | llama3.2 (Ollama) | Text-Generierung, Mapping | Lokal (Deutschland) |
| Vektor-Datenbank | PostgreSQL + pgvector | Similarity Search | Lokal (Deutschland) |
| Orchestrierung | Node.js / TypeScript | API-Integration | Lokal (Deutschland) |
**Hosting-Standort**: Deutschland (NĂ€he MĂŒnchen)
**Datenverarbeitung**: AusschlieĂlich innerhalb Deutschlands/EU
**Externe AI-Provider**: Keine
### 3.2 Modell-Details
#### nomic-embed-text
- **Version**: v1.5 (via Ollama)
- **Typ**: Embedding-Modell (768 Dimensionen)
- **Lizenz**: Open Source (Apache 2.0)
- **Training**: Ăffentliche DatensĂ€tze, keine kundenspezifischen Daten
- **Update-Strategie**: Kontrollierte Updates nach Validierung
#### llama3.2
- **Version**: 3B Parameter (via Ollama)
- **Typ**: Large Language Model
- **Lizenz**: Meta Llama 3.2 Community License
- **Training**: Ăffentliche DatensĂ€tze, keine kundenspezifischen Daten
- **Update-Strategie**: Kontrollierte Updates nach Validierung
### 3.3 Keine externe API-Nutzung
OTSM nutzt **bewusst keine** externen AI-Provider wie:
- OpenAI (ChatGPT, GPT-4)
- Anthropic (Claude)
- Google (Gemini, PaLM)
- Microsoft (Azure OpenAI)
**BegrĂŒndung**: VollstĂ€ndige Datenkontrolle, GDPR-Compliance, keine Vendor-Lock-ins, volle Transparenz ĂŒber Datenverarbeitung.
---
## 4. KI-Features und Funktionsbeschreibung
### 4.1 Semantische Suche
**Zweck**: Auffinden Àhnlicher Requirements basierend auf semantischer Bedeutung
**Technische Umsetzung**:
- Requirements werden via nomic-embed-text in Vektoren transformiert
- Speicherung in PostgreSQL mit pgvector-Extension
- Similarity Search ĂŒber Cosine-Similarity
**Nutzerinteraktion**:
- Nutzer gibt Suchbegriff ein
- System zeigt Àhnliche Requirements sortiert nach Relevanz
- Nutzer entscheidet, welche Ergebnisse relevant sind
**Autonomie-Grad**: **Null** - Reine Anzeigefunktion, keine Aktionen
**Risikobewertung**: **Minimal** - Keine Entscheidungen, keine direkten Auswirkungen
**Transparenz-MaĂnahmen**:
- UI zeigt "Semantische Suche" als Feature-Bezeichnung
- Similarity-Score wird angezeigt (0-100%)
- Nutzer kann klassische Textsuche alternativ verwenden
---
### 4.2 Duplikatserkennung
**Zweck**: Identifikation potenziell doppelter oder Àhnlicher Requirements
**Technische Umsetzung**:
- Embedding-basierter Vergleich aller Requirements
- Threshold-basierte Erkennung (konfigurierbar, Standard: 85% Similarity)
- Gruppierung Àhnlicher Requirements
**Nutzerinteraktion**:
- System schlÀgt potenzielle Duplikate vor
- Nutzer prĂŒft VorschlĂ€ge manuell
- Nutzer entscheidet ĂŒber ZusammenfĂŒhrung oder Beibehaltung
**Autonomie-Grad**: **Null** - Nur VorschlĂ€ge, keine automatischen Ănderungen
**Risikobewertung**: **Minimal** - Keine automatischen Löschungen oder Ănderungen
**Transparenz-MaĂnahmen**:
- UI kennzeichnet "KI-Vorschlag: Mögliches Duplikat"
- Similarity-Score wird angezeigt
- Nutzer kann VorschlÀge ignorieren
**Fehlerbehandlung**:
- False Positives: Nutzer ignoriert Vorschlag
- False Negatives: Nutzer kann manuelle Suche durchfĂŒhren
- Keine negativen Auswirkungen bei KI-Fehlern
---
### 4.3 Compliance-Mapping (NIS2, ISO 27001, etc.)
**Zweck**: Vorschlag von Zuordnungen zwischen Requirements und Compliance-Anforderungen
**Technische Umsetzung**:
- LLM analysiert Requirement-Text
- Vergleich mit Compliance-Regelwerken (NIS2, ISO 27001, etc.)
- Generierung von Mapping-VorschlĂ€gen mit BegrĂŒndung
**Nutzerinteraktion**:
- System schlÀgt passende Compliance-Anforderungen vor
- Nutzer prĂŒft Vorschlag und BegrĂŒndung
- Nutzer akzeptiert, modifiziert oder verwirft Vorschlag
- Finale Zuordnung erfolgt durch Nutzer-Aktion (Klick)
**Autonomie-Grad**: **Null** - Keine automatischen Compliance-Zuordnungen
**Risikobewertung**: **Gering** - Nutzer validiert alle Zuordnungen vor Ăbernahme
**Transparenz-MaĂnahmen**:
- UI kennzeichnet "KI-Vorschlag" mit Icon
- BegrĂŒndung des Mappings wird angezeigt
- Nutzer sieht Original-Compliance-Text vor Ăbernahme
- Mapping-Historie zeigt manuelle vs. KI-vorgeschlagene Zuordnungen
**Fehlerbehandlung**:
- False Positives: Nutzer verwirft unpassende VorschlÀge
- False Negatives: Nutzer kann manuelle Zuordnungen ergÀnzen
- Compliance-Audit basiert auf finalen (validierten) Zuordnungen, nicht KI-VorschlÀgen
**Compliance-Relevanz**:
- Finale Compliance-Verantwortung liegt beim Nutzer/Unternehmen
- OTSM dokumentiert Mapping-Rationale zur Audit-UnterstĂŒtzung
- KI-Feature beschleunigt Prozess, ersetzt keine Compliance-Expertise
---
### 4.4 FMEA Failure-Suggestions
**Zweck**: Vorschlag potenzieller Ausfallarten (Failure Modes) basierend auf Funktionsbeschreibung
**Technische Umsetzung**:
- LLM analysiert Function-Charakteristiken
- Generierung typischer Failure Modes fĂŒr diese Funktionsklasse
- Vorschlag mit Severity/Occurrence-SchÀtzung
**Nutzerinteraktion**:
- System schlÀgt Failure Modes vor
- FMEA-Experte prĂŒft PlausibilitĂ€t
- Experte ĂŒbernimmt, modifiziert oder verwirft VorschlĂ€ge
- Finale Risikobewertung erfolgt durch FMEA-Team
**Autonomie-Grad**: **Null** - Keine automatischen FMEA-EintrÀge oder Risikobewertungen
**Risikobewertung**: **Gering-bis-Mittel**
- Fehlende Failure Modes können zu Sicherheitsrisiken fĂŒhren
- **Mitigation**: OTSM ersetzt keine vollstÀndige FMEA-Methodik
- **Mitigation**: Nutzer sind geschulte FMEA-Experten
- **Mitigation**: KI ergÀnzt, ersetzt nicht die Expertise
**Transparenz-MaĂnahmen**:
- UI kennzeichnet "KI-generierter Vorschlag"
- VorschlÀge sind deutlich von manuell erstellten Failure Modes getrennt
- FMEA-Report kennzeichnet Herkunft (manuell/KI-unterstĂŒtzt)
**Safety-Considerations**:
- KI-VorschlĂ€ge dĂŒrfen NIEMALS als vollstĂ€ndige FMEA betrachtet werden
- Systematische FMEA-Methodik (z.B. nach AIAG-VDA) muss eingehalten werden
- Finale Safety-Bewertung erfordert menschliches Expertenwissen
- OTSM dokumentiert, dass KI-Features Hilfswerkzeuge sind
**Validation-Anforderungen**:
- FMEA-Team muss alle VorschlĂ€ge kritisch prĂŒfen
- VollstÀndigkeit-Check unabhÀngig von KI-VorschlÀgen
- Risikobewertung (RPN) erfolgt ausschlieĂlich durch Menschen
---
### 4.5 Requirements-Konvertierung (SOPHISTEN-Syntax)
**Zweck**: Umwandlung natĂŒrlichsprachiger Requirements in strukturierte SOPHISTEN-Syntax
**Technische Umsetzung**:
- LLM analysiert Requirement-Text
- Identifikation von Aktoren, Prozesswörtern, Objekten
- Generierung SOPHISTEN-konformer Formulierung
**Nutzerinteraktion**:
- Nutzer gibt unstrukturiertes Requirement ein
- System schlÀgt SOPHISTEN-Formulierung vor
- Nutzer prĂŒft und editiert Vorschlag
- Finale Formulierung wird durch Nutzer gespeichert
**Autonomie-Grad**: **Null** - Keine automatische Ăbernahme
**Risikobewertung**: **Minimal** - Syntaktische Hilfe, keine inhaltliche Ănderung
**Transparenz-MaĂnahmen**:
- Original-Text bleibt sichtbar
- Ănderungen sind nachvollziehbar (Diff-View)
- Nutzer kann Konvertierung ablehnen
**QualitÀtssicherung**:
- Automatische Validierung gegen SOPHISTEN-Regeln
- Warnungen bei unklaren Formulierungen
- Finale QualitĂ€tsprĂŒfung durch Requirements Engineer
---
## 5. Risikobewertung nach EU AI Act
### 5.1 Klassifizierung
**OTSM KI-Funktionen sind KEINE Hochrisiko-KI-Systeme gemÀà Artikel 6 EU AI Act, weil**:
1. **Keine kritische Infrastruktur**: OTSM verwaltet keine kritische Infrastruktur direkt
2. **Keine Sicherheitskomponente**: KI ist nicht Teil von Safety-kritischen Produkten
3. **Keine autonomen Entscheidungen**: Alle Outputs erfordern menschliche Validierung
4. **Assistenz-Charakter**: KI unterstĂŒtzt Experten, ersetzt sie nicht
**Einstufung**: **Minimal-Risiko-System mit Transparenzpflicht** (Artikel 50 EU AI Act)
### 5.2 BegrĂŒndung der Nicht-Hochrisiko-Einstufung
| Hochrisiko-Kriterium (Art. 6) | OTSM-Situation | ErfĂŒllt? |
|--------------------------------|----------------|----------|
| Sicherheitskomponente in Produkten | KI ist Teil eines Entwicklungstools, nicht des Endprodukts | â Nein |
| Management kritischer Infrastruktur | Dokumentation, keine Steuerung | â Nein |
| Biometrische Identifikation | Nicht vorhanden | â Nein |
| Kritische Infrastruktur (Energie, Wasser, etc.) | B2B-Software fĂŒr Engineering | â Nein |
| Bildung/Berufliche Bildung | Produktivsystem, kein Bildungssystem | â Nein |
| BeschĂ€ftigung/HR | Requirements Engineering Tool | â Nein |
| Zugang zu Dienstleistungen | Internes Engineering-Tool | â Nein |
| Strafverfolgung | Keine Anwendung | â Nein |
| Migration/Asyl | Keine Anwendung | â Nein |
| Rechtspflege | Keine Anwendung | â Nein |
### 5.3 Restrisiken und Mitigation
#### Risiko 1: UnvollstĂ€ndige FMEA durch Ăbervertrauen in KI
**Wahrscheinlichkeit**: Gering
**Impact**: Mittel-Hoch (potenzielle Safety-LĂŒcken)
**Mitigation**:
- UI-Warnhinweise: "KI-VorschlÀge ersetzen keine vollstÀndige FMEA"
- Dokumentation betont Hilfswerkzeug-Charakter
- Schulungsunterlagen fĂŒr Nutzer
- FMEA-VollstÀndigkeits-Checklisten unabhÀngig von KI
#### Risiko 2: Fehlerhafte Compliance-Zuordnungen
**Wahrscheinlichkeit**: Mittel
**Impact**: Mittel (Compliance-LĂŒcken, Audit-Probleme)
**Mitigation**:
- Alle Mappings erfordern explizite Nutzer-BestÀtigung
- Compliance-Reports kennzeichnen Validierungsstatus
- RegelmĂ€Ăige Compliance-Reviews empfohlen
- KI-Confidence-Score wird angezeigt
#### Risiko 3: Datenschutzverletzung durch KI
**Wahrscheinlichkeit**: Sehr gering
**Impact**: Hoch (GDPR-VerstöĂe)
**Mitigation**:
- Lokales Hosting, keine externen AI-Provider
- Keine Ăbermittlung von Kundendaten an Dritte
- Ollama-Modelle laufen vollstÀndig offline
- Multi-Tenant-Isolation in der Datenbank
#### Risiko 4: Bias in KI-VorschlÀgen
**Wahrscheinlichkeit**: Mittel
**Impact**: Gering (ineffiziente VorschlÀge)
**Mitigation**:
- Nutzer können alle VorschlÀge ablehnen
- Keine automatische Ăbernahme
- Feedback-Loop fĂŒr Verbesserung geplant (Phase 2)
### 5.4 Risiko-Matrix
| Feature | Autonomie | Risiko | Transparenz | Validierung | Gesamt-Risiko |
|---------|-----------|--------|-------------|-------------|---------------|
| Semantische Suche | Keine | Minimal | Hoch | Nutzer prĂŒft Ergebnisse | **Minimal** |
| Duplikatserkennung | Keine | Minimal | Hoch | Nutzer entscheidet | **Minimal** |
| Compliance-Mapping | Keine | Gering | Hoch | Nutzer validiert | **Gering** |
| FMEA Suggestions | Keine | Gering-Mittel | Hoch | FMEA-Team validiert | **Gering** |
| Requirements-Konvertierung | Keine | Minimal | Hoch | Nutzer editiert | **Minimal** |
**Gesamt-Risikobewertung**: **MINIMAL bis GERING**
---
## 6. Compliance-MaĂnahmen
### 6.1 Transparenzpflichten (Artikel 50 EU AI Act)
â **ErfĂŒllt durch**:
- KI-generierte Inhalte sind in der UI deutlich gekennzeichnet
- Nutzer werden ĂŒber KI-Nutzung informiert (Onboarding, Dokumentation)
- Diese Compliance-Dokumentation ist fĂŒr Kunden verfĂŒgbar
- Terms of Service erwÀhnen KI-Features explizit
### 6.2 Technische Dokumentation
â **Vorhanden**:
- Modell-Spezifikationen (siehe Abschnitt 3)
- Feature-Beschreibungen (siehe Abschnitt 4)
- Risikobewertung (siehe Abschnitt 5)
- Datenfluss-Diagramme (siehe Abschnitt 7)
### 6.3 Menschliche Aufsicht (Human Oversight)
â **Implementiert**:
- **Alle** KI-Outputs erfordern menschliche Aktion zur Ăbernahme
- Keine automatischen Entscheidungen oder Ănderungen
- Nutzer können KI-Features deaktivieren
- Opt-Out-Mechanismus in den Settings
### 6.4 Genauigkeit und Robustheit
â **MaĂnahmen**:
- Versionskontrolle der Ollama-Modelle
- Kontrollierte Updates (Test-Umgebung â Produktion)
- Monitoring der KI-Performance (geplant: Feedback-Loop)
- Fallback auf manuelle Prozesse bei KI-Ausfall
### 6.5 Cybersecurity
â **MaĂnahmen**:
- Ollama lÀuft in isolierter Umgebung
- Keine Internetverbindung fĂŒr KI-Modelle erforderlich
- RegulÀre Security-Updates des Host-Systems
- Multi-Tenant-Isolation verhindert Cross-Tenant-Zugriffe
### 6.6 DatenqualitÀt und Datenverwaltung
â **MaĂnahmen**:
- Embeddings werden aus finalen (validierten) Requirements generiert
- Keine KI-Training auf Produktionsdaten
- Klare Trennung zwischen Trainings- und Produktionsdaten
- Nutzer-Daten werden nicht fĂŒr Modell-Verbesserung verwendet (keine Telemetrie)
---
## 7. Datenfluss und Verarbeitung
### 7.1 Datenfluss-Diagramm
```
[Nutzer-Input (Browser)]
â
[OTSM Frontend (React)]
â
[OTSM Backend (Node.js/Fastify)]
â
[Ollama Service (lokal)]
â â
[nomic-embed] [llama3.2]
â â
[PostgreSQL + pgvector]
â
[OTSM Backend (Ergebnis)]
â
[OTSM Frontend (Anzeige)]
â
[Nutzer-Validierung]
```
**Kritischer Punkt**: Keine Daten verlassen das lokale System. Keine API-Calls an externe AI-Provider.
### 7.2 Datenarten und Verarbeitung
| Daten-Typ | Beispiel | KI-Verarbeitung | Speicherung | Retention |
|-----------|----------|-----------------|-------------|-----------|
| Requirement-Text | "Das System muss..." | Embedding-Generierung | PostgreSQL | Kundenspezifisch |
| Embeddings (Vektoren) | [0.234, -0.456, ...] | Similarity Search | PostgreSQL/pgvector | Wie Requirement |
| FMEA-Funktionsbeschreibung | "BremskraftverstÀrkung" | LLM-Analyse | PostgreSQL | Kundenspezifisch |
| KI-VorschlÀge (temporÀr) | "Möglicher Failure: ..." | Anzeige, nicht gespeichert | Nicht persistent | Session |
| Nutzer-Validierungen | "Ăbernommen/Abgelehnt" | Keine (Logging optional) | PostgreSQL | Audit-Trail |
### 7.3 Keine Ăbermittlung sensibler Daten
**OTSM ĂŒbertrĂ€gt KEINE Daten an**:
- Externe AI-Provider (OpenAI, Anthropic, etc.)
- Cloud-basierte ML-Services
- Drittanbieter-Analytics
- Telemetrie-Services (kein Sentry fĂŒr KI-Logs)
**BegrĂŒndung**: Automotive Requirements können geistiges Eigentum, GeschĂ€ftsgeheimnisse oder sicherheitskritische Informationen enthalten.
---
## 8. Nutzer-Information und Transparenz
### 8.1 Onboarding und Dokumentation
**Neue Nutzer werden informiert durch**:
1. **Onboarding-Tour**: EinfĂŒhrung in KI-Features mit Hinweis auf Validierungspflicht
2. **Feature-Tooltips**: UI zeigt "KI-unterstĂŒtzt" mit Info-Icon
3. **Hilfe-Dokumentation**: Detaillierte Beschreibung aller KI-Features
4. **Video-Tutorials**: Demonstration der KI-Nutzung mit Best Practices
### 8.2 UI-Kennzeichnungen
**Alle KI-generierten Inhalte tragen folgende Kennzeichnungen**:
- **Icon**: đ€ oder "AI" Badge
- **Tooltip**: "Dieser Vorschlag wurde KI-gestĂŒtzt generiert und erfordert Ihre Validierung"
- **Farb-Codierung**: KI-VorschlÀge haben hellen Hintergrund (z.B. hellblau)
- **Differenzierung**: Klare visuelle Trennung zwischen manuellen und KI-Inhalten
**Beispiel (Compliance-Mapping)**:
```
âââââââââââââââââââââââââââââââââââââââââââ
â đ€ KI-Vorschlag: NIS2-Mapping â
â ââââââââââââââââââââââââââââââââââââ â
â Empfohlene Zuordnung: â
â NIS2 Art. 21 (2) - Risikoanalyse â
â â
â BegrĂŒndung: Das Requirement beschreibt â
â Risikobewertung fĂŒr kritische Systeme â
â â
â [â Ăbernehmen] [â Ablehnen] [â Anpassen]â
âââââââââââââââââââââââââââââââââââââââââââ
```
### 8.3 Opt-Out Mechanismus
**Nutzer können KI-Features deaktivieren**:
- **Global**: Alle KI-Features in Settings deaktivieren
- **Feature-spezifisch**: Einzelne Features (z.B. nur FMEA-Suggestions) deaktivieren
- **TemporĂ€r**: "Nicht mehr vorschlagen" fĂŒr spezifische VorschlĂ€ge
**Auswirkung bei Deaktivierung**:
- System funktioniert vollstÀndig ohne KI
- Keine EinschrÀnkungen bei Kern-FunktionalitÀten
- Manuelle Prozesse bleiben verfĂŒgbar
---
## 9. Kundeninformation (Extern)
### 9.1 Website / Produktbeschreibung
**Empfohlene Formulierung fĂŒr Marketing-Materialien**:
> **KI-gestĂŒtzte Effizienz mit voller Kontrolle**
>
> OTSM nutzt lokal gehostete KI-Modelle (Ollama), um Ihre Requirements Engineering Prozesse zu beschleunigen. Alle KI-VorschlĂ€ge sind transparent gekennzeichnet und erfordern Ihre explizite Validierung. Ihre Daten bleiben in Deutschland und werden niemals an externe AI-Provider ĂŒbermittelt.
>
> - â Semantische Suche in Requirements
> - â Intelligente Duplikatserkennung
> - â Compliance-Mapping-VorschlĂ€ge
> - â FMEA Failure-Suggestions
> - â EU AI Act konform
> - â 100% Datenkontrolle - keine externen AI-APIs
### 9.2 Terms of Service / Nutzungsbedingungen
**Empfohlener Abschnitt fĂŒr ToS**:
> **§X - KI-gestĂŒtzte Funktionen**
>
> (1) OTSM nutzt lokal gehostete KI-Modelle (Ollama mit nomic-embed-text und llama3.2) zur UnterstĂŒtzung folgender Funktionen:
> - Semantische Suche in Requirements
> - Duplikatserkennung
> - VorschlĂ€ge fĂŒr Compliance-Zuordnungen (NIS2, ISO 27001, etc.)
> - VorschlĂ€ge fĂŒr FMEA Failure Modes
> - Konvertierung in SOPHISTEN-Syntax
>
> (2) Alle KI-VorschlĂ€ge sind als solche gekennzeichnet und erfordern die explizite Validierung durch den Nutzer. Die finale Verantwortung fĂŒr alle Engineering-Entscheidungen, Compliance-Zuordnungen und Risikobewertungen liegt beim Nutzer bzw. dessen Organisation.
>
> (3) Die KI-Modelle werden ausschlieĂlich auf Servern in Deutschland betrieben. Es erfolgt keine Ăbermittlung von Nutzer-Daten an externe AI-Provider (wie OpenAI, Anthropic, Google, etc.).
>
> (4) Nutzer können KI-Features jederzeit in den Einstellungen deaktivieren. Die Kern-FunktionalitĂ€ten von OTSM bleiben auch ohne KI-UnterstĂŒtzung vollstĂ€ndig verfĂŒgbar.
>
> (5) OTSM erfĂŒllt die Transparenzpflichten nach Artikel 50 der EU AI Act Verordnung (2024/1689). Details zur KI-Nutzung und Compliance finden sich in der technischen Dokumentation (auf Anfrage verfĂŒgbar).
### 9.3 FAQ fĂŒr Kunden
**Empfohlene FAQ-EintrÀge**:
**Q: Welche KI-Technologie nutzt OTSM?**
A: OTSM nutzt Ollama mit den Open-Source-Modellen nomic-embed-text (fĂŒr semantische Suche) und llama3.2 (fĂŒr Text-Generierung). Diese Modelle laufen vollstĂ€ndig auf unseren Servern in Deutschland, ohne externe API-Calls.
**Q: Werden meine Daten an OpenAI, ChatGPT oder andere AI-Provider ĂŒbermittelt?**
A: Nein, niemals. Alle KI-Verarbeitung erfolgt lokal auf unseren Servern in Deutschland. Ihre Requirements, FMEA-Daten und Compliance-Informationen verlassen unser System nicht.
**Q: Ist OTSM konform mit der EU KI-Verordnung?**
A: Ja. OTSM ist als Minimal-Risiko-System eingestuft, da alle KI-Features als Assistenzsysteme ohne autonome Entscheidungsbefugnis konzipiert sind. Wir erfĂŒllen alle Transparenzpflichten nach Artikel 50 EU AI Act.
**Q: Kann ich die KI-Features deaktivieren?**
A: Ja, Sie können KI-Features global oder einzeln in den Einstellungen deaktivieren. OTSM funktioniert vollstĂ€ndig ohne KI-UnterstĂŒtzung.
**Q: Wer ist verantwortlich fĂŒr Engineering-Entscheidungen?**
A: Sie bzw. Ihre Organisation. Alle KI-VorschlĂ€ge erfordern Ihre explizite Validierung und Freigabe. OTSM unterstĂŒtzt Ihre Experten, ersetzt sie nicht.
**Q: Kann die KI falsche VorschlÀge machen?**
A: Ja, wie jedes Assistenzsystem kann auch unsere KI unpassende oder unvollstÀndige VorschlÀge generieren. Deshalb ist die menschliche Validierung durch Ihre Experten zwingend erforderlich und technisch erzwungen.
---
## 10. Interne Prozesse und Governance
### 10.1 Verantwortlichkeiten
| Rolle | Verantwortung | Person |
|-------|---------------|--------|
| **Product Owner** | Strategische KI-Integration | Thomas [Nachname] |
| **Technical Lead** | KI-Implementierung, Modell-Updates | Thomas [Nachname] |
| **Compliance Officer** | EU AI Act Monitoring, Dokumentation | [zukĂŒnftig zu besetzen] |
| **Quality Manager** | Testing, Validierung | [zukĂŒnftig zu besetzen] |
**Hinweis**: Bei aktueller Team-GröĂe (1 Person) liegt alle Verantwortung beim Founder. Bei Team-Wachstum sind obige Rollen zu besetzen.
### 10.2 Review-Zyklus
**Dieses Dokument wird ĂŒberprĂŒft**:
- **HalbjÀhrlich** (Februar & August)
- **Nach Modell-Updates** (neue Ollama-Version)
- **Nach EU AI Act Ănderungen** (Gesetzesanpassungen)
- **Nach kritischen Incidents** (Security, Fehlfunktionen)
**NĂ€chster Review-Termin**: August 2026
### 10.3 Modell-Update-Prozess
**Vor einem Modell-Update (neue Ollama-Version)**:
1. **Test-Installation** in separater Umgebung
2. **Funktions-Tests** aller KI-Features
3. **Output-Quality-Vergleich** (alte vs. neue Version)
4. **Risiko-Assessment** (neue Risiken durch Update?)
5. **Dokumentations-Update** (Versions-Nummern, Change-Log)
6. **Produktions-Rollout** mit Rollback-Plan
**Dokumentation**:
- Change-Log: `/docs/AI_Model_Updates.md`
- Test-Reports: `/test-reports/ai-model-tests/`
### 10.4 Incident Response
**Bei KI-bezogenen Incidents (z.B. fehlerhafte VorschlÀge, AusfÀlle)**:
1. **Identifikation**: Incident-Meldung (Nutzer-Report, Monitoring)
2. **Triage**: KritikalitÀt bewerten (Sicherheitsrelevant? Compliance-relevant?)
3. **Mitigation**:
- Kritisch: KI-Feature temporÀr deaktivieren
- Unkritisch: Dokumentation, Tracking fĂŒr nĂ€chstes Update
4. **Root Cause Analysis**: Ursache ermitteln (Modell-Fehler? Daten-Problem? Bug?)
5. **Fix**: Implementierung + Test
6. **Dokumentation**: Incident-Report + Lessons Learned
7. **Kommunikation**: Bei kritischen Incidents â Kunden-Info
**Incident-Log**: `/docs/AI_Incidents.md`
---
## 11. ZukĂŒnftige Entwicklungen
### 11.1 Geplante KI-Erweiterungen (Phase 2)
**Potenzielle neue Features (frĂŒhestens Q3/Q4 2026)**:
- Automatische Requirements-Extraktion aus Dokumenten (PDF, DOCX)
- Verbesserte FMEA-VorschlÀge mit Detection-Measures
- Multi-Lingual Support fĂŒr Requirements (Ăbersetzungs-VorschlĂ€ge)
- Trace-VorschlÀge zwischen Requirements und Tests
**Compliance-Relevanz bei Erweiterungen**:
- Jedes neue KI-Feature erfordert Risiko-Assessment
- Update dieser Compliance-Dokumentation
- Ggf. Anpassung der Nutzer-Information
### 11.2 Monitoring EU AI Act Entwicklung
**Relevante Stichtage**:
- **02.08.2026**: EU AI Act Anwendungsbeginn (High-Risk-Systeme)
- **02.02.2027**: Allgemeine Anwendung (alle KI-Systeme)
**MaĂnahmen**:
- HalbjÀhrliche Review relevanter Rechtsprechung
- Monitoring von BfDI (Bundesdatenschutzbeauftragter) Guidance
- Teilnahme an Industry-Foren (z.B. Bitkom AI Compliance)
### 11.3 Exit-Strategie
**Falls OTSM als Hochrisiko-System eingestuft wird** (z.B. durch Rechtsprechung):
**Option 1: Compliance-Upgrade**
- KonformitÀtsbewertung nach Artikel 43 EU AI Act
- Technische Dokumentation erweitern (Artikel 11)
- Risikomanagementsystem implementieren (Artikel 9)
- CE-Kennzeichnung beantragen
- **Aufwand**: Hoch (6-12 Monate, ca. 50.000-100.000 EUR)
**Option 2: KI-Degradierung**
- KI-Features optional machen (reine Assistenz, klar deaktivierbar)
- Noch stÀrkere Betonung des Human-in-the-Loop
- Marketing-Fokus auf manuelle Prozesse, KI als Bonus
- **Aufwand**: Gering (hauptsÀchlich Marketing/Kommunikation)
**Option 3: KI-Removal**
- VollstÀndige Entfernung aller KI-Features
- Fokus auf strukturierte Datenverwaltung ohne AI
- **Aufwand**: Mittel (2-3 Monate Refactoring)
**Aktuelle EinschÀtzung**: Option 1 oder 2 wahrscheinlich ausreichend, Option 3 unwahrscheinlich notwendig.
---
## 12. AnhÀnge
### 12.1 Definitionen und Glossar
| Begriff | Definition |
|---------|------------|
| **EU AI Act** | Verordnung (EU) 2024/1689 ĂŒber KĂŒnstliche Intelligenz (AI Act) |
| **Hochrisiko-KI-System** | KI-System gemÀà Artikel 6 EU AI Act mit hohem Risikopotenzial |
| **Minimal-Risiko-System** | KI-System mit minimalen oder keinen Risiken (Art. 50 Transparenzpflicht) |
| **Human-in-the-Loop** | KI-Design, bei dem menschliche Aufsicht vor jeder Entscheidung erforderlich ist |
| **Ollama** | Open-Source-Plattform fĂŒr lokales Hosting von LLMs |
| **Embedding** | VektorreprĂ€sentation von Text fĂŒr semantische Ăhnlichkeitssuche |
| **SOPHISTEN** | Methodik fĂŒr strukturierte Requirements-Formulierung |
| **FMEA** | Failure Mode and Effects Analysis - Risikoanalysemethode |
| **pgvector** | PostgreSQL-Extension fĂŒr Vektor-Similarity-Search |
### 12.2 Referenzen und Rechtsgrundlagen
**PrimÀre Rechtsgrundlagen**:
- EU AI Act (Verordnung 2024/1689) - https://eur-lex.europa.eu/
- GDPR (Verordnung 2016/679) - Datenschutz-Grundverordnung
- NIS2-Richtlinie (EU 2022/2555) - Netz- und Informationssicherheit
**Technische Standards**:
- ISO/IEC 23894:2023 - AI Risk Management
- ISO/IEC 42001:2023 - AI Management System
- SOPHISTEN Requirements Engineering Methodik
**Weitere Quellen**:
- Ollama Documentation - https://ollama.ai/
- nomic-embed-text Model Card - https://huggingface.co/nomic-ai/nomic-embed-text-v1.5
- Meta Llama 3.2 License - https://llama.meta.com/
### 12.3 Kontakt und Fragen
**FĂŒr Fragen zu dieser Dokumentation**:
- **Technisch**: Thomas [Nachname], [E-Mail]
- **Compliance**: [E-Mail] (oder Thomas wĂ€hrend GrĂŒndungsphase)
- **Allgemein**: support@otsm.de
**Dokumenten-Historie**:
- **Version 1.0** (Februar 2026): Initiale Erstellung vor Go-Live
---
## Unterschrift und Freigabe
**Erstellt durch**: Thomas [Nachname], Founder & Lead Developer
**Datum**: [Datum einfĂŒgen]
**NĂ€chste Review**: August 2026
**Freigegeben fĂŒr**:
- â Interne Verwendung (Team-Dokumentation)
- â Externe Verwendung (Kunden auf Anfrage)
- â Audit-Zwecke (Compliance-PrĂŒfungen)
---
**Hinweis**: Dieses Dokument ist ein lebendes Dokument und wird entsprechend der EU AI Act Entwicklung, technischer Ănderungen und neuer Erkenntnisse aktualisiert.
