OTSM Logo

KI-Integration und EU AI Act Compliance

# KI-Integration und EU AI Act Compliance - OTSM


**Dokument-Version**: 1.0

**Stand**: Februar 2026

**Verantwortlich**: Thomas [Nachname], Founder & Lead Developer

**NĂ€chste Review**: August 2026


---


## 1. Executive Summary


OTSM (Operational Technology Systems Management) nutzt lokale KI-Modelle zur UnterstĂŒtzung von Requirements Engineering, FMEA-Analyse und Compliance-Management. Alle KI-Funktionen arbeiten als **Assistenzsysteme** ohne autonome Entscheidungsbefugnis. Die finale Verantwortung fĂŒr alle Engineering-Entscheidungen liegt ausschließlich beim menschlichen Nutzer.


**Risikoklassifizierung nach EU AI Act**: Minimal-Risiko-System mit Transparenzpflicht

**Rechtsgrundlage**: EU AI Act (Verordnung 2024/1689), anwendbar ab 02.08.2026


---


## 2. Zweck und Umfang der KI-Integration


### 2.1 GeschÀftlicher Kontext

OTSM ist eine B2B-SaaS-Plattform fĂŒr Requirements Engineering, Compliance Management und FMEA-Analyse, primĂ€r fĂŒr die Automotive- und Fertigungsindustrie in Baden-WĂŒrttemberg. KI-Funktionen dienen der Effizienzsteigerung und QualitĂ€tsverbesserung, ersetzen jedoch keine menschliche Expertise.


### 2.2 Grundprinzipien der KI-Nutzung

1. **Human-in-the-Loop**: Alle KI-Outputs erfordern menschliche Validierung

2. **Transparenz**: KI-generierte Inhalte sind als solche gekennzeichnet

3. **Datenschutz**: Lokale Verarbeitung, keine Übermittlung an externe AI-Provider

4. **Kontrolle**: Nutzer können KI-Features deaktivieren

5. **Assistenz**: KI unterstĂŒtzt, ersetzt keine Engineering-Entscheidungen


### 2.3 Keine autonomen Entscheidungen

OTSM nutzt KI **nicht** fĂŒr:

- Autonome Safety-Entscheidungen

- Finale Compliance-Bewertungen ohne menschliche Validierung

- Automatische Freigaben von Requirements oder FMEA-Analysen

- Direkte Steuerung von Produktionssystemen oder kritischer Infrastruktur


---


## 3. Eingesetzte KI-Technologien


### 3.1 Technische Architektur


| Komponente | Technologie | Zweck | Hosting |

|------------|-------------|-------|---------|

| Embedding-Modell | nomic-embed-text (Ollama) | Semantische Vektorisierung | Lokal (Deutschland) |

| LLM | llama3.2 (Ollama) | Text-Generierung, Mapping | Lokal (Deutschland) |

| Vektor-Datenbank | PostgreSQL + pgvector | Similarity Search | Lokal (Deutschland) |

| Orchestrierung | Node.js / TypeScript | API-Integration | Lokal (Deutschland) |


**Hosting-Standort**: Deutschland (NĂ€he MĂŒnchen)

**Datenverarbeitung**: Ausschließlich innerhalb Deutschlands/EU

**Externe AI-Provider**: Keine


### 3.2 Modell-Details


#### nomic-embed-text

- **Version**: v1.5 (via Ollama)

- **Typ**: Embedding-Modell (768 Dimensionen)

- **Lizenz**: Open Source (Apache 2.0)

- **Training**: Öffentliche DatensĂ€tze, keine kundenspezifischen Daten

- **Update-Strategie**: Kontrollierte Updates nach Validierung


#### llama3.2

- **Version**: 3B Parameter (via Ollama)

- **Typ**: Large Language Model

- **Lizenz**: Meta Llama 3.2 Community License

- **Training**: Öffentliche DatensĂ€tze, keine kundenspezifischen Daten

- **Update-Strategie**: Kontrollierte Updates nach Validierung


### 3.3 Keine externe API-Nutzung

OTSM nutzt **bewusst keine** externen AI-Provider wie:

- OpenAI (ChatGPT, GPT-4)

- Anthropic (Claude)

- Google (Gemini, PaLM)

- Microsoft (Azure OpenAI)


**BegrĂŒndung**: VollstĂ€ndige Datenkontrolle, GDPR-Compliance, keine Vendor-Lock-ins, volle Transparenz ĂŒber Datenverarbeitung.


---


## 4. KI-Features und Funktionsbeschreibung


### 4.1 Semantische Suche


**Zweck**: Auffinden Àhnlicher Requirements basierend auf semantischer Bedeutung


**Technische Umsetzung**:

- Requirements werden via nomic-embed-text in Vektoren transformiert

- Speicherung in PostgreSQL mit pgvector-Extension

- Similarity Search ĂŒber Cosine-Similarity


**Nutzerinteraktion**:

- Nutzer gibt Suchbegriff ein

- System zeigt Àhnliche Requirements sortiert nach Relevanz

- Nutzer entscheidet, welche Ergebnisse relevant sind


**Autonomie-Grad**: **Null** - Reine Anzeigefunktion, keine Aktionen


**Risikobewertung**: **Minimal** - Keine Entscheidungen, keine direkten Auswirkungen


**Transparenz-Maßnahmen**:

- UI zeigt "Semantische Suche" als Feature-Bezeichnung

- Similarity-Score wird angezeigt (0-100%)

- Nutzer kann klassische Textsuche alternativ verwenden


---


### 4.2 Duplikatserkennung


**Zweck**: Identifikation potenziell doppelter oder Àhnlicher Requirements


**Technische Umsetzung**:

- Embedding-basierter Vergleich aller Requirements

- Threshold-basierte Erkennung (konfigurierbar, Standard: 85% Similarity)

- Gruppierung Àhnlicher Requirements


**Nutzerinteraktion**:

- System schlÀgt potenzielle Duplikate vor

- Nutzer prĂŒft VorschlĂ€ge manuell

- Nutzer entscheidet ĂŒber ZusammenfĂŒhrung oder Beibehaltung


**Autonomie-Grad**: **Null** - Nur VorschlĂ€ge, keine automatischen Änderungen


**Risikobewertung**: **Minimal** - Keine automatischen Löschungen oder Änderungen


**Transparenz-Maßnahmen**:

- UI kennzeichnet "KI-Vorschlag: Mögliches Duplikat"

- Similarity-Score wird angezeigt

- Nutzer kann VorschlÀge ignorieren


**Fehlerbehandlung**:

- False Positives: Nutzer ignoriert Vorschlag

- False Negatives: Nutzer kann manuelle Suche durchfĂŒhren

- Keine negativen Auswirkungen bei KI-Fehlern


---


### 4.3 Compliance-Mapping (NIS2, ISO 27001, etc.)


**Zweck**: Vorschlag von Zuordnungen zwischen Requirements und Compliance-Anforderungen


**Technische Umsetzung**:

- LLM analysiert Requirement-Text

- Vergleich mit Compliance-Regelwerken (NIS2, ISO 27001, etc.)

- Generierung von Mapping-VorschlĂ€gen mit BegrĂŒndung


**Nutzerinteraktion**:

- System schlÀgt passende Compliance-Anforderungen vor

- Nutzer prĂŒft Vorschlag und BegrĂŒndung

- Nutzer akzeptiert, modifiziert oder verwirft Vorschlag

- Finale Zuordnung erfolgt durch Nutzer-Aktion (Klick)


**Autonomie-Grad**: **Null** - Keine automatischen Compliance-Zuordnungen


**Risikobewertung**: **Gering** - Nutzer validiert alle Zuordnungen vor Übernahme


**Transparenz-Maßnahmen**:

- UI kennzeichnet "KI-Vorschlag" mit Icon

- BegrĂŒndung des Mappings wird angezeigt

- Nutzer sieht Original-Compliance-Text vor Übernahme

- Mapping-Historie zeigt manuelle vs. KI-vorgeschlagene Zuordnungen


**Fehlerbehandlung**:

- False Positives: Nutzer verwirft unpassende VorschlÀge

- False Negatives: Nutzer kann manuelle Zuordnungen ergÀnzen

- Compliance-Audit basiert auf finalen (validierten) Zuordnungen, nicht KI-VorschlÀgen


**Compliance-Relevanz**:

- Finale Compliance-Verantwortung liegt beim Nutzer/Unternehmen

- OTSM dokumentiert Mapping-Rationale zur Audit-UnterstĂŒtzung

- KI-Feature beschleunigt Prozess, ersetzt keine Compliance-Expertise


---


### 4.4 FMEA Failure-Suggestions


**Zweck**: Vorschlag potenzieller Ausfallarten (Failure Modes) basierend auf Funktionsbeschreibung


**Technische Umsetzung**:

- LLM analysiert Function-Charakteristiken

- Generierung typischer Failure Modes fĂŒr diese Funktionsklasse

- Vorschlag mit Severity/Occurrence-SchÀtzung


**Nutzerinteraktion**:

- System schlÀgt Failure Modes vor

- FMEA-Experte prĂŒft PlausibilitĂ€t

- Experte ĂŒbernimmt, modifiziert oder verwirft VorschlĂ€ge

- Finale Risikobewertung erfolgt durch FMEA-Team


**Autonomie-Grad**: **Null** - Keine automatischen FMEA-EintrÀge oder Risikobewertungen


**Risikobewertung**: **Gering-bis-Mittel**

- Fehlende Failure Modes können zu Sicherheitsrisiken fĂŒhren

- **Mitigation**: OTSM ersetzt keine vollstÀndige FMEA-Methodik

- **Mitigation**: Nutzer sind geschulte FMEA-Experten

- **Mitigation**: KI ergÀnzt, ersetzt nicht die Expertise


**Transparenz-Maßnahmen**:

- UI kennzeichnet "KI-generierter Vorschlag"

- VorschlÀge sind deutlich von manuell erstellten Failure Modes getrennt

- FMEA-Report kennzeichnet Herkunft (manuell/KI-unterstĂŒtzt)


**Safety-Considerations**:

- KI-VorschlĂ€ge dĂŒrfen NIEMALS als vollstĂ€ndige FMEA betrachtet werden

- Systematische FMEA-Methodik (z.B. nach AIAG-VDA) muss eingehalten werden

- Finale Safety-Bewertung erfordert menschliches Expertenwissen

- OTSM dokumentiert, dass KI-Features Hilfswerkzeuge sind


**Validation-Anforderungen**:

- FMEA-Team muss alle VorschlĂ€ge kritisch prĂŒfen

- VollstÀndigkeit-Check unabhÀngig von KI-VorschlÀgen

- Risikobewertung (RPN) erfolgt ausschließlich durch Menschen


---


### 4.5 Requirements-Konvertierung (SOPHISTEN-Syntax)


**Zweck**: Umwandlung natĂŒrlichsprachiger Requirements in strukturierte SOPHISTEN-Syntax


**Technische Umsetzung**:

- LLM analysiert Requirement-Text

- Identifikation von Aktoren, Prozesswörtern, Objekten

- Generierung SOPHISTEN-konformer Formulierung


**Nutzerinteraktion**:

- Nutzer gibt unstrukturiertes Requirement ein

- System schlÀgt SOPHISTEN-Formulierung vor

- Nutzer prĂŒft und editiert Vorschlag

- Finale Formulierung wird durch Nutzer gespeichert


**Autonomie-Grad**: **Null** - Keine automatische Übernahme


**Risikobewertung**: **Minimal** - Syntaktische Hilfe, keine inhaltliche Änderung


**Transparenz-Maßnahmen**:

- Original-Text bleibt sichtbar

- Änderungen sind nachvollziehbar (Diff-View)

- Nutzer kann Konvertierung ablehnen


**QualitÀtssicherung**:

- Automatische Validierung gegen SOPHISTEN-Regeln

- Warnungen bei unklaren Formulierungen

- Finale QualitĂ€tsprĂŒfung durch Requirements Engineer


---


## 5. Risikobewertung nach EU AI Act


### 5.1 Klassifizierung


**OTSM KI-Funktionen sind KEINE Hochrisiko-KI-Systeme gemĂ€ĂŸ Artikel 6 EU AI Act, weil**:


1. **Keine kritische Infrastruktur**: OTSM verwaltet keine kritische Infrastruktur direkt

2. **Keine Sicherheitskomponente**: KI ist nicht Teil von Safety-kritischen Produkten

3. **Keine autonomen Entscheidungen**: Alle Outputs erfordern menschliche Validierung

4. **Assistenz-Charakter**: KI unterstĂŒtzt Experten, ersetzt sie nicht


**Einstufung**: **Minimal-Risiko-System mit Transparenzpflicht** (Artikel 50 EU AI Act)


### 5.2 BegrĂŒndung der Nicht-Hochrisiko-Einstufung


| Hochrisiko-Kriterium (Art. 6) | OTSM-Situation | ErfĂŒllt? |

|--------------------------------|----------------|----------|

| Sicherheitskomponente in Produkten | KI ist Teil eines Entwicklungstools, nicht des Endprodukts | ❌ Nein |

| Management kritischer Infrastruktur | Dokumentation, keine Steuerung | ❌ Nein |

| Biometrische Identifikation | Nicht vorhanden | ❌ Nein |

| Kritische Infrastruktur (Energie, Wasser, etc.) | B2B-Software fĂŒr Engineering | ❌ Nein |

| Bildung/Berufliche Bildung | Produktivsystem, kein Bildungssystem | ❌ Nein |

| BeschĂ€ftigung/HR | Requirements Engineering Tool | ❌ Nein |

| Zugang zu Dienstleistungen | Internes Engineering-Tool | ❌ Nein |

| Strafverfolgung | Keine Anwendung | ❌ Nein |

| Migration/Asyl | Keine Anwendung | ❌ Nein |

| Rechtspflege | Keine Anwendung | ❌ Nein |


### 5.3 Restrisiken und Mitigation


#### Risiko 1: UnvollstĂ€ndige FMEA durch Übervertrauen in KI

**Wahrscheinlichkeit**: Gering

**Impact**: Mittel-Hoch (potenzielle Safety-LĂŒcken)

**Mitigation**:

- UI-Warnhinweise: "KI-VorschlÀge ersetzen keine vollstÀndige FMEA"

- Dokumentation betont Hilfswerkzeug-Charakter

- Schulungsunterlagen fĂŒr Nutzer

- FMEA-VollstÀndigkeits-Checklisten unabhÀngig von KI


#### Risiko 2: Fehlerhafte Compliance-Zuordnungen

**Wahrscheinlichkeit**: Mittel

**Impact**: Mittel (Compliance-LĂŒcken, Audit-Probleme)

**Mitigation**:

- Alle Mappings erfordern explizite Nutzer-BestÀtigung

- Compliance-Reports kennzeichnen Validierungsstatus

- RegelmĂ€ĂŸige Compliance-Reviews empfohlen

- KI-Confidence-Score wird angezeigt


#### Risiko 3: Datenschutzverletzung durch KI

**Wahrscheinlichkeit**: Sehr gering

**Impact**: Hoch (GDPR-VerstĂ¶ĂŸe)

**Mitigation**:

- Lokales Hosting, keine externen AI-Provider

- Keine Übermittlung von Kundendaten an Dritte

- Ollama-Modelle laufen vollstÀndig offline

- Multi-Tenant-Isolation in der Datenbank


#### Risiko 4: Bias in KI-VorschlÀgen

**Wahrscheinlichkeit**: Mittel

**Impact**: Gering (ineffiziente VorschlÀge)

**Mitigation**:

- Nutzer können alle VorschlÀge ablehnen

- Keine automatische Übernahme

- Feedback-Loop fĂŒr Verbesserung geplant (Phase 2)


### 5.4 Risiko-Matrix


| Feature | Autonomie | Risiko | Transparenz | Validierung | Gesamt-Risiko |

|---------|-----------|--------|-------------|-------------|---------------|

| Semantische Suche | Keine | Minimal | Hoch | Nutzer prĂŒft Ergebnisse | **Minimal** |

| Duplikatserkennung | Keine | Minimal | Hoch | Nutzer entscheidet | **Minimal** |

| Compliance-Mapping | Keine | Gering | Hoch | Nutzer validiert | **Gering** |

| FMEA Suggestions | Keine | Gering-Mittel | Hoch | FMEA-Team validiert | **Gering** |

| Requirements-Konvertierung | Keine | Minimal | Hoch | Nutzer editiert | **Minimal** |


**Gesamt-Risikobewertung**: **MINIMAL bis GERING**


---


## 6. Compliance-Maßnahmen


### 6.1 Transparenzpflichten (Artikel 50 EU AI Act)


✅ **ErfĂŒllt durch**:

- KI-generierte Inhalte sind in der UI deutlich gekennzeichnet

- Nutzer werden ĂŒber KI-Nutzung informiert (Onboarding, Dokumentation)

- Diese Compliance-Dokumentation ist fĂŒr Kunden verfĂŒgbar

- Terms of Service erwÀhnen KI-Features explizit


### 6.2 Technische Dokumentation


✅ **Vorhanden**:

- Modell-Spezifikationen (siehe Abschnitt 3)

- Feature-Beschreibungen (siehe Abschnitt 4)

- Risikobewertung (siehe Abschnitt 5)

- Datenfluss-Diagramme (siehe Abschnitt 7)


### 6.3 Menschliche Aufsicht (Human Oversight)


✅ **Implementiert**:

- **Alle** KI-Outputs erfordern menschliche Aktion zur Übernahme

- Keine automatischen Entscheidungen oder Änderungen

- Nutzer können KI-Features deaktivieren

- Opt-Out-Mechanismus in den Settings


### 6.4 Genauigkeit und Robustheit


✅ **Maßnahmen**:

- Versionskontrolle der Ollama-Modelle

- Kontrollierte Updates (Test-Umgebung → Produktion)

- Monitoring der KI-Performance (geplant: Feedback-Loop)

- Fallback auf manuelle Prozesse bei KI-Ausfall


### 6.5 Cybersecurity


✅ **Maßnahmen**:

- Ollama lÀuft in isolierter Umgebung

- Keine Internetverbindung fĂŒr KI-Modelle erforderlich

- RegulÀre Security-Updates des Host-Systems

- Multi-Tenant-Isolation verhindert Cross-Tenant-Zugriffe


### 6.6 DatenqualitÀt und Datenverwaltung


✅ **Maßnahmen**:

- Embeddings werden aus finalen (validierten) Requirements generiert

- Keine KI-Training auf Produktionsdaten

- Klare Trennung zwischen Trainings- und Produktionsdaten

- Nutzer-Daten werden nicht fĂŒr Modell-Verbesserung verwendet (keine Telemetrie)


---


## 7. Datenfluss und Verarbeitung


### 7.1 Datenfluss-Diagramm


```

[Nutzer-Input (Browser)]

↓

[OTSM Frontend (React)]

↓

[OTSM Backend (Node.js/Fastify)]

↓

[Ollama Service (lokal)]

↓ ↓

[nomic-embed] [llama3.2]

↓ ↓

[PostgreSQL + pgvector]

↓

[OTSM Backend (Ergebnis)]

↓

[OTSM Frontend (Anzeige)]

↓

[Nutzer-Validierung]

```


**Kritischer Punkt**: Keine Daten verlassen das lokale System. Keine API-Calls an externe AI-Provider.


### 7.2 Datenarten und Verarbeitung


| Daten-Typ | Beispiel | KI-Verarbeitung | Speicherung | Retention |

|-----------|----------|-----------------|-------------|-----------|

| Requirement-Text | "Das System muss..." | Embedding-Generierung | PostgreSQL | Kundenspezifisch |

| Embeddings (Vektoren) | [0.234, -0.456, ...] | Similarity Search | PostgreSQL/pgvector | Wie Requirement |

| FMEA-Funktionsbeschreibung | "BremskraftverstÀrkung" | LLM-Analyse | PostgreSQL | Kundenspezifisch |

| KI-VorschlÀge (temporÀr) | "Möglicher Failure: ..." | Anzeige, nicht gespeichert | Nicht persistent | Session |

| Nutzer-Validierungen | "Übernommen/Abgelehnt" | Keine (Logging optional) | PostgreSQL | Audit-Trail |


### 7.3 Keine Übermittlung sensibler Daten


**OTSM ĂŒbertrĂ€gt KEINE Daten an**:

- Externe AI-Provider (OpenAI, Anthropic, etc.)

- Cloud-basierte ML-Services

- Drittanbieter-Analytics

- Telemetrie-Services (kein Sentry fĂŒr KI-Logs)


**BegrĂŒndung**: Automotive Requirements können geistiges Eigentum, GeschĂ€ftsgeheimnisse oder sicherheitskritische Informationen enthalten.


---


## 8. Nutzer-Information und Transparenz


### 8.1 Onboarding und Dokumentation


**Neue Nutzer werden informiert durch**:

1. **Onboarding-Tour**: EinfĂŒhrung in KI-Features mit Hinweis auf Validierungspflicht

2. **Feature-Tooltips**: UI zeigt "KI-unterstĂŒtzt" mit Info-Icon

3. **Hilfe-Dokumentation**: Detaillierte Beschreibung aller KI-Features

4. **Video-Tutorials**: Demonstration der KI-Nutzung mit Best Practices


### 8.2 UI-Kennzeichnungen


**Alle KI-generierten Inhalte tragen folgende Kennzeichnungen**:


- **Icon**: đŸ€– oder "AI" Badge

- **Tooltip**: "Dieser Vorschlag wurde KI-gestĂŒtzt generiert und erfordert Ihre Validierung"

- **Farb-Codierung**: KI-VorschlÀge haben hellen Hintergrund (z.B. hellblau)

- **Differenzierung**: Klare visuelle Trennung zwischen manuellen und KI-Inhalten


**Beispiel (Compliance-Mapping)**:

```

┌─────────────────────────────────────────┐

│ đŸ€– KI-Vorschlag: NIS2-Mapping │

│ ──────────────────────────────────── │

│ Empfohlene Zuordnung: │

│ NIS2 Art. 21 (2) - Risikoanalyse │

│ │

│ BegrĂŒndung: Das Requirement beschreibt │

│ Risikobewertung fĂŒr kritische Systeme │

│ │

│ [✓ Übernehmen] [✗ Ablehnen] [✎ Anpassen]│

└─────────────────────────────────────────┘

```


### 8.3 Opt-Out Mechanismus


**Nutzer können KI-Features deaktivieren**:

- **Global**: Alle KI-Features in Settings deaktivieren

- **Feature-spezifisch**: Einzelne Features (z.B. nur FMEA-Suggestions) deaktivieren

- **TemporĂ€r**: "Nicht mehr vorschlagen" fĂŒr spezifische VorschlĂ€ge


**Auswirkung bei Deaktivierung**:

- System funktioniert vollstÀndig ohne KI

- Keine EinschrÀnkungen bei Kern-FunktionalitÀten

- Manuelle Prozesse bleiben verfĂŒgbar


---


## 9. Kundeninformation (Extern)


### 9.1 Website / Produktbeschreibung


**Empfohlene Formulierung fĂŒr Marketing-Materialien**:


> **KI-gestĂŒtzte Effizienz mit voller Kontrolle**

>

> OTSM nutzt lokal gehostete KI-Modelle (Ollama), um Ihre Requirements Engineering Prozesse zu beschleunigen. Alle KI-VorschlĂ€ge sind transparent gekennzeichnet und erfordern Ihre explizite Validierung. Ihre Daten bleiben in Deutschland und werden niemals an externe AI-Provider ĂŒbermittelt.

>

> - ✅ Semantische Suche in Requirements

> - ✅ Intelligente Duplikatserkennung

> - ✅ Compliance-Mapping-VorschlĂ€ge

> - ✅ FMEA Failure-Suggestions

> - ✅ EU AI Act konform

> - ✅ 100% Datenkontrolle - keine externen AI-APIs


### 9.2 Terms of Service / Nutzungsbedingungen


**Empfohlener Abschnitt fĂŒr ToS**:


> **§X - KI-gestĂŒtzte Funktionen**

>

> (1) OTSM nutzt lokal gehostete KI-Modelle (Ollama mit nomic-embed-text und llama3.2) zur UnterstĂŒtzung folgender Funktionen:

> - Semantische Suche in Requirements

> - Duplikatserkennung

> - VorschlĂ€ge fĂŒr Compliance-Zuordnungen (NIS2, ISO 27001, etc.)

> - VorschlĂ€ge fĂŒr FMEA Failure Modes

> - Konvertierung in SOPHISTEN-Syntax

>

> (2) Alle KI-VorschlĂ€ge sind als solche gekennzeichnet und erfordern die explizite Validierung durch den Nutzer. Die finale Verantwortung fĂŒr alle Engineering-Entscheidungen, Compliance-Zuordnungen und Risikobewertungen liegt beim Nutzer bzw. dessen Organisation.

>

> (3) Die KI-Modelle werden ausschließlich auf Servern in Deutschland betrieben. Es erfolgt keine Übermittlung von Nutzer-Daten an externe AI-Provider (wie OpenAI, Anthropic, Google, etc.).

>

> (4) Nutzer können KI-Features jederzeit in den Einstellungen deaktivieren. Die Kern-FunktionalitĂ€ten von OTSM bleiben auch ohne KI-UnterstĂŒtzung vollstĂ€ndig verfĂŒgbar.

>

> (5) OTSM erfĂŒllt die Transparenzpflichten nach Artikel 50 der EU AI Act Verordnung (2024/1689). Details zur KI-Nutzung und Compliance finden sich in der technischen Dokumentation (auf Anfrage verfĂŒgbar).


### 9.3 FAQ fĂŒr Kunden


**Empfohlene FAQ-EintrÀge**:


**Q: Welche KI-Technologie nutzt OTSM?**

A: OTSM nutzt Ollama mit den Open-Source-Modellen nomic-embed-text (fĂŒr semantische Suche) und llama3.2 (fĂŒr Text-Generierung). Diese Modelle laufen vollstĂ€ndig auf unseren Servern in Deutschland, ohne externe API-Calls.


**Q: Werden meine Daten an OpenAI, ChatGPT oder andere AI-Provider ĂŒbermittelt?**

A: Nein, niemals. Alle KI-Verarbeitung erfolgt lokal auf unseren Servern in Deutschland. Ihre Requirements, FMEA-Daten und Compliance-Informationen verlassen unser System nicht.


**Q: Ist OTSM konform mit der EU KI-Verordnung?**

A: Ja. OTSM ist als Minimal-Risiko-System eingestuft, da alle KI-Features als Assistenzsysteme ohne autonome Entscheidungsbefugnis konzipiert sind. Wir erfĂŒllen alle Transparenzpflichten nach Artikel 50 EU AI Act.


**Q: Kann ich die KI-Features deaktivieren?**

A: Ja, Sie können KI-Features global oder einzeln in den Einstellungen deaktivieren. OTSM funktioniert vollstĂ€ndig ohne KI-UnterstĂŒtzung.


**Q: Wer ist verantwortlich fĂŒr Engineering-Entscheidungen?**

A: Sie bzw. Ihre Organisation. Alle KI-VorschlĂ€ge erfordern Ihre explizite Validierung und Freigabe. OTSM unterstĂŒtzt Ihre Experten, ersetzt sie nicht.


**Q: Kann die KI falsche VorschlÀge machen?**

A: Ja, wie jedes Assistenzsystem kann auch unsere KI unpassende oder unvollstÀndige VorschlÀge generieren. Deshalb ist die menschliche Validierung durch Ihre Experten zwingend erforderlich und technisch erzwungen.


---


## 10. Interne Prozesse und Governance


### 10.1 Verantwortlichkeiten


| Rolle | Verantwortung | Person |

|-------|---------------|--------|

| **Product Owner** | Strategische KI-Integration | Thomas [Nachname] |

| **Technical Lead** | KI-Implementierung, Modell-Updates | Thomas [Nachname] |

| **Compliance Officer** | EU AI Act Monitoring, Dokumentation | [zukĂŒnftig zu besetzen] |

| **Quality Manager** | Testing, Validierung | [zukĂŒnftig zu besetzen] |


**Hinweis**: Bei aktueller Team-GrĂ¶ĂŸe (1 Person) liegt alle Verantwortung beim Founder. Bei Team-Wachstum sind obige Rollen zu besetzen.


### 10.2 Review-Zyklus


**Dieses Dokument wird ĂŒberprĂŒft**:

- **HalbjÀhrlich** (Februar & August)

- **Nach Modell-Updates** (neue Ollama-Version)

- **Nach EU AI Act Änderungen** (Gesetzesanpassungen)

- **Nach kritischen Incidents** (Security, Fehlfunktionen)


**NĂ€chster Review-Termin**: August 2026


### 10.3 Modell-Update-Prozess


**Vor einem Modell-Update (neue Ollama-Version)**:


1. **Test-Installation** in separater Umgebung

2. **Funktions-Tests** aller KI-Features

3. **Output-Quality-Vergleich** (alte vs. neue Version)

4. **Risiko-Assessment** (neue Risiken durch Update?)

5. **Dokumentations-Update** (Versions-Nummern, Change-Log)

6. **Produktions-Rollout** mit Rollback-Plan


**Dokumentation**:

- Change-Log: `/docs/AI_Model_Updates.md`

- Test-Reports: `/test-reports/ai-model-tests/`


### 10.4 Incident Response


**Bei KI-bezogenen Incidents (z.B. fehlerhafte VorschlÀge, AusfÀlle)**:


1. **Identifikation**: Incident-Meldung (Nutzer-Report, Monitoring)

2. **Triage**: KritikalitÀt bewerten (Sicherheitsrelevant? Compliance-relevant?)

3. **Mitigation**:

- Kritisch: KI-Feature temporÀr deaktivieren

- Unkritisch: Dokumentation, Tracking fĂŒr nĂ€chstes Update

4. **Root Cause Analysis**: Ursache ermitteln (Modell-Fehler? Daten-Problem? Bug?)

5. **Fix**: Implementierung + Test

6. **Dokumentation**: Incident-Report + Lessons Learned

7. **Kommunikation**: Bei kritischen Incidents → Kunden-Info


**Incident-Log**: `/docs/AI_Incidents.md`


---


## 11. ZukĂŒnftige Entwicklungen


### 11.1 Geplante KI-Erweiterungen (Phase 2)


**Potenzielle neue Features (frĂŒhestens Q3/Q4 2026)**:

- Automatische Requirements-Extraktion aus Dokumenten (PDF, DOCX)

- Verbesserte FMEA-VorschlÀge mit Detection-Measures

- Multi-Lingual Support fĂŒr Requirements (Übersetzungs-VorschlĂ€ge)

- Trace-VorschlÀge zwischen Requirements und Tests


**Compliance-Relevanz bei Erweiterungen**:

- Jedes neue KI-Feature erfordert Risiko-Assessment

- Update dieser Compliance-Dokumentation

- Ggf. Anpassung der Nutzer-Information


### 11.2 Monitoring EU AI Act Entwicklung


**Relevante Stichtage**:

- **02.08.2026**: EU AI Act Anwendungsbeginn (High-Risk-Systeme)

- **02.02.2027**: Allgemeine Anwendung (alle KI-Systeme)


**Maßnahmen**:

- HalbjÀhrliche Review relevanter Rechtsprechung

- Monitoring von BfDI (Bundesdatenschutzbeauftragter) Guidance

- Teilnahme an Industry-Foren (z.B. Bitkom AI Compliance)


### 11.3 Exit-Strategie


**Falls OTSM als Hochrisiko-System eingestuft wird** (z.B. durch Rechtsprechung):


**Option 1: Compliance-Upgrade**

- KonformitÀtsbewertung nach Artikel 43 EU AI Act

- Technische Dokumentation erweitern (Artikel 11)

- Risikomanagementsystem implementieren (Artikel 9)

- CE-Kennzeichnung beantragen

- **Aufwand**: Hoch (6-12 Monate, ca. 50.000-100.000 EUR)


**Option 2: KI-Degradierung**

- KI-Features optional machen (reine Assistenz, klar deaktivierbar)

- Noch stÀrkere Betonung des Human-in-the-Loop

- Marketing-Fokus auf manuelle Prozesse, KI als Bonus

- **Aufwand**: Gering (hauptsÀchlich Marketing/Kommunikation)


**Option 3: KI-Removal**

- VollstÀndige Entfernung aller KI-Features

- Fokus auf strukturierte Datenverwaltung ohne AI

- **Aufwand**: Mittel (2-3 Monate Refactoring)


**Aktuelle EinschÀtzung**: Option 1 oder 2 wahrscheinlich ausreichend, Option 3 unwahrscheinlich notwendig.


---


## 12. AnhÀnge


### 12.1 Definitionen und Glossar


| Begriff | Definition |

|---------|------------|

| **EU AI Act** | Verordnung (EU) 2024/1689 ĂŒber KĂŒnstliche Intelligenz (AI Act) |

| **Hochrisiko-KI-System** | KI-System gemĂ€ĂŸ Artikel 6 EU AI Act mit hohem Risikopotenzial |

| **Minimal-Risiko-System** | KI-System mit minimalen oder keinen Risiken (Art. 50 Transparenzpflicht) |

| **Human-in-the-Loop** | KI-Design, bei dem menschliche Aufsicht vor jeder Entscheidung erforderlich ist |

| **Ollama** | Open-Source-Plattform fĂŒr lokales Hosting von LLMs |

| **Embedding** | VektorreprĂ€sentation von Text fĂŒr semantische Ähnlichkeitssuche |

| **SOPHISTEN** | Methodik fĂŒr strukturierte Requirements-Formulierung |

| **FMEA** | Failure Mode and Effects Analysis - Risikoanalysemethode |

| **pgvector** | PostgreSQL-Extension fĂŒr Vektor-Similarity-Search |


### 12.2 Referenzen und Rechtsgrundlagen


**PrimÀre Rechtsgrundlagen**:

- EU AI Act (Verordnung 2024/1689) - https://eur-lex.europa.eu/

- GDPR (Verordnung 2016/679) - Datenschutz-Grundverordnung

- NIS2-Richtlinie (EU 2022/2555) - Netz- und Informationssicherheit


**Technische Standards**:

- ISO/IEC 23894:2023 - AI Risk Management

- ISO/IEC 42001:2023 - AI Management System

- SOPHISTEN Requirements Engineering Methodik


**Weitere Quellen**:

- Ollama Documentation - https://ollama.ai/

- nomic-embed-text Model Card - https://huggingface.co/nomic-ai/nomic-embed-text-v1.5

- Meta Llama 3.2 License - https://llama.meta.com/


### 12.3 Kontakt und Fragen


**FĂŒr Fragen zu dieser Dokumentation**:

- **Technisch**: Thomas [Nachname], [E-Mail]

- **Compliance**: [E-Mail] (oder Thomas wĂ€hrend GrĂŒndungsphase)

- **Allgemein**: support@otsm.de


**Dokumenten-Historie**:

- **Version 1.0** (Februar 2026): Initiale Erstellung vor Go-Live


---


## Unterschrift und Freigabe


**Erstellt durch**: Thomas [Nachname], Founder & Lead Developer

**Datum**: [Datum einfĂŒgen]

**NĂ€chste Review**: August 2026


**Freigegeben fĂŒr**:

- ✅ Interne Verwendung (Team-Dokumentation)

- ✅ Externe Verwendung (Kunden auf Anfrage)

- ✅ Audit-Zwecke (Compliance-PrĂŒfungen)


---


**Hinweis**: Dieses Dokument ist ein lebendes Dokument und wird entsprechend der EU AI Act Entwicklung, technischer Änderungen und neuer Erkenntnisse aktualisiert.