Reporting-Plattform KI im Reporting
Transparente KI

KI im Reporting – Textgenerierung mit menschlicher Kontrolle

KI im Reporting heißt bei Durava: Wir setzen KI ein, um Inhalte zu extrahieren, Texte zu generieren und Qualität zu prüfen. Die fachliche Verantwortung, die finale Freigabe und die regulatorische Entscheidung bleiben immer beim Menschen – transparent, nachvollziehbar und mit vollständigem Audit-Trail.

Human-in-the-Loop ist nicht verhandelbar

Im regulatorischen Kontext gibt es keine vollautomatische Berichtserstellung. Die KI liefert Entwürfe, Vorschläge und Validierungen – der Fachexperte prüft, korrigiert und gibt frei. Jede KI-Ausgabe ist explizit als solche gekennzeichnet und durchläuft einen definierten Review-Prozess.

Wie Mensch und KI zusammenarbeiten

Drei Schritte, klare Verantwortlichkeiten – bei jeder KI-gestützten Aufgabe.

KI generiert

Erstellt Entwürfe, extrahiert Inhalte, schlägt Zuordnungen vor – auf Basis von Daten, Quellen und Templates.

Maschine

Fachexperte prüft

Bewertet, korrigiert, ergänzt – mit vollständigem Zugriff auf Quellen, Qualitätssignale und Begründungen.

Mensch

Ergebnis steht

Geprüfter Inhalt mit dokumentiertem Audit-Trail – wer hat was geprüft, wann freigegeben.

Mensch + Maschine
Einsatzbereiche

Wo KI im Reporting konkret unterstützt

Sechs Einsatzbereiche – jeder mit klarer Abgrenzung zwischen KI-Vorschlag und menschlicher Entscheidung.

Quellenextraktion

Die KI durchsucht hochgeladene Dokumente und schlägt relevante Passagen für Berichtskapitel vor. Der Analyst bestätigt oder korrigiert jeden Vorschlag.

„Outsourcing-Leitlinie, Kap. 3, S. 12 – Retrieval-Score 0,94 · Abdeckung: vollständig · 1 Quelle"

Textgenerierung

Basierend auf Schreibanleitungen, Daten und extrahierten Quellen erstellt die KI Textentwürfe für Berichtskapitel – als Ausgangspunkt, nicht als Endprodukt.

WritingGuide + Kennzahlen + ExtractedContent → strukturierter Textentwurf mit Quellenverweisen

Qualitätsvalidierung

Automatische Prüfung generierter Inhalte gegen Checklisten: Sind alle Pflichtthemen abgedeckt? Stimmt die Terminologie? Sind Zahlen belegt?

14 Prüfpunkte · 4 Kategorien · Erfüllungsgrad und Verbesserungsvorschläge pro Punkt

Dokumentenvergleich

Vergleich verschiedener Dokumentversionen oder mehrerer Dokumente: Was hat sich geändert? Was fehlt? Wo gibt es Widersprüche?

Policy v2.1 vs. v2.2 → Identifizierte Änderungen mit Impact-Bewertung auf bestehende Berichtsabschnitte

Narrative Generation

Transformation von Tabellendaten in zusammenhängende Fließtexte – Trends beschreiben, Vergleiche formulieren, Entwicklungen einordnen.

Tabelle mit Sparten-Zahlen → „Die Sachversicherung verzeichnete mit +3,8% das stärkste Wachstum…"

Daten-Mapping

KI-gestützte Zuordnung von Excel-Spalten zu Kennzahlen-Definitionen: Semantische Analyse, Datentyp-Prüfung, Transformationsvorschläge.

„Gross Written Premium" → METRIC_A2_001 (Bruttobeiträge) · Similarity: 0,95 · Transformation: umbenennen
Transparenz

Zusammengesetzte Qualitätssignale statt Pseudo-Konfidenz

Ein LLM kann nicht verlässlich einschätzen, wie korrekt seine eigene Ausgabe ist. Deshalb verlassen wir uns nicht auf einzelne Prozentwerte, sondern auf zusammengesetzte Indikatoren aus verschiedenen Systemkomponenten.

Drei Signale zusammen ergeben ein ehrliches Bild: Wurde eine passende Quelle gefunden? Wie gut passt sie zur Anforderung? Und wie vollständig wird die Anforderung abgedeckt?

Qualitätssignale: Extraktion B.7
Definition kritischer Funktionen Kurze Prüfung
Quelle gefunden Outsourcing-Richtlinie, Kap. 3, S. 12
Relevanz: hoch Retrieval-Score 0,94 – Passage enthält exakt den gesuchten Begriff
Abdeckung: vollständig 1 Quelle deckt die gesamte Anforderung ab
Governance-Prozess Detaillierte Prüfung
Quellen gefunden 2 Dokumente: Richtlinie S. 14 + Board-Beschluss S. 2
Relevanz: mittel Retrieval-Scores 0,82 / 0,71 – Informationen verteilt über Quellen
Abdeckung: teilweise Genehmigungsprozess klar, Eskalationsweg unklar
Exit-Strategien Als Gap markiert
Keine Quelle gefunden Kein Dokumentabschnitt mit ausreichender Relevanz identifiziert
Relevanz: – Bester Retrieval-Score 0,31 – unterhalb der Mindestgrenze
Abdeckung: keine Anforderung nicht erfüllt → InformationGap erstellt

Klare Grenzen, ehrliche Kommunikation

Was die KI kann – und wo die Verantwortung beim Menschen bleibt.

Was die KI kann

Entwürfe, Vorschläge, Validierung

Konsistente, strukturierte Textentwürfe erstellen
Relevante Passagen in Dokumenten identifizieren
Trends und Muster in Kennzahlen erkennen
Inhalte gegen definierte Kriterien validieren
Daten in verschiedene Formate transformieren
Lücken und Inkonsistenzen identifizieren
Wo der Mensch entscheidet

Verantwortung, Urteil, Freigabe

Faktische Korrektheit garantieren – KI kann halluzinieren
Regulatorische Entscheidungen treffen
Quelldaten inhaltlich validieren
Finale Freigabe des Berichts erteilen
Bei Unsicherheiten die fachliche Entscheidung treffen
Rechtliche oder regulatorische Beratung leisten
Menschliche Kontrolle in jeder Phase

Fünf Kontrollpunkte im Prozess

Die KI arbeitet nie allein. In jeder Phase des Berichtsprozesses gibt es definierte menschliche Kontrollpunkte.

Konfiguration

Prompts, Templates und Schreibanleitungen definieren

Quellenprüfung

Extrahierte Inhalte auf Korrektheit validieren

Review

Generierte Inhalte fachlich prüfen und korrigieren

Freigabe

Finale Genehmigung durch den Verantwortlichen

Eskalation

Bei Unsicherheiten die fachliche Entscheidung treffen

Kontinuierliche Verbesserung

Das System lernt aus jedem Review

Wenn ein Reviewer einen KI-generierten Text korrigiert, fließt dieses Feedback zurück in das System. Nicht durch „Training" des Modells, sondern durch Anpassung der Prompts, Templates und Schreibanleitungen.

Das Ergebnis: Die Textqualität verbessert sich mit jedem Berichtszyklus – messbar über Qualitätsindikatoren wie die First-Pass-Rate.

01

KI generiert

Textentwurf auf Basis aktueller Prompts und Templates

02

Mensch korrigiert

Reviewer markiert Fehler: „Terminologie falsch", „Absatz zu ausführlich"

03

Feedback fließt ein

Prompt-Templates und Schreibanleitungen werden angepasst

04

Qualität steigt

Weniger Korrekturen nötig – messbar über First-Pass-Rate und Korrekturzyklen

Was wir nicht sagen – und warum

Ehrliche Kommunikation über KI-Fähigkeiten ist kein Nachteil, sondern Vertrauensgrundlage.

„Die KI schreibt Ihre Berichte automatisch"
Die KI erstellt einen Entwurf, den Ihr Team prüft und freigibt
„Fehlerfrei durch KI"
Systematische Qualitätssicherung reduziert Fehler erheblich
„Ersetzt Ihre Compliance-Abteilung"
Entlastet Ihre Compliance-Abteilung von Routineaufgaben
„Die KI weiß, was richtig ist"
Zusammengesetzte Qualitätssignale zeigen, wo Prüfung nötig ist

Wie wird KI im Reporting eingesetzt?

KI im Reporting bedeutet nicht, dass eine künstliche Intelligenz eigenständig Berichte erstellt. Vielmehr unterstützt KI den Fachexperten in drei Kernbereichen: bei der Extraktion relevanter Inhalte aus Quelldokumenten wie Richtlinien, Policies und Board-Beschlüssen (Schritt 3 des Reporting-Workflows: Dokumentenanalyse), bei der Generierung strukturierter Textentwürfe auf Basis von Schreibanleitungen und verifizierten Daten (Schritt 4: Berichtsgenerierung mit KI) und bei der Qualitätssicherung gegen definierte Checklisten und regulatorische Anforderungen.

Der entscheidende Unterschied zu generischen KI-Textgeneratoren: Im regulatorischen Kontext arbeitet die KI mit zusammengesetzten Qualitätssignalen statt mit unzuverlässigen Konfidenzwerten. Drei Signale zusammen ergeben ein ehrliches Bild – wurde eine passende Quelle gefunden (Retrieval-Score), wie gut passt sie zur Anforderung (Relevanz), und wie vollständig wird die Anforderung abgedeckt? In Verbindung mit der lückenlosen Nachverfolgbarkeit bleibt jede generierte Aussage auf ihren Quellbeleg rückführbar – Reviewer, externe Prüfer und Aufsicht greifen auf dieselbe Beleg-Kette zu.

Besonders narrativ geprägte Berichte profitieren von KI-gestützter Generierung. Im SFCR der Versicherungsbranche etwa erleichtert die KI das Verfassen der Kapitel A (Geschäftstätigkeit), B (Governance) und D (Bewertung) – dort, wo Schreibanleitungen, regulatorische Quellen und Fachdaten zusammengeführt werden müssen. Dieselbe Logik gilt für Pillar-3-Offenlegungsberichte im Bankensektor und für die ORSA-Narrative. In allen Fällen ist die KI nur Entwurfsverfasserin, nicht Verantwortliche – die fachliche Prüfung bleibt vollständig beim Menschen.

Der Human-in-the-Loop-Ansatz ist im regulatorischen Kontext nicht optional, sondern zwingend. An fünf definierten Kontrollpunkten greift der Mensch ein: Konfiguration (Prompts und Templates), Quellenprüfung, Review, Freigabe und Eskalation. Jede KI-Ausgabe ist explizit als solche gekennzeichnet, jede Änderung dokumentiert. Die regulatorische Berichterstattung bleibt damit auch mit KI-Beteiligung auditfähig – Findings aus der externen oder internen Prüfung lassen sich in der Audit-Plattform bis auf den ursprünglichen Quellbeleg rückverfolgen.

Häufige Fragen zur KI im Reporting

Wie kann KI bei regulatorischen Berichten helfen?

KI unterstützt die regulatorische Berichterstattung in sechs Bereichen: Quellenextraktion (relevante Passagen aus Richtlinien und Policies identifizieren), Textgenerierung (strukturierte Entwürfe auf Basis von Daten und Schreibanleitungen), Qualitätsvalidierung (automatische Prüfung gegen Checklisten), Dokumentenvergleich (Änderungen zwischen Versionen erkennen), Narrative Generation (Tabellendaten in Fließtext transformieren) und Daten-Mapping (Excel-Spalten semantisch Kennzahlen-Definitionen zuordnen). In jedem Bereich bleibt der Mensch als Prüfer und Entscheider im Prozess.

Ist KI-generierter Text im SFCR zulässig?

KI-generierter Text im SFCR ist zulässig, solange er denselben Qualitäts- und Prüfprozessen unterliegt wie manuell erstellte Texte. Entscheidend ist nicht, wie der Text entstanden ist, sondern dass er fachlich korrekt, vollständig und durch verifizierte Quellen belegt ist. Die KI erstellt einen Entwurf, der durch den Fachexperten geprüft, korrigiert und freigegeben wird – mit vollständigem Audit-Trail. Dieser Human-in-the-Loop-Ansatz stellt sicher, dass die regulatorische Verantwortung beim Menschen verbleibt.

Welche Rolle spielt KI bei der Compliance-Berichterstattung?

KI spielt bei der Compliance-Berichterstattung eine unterstützende Rolle: Sie extrahiert relevante Inhalte aus Quelldokumenten, generiert Textentwürfe auf Basis definierter Schreibanleitungen und validiert Inhalte gegen regulatorische Anforderungen. Dabei arbeitet die KI mit zusammengesetzten Qualitätssignalen (Retrieval-Score, Quellen-Relevanz, Abdeckungsanalyse) statt mit unzuverlässigen Konfidenzwerten. Der Compliance Officer nutzt diese Signale, um gezielt dort zu prüfen, wo Unsicherheiten bestehen.

Was bedeutet Human-in-the-Loop bei regulatorischen Berichten?

Human-in-the-Loop bedeutet, dass in jedem Schritt des KI-gestützten Berichtsprozesses ein menschlicher Kontrollpunkt existiert. Konkret umfasst das fünf Phasen: Konfiguration (Prompts und Templates definieren), Quellenprüfung (extrahierte Inhalte validieren), Review (generierte Texte fachlich prüfen), Freigabe (finale Genehmigung durch den Verantwortlichen) und Eskalation (bei Unsicherheiten die fachliche Entscheidung treffen). Die KI arbeitet nie autonom – jede Ausgabe ist als KI-generiert gekennzeichnet und durchläuft einen definierten Review-Prozess.

Wie transparent arbeitet die KI in Ihrem Prozess?

In einer Demo zeigen wir Quellenextraktion, Textgenerierung und Validierung live – mit Qualitätssignalen und Audit-Trail.

Demo vereinbaren
Unverbindlich · 30 Minuten · Transparente KI in Aktion