Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen

Der Einsatz von Künstlicher Intelligenz in der akkreditierten Konformitätsbewertung: Technisches Briefing

Dieses Briefing analysiert die gemeinsamen Leitlinien der Deutschen Akkreditierungsstelle (DAkkS) und des United Kingdom Accreditation Service (UKAS) zum Einsatz von Künstlicher Intelligenz (KI) durch Konformitätsbewertungsstellen (KBS). Das Dokument stellt klar, dass KI-Systeme keine neuen Akkreditierungsanforderungen schaffen, jedoch eine kontextbezogene Auslegung bestehender, technologieneutraler Normen (Level-3-Normen wie ISO/IEC 17025, 17020 etc.) erfordern.

Zentrale Erkenntnisse sind:

  • Informationspflicht: Die Einführung von KI gilt als wesentliche Änderung und muss der nationalen Akkreditierungsstelle frühzeitig gemeldet werden.
  • Kontextabhängigkeit: Es gibt keinen pauschalen Anforderungskatalog; die Relevanz von Normen hängt von der Art des Systems, dem Einsatzort im Prozess und dem Grad der menschlichen Stützung ab.
  • Menschliche Letztentscheidung: Die Delegation von endgültigen Konformitätsentscheidungen an KI-Systeme ist nach aktuellem Akkreditierungsrahmen unzulässig.
  • Risikomanagement: KBS müssen Risiken wie den „Automation Bias“ durch Kompetenzaufbau und Validierung proaktiv adressieren.


1. Einleitung und Zweckbindung

Das vorliegende Dokument basiert auf dem gemeinsamen Technical Bulletin von UKAS und DAkkS. Es dient als Orientierungshilfe für die verantwortungsvolle Entwicklung und Nutzung von KI-basierten Technologien innerhalb der Geschäftstätigkeit von Konformitätsbewertungsstellen. Dabei gelten folgende Grundsätze:
  • Keine neuen Anforderungen: Das Dokument etabliert keine zusätzlichen Akkreditierungsregeln, sondern unterstützt bei der Interpretation bestehender Normen.
  • Technologieneutralität: Die bestehenden Normen bleiben maßgeblich; KI wird als Werkzeug innerhalb dieses Rahmens betrachtet.
  • Verantwortung der KBS: Die Stellen bleiben vollumfänglich für die Einhaltung der Akkreditierungsanforderungen verantwortlich, auch wenn KI-Systeme zum Einsatz kommen.


2. Meldepflichten bei KI-Implementierung

Die Einführung von KI-Technologien wird als „wesentliche Änderung“ an Ausstattung, Ressourcen oder Verfahren eingestuft. Daraus resultiert eine proaktive Informationspflicht der KBS gegenüber der nationalen Akkreditierungsstelle.

Erforderliche Informationen bei Meldung:

Kategorie Inhaltliche Anforderungen
Systembeschreibung Funktion, Verwendungszweck, Trainingsdaten, Implementierungsansatz (z. B. Algorithmen des maschinellen Lernens).
Prozessintegration Genaue Verortung des Systems innerhalb des funktionalen Konformitätsbewertungsverfahrens.
Abhängigkeitsgrad Einstufung der Funktion (administrative Unterstützung vs. Entscheidungsunterstützung vs. Delegation).


3. Die drei Säulen der kontextuellen Einordnung

Da KI eine „General-Purpose-Technologie“ ist, erfordert ihr Einsatz eine spezifische Analyse basierend auf drei zentralen Aspekten:

3.1 Art des KI-Systems

Die technische Analyse sollte der international standardisierten Terminologie (ISO/IEC 22989) folgen.
  • Anwendungsbereiche: Die spezifische Funktion (z. B. automatisierte Dokumentenprüfung vs. Predictive Maintenance) bestimmt das Risikoprofil.
  • Trainingsdaten und Wissen: Strukturierte oder unstrukturierte Daten beeinflussen die Fehleranfälligkeit (Bias) und die Anforderungen an den Datenschutz.
  • Implementierungsansatz: Die Wahl zwischen Machine-Learning-Modellen (z. B. Deep Learning) und regelbasierten Systemen beeinflusst die Erklärbarkeit und den Validierungsaufwand. Kontinuierlich lernende Systeme erfordern strengere Sicherheitsmaßnahmen als statische Modelle.

3.2 Einsatz im Konformitätsbewertungsverfahren

Es wird strikt unterschieden zwischen:
  • Administrativen Aufgaben: (z. B. E-Mail-Übersetzung). Diese bergen geringe Risiken für die Konformitätsentscheidung.
  • Kernprozessschritten: Wenn KI in den „funktionalen Ansatz“ integriert wird (z. B. Übersetzung technischer Dokumentation für die Ermittlung), steigen die Anforderungen an die Genauigkeit und Integrität.

3.3 Grad der Stützung auf das System

Die Intensität der Anforderungen korreliert mit der Abhängigkeit der KBS vom System:

  1. Reine administrative Unterstützung: Geringstes Risiko.
  2. Beratende/Entscheidungsunterstützende Funktion: Erfordert hohe Nutzerkompetenz und Systemvalidierung.
  3. Delegation von Entscheidungen: Derzeit unzulässig für die Funktionen „Bewertung“ und „Entscheidung“ gemäß ISO/IEC 17000.


4. Methodik zur Identifizierung relevanter Anforderungen

KBS müssen einen dedizierten Übertragungsschritt durchführen, um generische Normenanforderungen auf die spezifische KI-Technik anzuwenden.

Identifizierte Fokusbereiche der Normenanpassung:

  • Vertraulichkeit: Sicherstellung, dass Kundendaten nicht unbefugt für Modelltraining bei externen Anbietern genutzt werden.
  • Technische Ressourcen: KI-Systeme müssen als Ressource hinsichtlich ihrer Funktionstüchtigkeit validiert werden.
  • Personal und Kompetenz: Schulungen müssen erweitert werden, um das Risiko des „Automation Bias“ (übermäßiges Vertrauen in Systemergebnisse) zu minimieren. Personal muss in der Lage sein, Anomalien und Systemfehler zu erkennen.
  • Öffentliche Informationen: Gegebenenfalls müssen Kunden über den Einsatz von KI im Bewertungsprozess informiert werden.


5. Umsetzung und Stand der Technik

Die Einhaltung der Anforderungen kann sowohl organisatorische als auch technische Maßnahmen erfordern:
  • Organisatorisch: Etablierung von Prozessen zur menschlichen Aufsicht und verpflichtende Gegenprüfung von KI-Ergebnissen.
  • Technisch: Lokale Datenverarbeitung zur Wahrung der Vertraulichkeit oder spezifische Systemkonfigurationen.
  • Referenzierung: Während Level-3-Normen allgemeine Verpflichtungen festlegen, sollten KBS Level-5-Normen heranziehen, um den aktuellen „Stand der Technik“ bezüglich Genauigkeit, Transparenz und Robustheit zu definieren.


6. Ausschlusskriterien und Beschränkungen

Das Dokument betont, dass bestimmte Normenanforderungen als „harte Beschränkungen“ fungieren können. Wenn eine Norm explizit eine kompetente Person für eine Entscheidung vorschreibt, ist der Einsatz eines autonomen KI-Systems grundlegend untersagt. Solche Ausschlusskriterien müssen von den KBS frühzeitig identifiziert werden, um die Konformität ihrer Prozesse sicherzustellen.

Der Einsatz von KI bei der Akkreditierung wird auch eines der Themen beim Forum AKKREDITIERUNG am 22. und 23. September 2026 sein.

Weitere Veranstaltungen zum Thema künstliche Intelligenz finden Sie hier.