WWitness
Erste SchritteAkademieExperten-ChatPreiseBlog
Anmelden

EU-KI-Verordnung Glossar

Wichtige Begriffe und Definitionen aus der Verordnung (EU) 2024/1689, verständlich erklärt.

Springe zu:ABCEGHIKMRSTVÜ
A

Anbieter

Art. 3(3)

Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Marke in Verkehr bringt oder in Betrieb nimmt, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht.

Verwandtes Tool: Rollenklassifizierer

Anhang III

Anhang III

Der Anhang, der 8 Hochrisikobereiche mit spezifischen Anwendungsfällen auflistet, die ein KI-System automatisch als Hochrisiko einstufen. Bereiche umfassen Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienstleistungen, Strafverfolgung, Migration und Justiz/Demokratie.

Anhang IV

Anhang IV

Der Anhang, der den erforderlichen Inhalt der technischen Dokumentation festlegt, die Anbieter von Hochrisiko-KI-Systemen erstellen und pflegen müssen. Umfasst 9 Abschnitte von der allgemeinen Systembeschreibung bis zur Marktüberwachung nach dem Inverkehrbringen.

Verwandtes Tool: Dokumentationsgenerator
B

Begrenztes Risiko

Art. 50

KI-Systeme, die Transparenzpflichten gemäß Artikel 50 unterliegen. Nutzer müssen darüber informiert werden, dass sie mit KI interagieren. Umfasst Chatbots, Emotionserkennungssysteme und KI-generierte Inhalte (Deepfakes).

Benannte Stelle

Art. 28

Eine unabhängige Organisation, die von einem EU-Mitgliedstaat benannt wurde, um Konformitätsbewertungen durch Dritte für bestimmte Hochrisiko-KI-Systeme durchzuführen, insbesondere solche mit biometrischer Identifizierung.

Bestimmungszweck

Art. 3(12)

Die Verwendung, für die ein KI-System vom Anbieter vorgesehen ist, einschließlich des spezifischen Kontexts und der Nutzungsbedingungen gemäß den Informationen des Anbieters in der Gebrauchsanweisung, den Werbematerialien und der technischen Dokumentation.

Betreiber

Art. 3(4)

Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System unter ihrer Aufsicht einsetzt, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.

Verwandtes Tool: Rollenklassifizierer

Biometrische Echtzeit-Fernidentifizierung

Art. 3(41)

Ein biometrisches Identifizierungssystem, bei dem die Erfassung biometrischer Daten, der Vergleich und die Identifizierung ohne wesentliche Verzögerung erfolgen. In öffentlich zugänglichen Räumen für die Strafverfolgung streng verboten, mit engen Ausnahmen, die eine vorherige richterliche Genehmigung erfordern.

Biometrische Identifizierung

Art. 3(35)

Die automatisierte Erkennung physischer, physiologischer oder verhaltensbezogener menschlicher Merkmale zum Zweck der Feststellung der Identität einer natürlichen Person durch Vergleich biometrischer Daten mit gespeicherten Referenzdaten. Eins-zu-viele-Vergleich.

C

CE-Kennzeichnung

Art. 48

Die Kennzeichnung, die an Hochrisiko-KI-Systemen angebracht werden muss, um die Konformität mit der KI-Verordnung anzuzeigen. Die CE-Kennzeichnung muss sichtbar, leserlich und dauerhaft sein und wird vor dem Inverkehrbringen des Systems angebracht.

E

Emotionserkennungssystem

Art. 3(39)

Ein KI-System zur Identifizierung oder Ableitung von Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten. Die Verwendung am Arbeitsplatz und in Bildungseinrichtungen ist nach Artikel 5 verboten.

EU-Datenbank

Art. 71

Eine öffentliche EU-Datenbank, in der Hochrisiko-KI-Systeme vor dem Inverkehrbringen oder der Inbetriebnahme registriert werden müssen. Von der Europäischen Kommission verwaltet und kostenlos für die Öffentlichkeit zugänglich.

EU-Konformitätserklärung

Art. 47

Ein Dokument, das der Anbieter für jedes Hochrisiko-KI-System erstellt und das bestätigt, dass das System die Anforderungen der KI-Verordnung erfüllt. Muss aktuell gehalten und den zuständigen nationalen Behörden 10 Jahre nach dem Inverkehrbringen zur Verfügung gestellt werden.

G

Grundrechtliche Folgenabschätzung (FRIA)

Art. 27

Eine Bewertung, die Betreiber von Hochrisiko-KI-Systemen in bestimmten Sektoren vor der Inbetriebnahme durchführen müssen. Erforderlich für öffentliche Stellen und private Einrichtungen, die wesentliche Dienstleistungen wie Gesundheitsversorgung, Bildung und Versicherung erbringen.

Verwandtes Tool: FRIA-Generator
H

Harmonisierte Normen

Art. 40

Technische Normen, die von europäischen Normungsorganisationen (CEN, CENELEC, ETSI) auf Ersuchen der Kommission angenommen werden. KI-Systeme, die harmonisierte Normen einhalten, genießen eine Konformitätsvermutung mit den Anforderungen der KI-Verordnung, die diese Normen abdecken.

Hochrisiko-KI-System

Art. 6

Ein KI-System, das unter einen der in Anhang III aufgeführten Anwendungsfälle fällt oder ein Sicherheitsbauteil eines Produkts ist, das unter bestehende EU-Harmonisierungsvorschriften gemäß Anhang I fällt. Hochrisikosysteme unterliegen den umfassendsten Pflichten der KI-Verordnung.

Verwandtes Tool: KI-System-Klassifizierer
I

Inakzeptables Risiko

Art. 5

KI-Praktiken, die vollständig verboten sind, weil sie eine eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Grundrechte von Menschen darstellen. Umfasst Social Scoring, manipulative KI, biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit engen Ausnahmen) und Emotionserkennung am Arbeitsplatz/in Bildungseinrichtungen.

Inbetriebnahme

Art. 3(11)

Die Bereitstellung eines KI-Systems zur erstmaligen Verwendung unmittelbar an den Betreiber oder zur Eigennutzung in der Union für seinen Bestimmungszweck. Unterscheidet sich vom Inverkehrbringen, da es sich auf die tatsächliche Nutzung und nicht auf die Bereitstellung bezieht.

Inverkehrbringen

Art. 3(9)

Die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt. Dies löst wichtige Compliance-Pflichten für Anbieter aus.

K

KI-Kompetenz

Art. 4

Die Pflicht für Anbieter und Betreiber, sicherzustellen, dass ihr Personal und andere Personen, die mit KI-Systemen umgehen, über ein ausreichendes Maß an KI-Kompetenz verfügen. Dies gilt für ALLE KI-Systeme unabhängig von der Risikostufe und gehört zu den ersten Bestimmungen, die in Kraft treten (2. Februar 2025).

Verwandtes Tool: Akademie

KI-Modell mit allgemeinem Verwendungszweck (GPAI)

Art. 51

Ein KI-Modell, das mit einer großen Datenmenge unter Verwendung von Selbstüberwachung in großem Maßstab trainiert wird, eine signifikante Allgemeinheit aufweist, eine Vielzahl unterschiedlicher Aufgaben kompetent ausführen kann und in nachgelagerte KI-Systeme oder Anwendungen integriert werden kann. Unterliegt spezifischen Transparenz- und Dokumentationspflichten.

KI-System

Art. 3(1)

Ein maschinenbasiertes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie arbeitet, nach dem Einsatz Anpassungsfähigkeit zeigen kann und aus Eingaben ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugt werden, die physische oder virtuelle Umgebungen beeinflussen können.

Verwandtes Tool: KI-System-Klassifizierer

Konformitätsbewertung

Art. 43

Das Verfahren zur Überprüfung, ob ein Hochrisiko-KI-System die Anforderungen der KI-Verordnung erfüllt, bevor es in Verkehr gebracht werden kann. Die meisten Systeme verwenden Selbstbewertung (Anhang VI), während biometrische Identifizierungssysteme eine Drittbewertung durch eine benannte Stelle erfordern.

Verwandtes Tool: Konformitätsbewertungs-Tool
M

Marktüberwachungsbehörde

Art. 70

Die nationale Behörde, die für die Marktüberwachung von KI-Systemen zuständig ist. Jeder Mitgliedstaat muss mindestens eine Behörde benennen, um die Anwendung der KI-Verordnung in seinem Hoheitsgebiet zu überwachen.

Minimales Risiko

Erwägungsgrund 28

KI-Systeme, die nicht in die Kategorien verboten, Hochrisiko oder begrenztes Risiko fallen. Diese Systeme unterliegen keinen spezifischen Pflichten der KI-Verordnung, obwohl freiwillige Verhaltenskodizes empfohlen werden.

R

Regulatorischer Sandkasten

Art. 57

Ein kontrollierter Rahmen, der von einer zuständigen Behörde eingerichtet wird, um die Entwicklung, Prüfung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum unter regulatorischer Aufsicht zu ermöglichen. In jedem Mitgliedstaat muss bis zum 2. August 2026 mindestens ein Sandkasten betriebsbereit sein.

Risikomanagementsystem

Art. 9

Ein kontinuierlicher iterativer Prozess, der während des gesamten Lebenszyklus eines Hochrisiko-KI-Systems geplant und durchgeführt wird. Er umfasst die Identifizierung von Risiken, deren Schätzung und Bewertung, die Annahme von Risikomanagementmaßnahmen und deren Prüfung.

Verwandtes Tool: Risikomanagementsystem-Tool
S

Schwerwiegender Vorfall

Art. 73

Ein Vorfall oder eine Fehlfunktion eines KI-Systems, der/die direkt oder indirekt zum Tod, zu schweren Gesundheitsschäden oder Grundrechtsverletzungen, zu schweren Sachschäden oder zu schweren Umweltschäden führt. Muss den Marktüberwachungsbehörden gemeldet werden.

Systemisches Risiko

Art. 51

Ein Risiko, das spezifisch für die Fähigkeiten von KI-Modellen mit allgemeinem Verwendungszweck mit hoher Wirkung ist. Ein GPAI-Modell wird als systemisches Risiko eingestuft, wenn es hochleistungsfähige Fähigkeiten hat oder von der Kommission anhand spezifischer Kriterien als solches eingestuft wird.

T

Technische Dokumentation

Art. 11

Umfassende Dokumentation, die Anbieter von Hochrisiko-KI-Systemen vor dem Inverkehrbringen ihres Systems erstellen müssen. Muss aktuell gehalten und den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt werden.

Verwandtes Tool: Dokumentationsgenerator
Ü

Überwachung nach dem Inverkehrbringen

Art. 72

Ein System, das Anbieter von Hochrisiko-KI-Systemen einrichten und dokumentieren müssen, um aktiv und systematisch Daten über die Leistung ihrer KI-Systeme während deren gesamter Lebensdauer zu sammeln, zu analysieren und zu bewerten.

V

Vernünftigerweise vorhersehbare Fehlanwendung

Art. 3(13)

Die Verwendung eines KI-Systems in einer Weise, die nicht seinem Bestimmungszweck entspricht, aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder der Interaktion mit anderen Systemen resultieren kann. Anbieter müssen dies in ihrem Risikomanagement berücksichtigen.