Stand: 20. März 2025
Anwendbarkeit und Relevanz des
EU-AI Acts
Der EU-AI Act stellt einen umfassenden regulatorischen Rahmen für
künstliche Intelligenz in der Europäischen Union dar. Für lector.ai als
KI-gestützte Plattform zur Dokumentenklassifikation und
Informationsextraktion ergibt sich folgende Einschätzung:
- Der AI Act ist grundsätzlich für lector.ai anwendbar.
- Die Regulierungen folgen einem risikobasierten Ansatz, der
KI-Systeme entsprechend ihres konkreten Einsatzbereiches
kategorisiert.
Risikoklassifizierung
Nach eingehender Prüfung des AI Acts ergibt sich folgende klare
Einordnung:
- lector.ai fällt nicht in die Kategorie der
„Hochrisiko-Systeme“, da keine sensiblen Anwendungsbereiche (wie
öffentliche Sicherheit, Justiz, Bildung oder Migration) berührt
werden.
- Unsere Lösungen beschränken sich ausschließlich auf die
Klassifikation und Extraktion von Informationen aus Dokumenten. Für
diesen Anwendungsfall sieht der AI Act explizite Ausnahmen vor (siehe
Erwägungsgrund 53).
- Sprachmodelle werden von uns nicht eigenständig
entscheidungsunterstützend eingesetzt, sondern ausschließlich
zweckgebunden zur Dokumentenverarbeitung.
Bezug zum EU-AI Act:
Erwägungsgrund 53
Besonders relevant ist Erwägungsgrund 53 (Link),
der exakt den Anwendungsfall von lector.ai adressiert:
„Wenn KI-Systeme eingesetzt werden, die die Entscheidungsfindung
nicht wesentlich beeinflussen, z.B. ein KI-System, das eingehende
Dokumente in Kategorien einordnet […], ist von geringem Risiko
auszugehen.“
Daraus folgt konkret:
- lector.ai fällt eindeutig in die Kategorie minimales
Risiko.
- Es bestehen keine zusätzlichen regulatorischen Verpflichtungen (wie
Zertifizierungen oder unabhängige Audits).
- Die Kernfunktionalitäten (Dokumentenklassifikation und -extraktion)
haben keinerlei Einfluss auf autonome Entscheidungsprozesse.
- Menschliche Kontrolle und Korrektur sind im operativen Einsatz
ausdrücklich vorgesehen.
Diese Einschätzung entspricht auch unseren internen
Datenschutzfolgeabschätzungen, welche bestätigen, dass weder
Klassifikation noch Informationsextraktion durch lector.ai die
eigentliche Entscheidungsfindung beeinflussen.
Verwendung von Sprachmodellen und
Compliance
Unsere Plattform verwendet spezialisierte Sprachmodelle für klar
definierte Aufgaben:
- Kein Finetuning: lector.ai nutzt Sprachmodelle
ausschließlich durch Prompt Engineering, ohne Modelle individuell zu
trainieren oder zu verändern.
- Die eingesetzten Modelle sind zweckgebunden und werden
ausschließlich für die Verarbeitung von Dokumenten verwendet.
- Der Einsatz fortschrittlicher Sprachmodelle ändert nichts an der
Einstufung in die minimale Risikokategorie, solange die Verarbeitung
keinen Einfluss auf eigenständige Entscheidungen oder sensible
Datenbereiche hat.
Sollte lector.ai künftig Open-Source Vision LLMs intern feinjustieren
(finetunen), ändert dies unserer Einschätzung nach nichts an der
Einordnung als Anbieter. Solange die feinjustierten Modelle nur intern
verwendet und nicht extern vermarktet oder zur Verfügung gestellt
werden, bleibt lector.ai weiterhin außerhalb der Anbieterdefinition des
AI Acts.
Zudem verwendet lector.ai als Anbieter ausschließlich Drittmodelle.
Die Kunden haben jederzeit die volle Kontrolle über die verwendeten
Prompts. lector.ai übernimmt daher keine Haftung für Ergebnisse der
Dokumentenklassifikation und -extraktion, insbesondere nicht für Fehler,
die in diesen Verarbeitungsschritten auftreten können.
Das minimale Risiko ergibt sich daraus, dass:
- keine autonomen Entscheidungen getroffen werden,
- die Lösung auf Klassifikation und Informationsextraktion begrenzt
bleibt,
- menschliche Überprüfung und Korrektur vorgesehen sind,
- keinerlei wesentlicher Einfluss auf Entscheidungsprozesse
besteht.
Kontinuierliche
Compliance-Überwachung
Zukünftige Entwicklungen werden kontinuierlich auf mögliche
Compliance-Auswirkungen geprüft:
- Bei Erweiterung oder Anpassung der Anwendungsfälle oder Technologien
erfolgt eine Neubewertung gemäß Artikel
51.
- Regelmäßige interne Compliance-Prüfungen sind erforderlich,
insbesondere bei Einführung neuer Funktionen.
- Die Weiterentwicklung des AI Acts und relevanter Interpretationen
wird aktiv beobachtet und bewertet.
Zusammenfassung
lector.ai erfüllt vollständig die Anforderungen des EU-AI Acts und
weist keinerlei Compliance-Risiken auf, da:
- die Plattform nicht in die Hochrisiko-Kategorie fällt,
- keine sensitiven oder personenbezogenen Daten entscheidungsrelevant
verarbeitet werden,
- keine Modelle trainiert oder individuell angepasst werden (aktuell
kein Finetuning),
- die Datenverarbeitung ausschließlich innerhalb der EU erfolgt,
- bestehende Vertragswerke die rechtskonforme Verarbeitung
gewährleisten.
Diese Einschätzung erfolgt regelmäßig neu, um eine dauerhafte
Compliance sicherzustellen.