Die KI-Verordnung trifft in der Praxis auf Risikoscheu und fehlende technische Expertise. Das Regelwerk könnte daher zur Digitalbremse werden, auch weil finale Entscheidungen oft bei juristischen Fachabteilungen liegen, meint Jan Winterhalter.
Die europäische Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI-VO) ist das weltweit erste umfassende Regelwerk zur Nutzung von KI – und seit dem 1. August 2025 in Kraft. Doch in der praktischen Umsetzung zeigt sich schon jetzt: In den Verwaltungen bestehen Unsicherheiten über den Anwendungsbereich, institutionelle Risikoscheu und es fehlt an technischer Expertise. All dies droht dazu zu führen, dass die KI-Verordnung – ähnlich wie zuvor die Datenschutzgrundverordnung (DSGVO) – zum strategischen Hemmnis für Digitalisierungsprojekte wird.
Mit der KI-Verordnung verfolgt die Europäische Union (EU) einen umfassenden Anspruch. Ziel ist es, den Einsatz von KI europaweit zu regulieren, Risiken zu begrenzen und Grundrechte zu schützen, siehe Artikel 6 KI-VO in Verbindung mit Erwägungsgrund 27. Auch wenn die KI-VO auf politscher Ebene einen Innovationsrahmen bieten sollte, befasst sich das Regelwerk auch mit den Risiken: Einige Praktiken sind vollends untersagt (Art. 5 KI-VO), KI-Systeme mit hohem Schadenspotenzial unterliegen besonderen Auflagen, andere lediglich allgemeinen Transparenzpflichten, siehe Art. 2 KI-VO.
Doch schon in der Anlaufphase zeigt sich: Die rechtliche Systematik trifft auf eine digitale Wirklichkeit, die weitaus unübersichtlicher ist.
Anwendungsbereich unklar, Begriffe zu unbestimmt
Schon der Anwendungsbereich der KI-VO ist zu weit, da es keinen klaren, operativen KI-Begriff gibt. Zwar enthält die Verordnung in Artikel 3 Nummer 1 KI-VO eine Definition, doch diese ist technisch und begrifflich weit gefasst. Obwohl Wissenschaft und Forschung den Begriff ausführlich diskutieren, führt in der fachfremden Praxis eine nach wie vor unklare Begriffsbestimmung dazu, dass auch einfache Systeme als KI im Sinne der Verordnung eingestuft werden. Simple regelbasierte Entscheidungssysteme wie Chatbots, Textklassifizierungen zur Spam-Erkennung oder Auto-Fill-Funktionen geraten dabei ebenso ins Blickfeld wie komplexe maschinelle Lernverfahren.
Die KI-VO ist zwar vor allem auf Letztere gerichtet. Doch auch einfache logische KI-Systeme könnten aufgrund ihrer vermeintlichen Fähigkeiten zur Imitation menschlichen Verhaltens unter Artikel 3 Nummer 1 KI-VO subsumiert werden Denn bereits der erste Chatbot der Welt namens ELIZA in den 1960er Jahren zeigte, dass sich Personen von dessen Autonomie und eigenständigem Denken überzeugen ließen, obwohl dieser regelbasierte Chatbot lediglich auf vordefinierte Antwortmuster zurückgriff.
Besonders unklar bleibt zudem die Auslegung zentraler Tatbestandsmerkmale wie der Fähigkeit zur Inferenz, also zum Ableiten von Zusammenhängen oder Prognosen, siehe Artikel 3 Nummer 1 KI-VO in Verbindung mit Erwägungsgrund 12, Seite 3. Auch der Begriff der Autonomie ist nicht eindeutig bestimmt. Dies betrifft insbesondere hybride Softwarelösungen, die maschinelles Lernen mit festen Entscheidungslogiken verbinden und oft im Behördeneinsatz üblich sind. Viele Systeme, die maschinelles Lernen verwenden, verhalten sich dabei scheinbar "autonom", sind aber letztlich eng an die ihnen zugrunde liegenden Trainingsdaten oder Modelle gebunden. Bei einfacher, regelbasierter KI mit festen Entscheidungslogiken, wie dem oben erwähnten ELIZA-Chatbot, ist eine Autonomie wiederum nicht unbedingt naheliegend. Die Kombination von regelbasiertem Chatbot mit Teilen maschinellen Lernens, wie sie etwa als Assistenzsysteme auf Websites der öffentlichen Hand zunehmend zu finden sind, erschwert eine klare juristische Abgrenzung zwischen den KI-Systemen.
Keine einheitliche Software, keine allgemeinen Lösungen
Für die potenziellen Anwender der KI-VO im öffentlichen Sektor wird das zum Problem: Weder die EU-Gesetzgebung noch die begleitenden Auslegungshilfen bieten bislang eine belastbare Abgrenzung, die für Entscheidungsträger in der Verwaltung eine klare Orientierung bietet. Besonders kompliziert wird es dann, wenn eine Vielzahl unterschiedlicher Softwarelösungen untersucht werden muss, wie gerade im föderalen Gefüge üblich: Mangels einheitlicher Software ist kein standardisiertes Vorgehen möglich. Dies führt zu Einzelfall-Betrachtungen mit einer Vielzahl unterschiedlicher Rechtsaufassungen. Diese Unsicherheit führt dann wiederum nicht nur zu Auslegungsdiskussionen, sondern zur Verhinderung ganzer Projekte.
Das liegt auch daran, dass die Bewertung und letztliche Entscheidung häufig bei juristischen Fachabteilungen liegt. Diese handeln im Zweifel risikoscheu, mit Fokus auf mögliche Haftungsfragen und entsprechend dem Ressortprinzip ohne ausreichende Interaktion mit anderen notwendigen Fachabteilungen. Technisches Wissen ist damit oft nicht systematisch eingebunden. Dadurch erscheinen KI-Systeme aus der rein juristischen Bewertung heraus oft risikobehafteter, als sie tatsächlich sind.
Die Problematik verschärft sich durch die zunehmende Nutzung generativer KI-Systeme in Kombination mit sogenannten agentenbasierten Systemen. Generative KI-Systeme nutzen probabilistische (nach Wahrscheinlichkeiten berechnet) Modelle und heuristische Muster (mutmaßlich passende Lösung) zur Entscheidungsfindung. Diese beruhen nicht auf festen Regeln, sondern auf statistischen Wahrscheinlichkeiten, die für Außenstehende nicht nachvollziehbar sind. Agentensysteme basieren wiederum oftmals auf generativen KI-Systemen. Obwohl es sich dabei letzten Endes um multiple Funktionen einer Software handelt, simulieren sie menschliches Verhalten, bleiben jedoch Maschinen.
Gemein haben beide Anwendungen: Durch ihre Art und Weise, Wissen zu generieren und anzubieten, verschleiern sie ihre Entscheidungslogik und machen eine nachvollziehbare Einordnung schwierig. Dies ist ein generelles Problem der als rein immateriell und künstlich wahrgenommenen Digitalwirtschaft, zeigt sich aber besonders deutlich bei KI-Systemen.
Strategischer Rückzug wie bei DSGVO-Anwendung
Nicht selten dient diese juristische Unklarheit hinsichtlich des Anwendungsbereichs der KI-VO und organisationale Herausforderungen als willkommene Argumente zur strategischen Verlangsamung. In vielen Fällen stehen bei Digitalisierungsprojekten jedoch andere Aspekte im Vordergrund. Es geht um Budgets, politische Einflussbereiche, föderale Souveränität oder institutionelle Machtfragen. Rechtliche Risiken werden in diesen Fällen gezielt als Begründung genutzt, um Projekte aufzuschieben oder zu modifizieren.
Ein ähnliches Muster zeigt sich in der Praxis auch bei der Anwendung der DSGVO in der öffentlichen Verwaltung. Nicht selten wurde der Datenschutz dabei als eine Art "Totschlagargument" verwendet, um unbequeme oder komplexe Entscheidungen aufzuschieben oder ganz zu vermeiden. Statt die DSGVO als Gestaltungsrahmen für eine datenschutzfreundliche und zugleich nutzerzentrierte Digitalisierung zu begreifen, diente sie häufig als Vorwand, um technische Innovationen zu blockieren oder Projekte in die Länge zu ziehen.
Diese defensive Haltung ist oft weniger dem tatsächlichen Inhalt der DSGVO geschuldet als vielmehr einer tief verankerten Kultur der Risikoaversion innerhalb der Verwaltung. Der Schutz personenbezogener Daten wurde so nicht als gemeinsames Ziel verstanden, sondern als Hürde, die es zu umgehen oder zumindest zu vermeiden galt. Dies führte mitunter zu einer Art "Datenschutz-Angst", bei der bereits hypothetische Risiken zur Ablehnung ganzer Vorhaben führten, anstatt proaktiv Lösungen im Sinne der Verordnung zu entwickeln.
Obwohl die DSGVO zweifellos ein stärkeres Verantwortungsbewusstsein für den Schutz personenbezogener Daten geschaffen hat, nehmen öffentliche Einrichtungen die Umsetzung der DSGVO nach wie vor als zu bürokratisch und ressourcenintensiv wahr. Dies spiegelt den allgemeinen Trend wider, dass insbesondere deutsche Behörden nicht unbedingt bereit sind für Veränderung. In der Beratungspraxis wirken Probleme rund um die DSGVO jedoch oftmals lösbar, ging es zumeist nur um wenige personenbezogene Daten. Selbst wenn sich in der Umsetzung zeigte, dass eine DSGVO-konforme Umsetzung einen nicht unerheblichen Einsatz an Personal in Form von Datenschutzbeauftragten erforderte, sind Lösungswege oftmals klar erkennbar.
Auch wenn sich diese Vorsicht bzw. strategische Nutzung des Datenschutzes in der Beratungspraxis zeigte, ist dies empirisch bisher nicht nachweisbar und muss weiter untersucht werden.
Erforderliche Auslegung: differenziert, nicht dogmatisch
Die KI-VO sollte nicht als pauschale Innovationsbremse wirken. Eine realistische, risikoorientierte Auslegung ist nicht nur möglich, sondern auch von der Intention der Verordnung her geboten. Wenn ein System unter den Anwendungsbereich fällt, muss dies nicht das Ende eines Projekts bedeuten. In den meisten Fällen würden eine transparente Dokumentation und eine nachvollziehbare Einordnung der Funktionen des jeweiligen KI-Systems genügen.
Zudem zeigen die bislang von der Europäischen Kommission veröffentlichten Richtlinien, dass auch auf politischer Ebene (wohl aufgrund von Entwicklungen in der Weltwirtschaft) eine gewisse Zurückhaltung erkennbar ist, bereits logische KI-Systeme so zu klassifizieren, dass sie unter die KI-VO fallen würden. In den begleitenden Erläuterungen und Leitlinien wird betont, dass nicht jedes digitale System mit automatisierten Funktionen als KI im Sinne der Verordnung zu fassen ist. Damit soll der Anwendungsbereich der Verordnung bewusst eingegrenzt werden, um praxisferne Überregulierung zu vermeiden. Gleichwohl bleibt die rechtliche Unsicherheit bestehen.
Rechtliche Struktur, keine Pauschalvermeidung
Dabei bietet die Verordnung selbst durchaus Raum für differenzierte Lösungen. Selbst wenn ein System als KI qualifiziert wird, führt dies nicht zwangsläufig zu aufwändigen Anforderungen. In vielen Fällen bestehen lediglich Pflichten zur Information oder zu grundsätzlicher Dokumentation, vergleiche etwa Artikel 8 bis 49 KI-VO. Die entscheidende Frage ist daher nicht, ob die Verordnung anwendbar ist, sondern wie sie angewendet wird.
Was fehlt, ist eine sachlich fundierte Steuerung und Organisation. In der Anfangszeit der Datenschutzgrundverordnung zeigte sich bereits, wie sehr es auf institutionelle Steuerung ankommt. Wo Kompetenzaufbau, Verfahrensregeln und Anbindung an die bestehende technische Infrastruktur fehlen, entsteht ein Klima der Vermeidung. Die KI-VO droht nun, denselben Effekt zu entfalten – mit noch größerer Komplexität.
Die KI-VO ist ein notwendiger und sinnvoller Schritt zur Regulierung moderner Technologien. Damit sie ihre Wirkung entfalten kann, bedarf es jedoch einer integrationsfähigen Umsetzung. Rechtliche Strukturen dürfen nicht zu strategischen Bremsklötzen werden. Nötig ist ein Zusammenspiel aus juristischem und technischem Verständnis, aus Risikobewusstsein und Innovationsbereitschaft. Denn eine funktionsfähige Verwaltung ist nicht bloß rhetorisches Versprechen in Jahrzehnten von Koalitionsverträgen, sondern Grundvoraussetzung für die demokratische Handlungsfähigkeit im digitalen Zeitalter. Die KI-Verordnung kann hierzu einen Beitrag leisten. Sie darf nur nicht zum strukturellen Hindernis für genau jene Transformation werden, die sie eigentlich begleiten soll.
Der Autor Jan Winterhalter, Rechtsanwalt, forscht zur KI-VO und ist als Senior Consultant bei der PD – Berater der öffentlichen Hand GmbH beschäftigt. Dort betreut er Projekte im Geschäftsbereich Strategische Verwaltungsmodernisierung. Dieser Beitrag wurde nicht in dienstlicher Eigenschaft verfasst und gibt ausschließlich die persönliche Auffassung des Autors wieder.
KI-Verordnung in der Praxis: . In: Legal Tribune Online, 02.09.2025 , https://www.lto.de/persistent/a_id/58047 (abgerufen am: 09.12.2025 )
Infos zum Zitiervorschlag