Blog

„AI Act“: Schwierige Zukunft für KI „Lückentext“

Es ist das vielleicht wichtigste digitale Erbe der bisherigen EU-Kommission: Mit dem „AI Act“ gibt es nun ein Regelwerk für KI, das Ende Mai von den Mitgliedsstaaten final gebilligt wurde. Die EU wolle damit gleichzeitig Grundrechte sichern und Innovationen ermöglichen, hieß es von Anfang an.

Mittlerweile ist geregelt, welche KI-Anwendungen mit einem besonders hohen Risiko verbunden sind – je gefährlicher der Anwendungsbereich, desto strenger die Regeln, vereinfacht gesagt. Allerdings gibt es für praktisch alle Risikokategorien Ausnahmen, viele Anwendungen, darunter auch ChatGPT, müssen sich lediglich zu Transparenz verpflichten und das Urheberrecht einhalten. Wie genau das passieren soll und wer es letztlich durchsetzen soll, ist allerdings noch unklar.

2026 als entscheidendes Jahr für KI in Europa

Die meisten Regeln treten ohnehin erst 2026 in Kraft – das wird die neue Kommission, egal wie sie aussieht, wohl noch beschäftigen. Die rasante Entwicklung im Bereich KI lässt die Regulierung hinter sich, was einer der Gründe war, warum die Verhandlungen im Vorfeld so lange dauerten: Die Einführung von ChatGPT stellte den Diskurs beispielsweise noch einmal auf den Kopf.

Hand hält Smartphone mit ChatGPT-Logo

IMAGO/Sipa USA/Jaap Arriens

ChatGPT hat die Debatte um den „AI Act“ in die Länge gezogen

Und auch die Umsetzung wird alles andere als einfach: „Mit dem Inkrafttreten beginnen für die Kommission erst die Herausforderungen. Allein die Harmonisierung und einheitliche Umsetzung in den sehr unterschiedlichen KI-Ökosystemen wird eine Mammutaufgabe, sowohl regulatorisch als auch exekutiv“, sprich: Die Anwendung des Regeltextes auf die tatsächlichen Gegebenheiten und unterschiedlichen Anwendungsbereiche werde eine Hürde, so Mic Hirschbrich im Gespräch mit ORF.at.

Globaler Wettbewerbsdruck

Der Digitalisierungsexperte und Mitgründer des KI-Unternehmens Apollo.ai sieht enorme Herausforderungen für die Mitgliedsstaaten, denn es sei unklar, „woher die Ressourcen und die Expertise kommen sollen, um die Regulierung durchzusetzen und zu überwachen“. Laut dem „AI Act“ soll jeder Mitgliedstaat eine eigene Behörde haben, die für KI zuständig ist. Damit betritt man „technisch völliges Neuland“ und „mit sehr unterschiedlichen Setups in den Mitgliedsstaaten“, sagt Hirschbrich.

Und gerade das könne es schwieriger machen, in der Branche mitzuhalten, so die Befürchtung. Die EU hinke in Sachen KI hinter China und den USA her. Die KI-Regeln würden „viel Aufmerksamkeit und Kapital“ erfordern, sagt Hirschbrich, dem Wettbewerb sei das nicht förderlich, denn: „Wir stehen im globalen Wettbewerb, nicht regional und nicht nur EU-weit“, so der Unternehmer.

EU will mit den Regeln nicht allein bleiben

Die EU hofft offenbar, dass ihr umfangreiches Regelwerk weltweit Vorbildwirkung entfalten kann. Dies erinnert an die Datenschutz-Grundverordnung (DSGVO), die wohl am sichtbarsten dazu geführt hat, dass praktisch jede Website darüber informieren muss, welche Cookies sie verwendet.

Doch mehr noch als beim Datenschutz hat die EU beim Thema KI wirtschaftliche Interessen, die hier im Vordergrund stehen dürften – und es ist fraglich, ob etwa die USA jemals bereit sein werden, bei der Regulierung mitzumachen. Das könnte letztlich dazu führen, dass die EU mit einem strengen Regelwerk hierzu allein gelassen wird – und die Konzerne lieber auf anderen Kontinenten entwickeln.

Doch der Spagat zwischen wirtschaftlichen Interessen und dem Schutz der Grundrechte ist gerade in diesem Bereich alles andere als einfach. „Das KI-Gesetz muss vor Schäden an unseren Werten und Regeln schützen, darf unseren Fortschritt aber nicht behindern“, fasst Hirschbrich die Erwartungen an das Regelwerk zusammen.

Warnung vor biometrischer Massenüberwachung

Während die Wirtschaft auf Innovationen pocht und der „AI Act“ dafür oft zu weit geht, pochen Aktivisten auf Datenschutz und Grundrechtsschutz. Entsprechend geht ihnen der „AI Act“ oft nicht weit genug. Ella Jakubowska von European Digital Rights (EDRi) sagte gegenüber ORF.at, es sei „ein wichtiger Schritt“, dass die EU Anwendungen anerkenne, „die zu schädlich sind, um in einer demokratischen Gesellschaft erlaubt zu sein“. Doch es gebe „viele Stellen, an denen der ‚AI Act‘ nicht weit genug geht, um unsere Rechte und Freiheiten zu schützen.“

Bildschirme zeigen Überwachungskameras mit Bilderkennung

Getty Images/Evgeniyshkolenko

Datenschützer fürchten biometrische Überwachung

Im Mittelpunkt der Kritik steht der Einsatz von KI für biometrische Anwendungen – etwa Gesichtserkennung. Obwohl diese an sich verboten sei, gebe es Ausnahmen. „Das KI-Gesetz ist ein gefährlicher Schritt in Richtung Legitimierung verschiedener biometrischer Massenüberwachungspraktiken“, so Jakubowska. Es gebe „Schlupflöcher“, die die Möglichkeit für „staatliche Überwachung“ schaffe, so die Expertin. Gleichzeitig sei es Sache der Mitgliedsstaaten, „Gesichtserkennung durch die Polizei“ zu verbieten – eine Idee, die auch Österreich erwäge, so die Aktivistin.

Auch die NGO AlgorithmWatch plädiert dafür, dass die Mitgliedsstaaten Gesichtserkennung verbieten: „Wir empfehlen ein vollständiges Verbot der Gesichtserkennung in allen europäischen Staaten, denn diese Form der Beobachtung und Identifizierung verletzt mehrere Grundrechte und hat in demokratischen Staaten keinen Platz“, sagt Kilian Vieth-Ditlmann gegenüber ORF.at.

Kritik am „Lückentext-Gesetz“

„Eines der größten Probleme der KI-Verordnung ist, dass es sich um ein Lückenfüllergesetz handelt: Es gibt zu viele Ausnahmen für Unternehmen und Behörden und damit ist es enorm schwierig, die gesellschaftlichen Schäden durch KI effektiv zu kontrollieren“, so Vieth-Ditlmann weiter. Er kritisiert zudem den Einsatz von KI am Arbeitsplatz und im Bewerbungsprozess – und fordert „ein Transparenzregister und eine Grundrechtsfolgenabschätzung, die ihren Namen verdienen“, denn die von der EU vorgesehenen Maßnahmen seien nicht „klar“ genug formuliert.

Wie zukunftssicher der „AI Act“ sein kann, ist angesichts der zahlreichen Kritikpunkte bereits vor seinem Inkrafttreten unklar. Hirschbrich sieht in Bezug auf die EU-Initiative „die Wichtigkeit einer kontinuierlichen und flexiblen Weiterentwicklung“, was umso wichtiger sei, als führende Experten schon heute nicht in der Lage seien, die nächsten ein bis zwei Jahre vorherzusagen. Er geht davon aus, dass – zumindest was die Details angeht – „mehrere Anpassungen erforderlich sein werden“.

KI bleibt ein wichtiges Thema für die EU

Pia Sombetzki von AlgorithmWatch hält den „KI-Act“ für nicht weit genug gefasst: „Um wirklich sicherzustellen, dass alle sensiblen automatisierten Prozesse heute und in Zukunft unter die Aufsicht der Verordnung fallen, müsste die Definition (von KI, Anm.) deutlich weiter gefasst werden.“ Die Verordnung lasse „viele Schlupflöcher, um das Gesetz zu umgehen.“ Sie bringt zudem ein Verbot von Prozessen statt von Technologien ins Spiel: etwa „ein komplettes Verbot von automatisierter Emotionserkennung. Egal welches System das macht, wir müssen uns fragen, ob wir so etwas überhaupt wollen.“

Ob der „AI Act“ in seiner jetzigen Form die Wirtschaft ankurbeln und zugleich ein strenges Regelwerk in Bezug auf Grundrechte sein kann, wird sich frühestens 2026 zeigen. Zu welchem ​​Zweck KI dann eingesetzt werden kann, ist aus heutiger Sicht allerdings noch nicht absehbar. Der Grundrahmen, in dem Innovationen stattfinden sollen, ist vorhanden – wie lange dieser angesichts der Fortschritte Bestand haben wird, bleibt abzuwarten. Auch nach der Wahl wird auf Brüssel beim Thema KI noch einiges zu tun sein.