Für die Anwendung von künstlicher Intelligenz in der Europäischen Union soll es künftig klare Regeln geben. Verhandler des EU-Parlaments und der EU-Mitgliedsstaaten haben sich am späten Freitagabend auf den AI Act und damit das erste umfassende Gesetz für künstliche Intelligenz geeinigt.
Die EU-Kommission bezeichnet die Einigung als "historisch". Der AI Act sei mehr als ein Regelwerk, sagte Digitalkommissar Thierry Breton. "Er ist Startrampe für europäische Start-ups und Forscher, um das globale KI-Wettrennen anzuführen." Die EU-Behörde hatte schon im April 2021 einen Gesetzesvorschlag auf den Weg gebracht. Dessen Verwirklichung ist nun in greifbarer Nähe, die Zustimmung im Plenum des EU-Parlaments und der Staaten im Europäischen Rat gilt als Formsache.
Während EU-Kommissionspräsidentin Ursula von der Leyen von einer "weltweiten Premiere" und einem Rahmen für künstliche Intelligenz sprach, der die Menschen vertrauen könnten, erntet der erzielte Kompromiss auch viel Kritik. Vertreter der Wirtschaft befürchten, die künftige EU-Verordnung werde Innovationen hemmen. Aus Sicht von Verbraucherschützern werden die Risiken mancher Anwendungen nicht ernst genug genommen. Laut dem Bundesverband der Deutschen Industrie (BDI) droht Europa bei der Schlüsseltechnologie KI nun ins Hintertreffen zu geraten. "Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite", sagte BDI-Geschäftsführungsmitglied Iris Plöger. Die Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen weniger statt mehr Rechtssicherheit brächten. Bitkom, der Verband der Technikbranche, sprach von einem "politischen Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft". Der erzielte Kompromiss greife tief in die Technologie ein. "Die EU bindet damit den Unternehmen einen regulatorischen Klotz ans Bein. Das Risiko ist groß, dass europäische Unternehmen durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können", sagte Bernhard Rohleder, Hauptgeschäftsführer von Bitkom.
Die europäische Verbraucherschutzorganisation Beuc kritisierte dagegen, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. "So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können", hieß es. Größter Streitpunkt war die biometrische Überwachung. Der Gesetzesentwurf verbietet KI Anwendungen wie die automatisierte Gesichtserkennung. Die EU-Staaten wollten aber Ausnahmen zum Schutz der nationalen Sicherheit, zur Verteidigung und für andere militärische Zwecke durchsetzen. Vorgesehen sind Beschränkungen für die Nutzung biometrischer Identifizierungssysteme durch Strafverfolgungsbehörden, Details sollen jetzt ausgearbeitet werden. Die Vereinbarung sieht auch Verbote zur Manipulation oder zum Ausnutzen von Schwächen der Nutzer durch künstliche Intelligenz vor. Verbraucher sollen Beschwerden einreichen können und angemessene Antworten erhalten. Geldstrafen für Verstöße sollen zwischen 7,5 und 35 Mill. Euro liegen.
Die deutsche Verbraucherschutzministerin Steffi Lemke (Grüne) sieht in der KI-Verordnung einen Schutz für Verbraucher vor den Risiken der neuen Technologie. "In den Verhandlungen haben wir uns besonders dafür eingesetzt, dass KI-Systeme transparent, nachvollziehbar und überprüfbar gestaltet werden. So müssen Unternehmen, die den Einsatz von KI-Technologien anbieten, Informationen über die Funktionsweise ihrer Systeme bereitstellen und KI-gestützte Entscheidungen erläutern", berichtete Lemke. Bei Verstößen könnten Verbraucherverbände mit Verbandsklagen gerichtlich vorgehen.
Österreichs Staatssekretär für Digitalisierung, Florian Tursky (ÖVP), begrüßte die Einigung auf Regeln für die KI-Nutzung. Damit würde nicht nur das Vertrauen in neue Technologien gestärkt, sondern auch europäische Werte und Grundrechte im digitalen Raum". Für Unternehmen seien "klare Regeln und Vorgaben" wichtig, um Rechtssicherheit zu haben, sagte Tursky, "für die Bürgerinnen und Bürger die Transparenz und der Schutz ihrer persönlichen Daten".
Als besonders riskant werden KI-Anwendungen eingestuft, die ein erhebliches Schadenspotenzial für Gesundheit, Demokratie, Umwelt oder Sicherheit haben. Manche werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein.
Umstritten war auch die Regulierung sogenannter Basismodelle. Das sind leistungsfähige KI-Modelle, etwa GPT, die mit einem breiten Satz an Daten trainiert wurden und Grundlage für andere Anwendungen sein können. Frankreich, Italien und Deutschland hatten gefordert, nur konkrete Anwendungen, nicht aber die Basistechnologie zu regulieren. Nun wurden Transparenzpflichten vereinbart.