Die Europäische Union setzt ein starkes Zeichen in der Regulierung von Künstlicher Intelligenz. Mit dem AI-Act, dem weltweit ersten umfassenden Gesetz zu KI, kommen ab Februar 2025 neue Regeln auf Unternehmen und Entwickler zu. Während die einen darin einen wichtigen Schritt zum Schutz von Grundrechten sehen, warnen andere vor einer Innovationsbremse. Doch was genau ändert sich, und welche Herausforderungen bringt das Gesetz mit sich?
Schluss mit Social Scoring & Co.
Einer der umstrittensten Punkte ist das Verbot von Social Scoring, wie es beispielsweise in China praktiziert wird. Solche Systeme bewerten Bürger anhand ihres Verhaltens und beeinflussen ihren Zugang zu bestimmten Dienstleistungen. Die EU sagt klar: Das hat hier keinen Platz. Auch Emotionserkennung am Arbeitsplatz und in Schulen wird verboten. Systeme, die anhand von Gesichtsausdrücken oder Stimme Emotionen analysieren, sollen nicht mehr zur Leistungsbewertung oder Überwachung eingesetzt werden. Kritiker sehen das als wichtigen Schutz vor invasiver Überwachung, während manche Unternehmen das Potenzial solcher Technologien für Kundeninteraktionen betonen.
Ein schwieriger Kompromiss
Besonders hitzig diskutiert wird die Einschränkung von Gesichtserkennung im öffentlichen Raum. Grundsätzlich wird sie untersagt – mit einer entscheidenden Ausnahme: Sicherheitsbehörden dürfen sie zur Verfolgung schwerer Straftaten wie Terrorismus oder Menschenhandel nutzen. Damit versucht die EU, einen Mittelweg zwischen Datenschutz und öffentlicher Sicherheit zu finden. Doch Datenschützer warnen vor einer schleichenden Normalisierung solcher Überwachungstechniken.
Neue Pflichten und hohe Anforderungen
Für Unternehmen, die KI entwickeln oder einsetzen, wird es komplizierter. Ab 2025 müssen sie ihre Systeme nach dem Risikograd bewerten und entsprechende Schutzmaßnahmen treffen. Je riskanter eine KI, desto strenger die Anforderungen – von Transparenzpflichten bis hin zu umfangreichen Prüfungen. Dazu kommt eine neue Qualifikationspflicht: Jeder, der mit KI-Systemen arbeitet, muss nachweisen, dass er über ausreichendes Fachwissen verfügt. Das soll sicherstellen, dass KI verantwortungsbewusst entwickelt und genutzt wird. Doch für viele kleinere Unternehmen könnte, das eine Hürde darstellen, die nicht so leicht zu überwinden ist.
Bremse oder Chance?
Während Datenschützer und Verbraucherschutzorganisationen die Regulierung begrüßen, gibt es auch Kritik. Einige Unternehmen fürchten, dass Europa sich mit zu strikten Regeln selbst aus dem globalen Wettbewerb schießt. In den USA oder China gibt es bislang keine vergleichbare Regulierung, was dort ansässigen Unternehmen einen Innovationsvorteil verschaffen könnte. Doch die EU setzt auf langfristige Sicherheit und Vertrauen: Eine regulierte KI-Entwicklung soll dafür sorgen, dass Verbraucher und Unternehmen sich auf die Technologie verlassen können. Digitalminister Volker Wissing betont die Chancen, die KI bietet, aber auch die Notwendigkeit, klare Regeln zu schaffen, um Missbrauch zu verhindern.
Fazit
Der AI-Act ist ein Meilenstein in der Regulierung von Künstlicher Intelligenz – und gleichzeitig ein Drahtseilakt zwischen Sicherheit und Innovation. Unternehmen müssen sich jetzt intensiv mit den neuen Vorgaben auseinandersetzen, um rechtzeitig vorbereitet zu sein. Gleichzeitig bleibt die Frage offen, ob Europa mit dieser Regulierung die Zukunft der KI aktiv gestaltet oder sich selbst zu stark einschränkt.
© stock.adobe.com, weyo