Der EU AI Act und die neuen Leitlinien zu verbotenen KI-Praktiken

Richtlinie AI Act

Die Europäische Union hat mit dem AI Act (Regulation (EU) 2024/1689), der am 1. August 2024 in Kraft trat, einen Meilenstein in der Regulierung von Künstlicher Intelligenz (KI) gesetzt. Ziel ist es, Innovation und den Einsatz von KI zu fördern, gleichzeitig jedoch hohe Standards für den Schutz von Gesundheit, Sicherheit und Grundrechten zu gewährleisten. Ein zentraler Bestandteil dieses Gesetzes ist die Regelung von verbotenen KI-Praktiken, die als inakzeptabel gelten. Nun hat die Europäische Kommission Leitlinien veröffentlicht, die diese Verbote präzisieren und eine einheitliche Anwendung sicherstellen sollen.

Was regelt der AI Act?

Der AI Act verfolgt einen risikobasierten Ansatz und teilt KI-Systeme in vier Kategorien ein:

  • Unvertretbares Risiko: Praktiken, die fundamentale Rechte verletzen, sind strikt verboten (Artikel 5).

  • Hohes Risiko: Systeme mit potenziell gravierenden Auswirkungen unterliegen strengen Anforderungen.

  • Transparenzpflichten: Für KI-Systeme mit mittlerem Risiko gelten Informationspflichten.

  • Minimales Risiko: Systeme ohne nennenswerte Risiken sind nicht reguliert.

Die Leitlinien der Kommission konzentrieren sich auf die praktische Umsetzung der Verbote aus Artikel 5 des AI Acts, die ab dem 2. Februar 2025 unmittelbar anwendbar sind.

Überblick über verbotene KI-Praktiken

Artikel 5 des AI Acts listet spezifische Praktiken auf, die aufgrund ihres hohen Schadenspotenzials untersagt sind. Dazu gehören:

  1. Manipulative oder täuschende Techniken
    KI-Systeme dürfen keine subliminalen oder absichtlich manipulativen Methoden einsetzen, um das Verhalten von Personen so zu beeinflussen, dass sie Entscheidungen treffen, die ihnen erheblichen Schaden zufügen könnten.

  2. Ausnutzung von Schwachstellen
    Systeme dürfen keine Schwächen ausnutzen, die durch Alter, Behinderung oder sozioökonomische Umstände entstehen, um Verhalten zu verzerren.

  3. Sozialbewertung (Social Scoring)
    Die Bewertung von Personen basierend auf ihrem Verhalten oder persönlichen Eigenschaften, insbesondere wenn dies zu ungerechtfertigten Nachteilen führt, ist verboten.

  4. Kriminalitätsvorhersagen basierend auf Profiling
    KI-Systeme dürfen nicht ausschließlich auf Basis von Persönlichkeitsmerkmalen vorhersagen, ob jemand eine Straftat begehen könnte.

  5. Ungezielte Erfassung biometrischer Daten
    Das Sammeln von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen zur Erstellung biometrischer Datenbanken ist untersagt.

  6. Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
    Solche Systeme sind nur aus medizinischen oder Sicherheitsgründen erlaubt.

  7. Biometrische Kategorisierung sensibler Merkmale
    Systeme dürfen keine Rückschlüsse auf Rasse, politische Ansichten oder sexuelle Orientierung ziehen.

  8. Echtzeit-Biometrie für Strafverfolgung
    Der Einsatz solcher Technologien in öffentlichen Räumen ist nur in Ausnahmefällen zulässig.

Warum sind diese Praktiken problematisch?

Die verbotenen Praktiken stehen im Widerspruch zu den Grundwerten der EU wie Menschenwürde, Freiheit und Demokratie. Sie können schwerwiegende Schäden verursachen:

  • Physisch: Verletzungen oder Gesundheitsrisiken.

  • Psychologisch: Stress, Angstzustände oder Abhängigkeiten.

  • Finanziell: Betrug oder wirtschaftliche Ausbeutung.

  • Gesellschaftlich: Diskriminierung und soziale Ungleichheit.

Ein Beispiel ist der Einsatz manipulativer Techniken durch Chatbots, die Nutzer unbewusst zu schädlichem Verhalten verleiten könnten – etwa durch übermäßigen Konsum oder gesundheitsschädliche Entscheidungen.

Wer trägt Verantwortung?

Der AI Act unterscheidet zwischen verschiedenen Akteuren:

  • Anbieter (Provider): Entwickeln und vermarkten KI-Systeme.

  • Anwender (Deployers): Setzen KI-Systeme ein und tragen Verantwortung für deren Nutzung.

Beide Gruppen müssen sicherstellen, dass ihre Systeme den gesetzlichen Anforderungen entsprechen und keine verbotenen Praktiken einsetzen.

Sichern Sie Ihre IT-Rechtskonformität und schützen Sie Ihr Unternehmen!
Lassen Sie sich von unseren Experten individuell beraten und Ihre AGB professionell erstellen.

➡️ IT-Rechtsberatung und Compliance-Check
➡️ AGB erstellen lassen
📞 Jetzt Kontakt aufnehmen

Handeln Sie jetzt – für rechtssichere IT-Lösungen!

FAQ zu den EU-Richtlinien für verbotene KI-Praktiken

Was regelt der EU AI Act?

Der AI Act verbietet KI-Systeme mit unvertretbarem Risiko für Grundrechte. Er gilt seit 1. August 2024 und teilt KI in vier Risikoklassen ein:

  • Unvertretbares Risiko (strikt verboten)
  • Hohes Risiko (streng reguliert)
  • Transparenzpflichten
  • Minimales Risiko

Welche KI-Praktiken sind explizit verboten?

Artikel 5 verbietet acht Praktiken:

  • Manipulative Subliminal-Techniken
  • Ausnutzung von Schwächen (Alter, Behinderung)
  • Sozialbewertungssysteme (Social Scoring)
  • Kriminalitätsvorhersage durch Profiling
  • Massenerfassung biometrischer Daten
  • Emotionserkennung in Arbeits-/Bildungskontexten
  • Biometrische Kategorisierung sensibler Merkmale
  • Echtzeit-Biometrie in öffentlichen Räumen*

*Ausnahmen für Terrorabwehr und Vermisstensuche

Wer trägt die Verantwortung?

Verantwortlich sind sowohl:

  • Anbieter (Entwicklung/Markteinführung)
  • Anwender (betriebliche Nutzung)

Beide müssen Compliance durch technische und organisatorische Maßnahmen sicherstellen.

Welche Strafen drohen bei Verstößen?

Bei Nicht-Einhaltung der Verbote:

  • Bis zu 35 Mio. Euro Strafe oder
  • 7% des globalen Jahresumsatzes

Zuständig sind nationale Marktüberwachungsbehörden und der Europäische Datenschutzbeauftragte.