1. Was ist der EU AI Act – in einfachen Worten?
Der EU AI Act ist ein europäischer Rechtsrahmen für den Einsatz von KI‑Systemen. Er folgt einem risikobasierten Ansatz:
- geringes Risiko: z. B. KI‑gestützte Rechtschreibkorrektur – wenig zusätzliche Vorgaben
- hohes Risiko: z. B. KI im Bewerbungsprozess oder bei Kreditentscheidungen – umfangreiche Anforderungen
- verbotene Systeme: z. B. bestimmte Formen von Social Scoring
Für viele Unternehmen bedeutet das: Sie müssen ihre KI‑Anwendungen identifizieren, bewerten und gegebenenfalls Prozesse und Dokumentation anpassen
Für das fachliche Verständnis von KI‑Technologien lohnt sich ein Blick auf:
Einführung in KI, ChatGPT, etc
2. Bestandsaufnahme: Wo setzen wir heute KI ein?
Der erste praktische Schritt ist eine strukturierte Bestandsaufnahme:
- Wo im Unternehmen werden KI‑Systeme eingesetzt? (inkl. externer Tools und Cloud‑Services)
- Welche Prozesse und Entscheidungen beeinflussen sie?
- Welche Daten werden verarbeitet?
Dabei sollten nicht nur „große“ KI‑Projekte betrachtet werden, sondern auch kleinere Anwendungen – etwa im Marketing, HR, Kundenservice oder Controlling.
Unterstützende Kompetenzen:
3. Risikobewertung und Einordnung
Im nächsten Schritt geht es darum, die identifizierten Systeme grob einzuordnen:
- Handelt es sich um geringes, erhöhtes oder hohes Risiko im Sinne des EU AI Act?
- Welche Personengruppen sind betroffen (Kund:innen, Mitarbeitende, Bewerber:innen etc.)?
- Welche möglichen Auswirkungen hat ein Fehlverhalten des Systems?
Auf Basis dieser Einschätzung lassen sich Prioritäten setzen: Nicht alle Systeme sind gleich kritisch, aber die besonders sensiblen müssen früh adressiert werden.
Ethische und gesellschaftliche Dimension mitdenken:
4. Governance: Prozesse und Verantwortlichkeiten aufbauen
Der EU AI Act ist keine „reine IT‑Verordnung“. Er betrifft Fachbereiche, Recht, Compliance, Datenschutz, HR und IT gleichermaßen. Daher braucht es:
- klar definierte Verantwortlichkeiten für KI‑Systeme (Owner im Fachbereich, technische Verantwortung, Compliance)
- Richtlinien und Leitlinien zum Einsatz von KI (z. B. welche Anwendungen sind erlaubt, welche nicht?)
- Prozesse für Dokumentation, Monitoring und Eskalation (z. B. bei Fehlern oder Beschwerden)
Führungskräfte spielen hierbei eine wichtige Rolle: Sie müssen verstehen, welche Anforderungen auf ihre Bereiche zukommen und wie sie diese praktisch umsetzen können.
Passende Weiterbildungen für Führung & HR‑Verantwortliche:
5. Technische und organisatorische Maßnahmen
Abhängig vom Risiko‑Level der KI‑Systeme kommen technische und organisatorische Maßnahmen hinzu, z. B.:
- Anforderungen an Datenqualität und Dokumentation
- Protokollierung und Nachvollziehbarkeit von Systemverhalten
- Transparenz gegenüber Nutzenden (Informationspflichten)
- regelmäßige Tests, Audits und Anpassungen
Auch wenn viele Detailfragen noch in der Ausgestaltung sind, lohnt es sich, heute schon „good practices“ zu etablieren.
Technische Grundlagen und Datenkompetenz aufbauen:
6. Schulung und Bewusstseinsbildung
Regeln und Prozesse entfalten nur Wirkung, wenn die Menschen im Unternehmen sie kennen und verstehen. Sinnvoll ist ein gestuftes Schulungskonzept:
- Basis‑Schulungen für alle Mitarbeitenden, die mit KI‑Systemen arbeiten
- vertiefende Trainings für Fachbereiche, die kritische Anwendungen betreiben (z. B. HR, Controlling, Kundenservice)
- spezialisierte Trainings für Führungskräfte, Datenschutz, Compliance und IT/Data‑Teams
So wird der EU AI Act nicht als „Bremse“, sondern als Rahmen für verantwortungsvollen Einsatz verstanden.
Fazit: Früh starten, pragmatisch bleiben
Der EU AI Act bringt Veränderungen – aber er ist auch eine Chance, Strukturen für verantwortungsvollen KI‑Einsatz aufzubauen. Wer frühzeitig:
- Bestandsaufnahme und Risikobewertung vornimmt
- Governance und Verantwortlichkeiten klärt
- gezielt Kompetenzen im Unternehmen aufbaut
ist besser vorbereitet und kann KI‑Projekte mit mehr Sicherheit und Akzeptanz umsetzen.