Artikel 2 unserer Kampagne zum EU AI Act
Jeden Tag treffen KI-Systeme in deutschen Organisationen Entscheidungen — oder bereiten sie vor. Prognosen werden übernommen, Texte abgezeichnet, Priorisierungen bestätigt. Routinen, die funktionieren. Bis sie es nicht mehr tun.
Aktuell steht eine Frage im Raum, die vorher niemand gestellt hat: Weiß jemand in Ihrer Organisation, was das KI-System tatsächlich tut? Nicht theoretisch. Nicht laut Dokumentation. Sondern im Ernstfall — wenn eine Empfehlung zur Entscheidung wird, die niemand erklären kann.
Im ersten Teil unserer Kampagne haben wir gezeigt, dass der EU AI Act seit dem 2. Februar 2026 gilt — still, ohne Alarm, aber mit Konsequenzen. Jetzt gehen wir tiefer: Was verlangt das Gesetz konkret? Wer ist besonders betroffen? Und was passiert, wenn nichts passiert?
Was verlangt Artikel 4 EU AI Act?
AI Literacy klingt nach Weiterbildung. Ein Seminar, ein E-Learning-Modul, ein Haken in der Jahresplanung. Artikel 4 der EU-Verordnung 2024/1689 sieht das anders: Anbieter und Betreiber von KI-Systemen müssen sicherstellen, dass alle Personen, die mit KI-Systemen arbeiten, über ausreichende KI-Kompetenz verfügen.
Drei Begriffe definieren den Maßstab:
Ausreichend meint nicht Grundwissen, sondern Urteilsfähigkeit im konkreten Einsatz. Nachweisbar meint dokumentiert, prüfbar, auditierbar. Organisatorisch verankert meint nicht optional, nicht für einzelne Teams, sondern für alle, die mit KI arbeiten.
Wichtig zu wissen: Die EU verlangt kein Zertifikat — aber nachweisbare Kompetenz. Laut der offiziellen EU-Q&A zu AI Literacy können auch interne Dokumentationen als Nachweis genügen. Entscheidend ist nicht das Format, sondern die Substanz: Ist die Kompetenz belastbar, wenn eine Aufsichtsbehörde fragt?
Doch Artikel 4 ist nur der regulatorische Rahmen. Dahinter steht ein wirtschaftliches Faktum: Die Kluft zwischen KI-Adoption und tatsächlicher KI-Kompetenz wächst — in der Privatwirtschaft wie in der Verwaltung. Die Zahlen sind eindeutig:
40 % aller Beschäftigten müssen laut IBM Institute for Business Value bis 2027 neu qualifiziert werden — das entspricht 1,4 Milliarden Menschen weltweit. Unternehmen, die dieses Reskilling erfolgreich umsetzen, berichten von einem durchschnittlichen Umsatzwachstumsvorteil von 15 %. (IBM IBV, „Augmenting Potential“, 2023)
78 % der Organisationen setzen laut McKinsey bereits KI ein — aber nur rund ein Drittel hat mit der unternehmensweiten Skalierung begonnen. Die Mehrheit steckt in Pilotprojekten fest, während 51 % der Befragten bereits negative Konsequenzen durch KI-Einsatz erlebt haben. (McKinsey, „The State of AI in 2025“)
68 % der Mitarbeitenden, die generative KI am Arbeitsplatz nutzen, greifen über persönliche Accounts auf öffentliche KI-Tools zu. 57 % geben dabei sensible Unternehmensdaten ein. Shadow-AI-Vorfälle erhöhen die durchschnittlichen Kosten einer Datenpanne um 670.000 US-Dollar. (Menlo Security Report, 2025; IBM Cost of a Data Breach, 2025)
Was das im Alltag bedeutet, zeigt ein Szenario: Ein KI-System priorisiert Vorgänge, Förderanträge oder Beschaffungen. Die menschliche Rolle beschränkt sich darauf, die Empfehlung zu bestätigen. Aber was, wenn das Modell systematisch bestimmte Muster bevorzugt — und niemand merkt es? AI Literacy heißt: Wissen, dass formale Kontrolle nicht dasselbe ist wie inhaltliche Verantwortung.
Warum sind Behörden und KRITIS-Betreiber besonders betroffen?
Für Unternehmen ist AI Literacy eine Compliance-Pflicht. Für Behörden und Betreiber kritischer Infrastruktur geht es weiter: Hier werden Entscheidungen getroffen, die unmittelbar in das Leben von Menschen eingreifen. Das macht AI Literacy zu einer Frage der öffentlichen Verantwortung.
Behörden entscheiden über Menschen, über Förderanträge, Baugenehmigungen, Sicherheitseinstufungen, Personalmaßnahmen. Wenn KI-Systeme diese Entscheidungen vorbereiten, ist die Anforderung an Nachvollziehbarkeit besonders hoch — nicht nur gesetzlich, sondern demokratisch. Der EU AI Act klassifiziert solche Systeme explizit als Hochrisiko: erhöhte Dokumentationspflichten, menschliche Aufsichtspflicht — und AI Literacy als Grundvoraussetzung. Eine Behörde, die KI einsetzt ohne nachweisbare AI-Kompetenz ihrer Mitarbeitenden, erfüllt die Anforderungen des EU AI Acts nicht.
Gleichzeitig beschleunigen OZG, Digitalstrategie und Registermodernisierung die KI-Adoption in der Verwaltung. Laut einer Studie von Deloitte planen 73 % der befragten öffentlichen Institutionen in DACH, generative KI innerhalb der nächsten zwei Jahre in operative Prozesse zu integrieren. Das Tempo übersteigt den Kompetenzaufbau — massiv.
Betreiber kritischer Infrastruktur — Energie, Wasser, Verkehr, Gesundheit, digitale Infrastruktur — unterliegen bereits durch BSI-Kritis-Verordnung und NIS2 strengen Anforderungen. Der EU AI Act addiert eine weitere Schicht: KI-Systeme in betriebsrelevanten Prozessen sind fast automatisch Hochrisiko, Mitarbeitende brauchen dokumentierte AI-Kompetenz, und Shadow AI ist in KRITIS-Umgebungen ein akutes Sicherheitsrisiko. Dabei zeigt sich: Die Lücke zwischen Nutzung und Steuerung ist bereits heute alarmierend — laut ISACA nutzen 60 % der Beschäftigten KI-Tools am Arbeitsplatz, aber nur 18,5 % kennen eine offizielle Unternehmensrichtlinie zum KI-Einsatz. Weniger als ein Drittel der Organisationen verfügt laut Gartner über ein ausgereiftes KI-Governance-Framework. AI Literacy ist kein IT-Thema. Es ist ein Governance-Thema.
Was passiert, wenn nichts passiert?
Stellen Sie sich eine reguläre Prüfung vor. Die Aufsichtsbehörde fragt: Wie stellen Sie sicher, dass Ihre Mitarbeitenden KI kompetent einsetzen? Der Verweis auf eine Schulung von vor zwei Jahren reicht nicht. Die Frage nach einem dokumentierten Kompetenznachweis bleibt unbeantwortet. Das Protokoll vermerkt: keine nachweisbare KI-Governance.
Oder: Ein KI-System liefert ein fehlerhaftes Ergebnis. Schaden entsteht. Die juristische Frage lautet nicht, ob das System versagt hat — sondern ob die Organisation nachweisbar sichergestellt hat, dass der Verantwortliche die Grenzen des Systems kannte. Ohne diesen Nachweis ist die Haftungsfrage offen.
Zeitlicher Kontext: Artikel 4 ist seit dem 2. Februar 2026 in Kraft. Die Überwachungs- und Durchsetzungsregeln greifen ab August 2026 — ab dann beginnen Marktüberwachungsbehörden mit der aktiven Kontrolle. (EU-Kommission, Q&A AI Literacy)
Der M2 KI-Führerschein — AI Literacy, die nicht nur Nachweis schafft
90 Minuten E-Learning, PDF-Zertifikat, weiter wie bisher — das ist der Marktstandard. Doch ein Häkchen in der Compliance-Liste schützt keine Organisation, wenn die Aufsichtsbehörde fragt, ob Mitarbeitende KI-Ergebnisse tatsächlich beurteilen können.
Der M2 KI-Führerschein ist kein Kurzformat und kein Rechtsseminar. Er ist eine strukturierte Lernreise über drei Tage und vier aufeinander aufbauende Module — mit einem klaren Ziel: Mitarbeitende, die KI rechtssicher beurteilen, Ergebnisse kritisch einordnen und im Sinne der Organisation handeln. Wer KI wirklich durchdringt, erkennt Risiken bevor sie entstehen, nutzt Daten verantwortungsvoll und stärkt das Vertrauen in jede KI-gestützte Entscheidung. Dokumentiert, auditierbar, sofort einsetzbar.
3 Tage. 4 Module. Präsenz oder Remote.
Modul 1 — Grundlagen & sichere Nutzung: Wie KI funktioniert, wo ihre Grenzen liegen, warum öffentliche KI-Tools ein Risiko für regulierte Umgebungen sind und wie Enterprise-KI sich unterscheidet. Das Fundament für alle weiteren Kompetenzen.
Modul 2 — Effektiver KI-Einsatz: Prompting-Techniken, systematische Qualitätssicherung von KI-Outputs und das Erkennen von Halluzinationen. Mitarbeitende lernen, KI als Werkzeug zu nutzen — nicht als Orakel.
Modul 3 — Risiken & Governance: Datenschutz, geistiges Eigentum, Compliance und organisatorische Verantwortung. Hier entsteht das Bewusstsein für Shadow AI und die Fähigkeit, KI-Risiken einzuordnen, bevor sie zu Problemen werden.
Modul 4 — Workflow & Zertifizierung: Integration in reale Arbeitsabläufe, Praxisszenarien aus der jeweiligen Branche, Wissenstest zum KI-Führerschein. Das Ergebnis: ein dokumentierter Kompetenznachweis, vorweisbar bei Audits und Prüfungen.
Der M2 KI-Führerschein ist skalierbar und anpassbar an branchenspezifische Anforderungen. Für Behörden und KRITIS-Betreiber liefert er genau die Dokumentationstiefe, die Artikel 4 EU AI Act voraussetzt. Wir liefern die Kompetenz, die das Gesetz tatsächlich verlangt.
FAQ: Die häufigsten Fragen zu AI Literacy und Artikel 4 EU AI Act
Dieser Abschnitt beantwortet die Fragen, die Behörden, IT-Verantwortliche und Führungskräfte am häufigsten stellen.
❓ Was genau verlangt Artikel 4 des EU AI Acts von Unternehmen und Behörden?
Artikel 4 verpflichtet alle Anbieter und Betreiber von KI-Systemen, sicherzustellen, dass Mitarbeitende die mit KI arbeiten über ausreichende AI-Kompetenz verfuegen. Das umfasst technisches Grundverständnis, Urteilsvermoegen bei KI-Outputs, Kenntnisse zu Datenschutz und Compliance sowie die Fähigkeit, Risiken einzuschaetzen. Die Pflicht gilt seit dem 2. Februar 2026.
❓ Gilt AI Literacy Pflicht auch für öffentliche Behörden und Verwaltungen?
Ja, explizit. Behörden und öffentliche Verwaltungen sind Betreiber von KI-Systemen im Sinne des EU AI Acts. Viele Verwaltungs-KI-Systeme fallen zudem in die Hochrisiko-Kategorie, was erhoehte Anforderungen an Dokumentation und menschliche Aufsicht bedeutet. AI Literacy ist hier nicht nur Compliance-Pflicht, sondern demokratische Verantwortung.
❓ Was bedeutet Shadow AI und warum ist sie besonders gefährlich in regulierten Umfeldern?
Shadow AI bezeichnet den unkontrollierten Einsatz nicht-autorisierter KI-Tools durch Mitarbeitende — zum Beispiel öffentliche Chatbots für interne Dokumente. In regulierten Umfeldern ist das ein akutes Datenschutz- und Sicherheitsrisiko. AI Literacy schafft das Bewusstsein, warum Enterprise-KI gegenüber öffentlichen Tools zu bevorzugen ist.
❓ Wie kann eine Behörde AI Literacy dokumentieren und nachweisen?
Durch strukturierte Qualifizierungsprogramme mit formalem Abschluss, dokumentierter Teilnahme und Kompetenznachweis — wie dem M2 KI-Fuehrerschein. Dieser liefert einen prüfbaren Nachweis der KI-Kompetenz, der bei Audits und Prüfungen durch Aufsichtsbehörden vorgelegt werden kann.
❓ Sind KRITIS-Betreiber stärker betroffen als andere Unternehmen?
Ja. KRITIS-Betreiber unterliegen bereits durch BSI-Kritis-V und NIS2 erhöhten Anforderungen. Der EU AI Act addiert darauf: KI-Systeme in kritischen Prozessen sind fast automatisch Hochrisiko, Mitarbeitende benötigen nachweisbare AI-Kompetenz, und regulatorische Prüfungen werden KI-Governance zunehmend einschliessen.
❓ Was ist der Unterschied zwischen einem E-Learning-Kurs und echtem AI Literacy Aufbau?
E-Learning-Module vermitteln Wissen über KI. Echter AI Literacy Aufbau schafft Handlungskompetenz für den konkreten Einsatz: Wann hinterfrage ich ein KI-Ergebnis? Was tue ich wenn etwas nicht stimmt? Wie dokumentiere ich meinen Umgang mit KI? Der M2 KI-Fuehrerschein setzt auf praxisnahe Szenarien statt abstraktes Wissen.
❓ Was kostet ein Erstgespräch mit M2 — und was bekomme ich dafür?
Das Erstgespräch ist kostenlos und unverbindlich. In 45 Minuten analysieren unsere Experten gemeinsam mit Ihnen: Wo setzt Ihre Organisation heute KI ein? Welche Risiken entstehen durch fehlende AI Literacy? Welche Maßnahmen würden sofort helfen? Das Gespräch ist kein Verkaufsgespraech — sondern eine ehrliche Standortbestimmung.
Quellen und Referenzen
*IBM Institute for Business Value (2023): „Augmenting Potential: How AI and automation are transforming the workforce.“
*IBM (2025): CEO Study — „CEOs Double Down on AI While Navigating Enterprise Hurdles.“
*McKinsey & Company (2025): „The State of AI in 2025: Agents, Innovation, and Transformation.“
*Menlo Security (2025): Report on GenAI Usage and Data Exposure.
*IBM (2025): Cost of a Data Breach Report 2025.
*ISACA (2025): Survey on AI Usage and Governance Frameworks.
*Stanford HAI (2025): AI Index Report 2025 — 233 dokumentierte AI-Incidents in 2024.
*EU-Kommission: Q&A zu AI Literacy (digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers)