Es gibt eine Frage, die in keinem Behörden-Meeting gestellt wird. In keiner Abteilungsrunde. In keinem IT-Jour-Fixe.
Weiß jemand in Ihrer Organisation, was das KI-System tatsächlich tut?
Nicht theoretisch. Nicht in der Dokumentation. Im Ernstfall.
Im Moment, in dem ein Sachbearbeiter einer Empfehlung folgt, die niemand erklaeren kann. In dem ein Analyseergebnis eine Entscheidung vorbereitet, ohne dass jemand die Grenzen des Modells kennt. In dem ein Bericht auf Basis KI-generierter Daten an einen Auftraggeber oder eine Aufsichtsbehörde geht.
Genau diesen Moment hat der EU AI Act im Blick. Und genau für diesen Moment ist Artikel 4 geschrieben.
Willkommen in Artikel 2 unserer Kampagne. Im ersten Teil haben wir gezeigt, dass der EU AI Act seit dem 2. Februar 2026 wirkt — still, ohne Alarm, aber mit Konsequenzen. Jetzt gehen wir tiefer: Was verlangt das Gesetz konkret? Wer ist besonders betroffen? Und was passiert, wenn nichts passiert?
Was ist AI Literacy — und was verlangt Artikel 4 EU AI Act konkret?
AI Literacy klingt wie ein Bildungsthema. Ein nettes Seminar, ein E-Learning-Modul, ein Haken in der Jahresplanung.
Artikel 4 der EU-Verordnung 2024/1689 sieht das anders.
Der Gesetzestext ist unmissverständlich: Anbieter und Betreiber von KI-Systemen sind verpflichtet, sicherzustellen, dass das Personal und alle anderen Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Mass an KI-Kompetenz verfuegen.
Drei Wörter sind hier entscheidend: ausreichend, nachweisbar, organisatorisch verankert.
- Ausreichend bedeutet: nicht allgemeines Grundwissen, sondern die Fähigkeit, im konkreten Einsatz zu urteilen.
- Nachweisbar bedeutet: dokumentiert, prüfbar, auditierbar — nicht nur gefühlt vorhanden.
- Organisatorisch verankert bedeutet: nicht optional, nicht für einzelne Teams, sondern für alle die mit KI arbeiten.
AI Literacy ist keine Empfehlung. Sie ist eine gesetzliche Betreiberpflicht — und sie gilt seit dem 2. Februar 2026.
Was AI Literacy im Alltag wirklich bedeutet?
AI Literacy wird oft falsch verstanden. Es geht nicht darum, KI zu programmieren. Nicht darum, Modelle zu trainieren oder Algorithmen zu verstehen. Es geht um etwas Praktischeres — und gleichzeitig Anspruchsvolleres.
Drei Szenarien aus dem Alltag — die in fast jeder Organisation heute schon Realitaet sind:
Szenario 1: Der Forecast weicht ab.
Ein KI-System liefert eine Prognose, die deutlich vom Erwartungswert abweicht. Der Sachbearbeiter folgt ihr — weil er das immer tut. Niemand fragt, warum das Modell diesmal anders rechnet. Niemand weiss, welche Daten eingeflossen sind. Die Entscheidung wird auf Basis einer Ausgabe getroffen, die niemand hinterfragt hat.
AI Literacy heisst: Wissen, wann man nachfragen muss. Und wissen, wen.
Szenario 2: Der Assistent formuliert.
Ein KI-Assistent erstellt einen Berichtsentwurf. Der Mitarbeitende prüft ihn kurz, aendert ein paar Wörter, schickt ihn ab. Was er nicht weiss: Das Modell hat eine Quellenangabe halluziniert. Der Bericht geht nach aussen.
AI Literacy heisst: Verstehen, dass KI-Outputs immer verifikationspflichtig sind — besonders bei faktenbasierten Inhalten.
Szenario 3: Die Empfehlung wird zur Entscheidung.
Ein KI-System priorisiert automatisch Vorgänge, Förderanträge oder Beschaffungsentscheidungen. Die menschliche Rolle besteht darin, die Empfehlung zu bestätigen. Was aber, wenn das Modell systematisch bestimmte Muster bevorzugt — und niemand merkt es?
AI Literacy heisst: Wissen, dass formale Kontrolle nicht dasselbe ist wie inhaltliche Verantwortung.
⚡ Was passiert, wenn Ihre Mitarbeitenden das nicht wissen — und KI trotzdem täglich mitentscheidet?
FOKUS: BEHOERDEN & KRITIS-BETREIBER
Warum öffentliche Verwaltung und kritische Infrastruktur besonders betroffen sind?
Relevant für: Ministerien · Behörden · KRITIS-Betreiber · öffentliche Auftraggeber
Für Unternehmen in der Privatwirtschaft ist AI Literacy eine Compliance-Pflicht. Für Behörden, Ministerien und KRITIS-Betreiber ist sie eine Frage der öffentlichen Verantwortung.
Warum Behörden eine besondere Rolle haben?
Behörden treffen keine Entscheidungen nur für interne Prozesse. Sie treffen Entscheidungen über Menschen: über Förderanträge, Baugenehmigungen, Sicherheitseinstufungen, Beschaffungen, Personalmaßnahmen. Wenn KI-Systeme diese Entscheidungen vorbereiten oder unterstützen, ist die Anforderung an Erklärbarkeit und Nachvollziehbarkeit besonders hoch — nicht nur gesetzlich, sondern demokratisch.
Der EU AI Act klassifiziert KI-Systeme, die in der öffentlichen Verwaltung zur Bewertung von Personen oder zur Vorbereitung von Verwaltungsentscheidungen eingesetzt werden, explizit als Hochrisiko-Systeme. Das bedeutet: erhöhte Dokumentationspflichten, menschliche Aufsichtspflicht und — AI Literacy als Grundvoraussetzung.
Eine Behörde, die KI einsetzt ohne nachweisbare AI-Kompetenz ihrer Mitarbeitenden, erfüllt die Anforderungen des EU AI Acts nicht. PUNKT.
Warum KRITIS-Betreiber doppelt betroffen sind?
Betreiber kritischer Infrastruktur — Energie, Wasser, Verkehr, Gesundheit, digitale Infrastruktur, Finanzwesen — unterliegen bereits heute strengen Anforderungen durch BSI-Kritis-Verordnung, NIS2 und sektorspezifische Regulierung. Der EU AI Act addiert darauf eine weitere Schicht.
Konkret bedeutet das für KRITIS-Betreiber:
- KI-Systeme die in betriebsrelevanten Prozessen eingesetzt werden, sind fast automatisch als Hochrisiko einzustufen.
- Mitarbeitende die mit diesen Systemen arbeiten, brauchen dokumentierte AI-Kompetenz.
- Aufsichtsbehörden werden im Rahmen regulaerer Prüfungen zunehmend nach KI-Governance und Mitarbeitendenqualifikation fragen.
- Shadow AI — also unkontrollierter Einsatz nicht-autorisierter KI-Tools durch Mitarbeitende — ist in KRITIS-Umgebungen ein akutes Sicherheitsrisiko.
BSI und NIS2 haben die Tür geöffnet. Der EU AI Act schliesst das Fenster. Wer in kritischer Infrastruktur KI einsetzt, braucht beides: technische Sicherheit und menschliche Kompetenz.
OZG & Digitalstrategie: Tempo ohne Kompetenz
OZG, Digitalstrategie 2025, Registermodernisierung — die Verwaltungsdigitalisierung beschleunigt. Aber die KI-Adoption übersteigt den Kompetenzaufbau. Mitarbeitende nutzen Tools, die sie nicht vollständig verstehen — in Prozessen, die Bürgerinnen und Bürger direkt betreffen.
AI Literacy ist kein IT-Thema. Es ist ein Governance-Thema.
⚡ Was konkret passiert, wenn Ihre Behörde keinen Nachweis über AI Literacy vorweisen kann — dazu kommen wir gleich.
Was passiert, wenn Organisationen die AI-Literacy-Pflicht ignorieren?
Die Aufsichtsbehörden bauen ihre Kapazitäten gerade auf. Aber die Pflicht gilt — rückwirkend auf alles, was heute schon im Betrieb ist.
Der Audit: Eine Behörde wird gefragt: Wie stellen Sie sicher, dass Ihre Mitarbeitenden KI kompetent einsetzen? Wer dann auf Schulungen von vor zwei Jahren verweist — hat ein Problem.
Der Fehler: Ein KI-System liefert ein falsches Ergebnis. Schaden entsteht. Die Frage: Hat die Organisation nachweisbar sichergestellt, dass der Verantwortliche die Grenzen des Systems kannte? Ohne Nachweis ist die Haftungsfrage offen.
Die Aufsichtsbehörde: Datenschutzbehörden, BSI, sektorspezifische Regulatoren — sie werden KI-Governance als Standardfrage in reguläre Prüfzyklen integrieren. Wer dann keine Antwort hat, hat kein Compliance-Problem. Er hat ein Vertrauensproblem.
AI Literacy ist kein theoretisches Risiko für die Zukunft. Es ist ein konkretes Haftungs- und Reputationsrisiko — heute.
Wie der Aufbau guter AI Literacy gelingt?
Nicht durch Wissen über KI. Sondern durch Handlungskompetenz im echten Einsatz. Der Unterschied zwischen Checkbox-Training und echter Urteilsfähigkeit entscheidet, ob eine Organisation im Ernstfall handlungsfähig ist — oder nicht.
Was echte AI Literacy erfordert: inhaltliches Urteilsvermögen ohne Programmierkenntnisse, die Fähigkeit KI-Outputs kritisch einzuordnen, Verständnis von Datenschutz und Compliance bei KI-Nutzung, Erkennen von Shadow AI — und das alles dokumentiert, nachweisbar, auditfähig.
⚡ Die gute Nachricht: Das ist kein Mehrjahresprojekt. Es ist ein Dreitagesprogramm.
DER M2 KI-FUEHRERSCHEIN — AI LITERACY DIE NACHWEIS SCHAFFT
Für Behörden · KRITIS-Betreiber · Unternehmen · 3 Tage · 4 Module · Zertifikat
Wir bei M2 haben den KI-Führerschein genau für diese Situation entwickelt: nicht als theoretischen Kurs, sondern als praxisnahes Qualifizierungsprogramm das echte Handlungskompetenz aufbaut — und einen dokumentierten Nachweis liefert.
In 3 Tagen — Präsenz oder Remote, in Ihrer Organisation oder bei uns — vermitteln wir in 4 Modulen alles was Mitarbeitende brauchen, um KI sicher, kompetent und regelkonform einzusetzen:
- Modul 1: Grundlagen & sichere Nutzung — Wie KI funktioniert, wo ihre Grenzen liegen, öffentliche vs. Enterprise-KI
- Modul 2: Effektiver KI-Einsatz — Prompting, Qualitätssicherung, Halluzinationsrisiken erkennen
- Modul 3: Risiken & Governance — Datenschutz, IP, Compliance, organisatorische Verantwortung
- Modul 4: Workflow & Zertifizierung — Integration in Arbeitsablaeufe, Praxisszenarien, Wissenstest KI-Fuehrerschein
Das Ergebnis: Ein dokumentierter Kompetenznachweis, der bei Audits, Aufsichtsbehörden und regulaeren Prüfungen vorweisbar ist. Und Mitarbeitende, die nicht nur geschult wurden — sondern die wissen, was sie tun.
Für Behörden und KRITIS-Betreiber: Der M2 KI-Führerschein ist skalierbar, anpassbar an Ihre spezifischen Anforderungen und liefert den Compliance-Nachweis den Artikel 4 EU AI Act voraussetzt.
Sie sind noch nicht sicher, wo Ihre Organisation steht? Genau dafür bieten wir ein kostenloses Erstgespräch an. Keine Verkaufsveranstaltung — ein echter Orientierungsgespräch mit unseren Experten, darunter Data-Scientist und KI-Trainer Klaus Iffländer.
Sie wissen nicht, ob Ihre Organisation Artikel 4 erfüllt? Genau dafür gibt es unser kostenloses Orientierungsgespräch. 45 Minuten, kein Verkauf — eine ehrliche Standortbestimmung.
FAQ: Die häufigsten Fragen zu AI Literacy und Artikel 4 EU AI Act
Dieser Abschnitt beantwortet die Fragen, die Behörden, IT-Verantwortliche und Führungskräfte am häufigsten stellen.
❓ Was genau verlangt Artikel 4 des EU AI Acts von Unternehmen und Behörden?
Artikel 4 verpflichtet alle Anbieter und Betreiber von KI-Systemen, sicherzustellen, dass Mitarbeitende die mit KI arbeiten über ausreichende AI-Kompetenz verfuegen. Das umfasst technisches Grundverständnis, Urteilsvermoegen bei KI-Outputs, Kenntnisse zu Datenschutz und Compliance sowie die Fähigkeit, Risiken einzuschaetzen. Die Pflicht gilt seit dem 2. Februar 2026.
❓ Gilt AI Literacy Pflicht auch für öffentliche Behörden und Verwaltungen?
Ja, explizit. Behörden und öffentliche Verwaltungen sind Betreiber von KI-Systemen im Sinne des EU AI Acts. Viele Verwaltungs-KI-Systeme fallen zudem in die Hochrisiko-Kategorie, was erhoehte Anforderungen an Dokumentation und menschliche Aufsicht bedeutet. AI Literacy ist hier nicht nur Compliance-Pflicht, sondern demokratische Verantwortung.
❓ Was bedeutet Shadow AI und warum ist sie besonders gefährlich in regulierten Umfeldern?
Shadow AI bezeichnet den unkontrollierten Einsatz nicht-autorisierter KI-Tools durch Mitarbeitende — zum Beispiel öffentliche Chatbots für interne Dokumente. In regulierten Umfeldern ist das ein akutes Datenschutz- und Sicherheitsrisiko. AI Literacy schafft das Bewusstsein, warum Enterprise-KI gegenüber öffentlichen Tools zu bevorzugen ist.
❓ Wie kann eine Behörde AI Literacy dokumentieren und nachweisen?
Durch strukturierte Qualifizierungsprogramme mit formalem Abschluss, dokumentierter Teilnahme und Kompetenznachweis — wie dem M2 KI-Fuehrerschein. Dieser liefert einen prüfbaren Nachweis der KI-Kompetenz, der bei Audits und Prüfungen durch Aufsichtsbehörden vorgelegt werden kann.
❓ Sind KRITIS-Betreiber stärker betroffen als andere Unternehmen?
Ja. KRITIS-Betreiber unterliegen bereits durch BSI-Kritis-V und NIS2 erhöhten Anforderungen. Der EU AI Act addiert darauf: KI-Systeme in kritischen Prozessen sind fast automatisch Hochrisiko, Mitarbeitende benötigen nachweisbare AI-Kompetenz, und regulatorische Prüfungen werden KI-Governance zunehmend einschliessen.
❓ Was ist der Unterschied zwischen einem E-Learning-Kurs und echtem AI Literacy Aufbau?
E-Learning-Module vermitteln Wissen über KI. Echter AI Literacy Aufbau schafft Handlungskompetenz für den konkreten Einsatz: Wann hinterfrage ich ein KI-Ergebnis? Was tue ich wenn etwas nicht stimmt? Wie dokumentiere ich meinen Umgang mit KI? Der M2 KI-Fuehrerschein setzt auf praxisnahe Szenarien statt abstraktes Wissen.
❓ Was kostet ein Erstgespräch mit M2 — und was bekomme ich dafür?
Das Erstgespräch ist kostenlos und unverbindlich. In 45-60 Minuten analysieren unsere Experten gemeinsam mit Ihnen: Wo setzt Ihre Organisation heute KI ein? Welche Risiken entstehen durch fehlende AI Literacy? Welche Maßnahmen würden sofort helfen? Das Gespräch ist kein Verkaufsgespraech — sondern eine ehrliche Standortbestimmung.