Berücksichtigen Sie bitte: EU verpflichtet Arbeitgeber bei KI-Einsatz zu Fortbildungen
Der Gesetzgeber hat gemerkt, KI einsetzen ohne Regeln ist wie Autofahren ohne Bremsen.
Daher: Anbieter, Betreiber und Unternehmen, deren Mitarbeiter Künstliche Intelligenz beruflich einsetzen, müssen ab dem 2. Februar 2025 sicherstellen, dass ihr Personal über ausreichende KI-Kompetenz verfügt. Wer sich also bei der Arbeit von ChatGPT und Co. helfen lässt, muss ein grundlegendes Verständnis für die Arbeitsweise und Wirkung der KI-Maschine haben. Chancen und Risiken sind zu kennen und abzuwägen – und Arbeitgeber sind in der Pflicht, ihre Mitarbeiter weiterzubilden.
Zudem müssen Betreiber und Unternehmen, die KI einsetzen, die Systeme in Risikoklassen einordnen. Je nach Risikostufe schon jetzt (bei nicht akzeptablen Risiken) oder zu einem bestimmten Termin in der Zukunft.
Dafür gibt es vier Stufen:
• nicht akzeptable Risiken
• hohes Risiko
• begrenztes Risiko
• minimales Risiko
Mit dem AI Act Risk Navigator, einem kostenlosen Online-Tool zur Risikoklassifizierung von KI-Systemen, veröffentlichte das TÜV AI.Lab eine Anwendung, die es Unternehmen ermöglicht, eine erste Risikoschätzung vorzunehmen.
Was bedeutet dies für Sie im Klartext?
Was heißt „ausreichende“ KI-Kompetenz?: Nutzer*innen müssen in der Lage sein, bestimmte Fragen zu beantworten, beispielsweise:
• Was ist ein KI-System?
• Was bedeutet Autonomie von KI?
• Welche Nutzung von KI-Maschinen ist gefahrlos möglich?
• Wobei muss man aufpassen?
• Wie geht gutes Prompten?
• Wobei kann die KI helfen?
• Wobei kann sie Fehler machen?
• Wobei können durch den KI-Einsatz der Datenschutz, das Urheber- und das Verwertungsrecht oder das Persönlichkeitsrecht verletzt werden?
Nicht akzeptable Risiken sind verboten. Das sind z.B. Social-Scoring-Modelle zur Bewertung des vermeintlichen Wohlverhaltens von Bürgerinnen und Bürgern, wie sie in China zum Einsatz kommen.
Für hochriskante Modelle gelten besondere Pflichten beim Einsatz, etwa für die Dokumentation, Protokollierung und menschliche Kontrolle. Das gilt zum Beispiel bei der Bewertung von Lernergebnissen in der Bildung, beim maschinellen Auswerten von Bewerbungen oder bei KI-gestützten Texten zu Themen der Gesundheit oder Justiz.
Minimale Risiken stecken dagegen in KI-Systemen wie Empfehlungen für den nächsten abzuspielenden Musiktitel oder Spamfiltern.
Bitte beachten Sie, dass Sie neben dem Datenschutzbeauftragten, zumindest eine Zeitlang, einen KI-Beauftragten im Unternehmen einsetzen müssen, der sich mit der Einschätzung von KI-Systemen in die Risikoklassen befassen muss.