Womöglich könnte mir eine KI dabei helfen, den vorliegenden Artikel von Marcus Schwarzbach zu verstehen, indem mir etwa eine Gliederung nach zum Beispiel rechtlichen Gesichtspunkten oder Argumenten sowie deren Gewichtung nach Bedeutsamkeit im Alltag angeboten würde.
Anscheinend geht es um ein Gesetz namens AI Act of the European Union for Consumers, zu dem der verlinkte Handelsblatt-Artikel von Josefine Fokuhl, Jürgen Klöckner und Luisa Bomke (http://www.handelsblatt.com/politik/deutschland/kuenstliche-intelligenz-was-das-ki-gesetz-der-eu-fuer-verbraucher-bedeutet/100013160.html) fünf darin enthaltene Punkte auflistet, jedoch auch wenig erklärt: (1) Einschränkung KI-basierter Gesichts- und Emotionserkennung im Alltag, (2) Transparenzpflicht für Unternehmen bei KI-Verwendung, (3) Verbot von KI-basiertem Social Scoring einer Einzelperson durch Unternehmen, (4) Recht auf Verständnis für vom KI-Einsatz betroffene Personen, (5) Recht auf Beschwerde gegen eine KI-basierte Entscheidung.
Hintergrund ist wohl, wie einem IT-Business-Artikel von Alexander Siegert (https://www.it-business.de/strengere-regeln-bei-der-anwendung-von-ki-a-07ff7d6cba8a824c6dae3cf21ba68074/) zu entnehmen, dass man KI-Technologien in vier Risikoklassen einteilen kann: »Risikoarme Systeme: Hierzu zählt der Großteil an KI-Anwendungen. Nutzer dieser Anwendungen müssen darüber informiert werden, dass sie mit einer KI interagieren. Weitere Anforderungen bestehen nicht. Begrenzt riskante Systeme: Künstliche Intelligenz für weniger kritische Bereiche wie Chatbots im Servicebereich. Hierunter fallen auch KI-Basismodelle wie z.B. GPT-4, der Basis für ChatGPT. Für die Anbieter gelten Transparenz- und Kennzeichnungspflichten. (...) Hochrisiko-Systeme: KI-Systeme, die potenziell negative Auswirkungen auf Sicherheit oder Grundrechte haben. Anwendungen in sensiblen oder systemkritischen Bereichen fallen in diese Kategorie. Systeme mit unannehmbarem Risiko: Anwendungen in dieser Kategorie sind laut der Einigung komplett verboten. Gemeint sind Systeme, die Menschen aufgrund ihres Verhaltens, sozioökonomischer Merkmale oder biometrischer Daten einsortieren. Darunter fällt auch die breit diskutierte Gesichtserkennung.«
Außerdem wird in diesem IT-Business-Artikel ein Bernd Greifeneder, CTO und Gründer einer Firma namens Dynatrace, zitiert, der zwischen generativen KI-Modellen mit einem probabilistischen Ansatz und kausaler bzw. prädiktiver KI unterscheidet, deren statistische Modelle kontextbezogene Daten nutzten und somit resistenter gegen Verzerrungen seien, wodurch eine solche KI weniger einer Blackbox gliche. »Der EU AI Act wird einen guten Start haben, wenn es Klarheit über diese wichtigen Unterschiede zwischen KI-Modellen schafft«, ist sich Experte Greifeneder sicher. Mir selbst fehlt jede Expertise, bleibt somit nur der Glaube?
Der bereits im vorliegenden Telepolis-Artikel verlinkte DGB-Artikel (https://www.dgb.de/++co++f2976d14-bf4e-11ee-a703-001a4a160123) wirkt auch etwas ratlos, wenn er von Unternehmen eine Klassifizierung eingekaufter Künstlicher Intelligenz fordert, die bislang anscheinend kaum existiert, obwohl KI zum Beispiel im Personalwesen bereits heute eigenständig Entscheidungen trifft, die zuvor meist menschliche Assistenzen erledigten, etwa das Vorsortieren eingereichter Bewerbungsunterlagen für die eigentlich Personalverantwortlichen.
Aus meiner Sicht muss das nicht schlechter sein, denn eine Maschine entscheidet zumindest vorurteilsfrei allein auf der Grundlage der konkreten Vorgaben für das Anforderungsprofil, um das es gehen soll. Bereits mit echten Personendaten aus der Realität vortrainierte KI kann eigentlich nur dann zum Problem werden, wenn sie dadurch, von den Programmierenden unbeabsichtigt, verbreitete Vorstellungen, etwa zu geschlechtsbezogenen Rollenstereotypen im Kontext einer Entscheidung zur Berufswahl, verinnerlichen musste, weil solche Klischees in Gesellschaften nun einmal tatsächlich existieren. Die Herausforderung wird darin bestehen, einem anhand realer Daten lernenden KI-System zugleich soziale Normen vorzugeben.