Ansicht umschalten
Avatar von Leser2015
  • Leser2015

492 Beiträge seit 19.11.2015

In welche KI-Kategorie fallen Assistenzsysteme für das Personalwesen?

Womöglich könnte mir eine KI dabei helfen, den vorliegenden Artikel von Marcus Schwarzbach zu verstehen, indem mir etwa eine Gliederung nach zum Beispiel rechtlichen Gesichtspunkten oder Argumenten sowie deren Gewichtung nach Bedeutsamkeit im Alltag angeboten würde.

Anscheinend geht es um ein Gesetz namens AI Act of the European Union for Consumers, zu dem der verlinkte Handelsblatt-Artikel von Josefine Fokuhl, Jürgen Klöckner und Luisa Bomke (http://www.handelsblatt.com/politik/deutschland/kuenstliche-intelligenz-was-das-ki-gesetz-der-eu-fuer-verbraucher-bedeutet/100013160.html) fünf darin enthaltene Punkte auflistet, jedoch auch wenig erklärt: (1) Einschränkung KI-basierter Gesichts- und Emotionserkennung im Alltag, (2) Transparenzpflicht für Unternehmen bei KI-Verwendung, (3) Verbot von KI-basiertem Social Scoring einer Einzelperson durch Unternehmen, (4) Recht auf Verständnis für vom KI-Einsatz betroffene Personen, (5) Recht auf Beschwerde gegen eine KI-basierte Entscheidung.

Hintergrund ist wohl, wie einem IT-Business-Artikel von Alexander Siegert (https://www.it-business.de/strengere-regeln-bei-der-anwendung-von-ki-a-07ff7d6cba8a824c6dae3cf21ba68074/) zu entnehmen, dass man KI-Technologien in vier Risikoklassen einteilen kann: »Risikoarme Systeme: Hierzu zählt der Großteil an KI-Anwendungen. Nutzer dieser Anwendungen müssen darüber informiert werden, dass sie mit einer KI interagieren. Weitere Anforderungen bestehen nicht. Begrenzt riskante Systeme: Künstliche Intelligenz für weniger kritische Bereiche wie Chatbots im Servicebereich. Hierunter fallen auch KI-Basismodelle wie z.B. GPT-4, der Basis für ChatGPT. Für die Anbieter gelten Transparenz- und Kennzeichnungspflichten. (...) Hochrisiko-Systeme: KI-Systeme, die potenziell negative Auswirkungen auf Sicherheit oder Grundrechte haben. Anwendungen in sensiblen oder systemkritischen Bereichen fallen in diese Kategorie. Systeme mit unannehmbarem Risiko: Anwendungen in dieser Kategorie sind laut der Einigung komplett verboten. Gemeint sind Systeme, die Menschen aufgrund ihres Verhaltens, sozioökonomischer Merkmale oder biometrischer Daten einsortieren. Darunter fällt auch die breit diskutierte Gesichtserkennung.«

Außerdem wird in diesem IT-Business-Artikel ein Bernd Greifeneder, CTO und Gründer einer Firma namens Dynatrace, zitiert, der zwischen generativen KI-Modellen mit einem probabilistischen Ansatz und kausaler bzw. prädiktiver KI unterscheidet, deren statistische Modelle kontextbezogene Daten nutzten und somit resistenter gegen Verzerrungen seien, wodurch eine solche KI weniger einer Blackbox gliche. »Der EU AI Act wird einen guten Start haben, wenn es Klarheit über diese wichtigen Unterschiede zwischen KI-Modellen schafft«, ist sich Experte Greifeneder sicher. Mir selbst fehlt jede Expertise, bleibt somit nur der Glaube?

Der bereits im vorliegenden Telepolis-Artikel verlinkte DGB-Artikel (https://www.dgb.de/++co++f2976d14-bf4e-11ee-a703-001a4a160123) wirkt auch etwas ratlos, wenn er von Unternehmen eine Klassifizierung eingekaufter Künstlicher Intelligenz fordert, die bislang anscheinend kaum existiert, obwohl KI zum Beispiel im Personalwesen bereits heute eigenständig Entscheidungen trifft, die zuvor meist menschliche Assistenzen erledigten, etwa das Vorsortieren eingereichter Bewerbungsunterlagen für die eigentlich Personalverantwortlichen.

Aus meiner Sicht muss das nicht schlechter sein, denn eine Maschine entscheidet zumindest vorurteilsfrei allein auf der Grundlage der konkreten Vorgaben für das Anforderungsprofil, um das es gehen soll. Bereits mit echten Personendaten aus der Realität vortrainierte KI kann eigentlich nur dann zum Problem werden, wenn sie dadurch, von den Programmierenden unbeabsichtigt, verbreitete Vorstellungen, etwa zu geschlechtsbezogenen Rollenstereotypen im Kontext einer Entscheidung zur Berufswahl, verinnerlichen musste, weil solche Klischees in Gesellschaften nun einmal tatsächlich existieren. Die Herausforderung wird darin bestehen, einem anhand realer Daten lernenden KI-System zugleich soziale Normen vorzugeben.

Bewerten
- +
  • Avatar von Fritz (5)
    • Fritz (5)

    594 Beiträge seit 27.09.2020

    Antwort auf In welche KI-Kategorie fallen Assistenzsysteme für das Personalwesen? von Leser2015.

    Leser2015 schrieb am 22.02.2024 20:44:

    Aus meiner Sicht muss das nicht schlechter sein, denn eine Maschine entscheidet zumindest vorurteilsfrei allein auf der Grundlage der konkreten Vorgaben für das Anforderungsprofil, um das es gehen soll. Bereits mit echten Personendaten aus der Realität vortrainierte KI kann eigentlich nur dann zum Problem werden, wenn sie dadurch, von den Programmierenden unbeabsichtigt, verbreitete Vorstellungen, etwa zu geschlechtsbezogenen Rollenstereotypen im Kontext einer Entscheidung zur Berufswahl, verinnerlichen musste, weil solche Klischees in Gesellschaften nun einmal tatsächlich existieren. Die Herausforderung wird darin bestehen, einem anhand realer Daten lernenden KI-System zugleich soziale Normen vorzugeben.

    Die Maschine entscheidet nicht vorurteilsfrei. Kann sie prinzipiell nicht.
    Der zu beurteilend Mensch hat verschiedene zu nutzende Eigenschaften.
    Verschiedene Eigenschaften lassen sich prinzipiell, so wie Apfel und Birnen,
    nicht vergleichen.
    Eine vergleichende Bewertung verschiedener Eigenschaften ist somit
    prinzipiell von Aussen vorzugeben.
    Man wird diese Vorgaben in einem Algorithmus verstecken und so Objektivität
    vortäuschen.
    Es ist deshalb zu fordern, dass diese Vorgaben explizit und nachprüfbar offen gelegt
    werden.

    Es ist allerdings auch zu beachten, dass die Angaben der Bewerber nicht
    immer, ob aus Unkenntnis oder Bewusst, den erforderlichen Genauigkeitsgrad
    besitzen.

    MfG Bernays

    Das Posting wurde vom Benutzer editiert (22.02.2024 22:30).

    Bewerten
    - +
  • Avatar von Leser2015
    • Leser2015

    492 Beiträge seit 19.11.2015

    Antwort auf Re: In welche KI-Kategorie fallen Assistenzsysteme für das Personalwesen? von Fritz (5).

    Fritz (5) schrieb am 22.02.2024 22:20:

    Leser2015 schrieb am 22.02.2024 20:44:

    Aus meiner Sicht muss das nicht schlechter sein, denn eine Maschine entscheidet zumindest vorurteilsfrei allein auf der Grundlage der konkreten Vorgaben für das Anforderungsprofil, um das es gehen soll. Bereits mit echten Personendaten aus der Realität vortrainierte KI kann eigentlich nur dann zum Problem werden, wenn sie dadurch, von den Programmierenden unbeabsichtigt, verbreitete Vorstellungen, etwa zu geschlechtsbezogenen Rollenstereotypen im Kontext einer Entscheidung zur Berufswahl, verinnerlichen musste, weil solche Klischees in Gesellschaften nun einmal tatsächlich existieren. Die Herausforderung wird darin bestehen, einem anhand realer Daten lernenden KI-System zugleich soziale Normen vorzugeben.

    Die Maschine entscheidet nicht vorurteilsfrei. Kann sie prinzipiell nicht.
    Der zu beurteilend Mensch hat verschiedene zu nutzende Eigenschaften.
    Verschiedene Eigenschaften lassen sich prinzipiell, so wie Apfel und Birnen,
    nicht vergleichen.
    Eine vergleichende Bewertung verschiedener Eigenschaften ist somit
    prinzipiell von Aussen vorzugeben.
    Man wird diese Vorgaben in einem Algorithmus verstecken und so Objektivität
    vortäuschen.
    Es ist deshalb zu fordern, dass diese Vorgaben explizit und nachprüfbar offen gelegt
    werden.

    Es ist allerdings auch zu beachten, dass die Angaben der Bewerber nicht
    immer, ob aus Unkenntnis oder Bewusst, den erforderlichen Genauigkeitsgrad
    besitzen.

    MfG Bernays

    Unklar, es geht eben darum, was genau man unter einem Vorurteil versteht und wie sich hier Mensch und Maschine womöglich ganz prinzipiell unterscheiden.

    Alle Menschen haben Vorurteile, die es überhaupt erst ermöglichen, unter Zeitdruck zu einer Entscheidung zu kommen, die sich natürlich im Nachhinein, also nach einem umfangreichen Beurteilungsprozess auch einmal als komplett falsch herausstellen kann; wie etwa gelegentliche Freisprüche in Gerichtsverfahren belegen, die schließlich vorkommen, obwohl zur Eröffnung eines solchen Verfahrens sogar mehrere Fachleute eine Verurteilung für überwiegend wahrscheinlich halten müssen, denn sonst sollte es gar nicht erst stattfinden.

    Und es gibt wohl immer dort, wo Menschen miteinander interagieren, eine reine Sachebene, bei Bewerbungen beispielsweise den Nachweis der geforderten fachlichen Qualifikation, und eine zwischenmenschliche, bei der es darum geht, ob jemand Neues ziemlich gut oder eher schlecht in ein schon bestehendes Team passt. Bei Bewerbungsunterlagen wie vor Gericht sollen zudem formale Kriterien eine große Rolle spielen, also ob jemand die Angelegenheit mit dem nötigen Ernst angeht, was für ein grundsätzliches Verständnis der jeweiligen Spielregeln spricht, aber leider nicht zuletzt auch die körperliche Attraktivität eines Menschen, die für eine Maschine stets ein Rätsel bleiben wird, sofern man sie nicht entsprechend programmiert.

    Wie die Einschätzung einer einzelnen Person so hat natürlich auch die vergleichende Bewertung mehrerer Personen im Rahmen eines Bewerbungsvorgangs mit Blick auf ein konkretes Anforderungsprofil immer diese verschiedenen Ebenen, die allerdings nicht immer in vollem Umfang nach außen kommuniziert werden. Jedenfalls sehe ich nicht, warum hier eine Künstliche Intelligenz ungerechter entscheiden sollte als entsprechend ausgebildete Menschen, eher im Gegenteil, zumal man durch den neuen EU AI Act vielleicht sogar mehr Auskunftsrechte erhalten könnte als bisher gegenüber menschlichen Personalverantwortlichen.

    Bei meinem ersten Kommentar ging es mir eigentlich besonders um eine andere Frage, nämlich wie KI-Technologien in die dort genannten vier verschiedenen Risikoklassen eingeordnet werden, denn jedes Assistenzsystem im Personalwesen könnte definitionsgemäß bereits ein »System mit unannehmbarem Risiko« darstellen, sofern die Zeitebene für eine Beurteilung von Menschen aufgrund deren Verhaltens oder biometrischer Daten keinerlei Rolle spielte, denn genau solche Daten fallen bei Bewerbungen neben denen zur rein fachlichen Qualifikation zwangsläufig immer an. Solche Fragen kamen wohl auch in der Diskussion rund um KI-Systeme zur Gesichtserkennung auf, denn unter Sicherheitsaspekten könnte es dort vielleicht doch Ausnahmen geben, etwa wenn es um Kontrolle oder Durchsetzung eines Hausrechts geht, zum Beispiel in Bereichen der Gastronomie.

    Bewerten
    - +
  • Avatar von Fritz (5)
    • Fritz (5)

    594 Beiträge seit 27.09.2020

    Antwort auf Re: In welche KI-Kategorie fallen Assistenzsysteme für das Personalwesen? von Leser2015.

    Ich hatte mich bewusst auf einen einfachen Teil ihres thematisch umfangreichen
    Beitrages bezogen.
    In Ihrer Antwort beschreiben sie sehr schön den Umfang des Bewertungsproblemes.
    Die Objektivierung, im Sinne einer kalkülmässigen Festschreibung, ist ein
    Herausforderung und mit sehr viel Arbeit verbunden. Es müssen
    eindeutige Festlegungen erfolgen. Deren Sinnhaftigkeit zeigt die konkrete Anwendung
    des Kalküles auf. Was in einem Wechselspiel Verbesserungen nach sich zieht.
    Und, wie sie bereits betonten, die Bewertung ist reproduzierbar objektiviert.
    In der Summe: Die Maschine ist ein schönes Hilfsmittel, die Substanz kommt
    von aussen.

    Schönen Abend noch.

    MfG Bernays

    Bewerten
    - +
Ansicht umschalten