Problematisch sind alle Bereiche, in denen künstliche Intelligenz wichtige Entscheidungen über Menschen trifft, etwa ob jemand einen Job bekommt oder ob jemand ins Gefängnis muss oder welche medizinische Diagnose gestellt wird. Das ist auch deshalb problematisch, weil künstliche Intelligenz aus Daten der Vergangenheit lernt. Denn wenn zum Beispiel Banken in der Vergangenheit eine Gruppe von Menschen bei der Kreditvergabe benachteiligt haben, dann spiegelt sich das auch in den Trainingsdaten wider, aus denen die künstliche Intelligenz lernt, d.h. sie setzt die Benachteiligung fort. Künstliche Intelligenz ist also grundsätzlich strukturkonservativ. Man muss sich also von der Vorstellung verabschieden, künstliche Intelligenz würde irgendetwas objektiver tun als der Mensch, weil sie einfach das fortsetzt, was sie aus den Trainingsdaten gelernt hat und im Gegensatz zum Menschen nur den Anschein von Objektivität erweckt. Wer künstliche Intelligenz einsetzt, sollte daher immer davon ausgehen, dass sie eine Voreingenommenheit hat, d. h. eine Voreingenommenheit, die sie aus den Trainingsdaten gelernt hat. Zum Beispiel, wenn Frauen bei der Personalauswahl benachteiligt werden, nur weil sie in der Vergangenheit seltener eingestellt wurden, obwohl sie genauso gut für die Stelle geeignet sind.
Literatur
https://taz.de/Forscherin-ueber-Kuenstliche-Intelligenz/!5937210/ (23-06-12)