Artworks: Mean Goddess

KI-Produktion diskriminiert Menschen systematisch, aufgrund von Geschlecht, Race, Klasse – und auch aufgrund von Behinderung. Kannst du anhand von ein, zwei Beispielen erklären, wie genau das geschieht? 
Es lassen sich unzählige Beispiele finden für Ableismus innerhalb der KI-Technologien und der Unternehmen dahinter, sie reichen von Spracherkennungssystemen über autonome Autos bis hin zu Fragen nach den Arbeitsverhältnissen. Bspw. untersuchte die Wissenschaftlerin Jutta Treviranus 2018 in einer Studie, ob autonome Autos (das heißt: mithilfe von KI gesteuerte Autos) Menschen erkennen, die Rollstuhl fahren. Es stellte sich heraus, dass das Auto zwar vorwärtsfahrende Rollstuhlfahrer*innen erkannte, aber nicht solche, die rückwärtsfuhren. Autosteuernde KI-Anwendungen, die mit

überdurchschnittlich präzisen statistischen Modellen arbeiten und feiner als die üblichen Anwendungen reagieren, schnitten absurderweise sogar noch schlechter ab. Die Studie zeigt also nicht nur, dass autonome Autos noch wenig vertrauenerweckend sind, sondern auch, dass mehr Daten nicht unbedingt zu inklusiveren bzw. weniger lebensbedrohlichen Ergebnissen führen. Das ist eine besonders wichtige Erkenntnis, da eine weitverbreitete Forderung innerhalb der KI-(Politik-)Szene ist, mehr inklusive und diversere Datensets aufzusetzen, damit KI besser lernt – so auch das Narrativ in der KI-Strategie der jetzigen Bundesregierung. Doch das Problem ist nicht einfach mit mehr Repräsentation von behinderten Menschen in den Datensätzen gelöst. Es bräuchte eine andere Gewichtung der Daten von behinderten Menschen und somit auch ein anderes Verständnis von statistischen Modellen in KI.        

Was meinst du damit? 
Daten, in denen, um bei dem genannten Beispi…