sprachreif HUM 4/5, Schulbuch

10 rikanische Vornamen mit positiven Begriffen assoziiert, wohingegen Insekten genau wie afro­ amerikanische Namen eher mit negativen Be- griffen verbunden werden. Die Namen junger Menschen werden eher als unangenehm einge- stuft. Und vor allem: Männliche Namen werden semantisch automatisch in die Nähe von Karrie- rebegriffen gerückt, weibliche Namen hingegen eher mit Familie assoziiert. Ebenso wird Mathe- matik mehr mit Männern in Verbindung ge- bracht, Kunst mehr mit Frauen – die Maschinen denken also genauso in Rollenklischees wie Menschen. Nicht nur das ist Aylin Caliskan aufgefallen. [...] Die türkische Sprache kennt im Unterschied zum Deutschen und zum Englischen keine grammatikalischen Geschlechter. „ O bir doktor “ kann ebenso „ Sie ist Ärztin “ heißen wie „ Er ist Arzt “. Bei Google Translate aber wird der doktor konsequent zum männlichen Arzt, Pflegeberufe hingegen werden stets Frauen zugeschrieben. Dass es auch Kranken pfleger gibt, scheint das Programm nicht zu wissen. „Schlecht bezahlte Jobs werden Frauen zugeord- net, gut bezahlte Männern“, beschreibt Caliskan das maschinelle Muster. Damit reproduzierten die Computer „ein perfektes Abbild unserer Ge- sellschaft“ – mit all ihren Ungleichheiten. Nun stelle man sich vor, eine solche Software helfe zum Beispiel in einer Personalabteilung bei der Vorauswahl von Bewerbern für ein Vorstellungs- gespräch. Was, wenn die künstliche Intelligenz alle Bewerberinnen für eine freie Arztstelle von vornherein aussortiert? Wie schon heute unbewusste Verzerrungen durch Computer verstärkt werden, zeigt beispiel- haft das predictive policing , eine Voraussagesoft- ware für Streifenpolizisten. Auf Basis der Krimi- nalitätsstatistik geben solche Programme den Beamten Hinweise, in welchen Stadtgebieten sie verstärkt Streife fahren sollen. Auch hier liefert die Statistik kein neutrales Abbild der Wirklich- keit. Gilt etwa eine Gegend als heißes Pflaster, werden Polizisten dort verstärkt nach demRech- ten sehen – und damit fast zwangsläufig auch häufiger Straftaten protokollieren. Damit schaf- fen sie Daten, auf deren Basis die Software in ebendiesen Gegenden eine noch größere Poli- zeipräsenz verlangt – was sich gegenseitig hoch- schaukelt. […] Denn Vorurteile, Verzerrungen und Unge- rechtigkeiten erkennt erst, wer den Status Quo an einem gesellschaftlichen Ideal misst. Das müssten Menschen den Maschinen zuerst ein- mal vermitteln – in eindeutigen mathematischen Formeln. Was fehlt, sind also Formeln für Ge- rechtigkeit. Nur: Wie sollen die aussehen? Neh- men wir ein relativ simples Beispiel, nämlich dass Männer und Frauen auf dem Arbeitsmarkt gleiche Chancen haben sollen. Klingt ziemlich unstrittig. Doch woran soll ein Algorithmus „gleiche Chancen“ erkennen? Ist jede Gruppe ungleich, in der Frauen und Männer nicht fif- ty-fifty vertreten sind? Noch einen Schritt weiter gedacht: Wie illuso- risch erscheint es, soziale Verzerrungen algorith- misch ausgleichen zu wollen? Sollte zum Beispiel eine Software, die Bewerber automatisch für ein Vorstellungsgespräch auswählt, darauf achten, dass Männer und Frauen in der Auswahl genau gleich verteilt sind? Oder sollte sie sich an der Geschlechterverteilung aller Bewerbungen ori- entieren? Oder das Geschlecht gänzlich ausblen- den? Und welche Faktoren müssen für eine ge- rechte Verteilung ebenfalls bedacht werden? Qualifikationen? Hautfarbe? Alter? – So schnell zerrinnt das vermeintlich simple Beispiel in einer langen Liste von Fragen. […] QUELLE: DIE ZEIT N°29, 13. Juli 2017, S. 35 1 Lehre von der Bedeutung der Wörter 2 Teilgebiet der Linguistik, das sich damit beschäftigt, wie Sprache von Computern verarbeitet werden kann 132 134 136 138 140 142 144 146 148 150 152 154 156 158 160 162 164 166 168 170 172 174 176 178 180 182 184 186 188 190 192 194 196 198 200 202 204 206 208 Versuchen Sie, gemeinsam mit Ihrer Partnerin bzw. Ihrem Partner Antworten auf die am Ende des Textes (ab Zeile 195) gestellten Fragen zu finden. Diskutieren Sie anschließend Ihre Ergebnisse im Plenum oder veranstalten Sie einen runden Tisch zum Thema. A10  B C A11  Lesen 1  Nur zu Prüfzwecken – Eigentum des Verlags öbv

RkJQdWJsaXNoZXIy ODE3MDE=