sprachreif 4, Schulbuch

9 Menschen. Nicht nur das ist Aylin Caliskan aufgefallen. [...] Die türkische Sprache kennt im Unterschied zum Deutschen und zum Englischen keine grammatikalischen Geschlechter. „ O bir doktor “ kann ebenso „ Sie ist Ärztin “ heißen wie „ Er ist Arzt “. Bei Google Translate aber wird der doktor konsequent zum männlichen Arzt, P±egeberufe hingegen werden stets Frauen zugeschrieben. Dass es auch Kranken peger gibt, scheint das Programm nicht zu wissen. „Schlecht bezahlte Jobs werden Frauen zugeord- net, gut bezahlte Männern“, beschreibt Caliskan das maschinelle Muster. Damit reproduzierten die Computer „ein perfektes Abbild unserer Ge- sellschaž“ – mit all ihren Ungleichheiten. Nun stelle man sich vor, eine solche Sožware helfe zum Beispiel in einer Personalabteilung bei der Vorauswahl von Bewerbern für ein Vorstellungs- gespräch. Was, wenn die künstliche Intelligenz alle Bewerberinnen für eine freie Arztstelle von vornherein aussortiert? Wie schon heute unbewusste Verzerrungen durch Computer verstärkt werden, zeigt beispiel- haž das predictive policing , eine Voraussagesož- ware für Streifenpolizisten. Auf Basis der Krimi- nalitätsstatistik geben solche Programme den Beamten Hinweise, in welchen Stadtgebieten sie verstärkt Streife fahren sollen. Auch hier liefert die Statistik kein neutrales Abbild der Wirklich- keit. Gilt etwa eine Gegend als heißes P±aster, werden Polizisten dort verstärkt nach demRech- ten sehen – und damit fast zwangsläu©g auch häu©ger Stražaten protokollieren. Damit schaf- fen sie Daten, auf deren Basis die Sožware in ebendiesen Gegenden eine noch größere Poli- zeipräsenz verlangt – was sich gegenseitig hoch- schaukelt. […] Denn Vorurteile, Verzerrungen und Unge- rechtigkeiten erkennt erst, wer den Status Quo an einem gesellschaftlichen Ideal misst. Das müssten Menschen den Maschinen zuerst ein- mal vermitteln – in eindeutigen mathematischen Formeln. Was fehlt, sind also Formeln für Ge- rechtigkeit. Nur: Wie sollen die aussehen? Neh- men wir ein relativ simples Beispiel, nämlich dass Männer und Frauen auf dem Arbeitsmarkt gleiche Chancen haben sollen. Klingt ziemlich unstrittig. Doch woran soll ein Algorithmus „gleiche Chancen“ erkennen? Ist jede Gruppe ungleich, in der Frauen und Männer nicht ©f- ty-©žy vertreten sind? Noch einen Schritt weiter gedacht: Wie illuso- risch erscheint es, soziale Verzerrungen algorith- misch ausgleichen zu wollen? Sollte zum Beispiel eine Sožware, die Bewerber automatisch für ein Vorstellungsgespräch auswählt, darauf achten, dass Männer und Frauen in der Auswahl genau gleich verteilt sind? Oder sollte sie sich an der Geschlechterverteilung aller Bewerbungen ori- entieren? Oder das Geschlecht gänzlich ausblen- den? Und welche Faktoren müssen für eine ge- rechte Verteilung ebenfalls bedacht werden? Quali©kationen? Hautfarbe? Alter? – So schnell zerrinnt das vermeintlich simple Beispiel in einer langen Liste von Fragen. […] QUELLE: DIE ZEIT N°29, 13. Juli 2017, S. 35 144 146 148 150 152 154 156 158 160 162 164 166 168 170 172 174 176 178 180 182 184 186 188 190 192 194 196 198 200 202 204 206 208 Versuchen Sie, gemeinsam mit Ihrer Partnerin bzw. Ihrem Partner Antworten auf die am Ende des Textes (ab Zeile 195) gestellten Fragen zu finden. Diskutieren Sie anschließend Ihre Ergebnisse im Plenum oder veranstalten Sie einen runden Tisch zum Thema. Sie können auch eine geschlechtsspezifische Umfrage zum Thema in Ihrer Klasse oder in Ihrer Schule veranstalten. Wie bzw. inwiefern sehen die männlichen Mitschüler, Lehrer, Schulwarte oder auch ein Herr Direktor diese „Übersetzungsfehler“ anders als weibliche Mitglieder der Schulge- meinschaft? Ebenso können Sie den „Google-Sexismus“ auch zuhause mit ihren Eltern oder Ge- schwistern oder anderen Personen besprechen. A3 B C A4 Tipp Text- kompetenz Nur zu Prüfzwecken – Eigentum des Verlags öbv

RkJQdWJsaXNoZXIy ODE3MDE=