sprachreif HAK/HTL 4/5, Schulbuch

11 staben- und sinngleich im Englischen). Dagegen sucht die neue Technik nach einer Bedeutung, indem sie große Datenmengen vergleicht. Sie er- zeugt sozusagen Semantik 1 per Statistik. Und sta- tistisch gilt für die Mehrheit aller Präsidentenan- sprachen: Wenn darin der Satz „Liebe XY, vielen Dank für Ihr Vertrauen“ vorkommt, steht XY meist für die Wörter „ fellow Americans “, ameri- kanische Mitbürger. Denn fast jede Rede eines US-Präsidenten beginnt mit dieser Floskel. Schlecht bezahlte Jobs werden automatisch Frauen zugeordnet, gut bezahlte Männern Bliebe es bei solchen gelegentlichen Kuriositäten, könnte man diese den Maschinen noch nachse- hen. Denn insgesamt ist die maschinelle Über- setzung deutlich besser geworden. Aber hier geht es um mehr. Und ein Blick in die Vorurteils­ forschung hilft, zu verstehen, was an der Sache heikel ist. Um unbewusste Vorurteile bei Menschen zu un- tersuchen, bedienen sich Psychologen für ge- wöhnlich des sogenannten Implicit Associations Test (IAT). Dieser misst, wie lange ein Proband benötigt, um zwei Begriffe miteinander in Ver- bindung zu bringen. Kommen ihm deren Bedeu- tungen ähnlich vor, ist die Reaktionszeit kürzer, als wenn ihm die dahinterstehenden Konzepte semantisch inkompatibel erscheinen. So assozi- ieren Menschen etwa Blumennamen eher mit Adjektiven wie „schön“ oder „hübsch“, Insekten dagegen eher mit negativen Begriffen. Informatiker können zeigen, dass Maschinen ganz ähnliche Assoziationen produzieren. Sicht- bar werden sie im sogenannten Word-to-Vec- Verfahren, das Bryson gewissermaßen als ma- schinelle Variante des IAT nutzt. Dieses Verfahren ist üblich in der Computerlinguistik 2 , um Semantik zu erfassen: Wörter werden danach sortiert, welche anderen Wörter häufig in ihrem Umfeld auftauchen. Klingt abstrakt? Ein Aufsatz vonWissenschaftlern der Boston University und Forschern bei Microsoft Research bringt das Problem schon im Titel auf den Punkt: Man is to Computer Programmer as Women is to Homema- ker – „Mann verhält sich zu Programmierer wie Frau zu Haushaltshilfe“. Der im vergangenen Jahr veröffentlichte Aufsatz wird seit Monaten unter Computerlinguisten heftig diskutiert. Zeigt er doch, dass die Algorithmen nach der statistischen Auswertung menschlicher Texte ein altmodisches Rollenbild reproduzieren. Anhand vieler solcher Beispiele haben Bryson und Caliskan untersucht, wie sich das Weltbild der Maschinen zusammensetzt. Sie fanden dabei unter anderem heraus, dass die künstliche Intelligenz Blumen ebenso wie europäisch-ame- rikanische Vornamen mit positiven Begriffen assoziiert, wohingegen Insekten genau wie afro­ amerikanische Namen eher mit negativen Be- griffen verbunden werden. Die Namen junger Menschen werden eher als unangenehm einge- stuft. Und vor allem: Männliche Namen werden semantisch automatisch in die Nähe von Karrie- rebegriffen gerückt, weibliche Namen hingegen eher mit Familie assoziiert. Ebenso wird Mathe- matik mehr mit Männern in Verbindung ge- bracht, Kunst mehr mit Frauen – die Maschinen denken also genauso in Rollenklischees wie Menschen. Nicht nur das ist Aylin Caliskan aufgefallen. [...] Die türkische Sprache kennt im Unterschied zum Deutschen und zum Englischen keine grammatikalischen Geschlechter. „ O bir doktor “ kann ebenso „ Sie ist Ärztin “ heißen wie „ Er ist Arzt “. Bei Google Translate aber wird der doktor konsequent zum männlichen Arzt, Pflegeberufe hingegen werden stets Frauen zugeschrieben. Dass es auch Kranken pfleger gibt, scheint das Programm nicht zu wissen. „Schlecht bezahlte Jobs werden Frauen zugeord- net, gut bezahlte Männern“, beschreibt Caliskan das maschinelle Muster. Damit reproduzierten die Computer „ein perfektes Abbild unserer Ge- sellschaft“ – mit all ihren Ungleichheiten. Nun stelle man sich vor, eine solche Software helfe zum Beispiel in einer Personalabteilung bei der Vorauswahl von Bewerbern für ein Vorstellungs- gespräch. Was, wenn die künstliche Intelligenz alle Bewerberinnen für eine freie Arztstelle von vornherein aussortiert? Wie schon heute unbewusste Verzerrungen durch Computer verstärkt werden, zeigt beispiel- haft das predictive policing , eine Voraussagesoft- ware für Streifenpolizisten. Auf Basis der Krimi- nalitätsstatistik geben solche Programme den Beamten Hinweise, in welchen Stadtgebieten sie verstärkt Streife fahren sollen. Auch hier liefert die Statistik kein neutrales Abbild der Wirklich- keit. Gilt etwa eine Gegend als heißes Pflaster, werden Polizisten dort verstärkt nach demRech- 76 78 80 82 84 86 88 90 92 94 96 98 100 102 104 106 108 110 112 114 116 118 120 122 124 126 128 130 132 134 136 138 140 142 144 146 148 150 152 154 156 158 160 162 164 166 168 170 172 174 Lesen Nur zu Prüfzwecken – Eigentum des Verlags öbv

RkJQdWJsaXNoZXIy ODE3MDE=