sprachreif HAK/HTL 4/5, Schulbuch

10 Erstellen Sie anschließend eine Tabelle mit den im Text genannten „Übersetzungsfehlern“ und fügen Sie eigene Beispiele, die Sie in den Google Translator eingeben, hinzu. A13  Ó Google und die Frau am Herd Von Eva Wolfangel | 13.07.2017 Digitale Übersetzungsprogramme stecken voller Tücken: Weshalb künstliche Intelligenz anfällig ist für Rassismus, Rollenklischees und Vorurteile. Dieser Emmanuel Macron! Dankt amAbend sei- nes Wahlsieges seinen „amerikanischen Mitbür- gern“ für ihr Vertrauen! Wer Macrons Tweet vom 7. Mai las, der musste sich wundern – je- denfalls hierzulande und in Amerika. In der au- tomatischen Übersetzung, die Twitter deutschen Nutzern anbot, war von „tiefer Dankbarkeit“ ge- genüber den „amerikanischen Mitbürgern“ die Rede. Auch in den USA wurde Macrons Anrede „ mes chers compatriotes “ als „ my fellow Ameri- cans “ übersetzt. Dabei bedeutet compatriotes im Französischen schlicht „Mitbürger“. Über Ame- rikaner hatte Macron kein Wort verloren. Wie Twitter nur darauf kam? Das scheinbare Rätsel ist ein Glücksfall. Zumin- dest für Joanna Bryson. Just drei Wochen zuvor hatte die Spezialistin für maschinelles Lernen von der University of Bath in der Forschungs- zeitschrift Science vor solchen Fällen gewarnt. In ihrem Artikel hatte Bryson beschrieben, wie sprachverarbeitende Algorithmen lernen, und kritisiert, dass diese dabei die unbewussten (Vor-)Urteile der Menschen übernähmen. An- ders gesagt: Auch künstliche Intelligenz hat Schlagseite. Doch die brisante These vom vorur- teilsbeladenen Computer erregte kaum Auf- merksamkeit. Stattdessen schlug Bryson Skepsis entgegen. Wo denn die Beispiele aus dem echten Leben seien, wurde sie immer wieder gefragt – bis zu Macrons Tweet. Seither sind die Kritiker verstummt. „Das ist ein super Beispiel für unsere neueste Forschung über maschinelle Sprachver- arbeitung“, sagt Bryson. Zwei Techniken sind es, die auf dramatische Art und Weise die Fähigkeit von Computern verbes- sert haben, Bilder oder Sprache zu „verstehen“. Maschinenlernen (kurz: ML) nennt sich die eine Technik, die darauf hinaus- l ä u f t , d a s s Computer sich s elbst e twas beibringen, in- dem sie in gro- ßen Datensätzen nach Mustern suchen. Die zweite hört auf den Namen tiefe neuronale Netze ( deep neural networks , DNN); diese versuchen, die Arbeitsweise des Gehirns mit seinen vielfälti- gen Verbindungen in einer Software zu imitie- ren. Beide Techniken laufen darauf hinaus, dass Computer auf ähnliche Art lernen, wie es ver- mutlich auch Menschen tun. Damit aber, so hat Joanna Bryson zusammen mit der Informatike- rin Aylin Caliskan von der Princeton University gezeigt, schnappen die Maschinen auch aller- hand typisch menschliche Vorurteile, Stereotype und diskriminierende Ansichten auf. Wie genau die neuronalen Netze jeweils zu ihren Schlüssen kommen, lässt sich kaum nachvollzie- hen. Für Forscher sind sie weitgehend eine Blackbox. Zumindest aber kann man ihnen beim Lernvorgang zusehen. Füttert man eine Maschi- ne mit Texten, damit sie sich daraus die mensch- liche Sprache erschließt, geht sie nach Byrons Theorie ganz ähnlich vor wie kleine Kinder: Die lernen keine Definitionen, sondern versuchen, die Bedeutung von Wörtern und Sätzen aus dem Zusammenhang zu erfassen. Je mehr Vergleichs- text vorliegt, desto besser. Für die Maschinen ist dank des Internets der Nachschub quasi endlos – das lädt aber auch zu Fehlschlüssen ein. So hätten frühere, regelbasierte Verfahren für Computerdolmetscher etwa das Wort compatri- otes wörtlich übersetzt (es existiert sogar buch- 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 54 56 58 60 62 64 66 68 70 72 74 Lesen 1  Nur zu Prüfzwecken – Eigentum des Verlags öbv

RkJQdWJsaXNoZXIy ODE3MDE=