Toggle Navigation

Ist die Chance auf eine objektive Intelligenz schon verspielt?

Natalie Sontopski ist Wissenschaftliche Mitarbeiterin im Komplexlabor Digitale Kultur der Hochschule Merseburg. Dort forscht sie zu Code Literacy, Feministischen Technologiestudien, Techniksoziologie und Kultursoziologie. Im Kursbuch 199 fragt Sie in ihrem Artikel “Hey!Siri?!”, ob die Gesellschaft mit neuen Algorithmen nur alte Schemata automatisiert und reproduziert hat. Und jetzt?


5 Fragen an Natalie Sontopski stellte im November 2019 Volker M. Banholzer.

Akademien wie die Acatech beklagen unisono mit der Bundesregierung, dass Technologien wie der Künstlichen Intelligenz (KI) die Akzeptanz in der Bevölkerung fehlt.
Die Bundeskanzlerin Angela Merkel sagte jüngst auf dem Maschinenbaugipfel, der Bevölkerung in Deutschland fehle der „Digitaldrang“. Woran liegt das?

Natalie Sontopski: Teils liegt das daran, dass KI seit Jahrzehnten in Filmen und Büchern als Gefahr für die Menschheit porträtiert wird. Das dystopische Narrativ der Maschinen, die die Welt beherrschen und die Menschheit versklaven, begegnet uns in Filmen von Metropolis über Terminator bis zu Matrix und hat entschieden dazu beigetragen, dass KI oft mit Apokalypse assoziiert wird.

Teils liegt die Akzeptanz der Bevölkerung aber auch an mangelnder Transparenz. Viele wissen nicht, was eine KI eigentlich ist und was sie kann. Der Gedanke, dass Maschinen Entscheidungen für uns treffen, klingt schließlich gruslig. Woher weiß ich, dass die Maschine nicht irgendwann einmal schlauer als ich sein werde? Was passiert in dem Fall mit meinen Daten und Geheimnissen, die ich ihr anvertraut habe? Wird sie die gegen mich einsetzen? Sensibilisierung und Aufklärung über die ganz realen Möglichkeiten und Einsatzgebiete für KI finde ich deswegen sehr wichtig. Hinzu kommt, dass durch fortlaufende Datenschutz- und Abhörskandale rund um KI-Systeme wie Alexa und Siri das Vertrauen der Bevölkerung nicht unbedingt gestärkt wird.

Mit Blick auf die aktuellen Anwendungen von Algorithmen und KI sprechen Sie von programmierter Ungleichheit und befürchten, dass die Gesellschaft die Chance auf eine objektive Intelligenz schon verspielt habe. Worauf stützt sich das?

Natalie Sontopski: Wir haben es heutzutage ja in ungefähr 95% der Fälle, in denen wir von „der KI“ sprechen lediglich mit Fällen maschinellen Lernens zu tun. Das bedeutet, dass Software mit riesigen Datensätzen gefüttert wird. Durch sogenanntes „Training“ erkennt die Software Muster innerhalb der Datensätze – möchte ich zum Beispiel eine Software, die Gesichter erkennt, sind die Grundlage Datensätze mit Bildern von Gesichtern. Bestehen diese Datensätze zum Beispiel zu 75% aus Bildern von Gesichtern weißer Männer, lernt meine Software sehr gut Gesichter weißer Männer zu erkennen, wird aber beim Erkennen der Gesichter schwarzer Frauen Schwierigkeiten haben. Dieses (wahre) Beispiel demonstriert, wie leichter Verzerrungen hinsichtlich Geschlecht oder Ethnie durch verwendete Daten Einzug in KI-Systeme halten und dadurch alles andere als objektiv und neutral agieren. Es kommt zur „programmierten Ungleichheit“. Zudem sind unsere Vorstellungen von Technologie immer auch mit Bildern über Geschlecht verbunden. Nehmen wir zum Beispiel digitale Sprachassistenten – oder sollte ich lieber sagen, Sprachassistentinnen? Denn Siri, Alexa oder Cortana werden auf Grund ihrer weiblichen Stimmen und Namen als Frauen wahrgenommen. Diese Frauen bedienen, sind höflich und hilfsbereit, haben aber nicht die Macht zu entscheiden, mit wem sie kommunizieren wollen. Es besteht die Gefahr, dass wir dadurch in die „Natürlichkeitsfalle“ tappen: Natürlich sind Assistentinnen Frauen, denn das war schon immer so. Der Stereotyp der von Natur aus hilfsbereiten und kommunikativen Frau wird so naturalisiert und nicht mehr in Frage gestellt.

Sie sagen, dass Unternehmen Geschlechterrollen bei der Technologievermarktung bewusst einsetzen, um die Verkaufschancen zu erhöhen.

Natalie Sontopski
Die Soziologin Natalie Sontopski – Foto: ANNE-KATRIN HUTSCHENREUTER

Natalie Sontopski: Studien zu Mensch-Maschine-Interaktion wie diese der Universität Indiana beweisen, dass Menschen weibliche Stimmen bei digitalen Sprachassistenten bevorzugen. Dies liegt daran, dass Menschen weibliche Stimmen in der Regel mit Wärme, Fürsorge und Teilnahme verbinden. Diesen Umstand haben sich Unternehmen bei der Vermarktung von Technologie zu Nutze gemacht. Damit eine Technologie wie zum Beispiel Sprachassistenten von Konsumenten gut angenommen werden, wird natürlich dafür gesorgt, dass der Nutzer sich mit der Technologie wohl fühlt.

Tappt der Journalismus in der Berichterstattung über Technik ebenso in die Natürlichkeitsfalle?

Natalie Sontopski: Viele Medienberichte in Deutschland zu KI konzentrieren sich meiner Meinung nach vor allem auf die Chancen und Möglichkeiten für den Arbeitsmarkt. Wenn sich Medien zum Beispiel dem Aspekt Geschlecht bei KI widmen, dann in der Regel, weil irgendwo was schief gegangen ist – sehr gut in Erinnerung geblieben ist mir die Schlagzeile „Diese KI ist sexistisch“, als herauskam, dass Amazons Bewerbungssoftware auf Grund von gender bias Frauen bei der Bewerbung diskriminierte. Das ist mir persönlich allerdings zu reißerisch, weil die Fakten weniger im Vordergrund stehen als das Narrativ der Bedrohung durch KI. Ich empfinde die Anglo-amerikanischen Medienberichte als deutlich weiter in der Hinsicht und lese dort mehr kritische Beiträge zu KI, in denen Mechanismen und Technologie hinterfragt werden oder auf Missstände aufmerksam gemacht wird.

Was wünschen Sie sich von der Berichterstattung über Technologien und speziell zu Künstlicher Intelligenz?

Natalie Sontopski: Mein größter Wunsch ist eine saubere begriffliche Trennung von KI und maschinellem Lernen. Das heißt, nicht mehr den Begriff KI verwenden, wenn es sich um maschinelles Lernen handelt. Das würde in meinen Augen helfen, dieses Systeme objektiver einzuschätzen: Aus einer womöglich bedrohlichen, allwissenden Maschine wird eine von Algorithmen gesteuerte Software, deren Begreifen deutliche Grenzen gesetzt sind.
Und generell wünsche ich mir einen kritischen Blick über den Tellerrand: Muss das so sein? Warum ist das der status quo? Was wären anderen Möglichkeiten, diese Technologie zu gestalten? Dabei könnte es hilfreich sein, wenn wir diversere Stimmen bei der Berichterstattung hätten, zum Beispiel mehr Frauen oder mehr people of color.

Dieser Artikel ist 11/2019 erschienen in der Zeitschrift TECHNIKJOURNALIST (Verlag Oberauer) anlässlich des Jubiläums #10JahreTJ des Studiengangs Technikjournalismus/Technik-PR an der TH Nürnberg.