Zum Inhalt springen

Diskriminierung durch Algorithmen - die Ursache ist immer der Mensch

Vertreter der Deutschen Akademie der Technikwissenschaften waren zu Gast an der Universität Passau und haben sich gemeinsam mit Prof. Dr. Hannah Schmid-Petri der Diskussion mit dem Publikum gestellt.
Von Claudia Strauß, acatech

"acatech am Dienstag" zu Gast an der Universität Passau

Auf dem Podium von links: Prof. Dr. Gert G. Wagner vom Max-Planck-Institut für Bildungsforschung, Prof. Dr. Klaus Mainzer, Technische Universität München, Prof. Dr. Hannah Schmid-Petri, Universität Passau. Foto: Claudia Strauß, acatech

Diskriminierung gibt es nicht nur von Mensch zu Mensch – sondern auch von Computer zu Mensch. So können Algorithmen dafür sorgen, dass wir einen Kredit nicht bekommen oder bestimmte Produkte beim Onlineshopping nicht angezeigt werden. Wie wir mit dieser neuen Herausforderung umgehen sollen, darüber diskutierte Moderator und acatech Mitglied Prof. Dr. Klaus Mainzer, Technische Universität München, mit Prof. Dr. Hannah Schmid-Petri von der Universität Passau und Prof. Dr. Gert G. Wagner vom Max-Planck-Institut für Bildungsforschung am 5. November 2019 bei „acatech am Dienstag“ in Passau. Mit der Veranstaltungsreihe möchte die acatech Expertenwissen offen zugänglich machen und Debatten über technikwissenschaftliche Zukunftsfragen anstoßen.

Beim Anzeigen des Videos wird Ihre IP-Adresse an einen externen Server (Vimeo.com) gesendet.

Video anzeigen
/uploads/tx_upatheme/vimeo-4a5bb18d4123120639012ffa22f743240a0cf843.jpg

Entscheidungshilfen per Computer finden sich in immer mehr Bereichen des Lebens. Das Ziel: Mehr Effizienz, mehr Objektivität – und dadurch bestenfalls auch weniger Diskriminierung. Diese Rechnung gehe aber nicht auf, erklärte Prof. Dr. Carola Jungwirth, Präsidentin der Universität Passau, in ihrer Begrüßungsrede. Vielmehr könnten Algorithmen Diskriminierung sogar verschärfen – weil es der Mensch sei, der Informationen in sie einspeise.

Der brisante Fall ist, dass am Anfang der dumme Mensch steht, oder, etwas freundlicher ausgedrückt, der heillos überforderte Mensch, der nicht überschaut, wie komplex das System ist, das er in die Welt gesetzt hat.“

Prof. Dr. Klaus Mainzer, Technische Universität München

Diese Einspeisung, so betonte Klaus Mainzer, Technische Universität München, beruhe auf Lernalgorithmen, über die der Mensch der Künstlichen Intelligenz (KI) beim Überwachten Lernen eine Art Prototyp vorgäbe. Anhand des Prototypes wäre KI dann in der Lage, Muster zu erkennen. Über Filter könne man die Ergebnisse in die eine oder andere Richtung beeinflussen – wodurch der Manipulation Tür und Tor geöffnet sei, sagte Klaus Mainzer. Beim Nichtüberwachten Lernen sei die KI in der Lage, selbständig Ähnlichkeiten von Daten zu erkennen und danach die Masse an Daten zu klassifizieren. Hier sei offensichtlich, dass es zu Manipulationen kommen kann, je nachdem wie die Daten angelegt sind und wo die Algorithmen ansetzen. Kontrolle, Analyse und Korrektheit stehe daher beim Maschinellen Lernen an oberster Stelle.

„Dem Algorithmus durch systematisches Testen Diskriminierung nachzuweisen ist einfacher als einem Menschen, der diskriminiert, aber nicht darüber spricht.“

Prof. Dr. Gert G. Wagner, Max-Planck-Institut für Bildungsforschung

Algorithmen begegnen uns in Form von Computerprogrammen oder Internetdiensten. Sie suchen die beste Verkehrsroute für uns aus, entscheiden, ob wir kreditwürdig sind oder schlagen uns Produkte im Online-Handel vor. Viele Algorithmen seien dabei nicht transparent und zudem fehle es an Klagemöglichkeiten, so Gert G. Wagner vom Max-Planck-Institut für Bildungsforschung. Grundsätzlich unterscheide man bei Algorithmen zwischen solchen, die man nutzen muss (zum Beispiel Numerus clausus und Schufa-Index) und jenen, die man nutzen kann (zum Beispiel Routenplaner und Dating-Plattformen). Je weniger der Einzelne einem Algorithmus ausweichen könne, desto notwendiger werde es, Transparenz zu erzwingen und Klagemöglichkeiten zu schaffen. Die Gesellschaft sei gefordert, sich darüber Gedanken zu machen, ob sie einen Algorithmus regulieren oder sogar verbieten lassen will.

Hannah Schmid-Petri, Lehrstuhl für Wissenschaftskommunikation an der Universität Passau, zeigte die kommunikationswissenschaftliche Perspektive. Sie definierte Algorithmen als komplexe Systeme und leistungsfähige Werkzeuge, die von Unternehmen und Organisationen eingesetzt würden und die nur aufgrund immer größerer Datenmengen und Rechenkapazitäten möglich seien. Problematisch werde es, wenn Plattformen wie Google oder Facebook, die kontrollieren, welche Informationen wir erhalten, keinen Kontrollinstanzen unterlägen. Auch sie sieht daher die Notwendigkeit, Transparenz zu schaffen und Algorithmen zu regulieren

Algorithmen können dadurch diskriminieren, dass sie Personen benachteiligen aufgrund von sensiblen Merkmalen wie dem Geschlecht oder der ethnischen Zugehörigkeit – oder beispielsweise bei der Online-Suche nach Informationen, wenn wir nur bestimmte Positionen erhalten und die Vielfalt nicht mehr gewährleistet ist.

Prof. Dr. Hannah Schmid-Petri, Universität Passau

Leider werde die Debatte darüber bisher nur in Fachkreisen geführt – sie müsse aber von einer breiten Öffentlichkeit geführt werden. Umfragen belegten, dass nur ein geringer Anteil der Bevölkerung wisse, was unter einem Algorithmus zu verstehen sei. Unter anderem die Massenmedien seien daher stärker in der Pflicht, Aufklärungsarbeit zu leisten. Hannah Schmid-Petri regte zudem an, schon in den Schulen ausreichend Technikkompetenz zu vermitteln und das Thema auch an den Hochschulen stärker in den Mittelpunkt zu rücken.

Quelle: acatech.de

Beim Anzeigen des Videos wird Ihre IP-Adresse an einen externen Server (Vimeo.com) gesendet.

Video anzeigen