Datenrationalität, Glaube und Diskriminierung
Die Arbeit mit Big Data findet unter neuen erkenntnistheoretischen Rahmenbedingungen mit gigantischen Datenmengen und Hochleistungsprozessoren statt: “In automatisierten Prozessen kann somit Wissen generiert werden, welches dem Menschen grundsätzlich nicht mehr zugänglich ist”.1 Dieses im Ergebnis unzugängliche, generierte Wissen stellt eine besondere Herausforderung für die Verständlichkeit und Nachvollziehbarkeit datenanalysierender Prozesse, und damit für entsprechende Bildungsmaßnahmen im Sinne einer Big Data Literacy dar. Um Big Data entsteht eine “Aura” der Objektivität oder gar eine “Mythologie” datengetriebener Einsichten. So begreifen die US-amerikanische Forscherinnen Danah Boyd und Kate Crawford Big Data als ein Zusammenspiel von Technik, Analyse und “Mythologie”:2
“Damit einher geht der weitverbreitete Glaube, dass große Datensätze uns Zugang zu einer höheren Form der Intelligenz und des Wissens verschaffen, die neue, bislang unmögliche Einsichten generieren, Einsichten, die eine Aura der Wahrheit, der Objektivität und der Genauigkeit umgibt.”3
Bedeuten Algorithmen das Ende der Theorie?
Reichen Mustererkennung in Daten und Statistik, um neue wissenschaftliche Forschung zu betreiben? Braucht man überhaupt noch eine Theorie mit kausalen Erklärungsmodellen? Kann die Arbeit an der Theorie für beendet erklärt und durch automatisch erzeugte datengetriebene Einsichten ersetzt werden (so etwa die vielfach und kritisch diskutierte These von Chris Anderson5)? Die Diskussion über das Verhältnis zwischen datengetriebener und theoriegeleiteter Erkenntnisgewinnung führte im Ergebnis eher zu einem komplementären Verhältnis der beiden: Die algorithmengestützte Suche nach Mustern bereichert die Theoriebildung, ersetzt sie aber keinesfalls.6
Spurious Correlations – Korrelation und/oder Kausalität? Es gibt eine hohe Korrelation zwischen der Scheidungsrate und dem Pro-Kopf-Verbrauch von Margarine im US-Bundesstaat Maine zwischen 2000 und 2009. Aber gibt es eine Kausalität? Dieses und weitere amüsante Statistikbeispiele finden sich auf der Seite von Tyler Vigen.
Foto: Nicholas Cappello von Unsplash
Unstatistik des Monats – In der Reihe werden statistische Aussagen in den Medien hinterfragt. In der Ausgabe “Big Data knackt Ihre Psyche” wird die Prognosegenauigkeit von Big Data Analysen behandelt und das Fazit gezogen: der “Algorithmus formalisiert Alltags-Klischees und liegt oft daneben”.7
Foto: Maxim Hopman von Unsplash
1. Allwissenheit und/oder Diskriminierungen?
Ein “Versprechen der Allwissenheit”8 durch Big Data und die Grenzen der Anwendbarkeit von Big Data Analytics, insbesondere in sozialen Bereichen muss zum Gegenstand einer kritischen Medienbildung werden. Denn diese datengetriebenen Analysen können, wenn sie auf soziale Bereiche angewendet werden, problematische Effekte, wie etwa Diskriminierungen zeigen.
Algorithmen und Diskriminierung – Lorena Jaume-Palasí beschreibt in diesem Interview Künstliche Intelligenz und algorithmische Entscheidungssysteme als kollektive Technologien, die dafür ausgelegt sind, Klassifikationen zu bilden und Kollektive zu analysieren, aber nicht einzelne Individuen. Insoweit können Algorithmen nicht anders, als zu diskriminieren, weil es immer Menschen geben wird, die in keine Klassifikation hineinpassen.
Foto: Markus Spiske von Unsplash
Weitere Literaturempfehlung:
- Weapons of Math Destruction – Die US-amerikanische Statistikerin Cathy O’Neil veröffentlichte 2016 ihr Buch mit dem Titel “Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy”. Darin zeigt sie, wie Big Data Anwendungen “Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden” können (so der Untertitel der deutschsprachigen Ausgabe).
2. Diskriminierungen und die Daten der Anderen
Mögliche Ursachen für Diskriminierungen können in der Entwicklung der Algorithmen und Modelle, aber auch in verzerrten (Trainings-)Daten liegen oder durch menschliche Bewertungsaktivitäten entstehen. Besonders hervorzuheben ist die algorithmengestützte, statistische Diskriminierung, die sich nicht auf die Kategorisierung individueller Eigenschaften bezieht, sondern auf Gruppeneigenschaften, die durch Datenanalysen erst erzeugt werden. Diese basieren auf der Annahme, dass “jedes der Mitglieder dieser Gruppierung das Merkmal aufweisen würde”.9
“Daten, die man selbst freiwillig weitergibt, können dazu verwendet werden, sensible Informationen über andere Menschen abzuschätzen; und umgekehrt kann man selbst aufgrund der Daten, die andere über sich preisgeben, unterschiedlich behandelt werden. Es kann uns also nicht egal sein, wie unsere Mitmenschen mit ihren Daten umgehen. Und weil die negativen Auswirkungen prädiktiver Analytik nicht auf alle Gesellschaftsmitglieder gleich verteilt sind, sondern überproportional die Armen, weniger Gebildeten, Schwachen, Kranken und sozioökonomisch Benachteiligten treffen, stehen demokratische Gesellschaften hier in einer kollektiven Verantwortung“.10
In Zeiten von Big Data und prädiktiver Analytik kann sich ein Einzelner einer solchen statistischen Gruppenzuordnung kaum entziehen, denn es können die Daten der anderen und scheinbar belanglose Daten genutzt werden, um gewünschte Aussagen mit sozialen Folgen zu erstellen. Daher ist die allgemeine Sensibilisierung im Umgang mit Daten eine besondere und politische Bildungsaufgabe.
Weiteres Material zu Diskriminierung durch KI:
- Wie umgehen mit Diskriminierung durch ADM-Systeme? Das Projekt AutoCheck – Handlungsanleitung für den Umgang mit Automatisierten Entscheidungssystemen für Antidiskriminierungsstellen erarbeitet Handlungsanleitungen und Fortbildungen für den Umgang mit Diskriminierung durch Algorithmen.
Quellen
1 Pietsch, W., Wernecke, J. (2017). Einführung: Zehn Thesen zu Big Data und Berechenbarkeit. In W. Pietsch, J. Wernecke, M. Ott (Hrsg.), Berechenbarkeit der Welt? Philosophie und Wissenschaft im Zeitalter von Big Data (S. 13–36). Wiesbaden: Springer, hier S. 17.
2 Vgl. Boyd, D., & Crawford, K. (2013). Big Data als kulturelles, technologisches und wissenschaftliches Phänomen. Sechs Provokationen. In H. Geiselberger & T. Moorstedt (Hrsg.), Big Data. Das neue Versprechen der Allwissenheit (S. 187–218). Berlin: Suhrkamp.
3 Boyd & Crawford, 2013, S. 188 f.
4 Deutscher Ethikrat (2017, 30. November). Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung [Stellungnahme], hier S. 47. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-big-data-und-gesundheit.pdf.
5 Vgl. Anderson, C. (2013). Das Ende der Theorie. Die Datenschwemme macht wissenschaftliche Methoden obsolet. In H. Geiselberger, T. Moorstedt (Hrsg.), Big Data. Das neue Versprechen der Allwissenheit (S. 124–130). Berlin: Suhrkamp.
6 Vgl. Ritschel, G., Müller, T. (2016). Big Data als Theorieersatz? Berliner Debatte Initial, 27 (4), 4–11.
7 Vgl. unstatistik vom 20.12.2016: https://www.rwi-essen.de/presse/wissenschaftskommunikation/unstatistik/archiv/2016/detail/big-data-knackt-ihre-psyche.
8 H. Geiselberger & T. Moorstedt (Hrsg.). (2013). Big Data. Das neue Versprechen der Allwissenheit. Berlin: Suhrkamp.
9 Orwat, C. (2019). Diskriminierungsrisiken durch Verwendung von Algorithmen: Eine Studie, erstellt mit einer Zuwendung der Antidiskriminierungsstelle des Bundes (1. Auflage, brochiert). Antidiskriminierungsstelle des Bundes (Hrsg.). Baden-Baden: Nomos Verlagsgesellschaft, hier S. 86f. https://www.antidiskriminierungsstelle.de/SharedDocs/downloads/DE/publikationen/Expertisen/studie_diskriminierungsrisiken_durch_verwendung_von_algorithmen.pdf?__blob=publicationFile&v=3.
10 Mühlhoff, R. (2020). Prädiktive Privatheit. Warum wir alle „etwas zu verbergen haben“. In Interdisziplinäre Arbeitsgruppe Verantwortung: Maschinelles Lernen und Künstliche Intelligenz der Berlin-Brandenburgischen Akademie der Wissenschaften (Hrsg.), KI als Laboratorium? Ethik als Aufgabe (S. 37-44). Berlin-Brandenburgische Akademie der Wissenschaften, hier S. 44. https://www.bbaw.de/files-bbaw/user_upload/publikationen/BBAW_Verantwortung-KI‑3–2020_PDF-A-1b.pdf.
Tag:Big-Data, Daten, theoretisch