Eine Anthologie aktueller Kommentare zu einer so bahnbrechenden wie brisanten Technologie.
Der Begriff „Big Data“ist vor allem in der IT-Branche das Schlagwort der Stunde bzw. des Jahres. Im allgemeinen Sprachgebrauch ist es noch nicht so stark verankert, dass man eine sofortige flächendeckende Einordnung des Buches aufgrund des Titels erwarten kann. Insofern könnte der Titel bei manchem flüchtigen Betrachter den Eindruck eines Thrillers erwecken.
„Big Data“ ist die Bezeichnung einer Methode, die Strukturen und Korrelationen zwischen beliebigen Ereignissen – seien sie nun technisch, gesellschaftlich oder politisch – nicht mehr aufgrund eines abstrakten Modells ermittelt, das dann durch stichprobenartige Daten bestätigt oder widerlegt wird, sondern allein aus einer großen Menge von Daten, d. h. ohne jegliche Vorannahmen. Möglich ist dieses Verfahren erst geworden, seitdem ausreichend große Speichermedien, leistungsfähige Rechner und – vor allem! – die entsprechenden Datenmengen zur Verfügung stehen. Letztere Voraussetzung ist mit dem Internet eingetroffen, das den verschiedenen Online-Portal eine tendenziell unbegrenzte Teilnehmerzahl und damit die automatische Erhebung großer Datenmengen ermöglicht.
Ein wenig kann man den Paradigmenwechsel mit dem Unterschied zwischen der platonischen und der aristotelischen Weltauffassung vergleichen, um sehr hoch zu greifen. Platon hatte sich ein Bild der Welt gemacht – das Höhlengleichnis – und hatte alles Weitere aus diesem Bild und der grundsätzlich eingeschränkten Erkenntnismöglichkeit des Menschen abgeleitet. Die Idee dominierte die Empirie. Aristoteles dagegen hatte alle Vorannahmen und Ideen über das Wesen der Welt abgelehnt und darauf bestanden, das Wesen der Welt nur aus den sinnlich wahrnehmbaren Fakten abzuleiten. Die Empirie ging bei ihm vor aller Spekulation, und seine Sicht hat letztens Endes die gesamte moderne Naturwissenschaften beherrscht und vorangetrieben, während die Geisteswissenschaften immer noch gerne einem gewissen Platonismus anhängen.
Wenn man alle Modelle der Welt nicht mehr aus dem Geist, sondern aus Daten schöpft, sind natürlich die klassischen „Denker“, sprich Soziologen und Philosophen, in gewisser Weise abgewertet, und der datenkundige Techniker betritt die Bühne der Erkenntnis. Dass das die Ersteren gar nicht freut, ist verständlich, und so hat sich zu diesem Thema eine heftige Diskussion entwickelt, die der vorliegende Band zusammenfasst.
Der erstes Teil vermittelt einen Einstieg in das Thema über Anwendungen. Das ist sehr zu begrüßen, da so der nicht-technische Leser schneller ein Verständnis für das Thema bekommt. Beispiele sind die zweite Wahlkampftournee von Barack Obama, die nur über eine ausgefeilte informationstechnische Strukturierung der Wählergruppen zu einem knappen Erfolg führte, die Sichtung des Marktes guter Fußballer über umfangreichen Datenbanken zu Spielern und deren detaillierten Leistungen in einer Vielzahl von Spielen, und die Geisteswissenschaften, die sich jetzt erst intensiv mit den Auswirkungen der Digitalisierung beschäftigen und sogenannte „Digital Humanities“ definieren. Ein anderer Beitrag beschreibt die zunehmende Tendenz, den eigenen Körper auf Schritt und Tritt durch Armbänder und Ähnliches zu überwachen und die Daten permanent auszuwerten, und ein Interview mit dem Haussoziologen von Facebook – ja, so etwas gibt es! – gibt Auskunft über die Strategien des „sozialen Netzwerks“ bezüglich der Auswertung der persönlichen Daten seiner Nutzer.
Nachdem sich der Leser mit diesen Beispielen in das Thema eingelesen hat, ist er mit Einzelbeiträgen konfrontiert, die sich eingehend mit verschiedenen Aspekten beschäftigen. Dabei steht die technische Seite von „Big Data“ im Hintergrund. An technisch Interessierte richtet sich dieses Buch eindeutig nicht. So bemüht Chris Anderson in seinem Beitrag „Das Ende der Theorie“ das alte Beispiel der irrtümlichen Gleichsetzung von Korrelation und Kausalität und kommt zu dem Schluss, dass bei ausreichend großen Datenmengen eine starke Korrelation irgendwann zwingend in Kausalität übergeht. Daraus leitet er die Feststellung ab, dass vor allem in den Geisteswissenschaften in Zukunft die Theorie stark an Bedeutung verlieren wird, während Google et al. fast täglich neue und vor allem kommerziell verwertbare Korrelationen von Daten entdecken, miteinander kombinieren und daraus schwer zu widerlegende Gesetzmäßigkeiten entwickeln. Thilo Weichert kommt auf die Spähprogramme – PRISM und andere – der NSA und anderer Geheimdienste zu sprechen, führt sie auf „Big Data“ zurück und entwickelt Datenschutzkriterien und Lösungsansätze wie Anonymisierung und Aggregierung. Ein anderer Beitrag geht dem Begriff der „Smart City“ nach und den damit verbundenen Mythen wie Distanzlosigkeit oder Informationsüberflutung, die er beide relativiert.
Ein umfangreicher Essay (ca. 30 Seiten) des Soziologen Dirk Baecker befasst sich mit den „Metadaten“, d.h. Daten, die Daten beschreiben. Dieser Beitrag ist nicht nur sehr anspruchsvoll, sondern bedient sich auch einer strikt soziologischen Terminologie, die für einen „Normalmenschen“ schwer zu verstehen ist. Begriffe wie „Kommunikatiion“ und „Konnektivität“ werden hier in einem sehr speziellen, jedenfalls nicht umgangssprachlichen Sinn genutzt, und oft hat man das Gefühl, dass sich der Autor in einem von der Realität abgehobenen Raum der (soziologischen) Theorie bewegt. Hier kann man das Bild der „um sich selbst kreisenden Wissenschaft“ deutlich nachvollziehen. Ein Kapitel ist zum Beispiel mit “ Zur Ontologie und Autologie der Metadaten“ übertitelt, und die „Liste der Metadaten“, von der man verständliche Begriffsklärungen erhofft, kompliziert Terme wie „System“, „Kommunikation“ oder „Netzwerk“ in einer Weise, die einen soziologisch nicht geschulten Leser überfordert. Ohne dem Autor zu nahe treten zu wollen, kommt man zu dem Schluss, dass dieser Beitrag den Rahmen des sonst auf Allgemeinverständlichkeit – siehe erster Teil – ausgelegten Bandes deutlich sprengt.
Dagegen ist es geradezu eine Wohltat, den unmittelbar anschließenden Artikel von danah boyd und Kate Crawford über „Big Data als kulturelles, technologisches und wissenschaftliches Phänomen“ zu lesen. Nach einer verständlichen Einführung in die wesentlichen Begriffe und deren kritische Würdigung – zum Beispiel der mythische Glaube, dass Big Data zu einer höheren Form von Wissen und Intelligenz führe – stellen sie sechs „provokante“ Thesen auf: Big Data verändere die Definition von Wissen, der Anspruch auf Objektivität und Genauigkeit führe in die Irre, …, die Auswertung frei zugänglicher (Internet-)Daten sei nicht unbedingt ethisch vertretbar, und schließlich führe der eingeschränkte Zugang zu Daten – z. B. bei Google oder Facebook – zu einer „digitalen Kluft“. Doch wenn die beiden beklagen, dass informationstechnisch nicht ausgebildete Soziologen einen Nachteil gegenüber den Datentechnikern hätten, so ist diese Feststellung ein Bumerang, denn das gilt für jegliche fehlende Bildung und fällt auf die Klagenden zurück. Ansonsten ist dieser Artikel jeedoch außerordentlich informativ, verständlich und besteht aus klar formulierten Thesen, die man diskutieren kann.
In weiteren Beitragen betrachtet David Weinberger die Modellbildung in der Umgebung von Big Data und die Fragwürdigkeit sicherer Prognosen, und der verstorbene Frank Schirrmacher macht sich Gedanken über die strukturelle Verschmelzung militärischer und kommerzieller Strategien unter dem Aspekt von Big Data.
Alle diese Beiträge kommen mehr oder weniger zu dem Schluss, dass Big Data zu einem gesellschaftlichen Paradigmenwechsel führt. Hatte die Erhebung und Auswertung von Daten der Realität bis vor wenigen Jahren keine oder nur geringe Rückwirkungen auf eben diese Realität, führt die durch große Datenmengen aufgepolsterte positive Rückkopplung zu massiver Umgestaltung der Realität. Man könnte es mit dem Satz der Quantentheorie vergleichen, der besagt, dass die Messung eines Objekts dieses massiv beeinflusst. Man könnte auch sagen, dass Big Data im Sinne einer „self fulfilling prophecy“ arbeitet. Indem sie sämtliche Daten der (Internet-)Kunden auswertet und die Ergebnisse diesen – zum Beispiel als Kaufvorschlag – wieder vorlegt, schafft sie genau die Fakten, die sie eigentlich nur aufzunehmen behauptete. Hier liegt das enorme gesellschaftliche Risiko, dessen Folgen noch gar nicht abzuschätzen sind, und die Beiträge kommen mehr oder weniger alle zu diesem Schluss und entwerfen – teilweise – Strategien, um diese Risiken zu minimieren.
Das lesenswerte Buch „Big Data“ ist im Suhrkamp-Verlag unter der ISBN 978-3-518-06453-5 erschienen, umfasst 309 Seiten und kostet 14 €.
Frank Raudszus
No comments yet.