URI: 
       # taz.de -- Projekt „Datenspende“: Ganz schön aufgeblasene Blase
       
       > ForscherInnen haben untersucht, wie stark sich Google-Suchergebnisse von
       > Person zu Person unterscheiden. Das Ergebnis: weniger als gedacht.
       
   IMG Bild: Ist die Blase nur ein Märchen?
       
       Zu Beginn dieses Jahrzehnts hat ein Netzaktivist die Welt verunsichert. Eli
       Pariser, Präsident des linken Thinktanks [1][MoveOn.org], behauptete mit
       seiner Theorie von der „Filterblase“: Was wir im Internet sehen, haben
       Algorithmen für uns zusammengestellt – und zwar gemäß dem, was sie für
       unsere Vorlieben halten. Die Konsequenz, so Pariser: Je mehr sich Menschen
       über Google, Facebook und ähnliche Plattformen informieren, desto mehr
       spaltet sich die Gesellschaft in isolierte Grüppchen mit homogenen
       Meinungen.
       
       Inzwischen ist die „Filterblase“ geflügeltes Wort, Ereignisse wie der
       Brexit oder die Wahl Donald Trumps, die viele für undenkbar hielten,
       verstärken den Eindruck einer virtuellen Sichtfeldbeschränkung. Dabei fehlt
       bis heute eine solide Grundlage an Daten, die die Filterblasen-These
       stützen könnten. Seit es den Begriff gibt, gibt es somit auch Kritik an
       Pariser: Er habe das Problem aufgebauscht, anhand von Stichproben und
       Spekulationen ein Bedrohungsszenario aufgebaut. Andere gaben der Theorie
       einen Vertrauensvorschuss – weil sie plausibel klingt.
       
       Mit dem Forschungsprojekt „Datenspende“ gibt es nun in Deutschland zum
       ersten Mal eine belastbare, wenn auch [2][nicht repräsentative Erhebung zum
       Thema]. Für die Untersuchung arbeiteten der Verein AlgorithmWatch, die TU
       Kaiserslautern und sechs Landesmedienanstalten zusammen. 4.400 deutsche
       InternetnutzerInnen „spendeten“ dem Projekt freiwillig ihre
       Google-Suchergebnisse – das heißt konkret, dass sie sich fünf Wochen vor
       der Bundestagswahl eine besondere Erweiterung für ihren Browser
       installierten. Die gab automatisch alle vier Stunden eine Reihe von
       Suchbegriffen bei Google ein – die Namen der wichtigsten Parteien und
       PolitikerInnen – und zeichnete dann auf, welche Ergebnisse die Suche
       anzeigte.
       
       Die so erzeugten Daten verraten, wie sehr Suchergebnisse von Person zu
       Person variieren. Antwort: Weniger als gedacht. Von den ersten 20
       Suchergebnissen waren im Schnitt nur vier bis fünf unterschiedlich. Das
       heißt, was die Testpersonen bei Google angezeigt bekamen, war zu über drei
       Viertel identisch.
       
       Für Katharina Zweig, Netzwerkforscherin an der TU Kaiserslautern und
       Leiterin des Projekts, bedeutet dieses Ergebnis zwar nicht, dass die
       Filterbubble-Theorie falsch ist. Aber: „Was Google in Deutschland angeht,
       gibt es keine Datengrundlage für die Theorie.“
       
       ## Nicht repräsentativ
       
       Das gilt allerdings nur eingeschränkt. Denn zum einen ist die Erhebung
       nicht repräsentativ. Angenommen wurden Datenspenden von allen, die sich
       dazu bereit erklärten, und nicht etwa proportional nach Alter, Geschlecht
       oder – besonders wichtig – sozialem und politischem Milieu.
       
       Zum anderen hat sich die Studie mit der wichtigsten Plattform noch gar
       nicht beschäftigt: Facebook. Denn noch viel mehr als bei der Suchmaschine
       Google spielt bei Facebook die Personalisierung eine zentrale Rolle. Also
       dass Inhalte nach den Interessen und den sozialen Beziehungen der
       NutzerInnen algorithmisch ausgewählt werden. Bei Facebook gehört es zum
       Markenkern, dass man sich innerhalb vertrauter Netzwerke bewegt, die eigene
       Interessen und Meinungen eher teilen. Trotzdem ist nach wie vor nicht klar,
       wie der Facebook-Algorithmus Inhalte gewichtet – und welche er aussortiert.
       
       Katharina Zweig sagt, dass es im Gegensatz zu Google bei Facebook aber
       nicht so einfach möglich sei, Personalisierung zu erforschen. „Die
       Testpersonen müssten dazu entweder gleich ihren Log-in zur Verfügung
       stellen oder aber Screenshots von ihrer Timeline schicken“, erklärt die
       Wissenschaftlerin. „Das wird niemand machen.“
       
       Zweig und ihr Team haben es daher anders versucht: Über eine Reihe von
       selbstgemachten Fake-Accounts wollten sie eine repräsentative Testgruppe
       simulieren. Das wiederum scheiterte aber an der strikten
       Identitätsüberprüfung von Facebook. „Die wollten dann gleich, dass wir die
       Fake-Accounts mit Telefonnummern bestätigen.“
       
       Und so ist Facebook, die wahrscheinlich wichtigste Plattform, wenn es um
       Filterblasen geht, kaum zu erforschen. Natürlich hat der Konzern kein
       Interesse daran, seinen Algorithmus preiszugeben. Aus unternehmerischer
       Sicht wäre das so, als würde eine Sterneköchin ihre Rezepte an die
       Konkurrenz verteilen.
       
       Und es gibt noch einen weiteren Grund: Solange niemand weiß, wie der
       Algorithmus genau arbeitet, ist es schwierig, Facebook zu regulieren.
       
       Allerdings steht das Unternehmen immer mehr unter Druck. Es hat kein
       Interesse daran, als Plattform für rechte Trolle und Populismus zu gelten –
       oder als das Netzwerk, das den politischen Diskurs kaputtgemacht hat.
       Deswegen verkündet Facebook auch immer mal wieder, dass es den Algorithmus
       in dieser oder jener Weise anpassen will. Zuletzt hieß es aus Kalifornien,
       [3][dass bald persönliche Empfehlungen von engen FreundInnen stärker
       gewichtet würden als Posts von Nachrichtenseiten]. Wie das gegen
       Filterblasen helfen soll, ist ungewiss – das Gegenteil müsste der Fall
       sein.
       
       ## Vielfalt sicherstellen
       
       Allerdings ist klar: Facebook will sich als transparent präsentieren, ohne
       Betriebsgeheimnisse preiszugeben. Und genau dort sehen die deutschen
       Landesmedienanstalten und die ForscherInnen beim Projekt „#Datenspende“
       eine Chance.
       
       Die Medienanstalten sind deshalb interessiert, weil sie dafür zuständig
       sind, Medienvielfalt sicherzustellen. Früher ging das via Zuteilung von
       TV-Sendeplätzen – heute spielen die sogenannten Intermediären eine große
       Rolle: Google, Facebook, Instagram, YouTube – keine Medien, keine Quellen,
       sondern Informationshändler mit großer Macht. Über die es aber zu wenig
       Wissen gibt, sagt Anja Zimmer, Direktorin der Landesmedienanstalt
       Berlin-Brandenburg (MABB). „Dieses Wissen liegt im Moment zu großen Teilen
       bei den Intermediären. Das ist ein gravierendes Hindernis für die
       Forschung, aber auch für die Regulierung.“
       
       Die MABB berät daher seit Neuestem in ihrer „Data Access Initiative“
       darüber, wie man die Intermediären davon überzeugt, sich anzapfen zu
       lassen. „Wir fragen uns, wie eine Regulierung aussehen kann, die
       gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet“, sagt
       Zimmer.
       
       Netzwerkforscherin Zweig findet, dass das im Interesse von Facebook sein
       müsse. „Das wäre ein Win-win für beide Seiten, denn dann müsste man nicht
       mehr an ihr Geschäftsgeheimnis ran.“ Dazu müsste sich Facebook jetzt nur
       noch bereit erklären. In der Zwischenzeit gilt immerhin schon mal die gute
       Nachricht: Wer Google nutzt, ist weitgehend sicher davor, in eine
       Diskursnische gesaugt zu werden. Was alle anderen Plattformen angeht, ist
       gesunder Argwohn weiter angemessen.
       
       8 Mar 2018
       
       ## LINKS
       
   DIR [1] https://front.moveon.org/
   DIR [2] https://www.blm.de/files/pdf1/1_zwischenbericht__final.pdf
   DIR [3] /Medienreaktion-auf-Update-von-Facebook/!5475507
       
       ## AUTOREN
       
   DIR Peter Weissenburger
       
       ## TAGS
       
   DIR Google
   DIR Schwerpunkt Meta
   DIR Filterblase
   DIR Schwerpunkt Meta
   DIR Schwerpunkt Brexit
   DIR Hate Speech
   DIR Maischberger
   DIR taz.gazete
       
       ## ARTIKEL ZUM THEMA
       
   DIR Manipulationen beim Sozialen Netzwerk: Facebook-Sicherheitschef muss gehen
       
       Alex Stamos wollte mehr Transparenz zulassen. Jetzt soll er das Unternehmen
       im Sommer verlassen. Derweil schmiert die Facebook-Aktie ab.
       
   DIR Facebook und der Datenschutz: Das große Leck
       
       Ein Whistleblower verrät: Die Firma Cambridge Analytica hat für den
       Trump-Wahlkampf 50 Millionen Facebook-Profile ausgespäht.
       
   DIR Debatte Hass im Netz: Die Sensationsschleuder
       
       Solange der Algorithmus von Online-Netzwerken belohnt, was die
       Nutzer-Aufmerksamkeit fesselt, regieren Hass und Provokation. Da helfen
       keine Gesetze.
       
   DIR Talkshow über ARD und ZDF: Monologe bei Maischberger
       
       Die Maischberger-Debatte über ARD und ZDF bildet gut ab, wie
       widersprüchlich die Kritik am öffentlich-rechtlichen Rundfunk oft ist.
       
   DIR Homepage gegen Fakenews: Raus aus der Echokammer
       
       Die Plattform teyit.org sucht in sozialen Medien nach Fakenews, um sie zu
       enttarnen. Ein Gespräch mit den Machern der Seite