URI: 
       # taz.de -- Sonntaz-Interview mit Eli Pariser: "Konzerne geben vor, was wir sehen"
       
       > Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist
       > Eli Pariser über gefilterte Meinungen und die Strategie von Google und
       > Facebook.
       
   IMG Bild: Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren.
       
       sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder
       Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren
       dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung
       gefährde unsere Demokratie. Wie das denn? 
       
       Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind
       Unternehmen wie Facebook oder Google, die sich in erster Linie ihren
       Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen,
       sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für
       diese Menschen, was die sehen können und was nicht.
       
       Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir
       gefangen sind. 
       
       Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir
       in unserem Onlineleben immer stärker hineingezogen werden. Aus den
       Informationen über uns versuchen die Unternehmen zu schließen, was wir
       sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so
       viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner
       vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken.
       
       Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie
       wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich
       für dieses Buch interessiert hat, der sollte sich das hier ansehen. 
       
       Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für
       uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und
       manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark
       ausgesiebt werden.
       
       Wie funktioniert das? 
       
       Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt
       erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was
       man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher
       geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses
       Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten
       Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei
       Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von
       sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch
       tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder
       wahrscheinlich kommentieren. Und wenn sie das tun, steigt die
       Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu
       bleiben.
       
       Und wie nutzt Facebook dieses Wissen? 
       
       Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein
       bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen
       Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und
       mehr Zeit auf Facebook verbringt.
       
       Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen
       Facebook-Nutzern und komplexesten Algorithmen? 
       
       Eines meiner verstörendsten Gespräche hatte ich mit einem
       Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im
       Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten
       Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen
       sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch
       das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die
       Entscheidungen, die sie treffen, nicht so extrem wichtig wären.
       
       Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie
       haben ja für Ihr Buch mit einigen gesprochen. 
       
       Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie
       sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass
       der Redakteur einer Zeitung ethische Verantwortung trägt für die
       Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google
       betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle
       Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein
       Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann
       euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu
       diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das
       meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal
       gar nichts ein.
       
       Die sehen Zahlen und keine Inhalte? 
       
       Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt
       erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen
       und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte
       Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen
       bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google
       konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt
       Meinungen, statt neue zu präsentieren.
       
       Und manchmal weiß man selbst gar nicht, was man will. 
       
       Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst.
       
       Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen? 
       
       Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von
       Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte
       einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere.
       Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von
       ihnen Neues erfahren wollte.
       
       Wie verändert das eine Demokratie? 
       
       Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame
       Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um
       Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich
       schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu
       schmoren. Das ist gefährlich.
       
       Bevorzugt das Barack Obama oder Mitt Romney? 
       
       Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare
       Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem
       Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu
       ändern, weil sie die Wahrheit gar nicht wahrnehmen.
       
       Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren? 
       
       Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern
       geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie
       Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur
       leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die
       solche Firmen tragen.
       
       Was erwarten Sie von den Regierungen, etwa in den USA? 
       
       Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA
       vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick
       auf eine Website das, was man später auf einer anderen Website sieht,
       beeinflussen kann.
       
       Für Facebook schlagen Sie einen "Important"-Button vor statt des
       "Like"-Buttons. "Wichtig" statt "Gefällt mir". 
       
       Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden.
       Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu
       klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu
       sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man
       statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die
       Informationsverteilung ändern.
       
       Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen
       widerspricht? 
       
       Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut
       kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks
       Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf,
       die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die
       Studie sogar meine These.
       
       Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die
       "Filter Bubble". Das Gros der Informationen stamme von entfernten
       Bekannten. 
       
       Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss
       für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das
       nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich
       fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen
       würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher
       aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die
       dürfen auch keine negativen Bilder verbreiten. Das sind embedded
       researchers. Kritische Wissenschaftler, die ich kenne, haben so einen
       Zugang bisher nicht erhalten.
       
       Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen
       erfahren haben, wo überall Daten abgesaugt werden? 
       
       In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie
       informierter surfen können. Ich nehme einfach mal einen anderen Browser und
       schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle
       zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz
       anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden,
       aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch
       die personalisierte Suche ausstellen.
       
       10 Feb 2012
       
       ## AUTOREN
       
   DIR Johannes Gernert
       
       ## TAGS
       
   DIR Schwerpunkt Klimawandel
       
       ## ARTIKEL ZUM THEMA
       
   DIR Debatte Klimawandel: Die Weltrettungsmaschine
       
       Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus
       Silicon Valley brauchen wir einen linken Optimismus der Technik.
       
   DIR Handbuch zu Facebook-Löschungen: Nippel nein, Fleischwunde ja!
       
       Nazis und Sex auf Facebook? Wer das nicht will, klickt den "Melde"-Button.
       Was dann passiert, zeigt ein Handbuch, das jetzt veröffentlicht wurde.
       
   DIR Alltäglicher Online-Strip: Wie nackt sind wir im Netz?
       
       Mehr als 20 Millionen Deutsche haben ein Profil bei Facebook und fast jeder
       nutzt die Dienste von Google. Wie verletzlich werden wir dadurch? Ein
       Experiment.
       
   DIR ARD-Dokumentation über Facebook: Noch mal alles ordentlich erklärt
       
       Eine ARD-Doku über Facebook liefert einen Grundkurs – und ein bisschen
       mehr. Vor allem fürs Interview mit Zuckerberg könnte es "Gefällt
       mir"-Klicks geben.