Deus ex Machina

Deus ex Machina

Über Gott und die WWWelt

Gefangen in der Filterblase

Immer mehr Webangebote personalisieren ihre Angebote nach unseren vermeintlichen Vorlieben und Interessen. Wie sehr verengen diese Mechanismen unseeren Blick auf die Welt?

Immer mehr Websites personalisieren ihre Angebote nach unseren vermeintlichen Vorlieben und Interessen. Wie sehr verengen diese Mechanismen unseren Blick auf die Welt?

Dieser Beitrag hatte mit einigen Geburtswehen zu kämpfen: Just als ich anfing, einige Links zum Thema zusammenzusuchen, fing sich mein Rechner einen sogenannten Redirect-Virus ein. Der kleine, aber sehr gemeine Schädling sorgte dafür, dass jeder Klick, den ich auf ein Suchergebnis von Google, Bing & Co. tätigte, auf einer obskuren Website namens abnow.com landete. So kann man natürlich nicht arbeiten (aber wozu hat man schließlich einen Zweitrechner). Ironie des Schicksals ist, dass ich mir als Thema die sogenannte “Filter Bubble” vorgenommen hatte. Dabei geht es um die Beobachtung, dass Google, Facebook & Co. durch die immer konsequentere Personalisierung von Inhalten auf lange Sicht dazu beitragen, uns in eine Art Blase einzuhüllen, in der uns übers Internet nur noch erreicht, was wir irgendwann einmal an Interessen erkennen ließen, sei es durch aktives Anklicken des einen Inhalts oder auch durch Wegklicken oder nicht zur Kenntnisnehmen anderer Inhalte.

Bild zu: Gefangen in der Filterblase 

Erstmals im Detail beschrieben wurde dieser Effekt und seine möglichen Langzeitfolgen von dem amerikanischen Politaktivisten, Rechts- und Politikwissenschaftler Eli Pariser. Sein Buch The Filter Bubble aus dem Jahr 2011 erscheint in diesen Tagen auch auf Deutsch. Ich selber bin im Netz über seine Thesen gestolpert, die er auf einer Vortragsveranstaltung recht eindrucksvoll präsentierte. Anhand des Suchbegriffs “Ägypten” zeigte Pariser auf, dass keine zwei Google-Benutzer die gleiche Trefferliste zu sehen bekommen. Mit allem, was die Suchmaschine über unser bisheriges Klickverhalten herausgefunden hat, versucht uns Tante Gu ein persönliches Treffermenü zu servieren: So bekommt der reiseinteressierte Nutzer A unter den ersten Suchtreffern Hotels, Reiseziele und Länderinformationen, der politisch interessierte Nutzer B stattdessen Informationen über die Revolte in Kairo und die letzten Wahlen. Oder Suchbeispiel “BP” – dem eher linksliberalen Zeitgenossen präsentiert Google Berichte über Bohrloch-Pannen und Umweltverschmutzung ganz oben auf der Liste, seinem konservativen Gegenpart werden vielleicht eher Investmentmöglichkeiten beim Ölriesen gezeigt.

Ähnliche Mechanismen walten auch bei Facebook. Irgendwann im vorigen Jahr begann die Geselligkeitsplattform Meldungen von Facebook-Kontakten systematisch auszublenden, mit denen die Mitglieder längere Zeit nicht interagiert hatten, etwa per “Gefällt mir”-Button, Kommentare oder Chat. Bei Eli Pariser, der sich politisch als “liberal” (also das amerikanische “liberal” im Sinne von “eher linksorientiert”) verortet, führte das dazu, dass von seinen konservativen Freunden keine Beiträge mehr auf seiner Facebook-Seite angezeigt wurden. Bei mir und meinen Kontakten ließ sich das Phänomen nicht so eindeutig politisch zuordnen. Aber auch ich wunderte mich darüber, von etlichen meiner Facebook-Leute schon ewig nichts mehr gelesen zu haben. Dann machte irgendwann die Information die Runde, dass Facebook hier stillschweigend an den Reglern und Rädchen im Netzwerk gedreht hatte. Natürlich mal wieder nur zu unserem Besten – oder dem, was Zuckerbergs gigantische Personendatensammelmaschine dafür hält.

Bild zu: Gefangen in der Filterblase

Eli Pariser denkt die Entwicklung dieser algorhitmus-basierten Personalisierungs-Mechanismen ein paar Schritte weiter und malt ein Schreckensbild an die Wand, wie wir irgendwann in lauter selbst mitfabrizierten Filterblasen feststecken. Dort erreichen uns dann nur noch Informationen, die in unser Weltbild und zu unseren Präferenzen passen. Da findet nichts Überraschendes mehr statt, keine Ansichten, die zu unseren völlig quer liegen und die uns zu neuen Blickwinkeln verhelfen könnten. Auf diese Weise liefen wir Gefahr, uns mit dieser informationellen Fastfood-Diät schwere Mangelerscheinungen einzuhandeln, weil die Maschinerie uns nur noch das füttert, was uns schmeckt – und immer weniger von dem, was gut für uns und wichtig für den Zusammenhalt des Gemeinwesens wäre. Früher fungierten die Massenmedien als Gatekeeper, die auswählten, was Leser, Hörer und Zuschauer an aktuellen Informationen bekamen. Jetzt schickten sich neue, maschinell arbeitende Gatekeeper an, den Nutzern die eigenbestimmt-aktive Auswahl ihres individuellen Informationsmenüs aus der Hand zu nehmen. Und dafür, so Pariser, sei das Internet nun mal nicht gebaut worden. Es trat an mit dem Versprechen, uns allen gleichen Zugang zu allen verfügbaren Informationen zu eröffnen.

Tja. Ich muss gestehen, dass mein Gedankenapparat nach dem Hören des Vortrags von Pariser ganz schön ins Rattern kam. Aber die Schlussfolgerung Parisers, diese Filtermechanismen gefährdeten gar die Demokratie, vermag ich nicht zu teilen. Und das nicht erst, seit mir dieser Tage der Computer-Virus sämtliche Suchtreffer bei Google, Bing & Co. in den Orkus leitete und ich für ein paar Stunden erleben musste, wie es sich ganz ohne Suchmaschine arbeitet. Der Punkt ist: Wäre der Google-Suchschlitz unser einziges relevantes Guckloch ins weltweite Datennetz, würde ich Eli Parisers Diagnose vielleicht unterschreiben. Aber selbst dann hätte man immer noch die Möglichkeit, vielleicht auch mal die zweite oder dritte Suchseite von Google aufzurufen und damit die Schnittmenge zu dem zu erhöhen, was andere so zum gleichen Begriff suchen.

Denn bei Licht besehen basiert das Filterbubble-Problem ja nicht zu knapp auf der Tatsache, dass die großen Unterschiede bei den Treffern auf der ersten Suchseite zutage treten und 90 Prozent der Google-Benutzer zu bequem sind, auch nur die Seite 2 aufzurufen. Dem ist aber nicht, wie Pariser fordert, mit Regulierungsmaßnahmen beizukommen, welche die Suchmaschine und andere key player auf irgendwelche allgemeingültigen Relevanzkriterien verpflichten. Den Weg aus der Filterblase können wir selber gehen, niemand hindert uns daran, andere Suchmaschinen auszuprobieren und die uns auch auf anderen Wegen erreichenden Informationsströme so zu kanalisieren, dass wir beim Bäcker in der Schlange oder an der Supermarktkasse noch mitreden können. Oder zumindest eine vage Ahnung haben, worüber die Leute so reden.

Bild zu: Gefangen in der Filterblase 

Eines muss man ja auch mal sehen: Hätte diesen Vortrag nicht der smarte US-Amerikaner Eli Pariser gehalten, sondern ein ARD-Hierarch oder der Vorsitzende der Direktorenkonferenz der Landesmedienanstalten, dann wäre mit Sicherheit ein Aufschrei durchs Netz gegangen über diese Old-Media-Dinos, die das Internet nicht verstanden haben. Und Internet-Topchecker Thomas Knüwer hätte gebarmt, das wäre ja mal wieder typisch deutsch, diese „O Gott, wir werden alle sterben”-Haltung mit dem Ruf nach dem Regulierer. Peter Glaser merkt denn auch völlig zu Recht an, Parisers Thesen perpetuierten ein Menschenbild von dem naiven und manipulierbaren Klickvieh, wie es so ähnlich auch dem medien- und reklamekritischen Vance Packard in seinem Buch „Die geheimen Verführer” aus den späten Fünfzigern vorgeschwebt hat.

Dabei filtern wir doch alle, wo wir stehen und gehen: Jede Mitteilung ist eine Auswahl aus Mitteilbarem, und ebenso jedes Verstehen eine Auswahl aus allem Verstehbarem, schreibt Christoph Kappes im „Merkur”. Anhand dieser „Selektion des Selektierten” werde auch klar: „Die Filter Bubble ist nicht die bedrohliche Ausnahme, sondern Normalität.” Es wundere uns nicht, ja wir erwarteten vielmehr, dass wir im „HandelsblattKlagen über Steuerlast statt über Preistreiberei bei Lebensmitteln durch Börsenhändler finden und dass die „taz” keine Guttenberg-Exklusivinterviews hat. Ist die Filter Bubble also nur eine Blase voll heißer Luft? Nun, Eli Parisers Versuch, diese Personalisierungs-Mechanismen und deren möglichen Folgen stärker ins Bewusstsein zu rücken, ist aller Ehren wert, auch wenn man seine düsteren Schlussfolgerungen nicht unterschreiben mag. Ich für mein Teil ertappe mich bisweilen dabei, dass ich gerne noch viel mehr filtern würde. Beim Bäcker auf dem Tresen lese ich die Schlagzeilen von Zeitungen, in die ich keinen toten Fisch einwickeln würde. Und selbst mit meiner sehr ausgesuchten Mediendiät schaffe ich es nicht, mich in eine Filterblase zurückzuziehen, in der ich Namen wie Paris Hilton oder Dieter Bohlen und irgendwelchen Klatsch über Mitwirkende des RTL-Straflagers im Dschungel nicht mehr lesen muss.

Bild 2 und Bild 3: Screenshots von https://blog.ted.com/2011/05/02/beware-online-filter-bubbles-eli-pariser-on-ted-com/