Filterblase

Aus besserwiki.de
Der Begriff "Filterblase" wurde von dem Internetaktivisten Eli Pariser um 2010 geprägt.

Eine Filterblase oder ein ideologischer Rahmen ist ein Zustand der intellektuellen Isolation, der durch personalisierte Suchvorgänge entstehen kann, wenn ein Website-Algorithmus selektiv errät, welche Informationen ein Nutzer auf der Grundlage von Informationen über den Nutzer, wie Standort, früheres Klickverhalten und Suchverlauf, sehen möchte. Infolgedessen werden die Nutzer von Informationen getrennt, die nicht mit ihren Ansichten übereinstimmen, so dass sie effektiv in ihrer eigenen kulturellen oder ideologischen Blase isoliert werden. Die von diesen Algorithmen getroffenen Entscheidungen sind nicht immer transparent. Paradebeispiele sind die personalisierten Suchergebnisse von Google und der personalisierte Nachrichtenstrom von Facebook.

Der Begriff der Filterblase wurde von dem Internetaktivisten Eli Pariser um 2010 geprägt und in seinem gleichnamigen Buch von 2011 diskutiert. Pariser zufolge kann der Filterblaseneffekt negative Auswirkungen auf den zivilgesellschaftlichen Diskurs haben, doch gibt es auch gegenteilige Ansichten, die den Effekt als minimal und lösbar ansehen. Die Ergebnisse der US-Präsidentschaftswahlen 2016 wurden mit dem Einfluss von Social-Media-Plattformen wie Twitter und Facebook in Verbindung gebracht und haben die Auswirkungen des Phänomens der "Filterblase" auf die Exposition der Nutzer gegenüber Fake News und Echokammern in Frage gestellt, was ein neues Interesse an dem Begriff geweckt hat.

(Technologie wie soziale Medien) "lässt einen mit Gleichgesinnten losziehen, so dass man sich nicht mischt und austauscht und andere Standpunkte versteht ... Das ist superwichtig. Es hat sich als ein größeres Problem herausgestellt, als ich oder viele andere es erwartet hätten."

- Bill Gates 2017 in Quartz

Konzept .

Soziale Medien, die es ihren Nutzern recht machen wollen, können Informationen, von denen sie annehmen, dass ihre Nutzer sie gerne hören werden, versehentlich in ihre eigenen Filterblasen absondern, so Pariser.

Pariser zufolge werden die Nutzer weniger mit widersprüchlichen Standpunkten konfrontiert und intellektuell in ihrer eigenen Informationsblase isoliert. Er erzählte von einem Beispiel, bei dem ein Nutzer bei Google nach "BP" suchte und Investitionsnachrichten über British Petroleum erhielt, während ein anderer Suchende Informationen über die Deepwater Horizon Ölkatastrophe erhielt und feststellte, dass die beiden Suchergebnisseiten "auffallend unterschiedlich" waren.

Pariser definierte sein Konzept einer Filterblase formaler als "das persönliche Ökosystem von Informationen, das von diesen Algorithmen gepflegt wird". Der Browser- und Suchverlauf eines Internetnutzers wird im Laufe der Zeit aufgebaut, wenn er sein Interesse an bestimmten Themen bekundet, indem er "auf Links klickt, Freunde anschaut, Filme in die Warteschlange stellt, Nachrichten liest" und so weiter. Ein Internetunternehmen nutzt diese Informationen dann, um gezielt Werbung für den Nutzer zu schalten oder bestimmte Informationen auf den Suchergebnisseiten hervorzuheben.

Dieser Prozess ist nicht zufällig, sondern erfolgt laut Pariser in drei Schritten: "Zuerst findet man heraus, wer die Leute sind und was sie mögen. Dann bietet man ihnen die Inhalte und Dienstleistungen an, die am besten zu ihnen passen. Zum Schluss muss man sich darauf einstellen, dass die Inhalte genau passen. Ihre Identität formt Ihre Medien". Pariser berichtet weiter:

Laut einer Studie des Wall Street Journal installieren die fünfzig größten Internetseiten, von CNN über Yahoo bis MSN, im Durchschnitt jeweils 64 datenintensive Cookies und persönliche Tracking-Beacons. Wenn Sie auf Dictionary.com nach einem Wort wie "Depression" suchen, installiert die Website bis zu 223 Tracking-Cookies und Beacons auf Ihrem Computer, damit andere Websites Sie gezielt mit Antidepressiva ansprechen können. Wenn Sie einen Artikel über Kochen auf ABC News teilen, werden Sie möglicherweise von Anzeigen für teflonbeschichtete Töpfe durch das Internet gejagt. Öffnen Sie - und sei es nur für einen Augenblick - eine Seite mit Anzeichen dafür, dass Ihr Ehepartner Sie betrügt, und machen Sie sich darauf gefasst, mit Werbung für DNA-Vaterschaftstests überhäuft zu werden.

Der Zugriff auf die Daten von Link-Klicks, die durch Messungen des Website-Verkehrs angezeigt werden, zeigt, dass Filterblasen kollektiv oder individuell sein können.

Im Jahr 2011 hatte ein Ingenieur gegenüber Pariser erklärt, dass Google 57 verschiedene Daten auswertet, um die Suchergebnisse eines Nutzers individuell zu gestalten, darunter auch Daten, die nicht aus Cookies stammen, wie die Art des verwendeten Computers und der Standort des Nutzers.

Zur Beschreibung dieses Phänomens wurden auch andere Begriffe verwendet, darunter "ideologische Rahmen" und "die figurative Sphäre, die Sie bei der Suche im Internet umgibt". Ein verwandter Begriff, "Echokammer", wurde ursprünglich auf Nachrichtenmedien angewandt, wird aber jetzt auch auf soziale Medien angewendet.

Parisers Idee der Filterblase wurde nach seinem TED-Vortrag im Mai 2011 bekannt, in dem er Beispiele dafür gibt, wie Filterblasen funktionieren und wo sie zu sehen sind. In einem Test, der den Filterblaseneffekt demonstrieren sollte, bat Pariser mehrere Freunde, bei Google nach dem Wort "Ägypten" zu suchen und ihm die Ergebnisse zu schicken. Beim Vergleich der ersten Ergebnisseiten von zwei der Freunde zeigte sich, dass es zwar Überschneidungen bei Themen wie Nachrichten und Reisen gab, die Ergebnisse des einen Freundes jedoch prominent Links zu Informationen über die aktuelle ägyptische Revolution von 2011 enthielten, während die erste Ergebnisseite des anderen Freundes keine solchen Links enthielt.

In The Filter Bubble warnt Pariser davor, dass ein potenzieller Nachteil der gefilterten Suche darin besteht, dass sie "uns von neuen Ideen, Themen und wichtigen Informationen abschottet" und "den Eindruck erweckt, dass unser enges Eigeninteresse alles ist, was existiert". Seiner Ansicht nach sind Filterblasen sowohl für den Einzelnen als auch für die Gesellschaft potenziell schädlich. Er kritisierte Google und Facebook dafür, dass sie den Nutzern "zu viele Süßigkeiten und nicht genug Zuckerbrot" anbieten. Er warnte davor, dass die "unsichtbare algorithmische Bearbeitung des Internets" unseren Zugang zu neuen Informationen einschränken und unseren Blickwinkel verengen könne. Pariser zufolge schaden Filterblasen auch der Gesellschaft im Allgemeinen, da sie den "zivilen Diskurs untergraben" und die Menschen anfälliger für "Propaganda und Manipulation" machen können. Er schrieb:

Eine Welt, die aus Vertrautem aufgebaut ist, ist eine Welt, in der es nichts zu lernen gibt ... (da es) unsichtbare Autopropaganda gibt, die uns mit unseren eigenen Ideen indoktriniert.

- Eli Pariser in The Economist, 2011

Viele Menschen sind sich nicht bewusst, dass es Filterblasen überhaupt gibt. Dies geht aus einem Artikel in The Guardian hervor, in dem die Tatsache erwähnt wird, dass "mehr als 60 % der Facebook-Nutzer überhaupt nicht wissen, dass es eine Kuratierung auf Facebook gibt, und stattdessen glauben, dass jede einzelne Geschichte von ihren Freunden und den Seiten, denen sie folgen, in ihrem Newsfeed erscheint." Eine kurze Erklärung dafür, wie Facebook entscheidet, was im Newsfeed eines Nutzers erscheint, ist ein Algorithmus, der berücksichtigt, "wie du in der Vergangenheit mit ähnlichen Beiträgen interagiert hast."

Es wurde beschrieben, dass eine Filterblase ein Phänomen verschlimmert, das als Splinternet oder Cyberbalkanisierung bezeichnet wird. Dieses Phänomen tritt auf, wenn das Internet in Untergruppen von Gleichgesinnten aufgeteilt wird, die sich innerhalb ihrer eigenen Online-Gemeinschaft isolieren und keine Gelegenheit haben, sich mit anderen Ansichten auseinanderzusetzen. Diese Befürchtung geht auf die Anfänge des öffentlich zugänglichen Internets zurück, wobei der Begriff "Cyberbalkanisierung" 1996 geprägt wurde.

Durch die Anwendung dieser Algorithmen neigen Internetseiten dazu, dem Benutzer nur Informationen anzuzeigen, die mit den bisherigen Ansichten des Benutzers übereinstimmen. So wird der Benutzer sehr effektiv in einer „Blase“ isoliert, die dazu tendiert, Informationen auszuschließen, die den bisherigen Ansichten des Benutzers widersprechen.

Ein Paradebeispiel dafür sind Googles personalisierte Suchergebnisse und der personalisierte News Stream von Facebook. Nach Parisers Meinung wird der Benutzer so weniger durch gegenteilige Ansichten „belastet“ und somit in einer Informationsblase intellektuell isoliert.

Eli Pariser, 2012

Das Konzept, mittels Amplifizierungs-Algorithmen die Aufmerksamkeit der Nutzer durch selektiv gefilterte Informationen zu fesseln, die deren Ansichten bestätigen, wird noch durch verstärkende Informationen gesteigert, die über eine Bestätigung hinaus Angst und Wut auslösen. Beispiele sind Hate Speech oder Verschwörungstheorien.

Personalisierung lässt sich wie folgt definieren:

Bei der Web-Personalisierung werden Inhalt und Struktur einer Web-Anwendung den besonderen Bedürfnissen, Zielen, Interessen und Vorlieben eines jeden Nutzers angepasst. Dazu wird ein Benutzermodell (englisch user model) erstellt, das die Annahmen und die Informationen erfasst, die das System über den Benutzer hat. Das System kann so voraussagen, was für den Nutzer relevant sein wird. Es filtert irrelevante Informationen heraus und erhöht so seine persönliche Relevanz für einen Benutzer.

Nach Pariser verwendet Google zum Beispiel diverse „Signale“ (frühere Such-Stichworte, Standort, Status-Updates von Kontakten auf Sozialen-Netzwerk-Seiten etc.), um an den Benutzer Suchergebnisse und die geschalteten Anzeigen (Targeted Advertising) anzupassen. Facebook beobachtet dagegen die Interaktionen eines Benutzers mit anderen Nutzern und filtert Posts von bestimmten Nutzern. Das bedeutet, Benutzeraktivitäten (Klickhistorie) werden in eine einzige Benutzeridentität übersetzt und auf Grundlage dieser Identität werden bestimmte Informationen herausgefiltert. Bis 2011 kam bei Facebook dafür der sogenannte EdgeRank-Algorithmus zum Einsatz, der in Folge durch ein wesentlich komplexeres, maschinenlernendes System abgelöst wurde.

Parisers Besorgnis ähnelt den von Tim Berners-Lee 2010 geäußerten Bedenken wegen des Hotel-California-Effekts (etwa: herein geht es, aber nie mehr hinaus), der eintritt, wenn soziale Netzwerke im Internet Inhalte von anderen Konkurrenz-Seiten abblocken und aussperren, um so einen größeren Teil der Netzgemeinde in ihrem Netzwerk zu haben. Je mehr man eingibt, desto mehr ist man eingeschlossen und an die Informationen innerhalb einer spezifischen Website gebunden. Sie wird zum abgeschlossenen „Betonbunker“ und es besteht das Risiko der Fragmentierung des World Wide Web, meint Tim Berners-Lee.

Beispielsweise sind die Benutzer von Facebook in gewisser Weise für immer dort „gefangen“. Wenn sie sich irgendwann entscheiden sollten, das Netzwerk zu verlassen, wird ihr Benutzerprofil zwar deaktiviert, aber nicht gelöscht. Alle ihre persönlichen Informationen und das Protokoll aller ihrer Aktivitäten auf Facebook bleiben für immer auf den Servern von Facebook erhalten. So können sie die Facebook-Seite nie vollständig verlassen.

Ähnliche Konzepte

In den Nachrichtenmedien ist "Echokammer" eine metaphorische Beschreibung für eine Situation, in der Überzeugungen durch Kommunikation und Wiederholung innerhalb eines geschlossenen Systems verstärkt oder verstärkt werden. Durch den Besuch einer "Echokammer" sind Menschen in der Lage, nach Informationen zu suchen, die ihre bestehenden Ansichten verstärken, möglicherweise als unbewusste Ausübung von "confirmation bias". Dies kann die politische und soziale Polarisierung und den Extremismus verstärken. Der Begriff ist eine Metapher, die auf die akustische Echokammer zurückgeht, in der Geräusche in einem hohlen Raum widerhallen. "Echokammern" verstärken die Überzeugungen einer Person ohne faktische Unterstützung. Sie sind von Menschen umgeben, die dieselben Ansichten anerkennen und befolgen.

Barack Obama bezeichnete in seiner Abschiedsrede ein ähnliches Konzept wie Filterblasen als "Bedrohung für die Demokratie [der Amerikaner]", nämlich den "Rückzug in unsere eigenen Blasen, ... vor allem in unseren sozialen Medien, umgeben von Menschen, die wie wir aussehen und dieselbe politische Einstellung teilen und unsere Annahmen nie in Frage stellen... Und zunehmend werden wir in unseren Blasen so sicher, dass wir anfangen, nur noch Informationen zu akzeptieren, die zu unserer Meinung passen, ob sie nun wahr sind oder nicht, anstatt unsere Meinung auf die Beweise zu stützen, die es da draußen gibt."

Reaktionen und Studien

Reaktionen der Medien

Es gibt widersprüchliche Berichte über das Ausmaß, in dem personalisierte Filterung stattfindet, und darüber, ob solche Aktivitäten nützlich oder schädlich sind. Der Analyst Jacob Weisberg, der im Juni 2011 für Slate schrieb, führte ein kleines, nicht wissenschaftliches Experiment durch, um Parisers Theorie zu testen. Dabei führten fünf Mitarbeiter mit unterschiedlichem ideologischem Hintergrund eine Reihe von Suchanfragen durch: "John Boehner", "Barney Frank", "Ryan Plan" und "Obamacare" und schickten Weisberg Screenshots ihrer Ergebnisse. Die Ergebnisse unterschieden sich nur geringfügig von Person zu Person, und die Unterschiede schienen nicht ideologiebedingt zu sein, was Weisberg zu der Schlussfolgerung veranlasste, dass es keine Filterblase gab, und dass die Vorstellung, die meisten Internetnutzer würden sich "an der Tränke eines Daily Me" laben, übertrieben war. Weisberg bat Google um eine Stellungnahme, und ein Sprecher erklärte, dass die Algorithmen absichtlich "die Personalisierung begrenzen und die Vielfalt fördern" würden. Der Buchrezensent Paul Boutin führte ein ähnliches Experiment wie Weisberg mit Personen mit unterschiedlichem Suchverhalten durch und stellte auch hier fest, dass die verschiedenen Suchenden fast identische Suchergebnisse erhielten. Der Journalist Per Grankvist befragte inoffiziell Programmierer bei Google und fand heraus, dass die Nutzerdaten früher eine größere Rolle bei der Ermittlung der Suchergebnisse spielten, dass Google aber durch Tests herausgefunden hat, dass die Suchanfrage bei weitem am besten bestimmt, welche Ergebnisse angezeigt werden.

Es gibt Berichte, wonach Google und andere Websites umfangreiche "Dossiers" mit Informationen über ihre Nutzer führen, die es ihnen ermöglichen könnten, das Internet noch individueller zu gestalten, wenn sie sich dazu entschließen. So gibt es beispielsweise eine Technologie, mit der Google den bisherigen Verlauf der Nutzer verfolgen kann, selbst wenn diese kein persönliches Google-Konto haben oder nicht bei einem solchen angemeldet sind. In einem Bericht hieß es, dass Google Informationen im Wert von 10 Jahren" aus verschiedenen Quellen wie Gmail, Google Maps und anderen Diensten neben der Suchmaschine gesammelt habe, obwohl ein gegenteiliger Bericht besagte, dass der Versuch, das Internet für jeden Nutzer zu personalisieren, für ein Internetunternehmen trotz der riesigen Menge an verfügbaren Daten eine technische Herausforderung darstelle. Der Analyst Doug Gross von CNN schlug vor, dass eine gefilterte Suche eher für die Verbraucher als für die Bürger hilfreich sei und einem Verbraucher, der nach "Pizza" sucht, helfen würde, auf der Grundlage einer personalisierten Suche lokale Lieferoptionen zu finden und weit entfernte Pizzaläden entsprechend herauszufiltern. Organisationen wie die Washington Post, die New York Times und andere haben mit der Entwicklung neuer personalisierter Informationsdienste experimentiert, um die Suchergebnisse auf diejenigen zuzuschneiden, die den Nutzern wahrscheinlich gefallen oder ihnen zusagen.

Wissenschaftliche Studien und Reaktionen

Eine wissenschaftliche Studie von Wharton, in der personalisierte Empfehlungen analysiert wurden, kam zu dem Ergebnis, dass diese Filter tatsächlich zu einer Vereinheitlichung und nicht zu einer Fragmentierung des Online-Musikgeschmacks führen können. Berichten zufolge nutzen die Verbraucher die Filter eher, um ihren Geschmack zu erweitern, als um ihn einzuschränken. Der Harvard-Rechtsprofessor Jonathan Zittrain bestritt das Ausmaß, in dem Personalisierungsfilter die Google-Suchergebnisse verzerren, und sagte, dass "die Auswirkungen der Suchpersonalisierung gering sind". Darüber hinaus bietet Google den Nutzern die Möglichkeit, die Personalisierungsfunktionen auf Wunsch zu deaktivieren, indem sie die Aufzeichnungen von Google über ihren Suchverlauf löschen und Google so einstellen, dass es sich in Zukunft nicht mehr an ihre Suchbegriffe und besuchten Links erinnert.

Eine Studie der Internet Policy Review befasste sich mit dem Fehlen einer klaren und überprüfbaren Definition für Filterblasen in verschiedenen Disziplinen; dies führt häufig dazu, dass Forscher Filterblasen auf unterschiedliche Weise definieren und untersuchen. Anschließend erklärte die Studie den Mangel an empirischen Daten für das Vorhandensein von Filterblasen in verschiedenen Disziplinen und schlug vor, dass die ihnen zugeschriebenen Effekte eher auf bereits bestehende ideologische Vorurteile als auf Algorithmen zurückzuführen sein könnten. Ähnliche Ansichten finden sich in anderen akademischen Projekten, die sich ebenfalls mit den Definitionen von Filterblasen und den Beziehungen zwischen ideologischen und technologischen Faktoren, die mit ihnen verbunden sind, befassen. In einer kritischen Betrachtung von Filterblasen wird darauf hingewiesen, dass "die Filterblasen-These oft eine besondere Art von politischem Menschen postuliert, der starke Meinungen hat, aber gleichzeitig sehr formbar ist", und dass es ein "Paradoxon ist, dass Menschen aktiv handeln, wenn sie Inhalte auswählen, aber passive Empfänger sind, sobald sie den algorithmisch kuratierten Inhalten ausgesetzt sind, die ihnen empfohlen werden".

Eine Studie von Forschern aus Oxford, Stanford und Microsoft untersuchte die Browserverläufe von 1,2 Millionen US-Nutzern des Bing Toolbar-Add-ons für den Internet Explorer zwischen März und Mai 2013. Sie wählten 50.000 dieser Nutzer aus, die aktiv Nachrichten konsumierten, und klassifizierten dann, ob die von ihnen besuchten Nachrichtenkanäle links- oder rechtsorientiert waren, je nachdem, ob die Mehrheit der Wähler in den Bezirken, die mit den IP-Adressen der Nutzer verbunden waren, bei den Präsidentschaftswahlen 2012 für Obama oder Romney gestimmt hatte. Anschließend wurde ermittelt, ob die Nachrichten nach dem direkten Zugriff auf die Website des Herausgebers, über den Aggregationsdienst Google News, über Websuchen oder über soziale Medien gelesen wurden. Die Forscher fanden heraus, dass Websuchen und soziale Medien zwar zu einer ideologischen Trennung beitragen, die große Mehrheit des Online-Nachrichtenkonsums jedoch darin bestand, dass die Nutzer direkt linke oder rechte Mainstream-Nachrichtenseiten besuchten und folglich fast ausschließlich Ansichten einer einzigen Seite des politischen Spektrums ausgesetzt waren. Zu den Einschränkungen der Studie gehörten Auswahlprobleme wie das höhere Alter der Internet Explorer-Nutzer im Vergleich zur allgemeinen Internetbevölkerung, die Nutzung der Bing Toolbar und die freiwillige (oder unwissentliche) Weitergabe des Browserverlaufs, die für Nutzer, die weniger auf den Schutz ihrer Privatsphäre bedacht sind, spricht, die Annahme, dass alle Geschichten in linken Publikationen links sind und das Gleiche für rechte Publikationen gilt; und die Möglichkeit, dass Nutzer, die keine aktiven Nachrichtenkonsumenten sind, den Großteil ihrer Nachrichten über soziale Medien beziehen und daher stärkere Auswirkungen sozialer oder algorithmischer Verzerrungen erfahren als Nutzer, die ihre Verzerrungen im Wesentlichen durch die Wahl der Nachrichtenpublikationen selbst bestimmen (vorausgesetzt, sie sind sich der Verzerrungen der Publikationen bewusst).

Eine Studie von Forschern der Princeton University und der New York University untersuchte die Auswirkungen von Filterblasen und algorithmischer Filterung auf die Polarisierung in sozialen Medien. Sie verwendeten ein mathematisches Modell namens "stochastisches Blockmodell", um ihre Hypothese in den Umgebungen von Reddit und Twitter zu testen. Die Forscher untersuchten die Veränderungen der Polarisierung in regulierten und nicht regulierten sozialen Netzwerken und maßen insbesondere die prozentualen Veränderungen der Polarisierung und Uneinigkeit auf Reddit und Twitter. Sie fanden heraus, dass die Polarisierung in nicht-regulierten Netzwerken signifikant um 400 % zunahm, während die Polarisierung in regulierten Netzwerken um 4 % und die Uneinigkeit um 5 % zunahm.

Plattform-Studien

Zwar schränken Algorithmen die politische Vielfalt ein, doch ein Teil der Filterblase ist das Ergebnis der Wahl der Nutzer. Eine Studie von Datenwissenschaftlern bei Facebook hat ergeben, dass auf vier Facebook-Freunde, die die gleiche Ideologie vertreten, ein Freund mit gegenteiligen Ansichten kommt. Unabhängig davon, wie der Algorithmus von Facebook für seinen News Feed aussieht, ist es einfach wahrscheinlicher, dass Menschen sich mit Menschen anfreunden oder ihnen folgen, die ähnliche Überzeugungen haben. Es liegt in der Natur des Algorithmus, dass er Beiträge auf der Grundlage der Historie eines Nutzers einordnet, was zu einer Reduzierung der "politisch übergreifenden Inhalte um 5 Prozent für Konservative und 8 Prozent für Liberale" führt. Doch selbst wenn die Nutzer die Möglichkeit haben, auf einen Link zu klicken, der konträre Ansichten bietet, bleiben sie bei ihren meistgesehenen Quellen. "Durch die Wahlmöglichkeit sinkt die Wahrscheinlichkeit, auf einen Querschnittslink zu klicken, bei Konservativen um 17 Prozent und bei Liberalen um 6 Prozent. Ein Querverweis ist ein Link, der eine andere Sichtweise als die vermutete Sichtweise des Nutzers oder das, was die Website als die Überzeugungen des Nutzers festgelegt hat, vorstellt. Eine aktuelle Studie von Levi Boxell, Matthew Gentzkow und Jesse M. Shapiro legt nahe, dass Online-Medien nicht die treibende Kraft für die politische Polarisierung sind. Das Papier argumentiert, dass die Polarisierung von den demografischen Gruppen vorangetrieben wird, die am wenigsten Zeit online verbringen. Die größte ideologische Kluft gibt es unter den Amerikanern, die älter als 75 Jahre sind, während 2012 nur 20 % angaben, soziale Medien zu nutzen. Im Gegensatz dazu gaben 80 % der Amerikaner zwischen 18 und 39 Jahren an, 2012 soziale Medien zu nutzen. Die Daten deuten darauf hin, dass die jüngere Bevölkerungsgruppe im Jahr 2012 nicht stärker polarisiert ist als 1996, als es noch keine Online-Medien gab. Die Studie hebt die Unterschiede zwischen den Altersgruppen hervor und zeigt, dass der Nachrichtenkonsum weiterhin polarisiert ist, da die Menschen nach Informationen suchen, die ihre Vorurteile ansprechen. Ältere Amerikaner stagnieren in der Regel in ihren politischen Ansichten, da traditionelle Medien weiterhin die Hauptquelle für Nachrichten sind, während Online-Medien die führende Quelle für die jüngere Bevölkerung sind. Obwohl Algorithmen und Filterblasen die Vielfalt der Inhalte schwächen, zeigt diese Studie, dass politische Polarisierungstendenzen in erster Linie durch bereits bestehende Ansichten und die Unfähigkeit, externe Quellen zu erkennen, angetrieben werden. Eine Studie aus Deutschland aus dem Jahr 2020 nutzte das Big-Five-Psychologiemodell, um die Auswirkungen der individuellen Persönlichkeit, der Demografie und der Ideologien auf den Nachrichtenkonsum der Nutzer zu untersuchen. Die Studie basiert auf der Annahme, dass die Anzahl der von den Nutzern konsumierten Nachrichtenquellen die Wahrscheinlichkeit beeinflusst, in eine Filterblase zu geraten - wobei eine größere Medienvielfalt die Wahrscheinlichkeit verringert -, und ihre Ergebnisse deuten darauf hin, dass bestimmte demografische Merkmale (höheres Alter und männlich) zusammen mit bestimmten Persönlichkeitsmerkmalen (hohe Offenheit) positiv mit der Anzahl der von Einzelpersonen konsumierten Nachrichtenquellen korrelieren. In der Studie wurde auch ein negativer ideologischer Zusammenhang zwischen der Medienvielfalt und dem Ausmaß, in dem die Nutzer dem rechten Autoritarismus zustimmen, festgestellt. Abgesehen von den verschiedenen individuellen Faktoren der Nutzer, die die Rolle der Nutzerwahl beeinflussen können, wirft diese Studie auch Fragen und Zusammenhänge zwischen der Wahrscheinlichkeit, dass Nutzer in Filterblasen gefangen sind, und dem Abstimmungsverhalten der Nutzer auf.

Die Facebook-Studie kam zu dem Ergebnis, dass es "nicht schlüssig" ist, ob der Algorithmus eine so große Rolle bei der Filterung von News Feeds spielt, wie angenommen wird. Die Studie kam auch zu dem Ergebnis, dass die "individuelle Wahl" bzw. das Bestätigungsverhalten ebenfalls Einfluss darauf hat, was aus den News Feeds herausgefiltert wird. Einige Sozialwissenschaftler kritisierten diese Schlussfolgerung, da es bei den Protesten gegen die Filterblase darum geht, dass die Algorithmen und die individuelle Auswahl zusammenwirken, um die Nachrichten herauszufiltern. Sie kritisierten auch die geringe Stichprobengröße von Facebook, die bei etwa "9 % der tatsächlichen Facebook-Nutzer" liegt, und die Tatsache, dass die Studienergebnisse "nicht reproduzierbar" sind, da die Studie von "Facebook-Wissenschaftlern" durchgeführt wurde, die Zugang zu Daten hatten, die Facebook externen Forschern nicht zur Verfügung stellt.

Obwohl die Studie ergab, dass nur etwa 15-20 % der Facebook-Freunde des Durchschnittsnutzers die andere Seite des politischen Spektrums vertreten, stellte Julia Kaman von Vox die These auf, dass dies potenziell positive Auswirkungen auf die Meinungsvielfalt haben könnte. Bei diesen "Freunden" handelt es sich oft um Bekannte, mit denen wir ohne das Internet wahrscheinlich nicht unsere politischen Ansichten teilen würden. Facebook kann ein einzigartiges Umfeld schaffen, in dem ein Nutzer Inhalte sieht, die von diesen "zweitrangigen" Freunden gepostet oder erneut gepostet werden, und möglicherweise mit ihnen interagiert. Die Studie ergab, dass "24 Prozent der Nachrichten, die Liberale sahen, konservativ ausgerichtet waren und 38 Prozent der Nachrichten, die Konservative sahen, liberal ausgerichtet waren". "Liberale neigen dazu, mit weniger Freunden verbunden zu sein, die Informationen der anderen Seite teilen, verglichen mit ihren konservativen Kollegen. Dieses Zusammenspiel hat die Fähigkeit, vielfältige Informationen und Quellen zu liefern, die die Ansichten der Nutzer mäßigen könnten.

In ähnlicher Weise kam eine Studie der New York University über die Filterblasen von Twitter zu dem Schluss, dass "Einzelpersonen jetzt Zugang zu einer größeren Bandbreite von Standpunkten zu Nachrichtenereignissen haben, und die meisten dieser Informationen kommen nicht über die traditionellen Kanäle, sondern entweder direkt von politischen Akteuren oder über ihre Freunde und Verwandten. Darüber hinaus bietet der interaktive Charakter der sozialen Medien den Menschen die Möglichkeit, politische Ereignisse mit Gleichaltrigen zu diskutieren, auch mit solchen, zu denen sie nur schwache soziale Bindungen haben". Diesen Studien zufolge können die sozialen Medien die Informationen und Meinungen, mit denen die Nutzer in Berührung kommen, diversifizieren, obwohl es viele Spekulationen über Filterblasen und ihre Fähigkeit, eine tiefere politische Polarisierung zu bewirken, gibt.

Ein Treiber und eine mögliche Lösung des Problems ist die Rolle von Emotionen in Online-Inhalten. Eine Studie aus dem Jahr 2018 zeigt, dass unterschiedliche Emotionen in Nachrichten zu einer Polarisierung oder Konvergenz führen können: Freude ist bei der emotionalen Polarisierung vorherrschend, während Traurigkeit und Angst eine wichtige Rolle bei der emotionalen Konvergenz spielen. Da es relativ einfach ist, den emotionalen Inhalt von Nachrichten zu erkennen, können diese Erkenntnisse dazu beitragen, Algorithmen mit mehr sozialer Verantwortung zu entwickeln, indem der emotionale Inhalt von algorithmischen Empfehlungen in den Mittelpunkt gerückt wird.

Visualisierung des Prozesses und des Wachstums von zwei Social Media Bots, die in der Weibo-Studie 2019 verwendet wurden. Die Diagramme stellen laut der Studie zwei Aspekte der Struktur von Filterblasen dar: große Konzentrationen von Nutzern um einzelne Themen und eine unidirektionale, sternförmige Struktur, die sich auf wichtige Informationsflüsse auswirkt.

Social Bots wurden von verschiedenen Forschern eingesetzt, um Polarisierung und ähnliche Effekte zu testen, die Filterblasen und Echokammern zugeschrieben werden. In einer Studie aus dem Jahr 2018 wurden Social Bots auf Twitter eingesetzt, um zu testen, ob Nutzer absichtlich parteiischen Standpunkten ausgesetzt sind. Die Studie behauptete, dass sie parteiische Unterschiede zwischen der Exposition gegenüber unterschiedlichen Ansichten nachweisen konnte, obwohl sie davor warnte, dass die Ergebnisse auf parteigebundene amerikanische Twitter-Nutzer beschränkt sein sollten. Eines der Hauptergebnisse war, dass selbstregistrierte Republikaner konservativer wurden, nachdem sie anderen (von den Bots bereitgestellten) Ansichten ausgesetzt waren, während selbstregistrierte Liberale weniger oder gar keine ideologische Veränderung zeigten. In einer anderen Studie aus der Volksrepublik China wurden Social Bots auf Weibo - der größten Social-Media-Plattform in China - eingesetzt, um die Struktur von Filterblasen im Hinblick auf ihre Auswirkungen auf die Polarisierung zu untersuchen. In der Studie wird zwischen zwei Konzepten der Polarisierung unterschieden. Die eine besteht darin, dass Menschen mit ähnlichen Ansichten Gruppen bilden, ähnliche Meinungen teilen und sich gegen abweichende Standpunkte sperren (Meinungspolarisierung), und die andere darin, dass Menschen keinen Zugang zu unterschiedlichen Inhalten und Informationsquellen haben (Informationspolarisierung). Durch den Einsatz von Social Bots anstelle von menschlichen Freiwilligen und die Konzentration auf Informationspolarisierung statt auf Meinungspolarisierung kamen die Forscher zu dem Schluss, dass es zwei wesentliche Elemente einer Filterblase gibt: eine große Konzentration von Nutzern um ein einziges Thema und eine unidirektionale, sternförmige Struktur, die sich auf wichtige Informationsflüsse auswirkt.

Im Juni 2018 führte die Plattform DuckDuckGo eine Forschungsstudie auf der Google-Webbrowser-Plattform durch. Für diese Studie googelten 87 Erwachsene an verschiedenen Orten auf dem US-amerikanischen Festland genau zur gleichen Zeit drei Schlüsselbegriffe: Einwanderung, Waffenkontrolle und Impfungen. Selbst im privaten Browsing-Modus sahen die meisten Personen Ergebnisse, die nur für sie bestimmt waren. Für einige Teilnehmer zeigte Google bestimmte Links an, die für andere Teilnehmer nicht angezeigt wurden, und die Infoboxen für Nachrichten und Videos wiesen erhebliche Unterschiede auf. Google hat diese Ergebnisse öffentlich bestritten und erklärt, dass die Personalisierung von Suchmaschinenergebnisseiten (SERP) größtenteils ein Mythos ist. Google Search Liaison, Danny Sullivan, erklärte: "Im Laufe der Jahre hat sich der Mythos entwickelt, dass die Google-Suche so stark personalisiert ist, dass verschiedene Personen für dieselbe Suchanfrage deutlich unterschiedliche Ergebnisse erhalten. Das ist nicht der Fall. Die Ergebnisse können sich zwar unterscheiden, aber in der Regel aus nicht-personalisierten Gründen.

Wenn Filterblasen vorhanden sind, können sie bestimmte Momente erzeugen, die Wissenschaftler als "Whoa"-Momente bezeichnen. Ein "Whoa"-Moment ist, wenn ein Artikel, eine Anzeige, ein Beitrag usw. auf Ihrem Computer erscheint, der mit einer aktuellen Handlung oder der aktuellen Verwendung eines Objekts in Zusammenhang steht. Die Wissenschaftler entdeckten diesen Begriff, nachdem eine junge Frau ihrer täglichen Routine nachging, zu der auch das Kaffeetrinken gehörte, als sie ihren Computer öffnete und eine Werbung für dieselbe Kaffeemarke sah, die sie gerade trank. "Ich habe mich heute Morgen hingesetzt und Facebook geöffnet, während ich meinen Kaffee trank, und da waren zwei Anzeigen für Nespresso. Eine Art 'Wow'-Moment, wenn das Produkt, das man gerade trinkt, auf dem Bildschirm auftaucht. "Whoa"-Momente treten auf, wenn Menschen "gefunden" werden. Das bedeutet, dass Werbealgorithmen bestimmte Nutzer auf der Grundlage ihres "Klickverhaltens" ansprechen, um ihre Verkaufserlöse zu steigern.

Mehrere Designer haben Tools entwickelt, um den Auswirkungen von Filterblasen entgegenzuwirken (siehe § Gegenmaßnahmen). Der Schweizer Radiosender SRF wählte das Wort Filterblase zum Wort des Jahres 2016.

Gegenmassnahmen

Von Einzelpersonen

In The Filter Bubble: What the Internet Is Hiding from You (Was das Internet vor dir verbirgt) hebt der Internetaktivist Eli Pariser hervor, wie das zunehmende Auftreten von Filterblasen den Wert des eigenen überbrückenden Sozialkapitals nach der Definition von Robert Putman weiter unterstreicht. Während das Bindungskapital auf der einen Seite starke Bindungen zwischen Gleichgesinnten herstellt und damit ein gewisses Maß an sozialer Homogenität stärkt, stellt das überbrückende Sozialkapital auf der anderen Seite die Schaffung schwacher Bindungen zwischen Menschen mit potenziell abweichenden Interessen und Standpunkten dar und führt damit zu deutlich mehr Heterogenität. In diesem Sinne ist ein hohes Brückenkapital viel eher geeignet, die soziale Eingliederung zu fördern, indem es uns einem Raum aussetzt, in dem wir uns mit Problemen befassen, die über unsere Nischen und engen Eigeninteressen hinausgehen. Die Förderung des eigenen Überbrückungskapitals, z. B. durch den Kontakt mit mehr Menschen in einem informellen Umfeld, kann daher ein wirksames Mittel sein, um den Einfluss des Filterblasenphänomens zu verringern.

Die Nutzer können in der Tat viele Maßnahmen ergreifen, um ihre Filterblasen zu durchbrechen, zum Beispiel indem sie sich bewusst darum bemühen, zu bewerten, welchen Informationen sie sich aussetzen, und indem sie kritisch darüber nachdenken, ob sie sich mit einem breiten Spektrum von Inhalten auseinandersetzen. Diese Ansicht besagt, dass die Nutzer die Psychologie ihres Umgangs mit den Medien ändern sollten, anstatt sich darauf zu verlassen, dass die Technologie ihren Vorurteilen entgegenwirkt. Die Nutzer können bewusst Nachrichtenquellen meiden, die nicht überprüfbar oder schwach sind. Chris Glushko, Vizepräsident für Marketing beim IAB, plädiert für die Nutzung von Websites zur Überprüfung von Fakten, um Fake News zu erkennen. Technologie kann auch eine wertvolle Rolle bei der Bekämpfung von Filterblasen spielen.

Einige zusätzliche Plug-ins, wie Media Bias Fact Check, zielen darauf ab, den Menschen dabei zu helfen, aus ihrer Filterblase herauszutreten und ihnen ihre persönlichen Perspektiven bewusst zu machen; so zeigen diese Medien Inhalte, die ihren Überzeugungen und Meinungen widersprechen. Escape Your Bubble bittet die BenutzerInnen beispielsweise, eine bestimmte politische Partei anzugeben, über die sie sich besser informieren möchten. Das Plug-in schlägt dann Artikel aus etablierten Quellen vor, die sich auf diese politische Partei beziehen, und ermutigt die Nutzer, sich über die andere Partei zu informieren. Neben den Plug-ins gibt es auch Apps, die mit dem Ziel entwickelt wurden, die Nutzer zu ermutigen, ihre Echokammern zu öffnen. UnFound.news bietet den Lesern eine von künstlicher Intelligenz (KI) kuratierte Nachrichten-App, die ihnen Nachrichten aus verschiedenen und unterschiedlichen Blickwinkeln präsentiert und ihnen hilft, sich eine rationale und fundierte Meinung zu bilden, anstatt ihren eigenen Vorurteilen zu erliegen. Sie regt die Leser auch dazu an, verschiedene Perspektiven zu lesen, wenn ihr Lesemuster auf eine Seite/Ideologie ausgerichtet ist. Read Across the Aisle ist eine Nachrichten-App, die aufzeigt, ob die Nutzer aus verschiedenen neuen Quellen lesen, die mehrere Sichtweisen beinhalten oder nicht. Jede Quelle ist farblich gekennzeichnet und zeigt die politische Ausrichtung des jeweiligen Artikels an. Wenn die Nutzer nur Nachrichten aus einer Perspektive lesen, teilt die App dem Nutzer dies mit und ermutigt ihn, andere Quellen mit entgegengesetzten Standpunkten zu erkunden. Obwohl es sich bei Apps und Plug-ins um Hilfsmittel handelt, die Menschen nutzen können, erklärte Eli Pariser: "Natürlich liegt es auch in der Verantwortung des Einzelnen, neue Quellen und Menschen zu suchen, die nicht so sind wie man selbst."

Da webbasierte Werbung die Wirkung der Filterblasen noch verstärken kann, indem sie die Nutzer noch mehr denselben Inhalten aussetzt, können die Nutzer viel Werbung blockieren, indem sie ihren Suchverlauf löschen, gezielte Werbung deaktivieren und Browsererweiterungen herunterladen. Erweiterungen wie Escape your Bubble für Google Chrome sollen dabei helfen, Inhalte zu kuratieren und zu verhindern, dass Nutzer nur mit einseitigen Informationen konfrontiert werden, während Erweiterungen für Mozilla Firefox wie Lightbeam und Self-Destructing Cookies es den Nutzern ermöglichen, zu visualisieren, wie ihre Daten verfolgt werden, und sie einige der Tracking-Cookies entfernen lassen. Einige verwenden anonyme oder nicht personalisierte Suchmaschinen wie YaCy, DuckDuckGo, Qwant, Startpage.com, Disconnect und Searx, um zu verhindern, dass Unternehmen ihre Websuchdaten sammeln. Die Neue Zürcher Zeitung testet in der Beta-Phase eine personalisierte Nachrichten-App, die mit Hilfe von maschinellem Lernen errät, für welche Inhalte sich ein Nutzer interessiert, und dabei "immer ein Überraschungsmoment" bietet; die Idee ist, Geschichten einzubauen, die ein Nutzer in der Vergangenheit wahrscheinlich nicht verfolgt hat.

Die Europäische Union ergreift Maßnahmen, um die Auswirkungen der Filterblase zu mindern. Das Europäische Parlament fördert Untersuchungen darüber, wie sich Filterblasen auf die Fähigkeit der Menschen auswirken, auf vielfältige Nachrichten zuzugreifen. Außerdem hat es ein Programm eingeführt, das die Bürger über soziale Medien aufklären soll. In den USA schlägt das CSCW-Panel die Verwendung von Nachrichten-Aggregator-Apps vor, um den Nachrichtenkonsum der Medienkonsumenten zu erweitern. Nachrichten-Aggregator-Apps scannen alle aktuellen Nachrichtenartikel und leiten Sie zu verschiedenen Standpunkten zu einem bestimmten Thema weiter. Die Nutzer können auch einen Nachrichten-Balancer verwenden, der dem Medienkonsumenten visuell anzeigt, ob er beim Lesen der Nachrichten eher links oder rechts orientiert ist, was durch einen größeren roten Balken oder einen größeren blauen Balken angezeigt wird. Eine Studie zur Bewertung dieses Nachrichtenbalancers ergab "eine kleine, aber spürbare Veränderung des Leseverhaltens hin zu einer ausgewogeneren Exposition bei den Nutzern, die das Feedback sahen, im Vergleich zu einer Kontrollgruppe".

Von Medienunternehmen

Angesichts der jüngsten Bedenken hinsichtlich der Filterung von Informationen in sozialen Medien hat Facebook das Vorhandensein von Filterblasen eingeräumt und Schritte unternommen, um sie zu entfernen. Im Januar 2017 hat Facebook die Personalisierung aus der Liste der "Trending Topics" entfernt, um auf Probleme zu reagieren, die sich daraus ergaben, dass einige Nutzer dort nicht die Ereignisse sahen, über die viel gesprochen wurde. Facebooks Strategie besteht darin, die 2013 eingeführte Funktion "Verwandte Artikel" umzukehren, mit der verwandte Nachrichten gepostet wurden, nachdem der Nutzer einen geteilten Artikel gelesen hatte. Die überarbeitete Strategie würde diesen Prozess nun umkehren und Artikel aus verschiedenen Perspektiven zum selben Thema posten. Facebook versucht auch, ein Prüfverfahren durchzuführen, bei dem nur Artikel aus seriösen Quellen angezeigt werden. Zusammen mit dem Gründer von Craigslist und einigen anderen hat Facebook 14 Millionen Dollar in Bemühungen investiert, "das Vertrauen in den Journalismus auf der ganzen Welt zu erhöhen und die öffentliche Diskussion besser zu informieren". Die Idee dahinter ist, dass selbst wenn die Menschen nur Beiträge lesen, die von ihren Freunden geteilt werden, diese Beiträge zumindest glaubwürdig sind.

In ähnlicher Weise hat auch Google am 30. Januar 2018 das Vorhandensein einer Filterblase auf seiner Plattform eingeräumt. Da aktuelle Google-Suchen algorithmisch nach "Autorität" und "Relevanz" sortierte Ergebnisse liefern, die bestimmte Suchergebnisse ein- und ausblenden, versucht Google, dies zu bekämpfen. Indem es seine Suchmaschine darauf trainiert, die Absicht einer Suchanfrage und nicht die wörtliche Syntax der Frage zu erkennen, versucht Google, die Größe der Filterblasen zu begrenzen. Die erste Phase dieses Trainings wird im zweiten Quartal 2018 eingeführt. Fragen, die Voreingenommenheit und/oder kontroverse Meinungen beinhalten, werden erst zu einem späteren Zeitpunkt behandelt, was ein größeres Problem aufwirft, das immer noch besteht: ob die Suchmaschine als Schiedsrichter der Wahrheit oder als sachkundiger Leitfaden fungiert, nach dem Entscheidungen getroffen werden.

Im April 2017 wurde bekannt, dass Facebook, Mozilla und Craigslist den Großteil einer 14-Millionen-Dollar-Spende an die "News Integrity Initiative" der CUNY beigesteuert haben, die darauf abzielt, Fake News zu eliminieren und ehrlichere Nachrichtenmedien zu schaffen.

Später, im August, kündigte Mozilla, der Hersteller des Firefox-Webbrowsers, die Gründung der Mozilla Information Trust Initiative (MITI) an. Die +MITI soll als kollektive Anstrengung zur Entwicklung von Produkten, Forschung und Community-basierten Lösungen dienen, um die Auswirkungen von Filterblasen und die Verbreitung von Fake News zu bekämpfen. Das Open-Innovation-Team von Mozilla leitet die Initiative mit dem Ziel, Fehlinformationen zu bekämpfen, wobei der Schwerpunkt auf dem Produkt in Bezug auf Bildung, Forschung und kreative Interventionen liegt.

Ethische Implikationen

Da die Popularität von Cloud-Diensten zunimmt, ist zu erwarten, dass personalisierte Algorithmen, die zur Erstellung von Filterblasen verwendet werden, immer mehr Verbreitung finden werden. Wissenschaftler haben begonnen, die Auswirkungen von Filterblasen auf die Nutzer sozialer Medien unter ethischen Gesichtspunkten zu untersuchen, insbesondere in Bezug auf die Bereiche persönliche Freiheit, Sicherheit und Informationsverzerrung. Filterblasen in beliebten sozialen Medien und personalisierten Such-Websites können aufgrund der Algorithmen, die zur Kuratierung dieser Inhalte verwendet werden, bestimmen, welche Inhalte von den Nutzern gesehen werden, oft ohne deren direkte Zustimmung oder Kenntnis. Selbst geschaffene Inhalte, die sich aus Verhaltensmustern ergeben, können zu einer teilweisen Informationsblindheit führen. Kritiker des Einsatzes von Filterblasen spekulieren, dass der Einzelne die Autonomie über seine eigenen Erfahrungen in den sozialen Medien verliert und seine Identität durch die Allgegenwärtigkeit von Filterblasen sozial konstruiert wird.

Technologen, Social-Media-Ingenieure und Computerspezialisten haben sich ebenfalls mit der Verbreitung von Filterblasen beschäftigt. Mark Zuckerberg, der Gründer von Facebook, und Eli Pariser, der Autor von The Filter Bubble, haben ihre Besorgnis über die Risiken der Privatsphäre und der Informationspolarisierung zum Ausdruck gebracht. Die Informationen der Nutzer von personalisierten Suchmaschinen und Social-Media-Plattformen sind nicht privat, auch wenn einige Leute glauben, dass sie es sein sollten. Die Sorge um die Privatsphäre hat zu einer Debatte darüber geführt, ob es moralisch vertretbar ist, dass Informationstechnologen die Online-Aktivitäten von Nutzern erfassen und den künftigen Umgang mit den entsprechenden Informationen manipulieren.

Einige Wissenschaftler haben Bedenken hinsichtlich der Auswirkungen von Filterblasen auf das individuelle und soziale Wohlbefinden geäußert, d. h. die Verbreitung von Gesundheitsinformationen in der Öffentlichkeit und die möglichen Auswirkungen von Internetsuchmaschinen auf das Gesundheitsverhalten. Ein multidisziplinäres Buch aus dem Jahr 2019 berichtet über Forschungen und Perspektiven zur Rolle von Filterblasen in Bezug auf gesundheitliche Fehlinformationen. Das Buch, das aus verschiedenen Bereichen wie Journalismus, Recht, Medizin und Gesundheitspsychologie stammt, befasst sich mit verschiedenen umstrittenen Gesundheitsüberzeugungen (z. B. Alternativmedizin und Pseudowissenschaft) sowie mit möglichen Abhilfemaßnahmen gegen die negativen Auswirkungen von Filterblasen und Echokammern auf verschiedene Themen im Gesundheitsdiskurs. Eine Studie aus dem Jahr 2016 über die möglichen Auswirkungen von Filterblasen auf Suchmaschinenergebnisse zum Thema Selbstmord ergab, dass Algorithmen eine wichtige Rolle dabei spielen, ob den Nutzern Beratungsstellen und ähnliche Suchergebnisse angezeigt werden oder nicht. Eine weitere Studie aus dem Jahr 2016 in der kroatischen Fachzeitschrift "Medical Journal" schlug einige Strategien zur Abschwächung der potenziell schädlichen Auswirkungen von Filterblasen auf Gesundheitsinformationen vor, wie z. B.: mehr Information der Öffentlichkeit über Filterblasen und die damit verbundenen Auswirkungen, die Entscheidung der Nutzer, alternative Suchmaschinen [zu Google] auszuprobieren, und mehr Erklärungen zu den Prozessen, mit denen Suchmaschinen ihre angezeigten Ergebnisse ermitteln.

Da die von den einzelnen Nutzern sozialer Medien gesehenen Inhalte durch Algorithmen beeinflusst werden, die Filterblasen erzeugen, sind die Nutzer sozialer Medienplattformen anfälliger für Bestätigungsfehler und können voreingenommenen, irreführenden Informationen ausgesetzt sein. Soziale Sortierung und andere unbeabsichtigte diskriminierende Praktiken sind ebenfalls als Folge der personalisierten Filterung zu erwarten.

Vor dem Hintergrund der US-Präsidentschaftswahlen 2016 haben Wissenschaftler ebenfalls Bedenken über die Auswirkungen von Filterblasen auf die Demokratie und demokratische Prozesse sowie über den Aufstieg "ideologischer Medien" geäußert. Diese Wissenschaftler befürchten, dass die Nutzer nicht in der Lage sein werden, "über [ihr] enges Eigeninteresse hinaus zu denken", da Filterblasen personalisierte soziale Feeds erstellen und sie von verschiedenen Standpunkten und ihren umgebenden Gemeinschaften isolieren. Aus diesem Grund wird zunehmend über die Möglichkeit diskutiert, soziale Medien mit mehr Serendipität zu gestalten, d. h. proaktiv Inhalte zu empfehlen, die außerhalb der eigenen Filterblase liegen, einschließlich herausfordernder politischer Informationen, und den Nutzern schließlich befähigende Filter und Tools zur Verfügung zu stellen. Eine damit zusammenhängende Sorge ist, wie Filterblasen zur Verbreitung von "Fake News" beitragen und wie dies die politische Einstellung, einschließlich des Wahlverhaltens der Nutzer, beeinflussen kann.

Die Enthüllungen vom März 2018 über das Sammeln und die Nutzung von Nutzerdaten von mindestens 87 Millionen Facebook-Profilen durch Cambridge Analytica während der Präsidentschaftswahlen 2016 verdeutlichen die ethischen Implikationen von Filterblasen. Christopher Wylie, Mitbegründer und Whistleblower von Cambridge Analytica, beschrieb ausführlich, wie das Unternehmen in der Lage war, "psychografische" Profile dieser Nutzer zu erstellen und die Informationen zu nutzen, um deren Wahlverhalten zu beeinflussen. Der Zugriff auf Nutzerdaten durch Dritte wie Cambridge Analytica kann bestehende Filterblasen, die von den Nutzern geschaffen wurden, noch verschlimmern und verstärken, wodurch bestehende Vorurteile künstlich verstärkt und die Gesellschaft weiter gespalten wird.

Gefahren

Filterblasen sind das Ergebnis einer zunehmenden Personalisierung der Medien, die für die Nutzer zur Falle werden kann. Der Einsatz von künstlicher Intelligenz zur Personalisierung von Angeboten kann dazu führen, dass Nutzer nur noch Inhalte sehen, die ihre eigenen Ansichten bestätigen, ohne sie zu hinterfragen. Social-Media-Websites wie Facebook können Inhalte auch so präsentieren, dass es für die Nutzer schwierig ist, die Quelle des Inhalts zu bestimmen, so dass sie selbst entscheiden müssen, ob die Quelle zuverlässig oder gefälscht ist. Das kann dazu führen, dass Menschen sich daran gewöhnen, das zu hören, was sie hören wollen, und dass sie radikaler reagieren, wenn sie einen gegenteiligen Standpunkt sehen. Die Filterblase kann dazu führen, dass die Person jeden gegenteiligen Standpunkt als falsch ansieht und es den Medien so ermöglicht, den Verbrauchern Ansichten aufzuzwingen.

Die Forscher erklären, dass die Filterblase das verstärkt, was man bereits denkt. Aus diesem Grund ist es äußerst wichtig, Quellen zu nutzen, die verschiedene Standpunkte bieten.

Erweiterungen des Konzepts

Das Konzept der Filterblase ist auf andere Bereiche ausgedehnt worden, um Gesellschaften zu beschreiben, die sich nach politischen Ansichten, aber auch nach wirtschaftlichen, sozialen und kulturellen Gegebenheiten selbst segregieren. Diese Filterblase führt zu einem Verlust der breiteren Gemeinschaft und schafft das Gefühl, dass Kinder beispielsweise nicht zu gesellschaftlichen Veranstaltungen gehören, es sei denn, diese Veranstaltungen wurden speziell so geplant, dass sie für Kinder attraktiv und für Erwachsene ohne Kinder unattraktiv sind.

Messung

Die Vielfalt an zur Verfügung stehenden Nachrichten und Informationen, die quasi der Umfang einer Filterblase bilden, ist durch individuelle Unterschiede im Umfang des Nachrichtenkonsums schwer zu erfassen und zu quantifizieren. Daher ist es zunächst wichtig zu definieren, welcher Kontext der Medienvielfalt genauer betrachtet werden soll. Laut Webster und Ksiazek (2012) kann hier der Fokus auf einen von drei Bereichen gelegt werden:

  1. Medien, d. h. auf die Vielfalt der angebotenen Inhalte
  2. Einzelne Individuen und ihre personalisierte Auswahl an Informationen
  3. Die Struktur und Vielfalt einer Leser- oder Zuhörerschaft

Außerdem ist es wichtig zu klären, mit welchen Methoden die Nachrichtenvielfalt untersucht wird. Neben der Selbsteinschätzung wird insbesondere auf Datensammlungen zurückgegriffen, weil davon ausgegangen wird, dass Individuen den vollen Umfang des ihnen theoretisch zur Verfügung stehenden Nachrichtenangebots nicht gänzlich überblicken können. Diese Datensammlungen enthalten neben den ausgewählten Informationen also auch die theoretisch zur Auswahl stehenden Informationen. Diese Informationen müssen für eine weitere Analyse zunächst in Kategorien eingeteilt werden, da einzelne Links, Bilder oder Dateien nicht aussagekräftig sind. Nach dieser Einteilung können mittels semantischer Analyse Rückschlüsse auf die vorhandene Informationsvielfalt gezogen werden. Es ist anzumerken, dass die Algorithmen, die den eigentlichen Grund für personalisierte Informationen darstellen, oftmals nicht für eine direkte Analyse zur Verfügung stehen, da die Online-Unternehmen diese nicht veröffentlichen.

Bessere Personalisierung

Paul Resnick, Professor an der Universität Michigan, fasst die Diskussion um die Filterblase folgendermaßen zusammen: Personalisierung sei nicht per se als schlecht zu bewerten. Seiner Ansicht nach sei akkurate Personalisierung weniger bedenklich als nicht zu personalisieren oder minderwertig zu personalisieren. Filterer hätten Macht und deshalb Verantwortung der Öffentlichkeit gegenüber. Zu den Pflichten von Filterern zählt er insbesondere, keine versteckte Personalisierung durchzuführen und Personalisierung nicht einseitig zu manipulieren.

Resnick macht für eine bessere Personalisierung folgende Vorschläge:

Mehrdimensionale Präferenzen
Thema, Standort, Sichtweise/Ideologie, Publikum u. a.
Das Verhältnis von Erforschung der Nutzerinteressen und -vorlieben und kommerzieller Verwertung optimieren.
Portfolio-Präferenzen
Mischung aus herausfordernden und bestätigenden Informationen ermöglichen.
Zeitversetzter Präferenz-Indikator
Zur Unterscheidung von Kurzzeit- und Langzeit-Präferenzen.
Impuls in Richtung Langzeit-Präferenzen
Unterhaltung (kurzfristiges Interesse) vs. Bildung (langfristiges Interesse).
Gemeinsames Referenzpunkt-Feature
Integration von beliebten Themen, für die sich der Nutzer sonst nicht so sehr interessiert.
Features, die eine Perspektive einnehmen
Um Meinungen anderer Menschen leichter verstehen zu können.

Forscher der Universität Delft beschäftigen sich mit ethischen Fragen der Personalisierung und arbeiteten zum Thema folgenden unverbindlichen Vorschlag aus:

Leitfaden für die Gestaltung von Filter-Algorithmen zur Personalisierung
  1. Gehen Sie sicher, dass pro Benutzer verschiedene Identitäten möglich sind, die sich je nach Kontext unterscheiden können.
  2. Legen Sie [den Filter-Algorithmus] auf Autonomie aus, so dass der Benutzer den Filter an seine Bedürfnisse anpassen und die Identität, die auf Grundlage seiner früheren Interaktionen erstellt wurde, verändern kann.
  3. Legen Sie [den Filter-Algorithmus] auf Transparenz aus, so dass der Benutzer sich bewusst ist, dass gefiltert wird. Der Nutzer muss in der Lage sein, zu sehen, welche Kriterien für das Filtern verwendet werden und welche Identität des Benutzers das System verwendet.

Ähnliche Konzepte

Relevanzparadoxon

Das Konzept der Filterblase ähnelt einem anderen Phänomen, welches als Relevanzparadoxon (englisch relevance paradox) beschrieben wird. Demzufolge suchen Personen und Organisationen Informationen, die von Anfang an für relevant gehalten werden, sich dann aber als nutzlos erweisen oder nur von teilweisem Interesse sind. So werden Informationen nicht berücksichtigt, die für irrelevant gehalten werden, die aber eigentlich nützlich sind. Das Problem tritt auf, weil die wirkliche Relevanz einer bestimmten Tatsache oder eines Konzeptes in solchen Fällen offenbar wird, nachdem der Fakt überhaupt bekannt wurde. Davor wurde der Gedanke, einen bestimmten Fakt überhaupt zu erfahren, aufgrund der falschen Wahrnehmung seiner Irrelevanz verworfen. Folglich ist der Informationssuchende in einem Paradoxon gefangen und er versagt darin, Dinge zu erfahren, die er eigentlich unbedingt benötigt. So wird er Opfer seines „intellektuellen blinden Flecks“. Das Phänomen des Relevanzparadoxons trat während der intellektuellen Entwicklung des Menschen in vielen Situationen in Erscheinung und ist deshalb ein wichtiges Thema in Wissenschaft und Bildung. Ein Buch mit dem Titel The IRG Solution beschäftigte sich 1984 mit diesem Problem und schlug allgemeine Lösungsansätze vor.

Echokammer-Effekt

Ein verwandtes Konzept ist der Echokammer-Effekt (auch Echoraum genannt, englisch Echo Chamber Effect) in der Kommunikationswissenschaft, der beschreibt, wie es durch den verstärkten virtuellen Umgang mit Gleichgesinnten in sozialen Netzwerken zu einer Verengung der Weltsicht kommt, die zu Bestätigungsfehlern führen kann. Im Unterschied zu Filterblasen, bei welchen die Personalisierung vor allem durch Algorithmen hervorgerufen wird (pre-selected personalization), wird beim Echokammer-Effekt die Personalisierung vom Individuum selbst vorgenommen (self-selected personalization). Das heißt, eine potentielle Verengung der Weltsicht rührt daher, dass bestimmte Medieninhalte konsumiert und andere nicht konsumiert werden, dass also ein selektiver Nachrichtenkonsum stattfindet. Da für diese Art von Personalisierung individuelle Entscheidungen die tragende Rolle spielen und nicht beispielsweise Algorithmen, steht das Phänomen auch schon länger zur Diskussion als das der Filterblasen und ist nicht notwendigerweise auf den Onlinekontext beschränkt. Auch im Offlinekontext können Phänomene wie soziale Homophilie dazu führen, dass sich beispielsweise politisch homogene Gruppen bilden, in welchen die Mitglieder untereinander hauptsächlich konsonante und bestätigende Informationen teilen und sich gegenseitig weiter bestärken. Dies würde wiederum nicht nur dazu führen, dass kein offener Diskurs unter verschiedenen Menschen mit unterschiedlichen Vorstellungen mehr stattfindet, sondern auch, dass die Öffentlichkeit weiter polarisiert und fragmentiert werden würde.

Schweigespirale

Elisabeth Noelle-Neumann formulierte für den politischen Raum den Begriff der Schweigespirale. Darunter wird die freiwillige Zurückhaltung der eigenen Meinung verstanden, wenn man der Ansicht ist, dass sie der Mehrheitsmeinung widerspricht – was in der Konsequenz Minderheitsmeinungen immer mehr zurückdränge. Dieser Effekt werde durch die Rolle der Medien als Gatekeeper verstärkt, da sie aufgrund eigener politischer Ansichten eine Mehrheitsmeinung vortäuschen können (siehe auch Politische Haltung der Journalisten).

Propagandamodell

Das von Noam Chomsky und Edward S. Herman 1988 entworfene Propagandamodell stellt die These auf, dass zivilgesellschaftlicher Konsens real durch deren organisierte Teile wie Nichtregierungsorganisationen und Verbände sowie die Schlüsselposition der Massenmedien entstehe und daher nicht die reale Vielfalt der existierenden Meinungen in der Bevölkerung abbilde. Es wurde 1991 durch Chomsky präzisiert und in Folge vielfach als empirisch bestätigt beschrieben.

Trivia

„Filterblase“ wurde im Jahr 2016 zum Wort des Jahres in der Deutschschweiz gekürt.