Filterblase

Der Begriff Filterblase wurde vom Internetaktivisten geprägt Eli Pariser, circa 2010.

A Filterblase oder Ideologischer Rahmen ist ein Zustand der intellektuellen Isolation[1] das kann resultieren aus Personalisierte Suchanfragen wenn eine Website Algorithmus Erraten Sie selektiv, welche Informationen ein Benutzer basierend auf Informationen über den Benutzer wie Standort, früherer Klick-Behavior und Suchverlauf anzeigen möchten.[2][3][4] Infolgedessen werden Benutzer von Informationen getrennt, die mit ihren Standpunkten nicht einverstanden sind, und sie effektiv in ihren eigenen kulturellen oder ideologischen Blasen isolieren.[5] Die Entscheidungen dieser Algorithmen sind nicht immer transparent.[6] Zu den besten Beispielen gehören Google Personalisierte Suche Ergebnisse und Facebook's Personalisierte News-Stream.

Der Begriff Filterblase wurde von geprägt von Internetaktivist Eli Pariser Circa 2010 und erörtert in seinem gleichnamigen Buch 2011. Der Blaseneffekt kann negative Auswirkungen auf Civic haben DiskursLaut Pariser, aber kontrastierende Ansichten betrachten den Effekt als minimal[7] und adressierbar.[8] Die Ergebnisse der US -Präsidentschaftswahlen im Jahr 2016 wurden mit dem Einfluss von Social -Media -Plattformen in Verbindung gebracht, z. Twitter und Facebook,[9][10] und haben infolge Gefälschte Nachrichten und Echokammern,[11] Neues Interesse an der Laufzeit, das neue Interesse an der Laufzeit,[12] Mit vielen besorgt, dass das Phänomen die Demokratie und die Demonstration schaden kann und Wohlbefinden indem die Auswirkungen von Fehlinformationen verschlimmert werden.[13][14][12][15][16][17]

(Technologie wie Social Media) „Lassen Sie sich mit Gleichgesinnten ausgehen, damit Sie andere Standpunkte nicht mischen und teilen und verstehen ... es ist super wichtig. Es hat sich als ein Problem herausgestellt, als ich oder viele andere erwartet hätte. “

Konzept

Social Media, um Benutzern zu gefallen, können Informationen erstellen, von denen sie vermuten, dass ihre Benutzer gerne hören werden, aber versehentlich isolieren, was sie wissen, in ihre eigenen FilterblasenLaut Pariser.

Laut Pariser erhalten Benutzer weniger konflikte Gesichtspunkte und werden in ihrer eigenen Informationsblase intellektuell isoliert.[19] Er erzählte ein Beispiel, in dem ein Benutzer Google nach "BP" durchsuchte und Investitionsnachrichten bekam British Petroleum, während ein anderer Sucher Informationen über die bekam Ölpest für Deepwater Horizonund stellte fest, dass die beiden Suchergebnisse "auffallend anders" waren.[19][20][21][7]

Pariser definierte sein Konzept einer Filterblase formeller als "das persönliche Ökosystem von Information Das wurde von diesen Algorithmen gerichtet. "[19] Das Browser- und Suchverlauf eines Internetbenutzers ist im Laufe der Zeit aufgebaut, wenn sie Interesse an Themen wecken, indem sie Links klicken, Freunde anzeigen, Filme in [ihre] Warteschlange stellen, Nachrichten lesen "und so weiter.[22] Eine Internetfirma verwendet diese Informationen dann zu Zielwerbung dem Benutzer oder lassen Sie bestimmte Arten von Informationen in der Prominent erscheinen in Suchergebnisse.[22]

Dieser Prozess ist nicht zufällig, da er unter einem dreistufigen Prozess pro Pariser arbeitet, der sagt: "Zuerst finden Sie heraus, wer Menschen sind und was sie mögen. Dann bieten Sie ihnen Inhalte und Dienste an, die am besten zu ihnen passen. Schließlich stimmen Sie ein, um die Passform genau richtig zu machen. Ihre Identität prägt Ihre Medien. "[23] Pariser berichtet auch:

Nach einem Wall Street Journal StudyDie fünfzig besten Internet-Websites, von CNN über Yahoo bis MSN, installieren durchschnittlich 64 daten beladene Cookies und persönliche Tracking-Beacons. Suchen Sie nach einem Wort wie "Depression" auf Dictionary.com, und die Website installiert bis zu 223 Verfolgung von Cookies und Beacons auf Ihrem Computer, sodass andere Websites Sie mit Antidepressiva ansprechen können. Teilen Sie einen Artikel über das Kochen in ABC News und Sie können im Internet von Anzeigen für teflonbeschichtete Töpfe im Internet verfolgt werden. Öffnen Sie-selbst für einen Augenblick-eine Seitenauflistungsschilder, die Ihr Ehepartner betrügt und sich darauf vorbereitet, mit DNA-Vaterschaftstest-Anzeigen heimgesucht zu werden.[24]

Zugriff auf die Daten von Linkklicks, die über Site -Verkehrsmessungen angezeigt werden, bestimmen, dass Filterblasen kollektiv oder individuell sein können.[25]

Ab 2011 hatte ein Ingenieur Pariser mitgeteilt, dass Google 57 verschiedene Daten angesehen hatte, um die Suchergebnisse eines Benutzers persönlich anzupassen, einschließlich Nicht-Kookie-Daten wie der Art des verwendeten Computers und des physischen Standorts des Benutzers.[26]

Andere Begriffe wurden verwendet, um dieses Phänomen zu beschreiben, einschließlich "Ideologische Rahmen"[20] und "die figurative Sphäre, die Sie umgibt, wenn Sie im Internet suchen".[22] Ein verwandter Begriff "Echo Chamber" wurde ursprünglich auf Nachrichtenmedien angewendet.[27][28] wird aber jetzt auch auf soziale Medien angewendet.[29][30]

Parisers Idee der Filterblase wurde nach dem populär gemacht Ted Talk Er gab im Mai 2011, in dem er Beispiele dafür gibt, wie Filterblasen funktionieren und wo sie gesehen werden können. In einem Test, der versucht, den Filterblaseneffekt zu demonstrieren, bat Pariser mehrere Freunde, auf Google nach dem Wort "Ägypten" zu suchen und ihm die Ergebnisse zu senden. Vergleiche zwei der ersten Ergebnisse der Freunde, während sich die Ergebnisse eines Freundes zu Themen wie Nachrichten und Reisen überlappten. Ägyptische Revolution von 2011Während die erste Ergebnisse des anderen Freundes solche Links nicht enthielten.[31]

Im Die FilterblasePariser warnt davor, dass ein potenzieller Nachteil der gefilterten Suche darin besteht, dass er "zu neuen Ideen, Themen und wichtigen Informationen abschließt".[32] und "schafft den Eindruck, dass unser enges Eigeninteresse alles ist, was existiert".[20] Seiner Ansicht nach sind Filterblasen für Einzelpersonen und die Gesellschaft möglicherweise schädlich. Er kritisierte Google und Facebook, um Benutzern "zu viel Süßigkeiten und nicht genug Karotten" anzubieten.[33] Er warnte, dass die "unsichtbare algorithmische Bearbeitung des Webs" unsere Bekämpfung neuer Informationen einschränken und unsere Aussichten eingrenzen könnte.[33] Laut Pariser beinhalten die nachteiligen Auswirkungen von Filterblasen die allgemeine Gesellschaft in dem Sinne, dass sie die Möglichkeit haben, "den bürgerlichen Diskurs zu untergraben" und Menschen anfälliger für "Propaganda und Manipulation" zu machen.[20] Er schrieb:

Eine aus der Vertraute konstruierte Welt ist eine Welt, in der es nichts zu lernen gibt ... (da es) unsichtbare Autopropaganda, die uns mit unseren eigenen Ideen indoktriniert.

-Eli Pariser in Der Ökonom, 2011[34]

Viele Menschen wissen nicht, dass es sogar Filterblasen gibt. Dies ist in einem Artikel über den Guardian zu sehen, in dem erwähnte Neuigkeiten."[35] Eine kurze Erklärung dafür, wie Facebook entscheidet, was in den News -Feed eines Benutzers geht, erfolgt über einen Algorithmus, der berücksichtigt, "wie Sie in der Vergangenheit mit ähnlichen Beiträgen interagiert haben".[35]

Eine Filterblase wurde beschrieben, dass ein Phänomen, das genannt wurde Splinternet oder Cyberbalkanisierung,[Anmerkung 1] Dies geschieht, wenn sich das Internet in Untergruppen von Gleichgesinnten unterteilt, die in ihrer eigenen Online-Community isoliert werden und sich nicht mit unterschiedlichen Ansichten befassen. Dieses Problem stammt aus den frühen Tagen des öffentlich zugänglichen Internets, wobei der Begriff "Cyberbalkanisierung" 1996 geprägt wird.[36][37][38]

Ähnliche Konzepte

Im Nachrichten Medien, Echokammer ist eine metaphorische Beschreibung einer Situation, in der Überzeugungen durch Kommunikation und Wiederholung in einem geschlossenen System verstärkt oder verstärkt werden. Durch den Besuch einer "Echokammer" können die Menschen nach Informationen suchen, die ihre bestehenden Ansichten verstärken, möglicherweise als unbewusste Übung von Bestätigungsverzerrung. Dies kann politisch erhöhen und Sozialpolarisation und Extremismus. Der Begriff ist eine Metapher, die auf der akustischen Echokammer basiert, wo Geräusche nachhallen in einem hohlen Gehäuse. "Echo Chambers" verstärkt die Überzeugungen eines Individuums ohne sachliche Unterstützung. Sie sind von denen umgeben, die die gleichen Standpunkte anerkennen und folgen.[39]

Barack Obamas Abschiedsadresse identifizierte ein ähnliches Konzept wie die Filterblasen als "Bedrohung für die Demokratie [Amerikaner], d. H. Der" Rückzug in unsere eigenen Blasen, ... insbesondere unsere Social -Media -Futtermittel, umgeben von Menschen, die wie wir aussehen und die gleiche politische teilen Outlook und fordern Sie unsere Annahmen nie heraus ... und zunehmend werden wir in unseren Blasen so sicher, dass wir nur Informationen akzeptieren, ob es wahr ist oder nicht, das zu unserer Meinung passt, anstatt unsere Meinungen auf die Beweise zu basieren, die es da draußen gibt. "[40]

Reaktionen und Studien

Medienreaktionen

Es gibt widersprüchliche Berichte darüber, inwieweit eine personalisierte Filterung stattfindet und ob eine solche Aktivität vorteilhaft oder schädlich ist. Analyst Jacob Weisberg, der im Juni 2011 für schreibt SchieferHat ein kleines nichtwissenschaftliches Experiment durchgeführt, um die Pariser-Theorie zu testen, an der fünf Assoziationen mit unterschiedlichen ideologischen Hintergründen beteiligt waren, die eine Reihe von Suchanfragen durchführen, "John Boehner","Barney Frank","Ryan -Plan", und "Obamacare", und das Senden von Weisberg-Screenshots ihrer Ergebnisse. Die Ergebnisse variierten nur in geringfügiger Hinsicht von Person zu Person, und alle Unterschiede schienen nicht ideologisch zu tun zu sein, was Weisberg dazu veranlasste dass die Idee, dass die meisten Internetnutzer "im Trog von a füttern" Täglich ich"Wurde übertrieben.[20] Weisberg bat Google, einen Kommentar abzugeben, und ein Sprecher erklärte, dass Algorithmen vorhanden seien, um die Personalisierung absichtlich zu begrenzen und die Vielfalt zu fördern ".[20] Der Buchbevölkerung Paul Boutin hat Weisberg unter Menschen mit unterschiedlichen Suchgeschichten ein ähnliches Experiment durchgeführt und stellte erneut fest, dass die verschiedenen Suchenden nahezu identische Suchergebnisse erhielten.[7] Interviewen Programmierer bei Google aus dem Datensatzjournalisten pro Grankvist stellten fest, dass Benutzerdaten eine größere Rolle bei der Ermittlung von Suchergebnissen spielten, aber dass Google durch Tests festgestellt hat, dass die Suchabfrage bei weitem der beste Determinator für die angezeigten Ergebnisse ist.[41]

Es gibt Berichte, dass Google und andere Websites große "Dossiers" von Informationen über ihre Benutzer beibehalten, die es ihnen ermöglichen könnten, individuelle Interneterlebnisse weiter zu personalisieren, wenn sie sich dafür entscheiden. Beispielsweise gibt es die Technologie für Google, um die vergangenen Geschichten der Benutzer zu verfolgen, auch wenn sie kein persönliches Google -Konto haben oder nicht in eines angemeldet sind.[7] In einem Bericht wurde angegeben, dass Google "10 Jahre wert" von Informationen gesammelt habe, die aus unterschiedlichen Quellen gesammelt wurden, wie z. Google Mail, Google Mapsund andere Dienste neben seiner Suchmaschine,[21][Fehlgeschlagene Überprüfung] Ein gegenteiliger Bericht war zwar, dass der Versuch, das Internet für jeden Benutzer zu personalisieren, für ein Internetunternehmen trotz der großen Mengen an verfügbaren Daten technisch schwierig war. Analyst Doug Gross von CNN schlug vor, dass gefilterte Suche hilfreicher zu sein schien für Verbraucher als für Bürgerund würde einem Verbraucher helfen, nach "Pizza" zu suchen, die lokale Lieferoptionen basieren, die auf einer personalisierten Suche basieren und die fernen Pizza -Läden angemessen herausfiltern.[21][Fehlgeschlagene Überprüfung] Organisationen wie die Washington Post, Die New York Timesund andere haben mit der Erstellung neuer personalisierter Informationsdienste experimentiert, um die Suchergebnisse an diejenigen anzupassen, denen Benutzer wahrscheinlich mögen oder zustimmen werden.[20]

Studien und Reaktionen der Akademie

Eine wissenschaftliche Studie aus Wharton das analysierte Personalisierte Empfehlungen stellte auch fest, dass diese Filter im Online -Musikgeschmack tatsächlich Gemeinsamkeit und nicht Fragmentierung schaffen können.[42] Berichten zufolge verwenden Verbraucher die Filter, um ihren Geschmack zu erweitern, anstatt ihn zu begrenzen.[42] Harvard Law Professor Jonathan Zittrain bestritt das Ausmaß, in dem die Personalisierungsfilter die Google -Suchergebnisse verzerren und die Auswirkungen der Suchpersonalisierung leichten waren.[20] Darüber hinaus bietet Google den Benutzern die Möglichkeit, Personalisierungsfunktionen auszuschalten, wenn sie dies wünschen.[43] Durch Löschen von Googles Aufzeichnung ihres Suchhistories und des Einstellens von Google, um sich nicht an ihre Suchschlüsselwörter zu erinnern und in Zukunft Links zu besuchen.[7]

Eine Studie von Überprüfung der Internetrichtlinien befasste sich mit dem Fehlen einer klaren und überprüfbaren Definition für Filterblasen über Disziplinen hinweg; Dies führt häufig dazu, dass Forscher Filterblasen auf unterschiedliche Weise definieren und untersuchen.[44] Anschließend erklärte die Studie einen Mangel an empirischen Daten für die Existenz von Filterblasen über Disziplinen hinweg[11] und schlugen vor, dass die ihnen zugeschriebenen Effekte mehr von bereits bestehenden ideologischen Verzerrungen als von Algorithmen hervorgehen können. Ähnliche Ansichten finden Sie in anderen akademischen Projekten, die sich auch mit den Definitionen von Filterblasen und den Beziehungen zwischen ideologischen und technologischen Faktoren, die damit verbunden sind, befasst werden.[45] Eine kritische Überprüfung der Filterblasen deutete darauf hin, dass "die Filterblasenarbeit oft eine besondere Art von politischem Menschen setzt Sie wählen Inhalte aus, sind jedoch passive Empfänger, sobald sie dem von ihnen empfohlenen algorithmisch kuratierten Inhalt ausgesetzt sind. "[46]

Eine Studie von Forschern aus Oxford, Stanford und Microsoft untersuchten die Browserhistorien von 1,2 Millionen US -amerikanischen Nutzern der Bing -Symbolleiste Add-On für Internet Explorer zwischen März und Mai 2013. Sie wählten 50.000 der Benutzer, die aktive Nachrichtenverbraucher waren Die mit Benutzer IP -Adressen verbundenen Landkreise stimmten bei den Präsidentschaftswahlen 2012 für Obama oder Romney. Anschließend stellten sie fest, ob Nachrichten über den Google News -Aggregationsdienst, über Websuche oder über soziale Medien direkt auf die Website des Publishers gelesen wurden. Die Forscher stellten fest, dass die überwiegende Mehrheit des Online-Nachrichtenkonsums zwar zur ideologischen Segregation beitragen, während Benutzer direkt aus den Mainstream-Nachrichtenseiten der linken oder rechtsgerichteten Mainstream-Nachrichten bestand und folglich fast ausschließlich den Ansichten von einer einzelnen Seite ausgesetzt waren. des politischen Spektrums. Einschränkungen der Studie umfassten Auswahlprobleme wie Internet -Explorer -Benutzer im Alter höher als die allgemeine Internetpopulation. Bing -Symbolleiste -Nutzung und die freiwillige (oder unwissende) Teile des Surfenhistoriums für Benutzer, die weniger über Privatsphäre besorgt sind; die Annahme, dass alle Geschichten in linksgerichteten Veröffentlichungen linksgerichtet sind und die gleichen für rechtsgerichtete; und die Möglichkeit, dass Benutzer, die sind nicht Aktive Nachrichtenverbraucher können die meisten Nachrichten über soziale Medien erhalten und daher stärkere Auswirkungen von sozialem oder erleben Algorithmische Voreingenommenheit als Benutzer, die im Wesentlichen ihre Voreingenommenheit durch ihre Wahl der Nachrichtenveröffentlichungen auswählen (vorausgesetzt, sie sind sich der Veröffentlichungen bewusst).[47]

Eine Studie von Forschern der Princeton University und der New York University zielte darauf ab, die Auswirkungen von Filterblasen und algorithmischer Filterung auf die Social -Media -Polarisierung zu untersuchen. Sie verwendeten ein mathematisches Modell namens The "Stochastisches Blockmodell"Um ihre Hypothese in den Umgebungen von Reddit und Twitter zu testen. Die Forscher messen Veränderungen in der Polarisierung in regulierten Social-Media Bei nicht regulärer Netzwerke 400%, während die Polarisierung in regulierten Netzwerken um 4% stieg und nicht einverstanden ist.[48]

Plattformstudien

Während Algorithmen die politische Vielfalt einschränken, ist ein Teil der Filterblase das Ergebnis der Benutzerauswahl.[49] Eine Studie von Datenwissenschaftlern von Facebook ergab, dass Benutzer für vier Facebook -Freunde, die Ideologie teilen, einen Freund mit kontrastierenden Ansichten haben.[50][51] Egal welcher Algorithmus von Facebook für seine Neuigkeiten IS, Menschen sind einfach eher mit Menschen anfreunden/Menschen folgen, die ähnliche Überzeugungen teilen.[50] Die Art des Algorithmus ist, dass er Geschichten auf der Grundlage der Geschichte eines Benutzers rangiert, was zu einer Verringerung des "politisch interkürzenden Inhalts um 5 Prozent für Konservative und 8 Prozent für Liberale" führt.[50] Selbst wenn Menschen die Möglichkeit erhalten, auf einen Link zu klicken, der kontrastierende Ansichten bietet, sind sie dennoch standardmäßig ihre am meisten angezeigten Quellen.[50] "[U] Ser-Wahl verringert die Wahrscheinlichkeit, auf einen Kreuzkürzungs-Link um 17 Prozent für Konservative und 6 Prozent für Liberale zu klicken."[50] Ein Übergangslink ist einer, der einen anderen Standpunkt einführt als der vermutete Standpunkt des Benutzers oder was die Website als Überzeugungen des Benutzers festgelegt hat.[52] Eine kürzlich durchgeführte Studie von Levi Boxell, Matthew Gentzkow und Jesse M. Shapiro legt nahe, dass Online -Medien nicht die treibende Kraft für die politische Polarisierung sind.[53] Das Papier argumentiert, dass die Polarisierung von den demografischen Gruppen getrieben wurde, die die geringste Zeit online verbringen. Die größte ideologische Kluft ist bei den Amerikanern über 75 erlebt, während nur 20% bis 2012 angaben. Im Gegensatz dazu gaben 80% der Amerikaner im Alter von 18 bis 39 Jahren bis 2012 an. Es ist 2012 nicht mehr polarisiert als es, als Online -Medien 1996 kaum existierten. Die Studie zeigt Unterschiede zwischen den Altersgruppen und wie der Nachrichtenkonsum weiterhin polarisiert ist, da Menschen nach Informationen suchen, die ihre Vorurteile ansprechen. Ältere Amerikaner bleiben normalerweise in ihren politischen Ansichten stagniert, da traditionelle Medien weiterhin eine Hauptquelle für Nachrichten sind, während Online -Medien die führende Quelle für die jüngere Bevölkerungsgruppe sind. Obwohl Algorithmen und Filterblasen die Vielfalt der Inhalte schwächen, zeigt diese Studie, dass politische Polarisationstrends hauptsächlich auf bereits bestehende Ansichten und das Versäumnis, externe Quellen zu erkennen. Eine Studie 2020 aus Deutschland nutzte das Big Five Psychology -Modell, um die Auswirkungen individueller Persönlichkeit, Demografie und Ideologien auf den Nutzernachrichtenverbrauch zu testen.[54] Basis ihrer Studie auf der Vorstellung, dass die Anzahl der Nachrichtenquellen, die Benutzer konsumieren Merkmale (hohe Offenheit) korrelieren positiv mit der Anzahl der von Einzelpersonen konsumierten Nachrichtenquellen. Die Studie fand auch einen negativen ideologischen Zusammenhang zwischen der Medienvielfalt und dem Grad, in dem Benutzer mit dem rechtsgerichteten Autoritarismus übereinstimmen. Diese Studie stellt nicht nur verschiedene individuelle Benutzerfaktoren an, die die Rolle der Benutzerauswahl beeinflussen können, sondern wirft auch Fragen und Assoziationen zwischen der Wahrscheinlichkeit auf, dass Benutzer in Filterblasen und Benutzungsverhalten gefangen werden.[54]

Die Facebook -Studie ergab, dass es "nicht schlüssig" war, ob der Algorithmus eine ebenso große Rolle bei der Filterung spielte oder nicht Newsfeeds wie die Leute annahm.[55] Die Studie ergab auch, dass "individuelle Wahl" oder Bestätigungsverzerrung ebenfalls beeinträchtigt wurde, was aus den Newsfeeds herausgefiltert wird.[55] Einige Sozialwissenschaftler kritisierten diese Schlussfolgerung jedoch, da der Punkt, gegen die Filterblase zu protestieren, darin besteht, dass die Algorithmen und die individuelle Wahl zusammenarbeiten, um News -Feeds herauszufiltern.[56] Sie kritisierten auch die kleine Stichprobengröße von Facebook, die ungefähr "9% der tatsächlichen Facebook -Nutzer" beträgt, und die Tatsache, dass die Studienergebnisse "nicht reproduzierbar" sind, da die Studie von "Facebook -Wissenschaftlern" durchgeführt wurde, die Zugang zu Zugang hatten Daten, die Facebook für externe Forscher nicht zur Verfügung stellen.[57]

Die Studie ergab jedoch, dass Julia Kaman nur etwa 15–20% der Facebook -Freunde des durchschnittlichen Benutzerfreundes auf die gegenüberliegende Seite des politischen Spektrums abonnieren, von Vox theoretisierte, dass dies potenziell positive Auswirkungen auf die Viewpoint -Vielfalt haben könnte. Diese "Freunde" sind oft Bekannte, mit denen wir unsere Politik ohne das Internet wahrscheinlich nicht teilen würden. Facebook kann eine einzigartige Umgebung fördern, in der ein Benutzer von diesen "zweiten" Freunden veröffentlicht oder mit Inhalten interagiert. Die Studie ergab, dass "24 Prozent der Nachrichten, die Liberale sahen, konservativ und 38 Prozent der Nachrichten konservativ waren, waren liberal."[58] "Liberale sind in der Regel mit weniger Freunden verbunden, die Informationen von der anderen Seite im Vergleich zu ihren konservativen Kollegen teilen."[59] Dieses Zusammenspiel kann verschiedene Informationen und Quellen bereitstellen, die die Ansichten der Benutzer moderieren könnten.

In ähnlicher Weise eine Studie von TwitterFilterblasen blasen durch New Yorker Universität Zu dem Schluss, dass "Einzelpersonen jetzt Zugang zu einer größeren Zeitspanne von Standpunkten zu Nachrichtenereignissen haben und die meisten dieser Informationen nicht durch die traditionellen Kanäle, sondern entweder direkt von politischen Akteuren oder durch ihre Freunde und Verwandten kommen. Darüber hinaus die interaktive Natur von interaktiv sozialen Medien schafft Möglichkeiten für Einzelpersonen, mit ihren Kollegen politische Ereignisse zu diskutieren, einschließlich derer, mit denen sie schwache soziale Bindungen haben. "[60] Nach diesen Studien können soziale Medien Informationen und Meinungen diversifizieren, mit denen Benutzer in Kontakt kommen, obwohl es viele Spekulationen über Filterblasen und ihre Fähigkeit gibt, tiefer zu erstellen politische Polarisation.

Ein Treiber und eine mögliche Lösung für das Problem ist die Rolle von Emotionen in Online -Inhalten. Eine Studie aus dem Jahr 2018 zeigt, dass unterschiedliche Emotionen von Nachrichten zu Polarisation oder Konvergenz führen können: Freude ist in der emotionalen Polarisation weit verbreitet, während Traurigkeit und Angst bei der emotionalen Konvergenz eine erhebliche Rolle spielen.[61] Da es relativ einfach ist, den emotionalen Inhalt von Nachrichten zu erkennen, können diese Ergebnisse dazu beitragen, sozial verantwortlichere Algorithmen zu entwerfen, indem sie sich auf den emotionalen Inhalt algorithmischer Empfehlungen konzentrieren.

Visualisierung des Prozesses und des Wachstums von zwei in 2019 verwendeten Social -Media -Bots Weibo lernen. Die Diagramme repräsentieren laut Studie zwei Aspekte der Struktur der Filterblasen: große Konzentrationen von Benutzern auf einzelne Themen und eine unisch-direkte, sternähnliche Struktur, die sich auf die wichtigsten Informationsströme auswirkt.

Soziale Bots wurden von verschiedenen Forschern verwendet, um Polarisation und verwandte Effekte zu testen, die Filterblasen und Echokammern zugeordnet sind.[62][63] In einer Studie aus dem Jahr 2018 wurden soziale Bots auf Twitter verwendet, um die gezielte Benutzerin gegenüber parteipolitischen Standpunkten zu testen.[62] In der Studie wurde behauptet, sie habe parteipolitische Unterschiede zwischen der Exposition gegenüber unterschiedlichen Ansichten gezeigt, obwohl es warnte, dass die Ergebnisse auf amerikanische Twitter-Nutzer von Parteien beschränkt sein sollten. Einer der Hauptbefunde war, dass sich selbstregistrierte Republikaner nach Exposition gegenüber unterschiedlichen Ansichten (von den Bots) konservativer wurden, während selbstregistrierte Liberale weniger ideologische Veränderungen zeigten, wenn überhaupt keine. Eine andere Studie als die Volksrepublik China nutzte soziale Bots auf Weibo- Die größte Social -Media -Plattform in China -, um die Struktur von Filterblasen in Bezug auf ihre Auswirkungen auf die Polarisation zu untersuchen.[63] Die Studie unterscheidet eine Unterscheidung zwischen zwei Konzepten der Polarisation. Einer ist, wenn Menschen mit ähnlichen Ansichten Gruppen bilden, ähnliche Meinungen teilen und sich von unterschiedlichen Gesichtspunkten (Meinungspolarisation) und das andere blockieren, wenn Menschen nicht auf verschiedene Inhalte und Informationsquellen zugreifen (Informationspolarisierung). Durch die Verwendung sozialer Bots anstelle von menschlichen Freiwilligen und mehr auf Informationspolarisation als auf Meinungsbasis kamen die Forscher zu dem Schluss, dass es zwei wesentliche Elemente einer Filterblase gibt: eine große Konzentration von Benutzern auf ein einzelnes Thema und einen unischleitenden Stern, Stern -ähnliche Struktur, die sich auf die wichtigsten Informationsströme auswirkt.

Im Juni 2018 führte die Plattform Duckduckgo eine Forschungsstudie auf der Google Webbrowser -Plattform durch. Für diese Studie googelten 87 Erwachsene an verschiedenen Orten rund um die kontinentalen Vereinigten Staaten drei Schlüsselwörter genau zur gleichen Zeit: Einwanderung, Waffenkontrolle und Impfungen. Selbst im privaten Browsermodus sahen die meisten Menschen Ergebnisse einzigartig für sie. Google enthielt bestimmte Links für einige, die für andere Teilnehmer nicht enthalten waren, und die Nachrichten und Videos infoboxen zeigten signifikante Variationen. Google hat diese Ergebnisse öffentlich bestritten, dass die Personalisierung der Suchmaschinenergebnisse (SERP) meist ein Mythos ist. Danny Sullivan Danny Sullivan erklärte, dass „im Laufe der Jahre ein Mythos entwickelt wurde, dass die Google -Suche so sehr personalisiert, dass für dieselbe Abfrage verschiedene Personen möglicherweise deutlich unterschiedliche Ergebnisse voneinander erzielen. Dies ist nicht der Fall. Die Ergebnisse können unterschiedlich sein, aber normalerweise aus nicht personalisierten Gründen. “[64]

Wenn Filterblasen vorhanden sind, können sie bestimmte Momente erstellen, die Wissenschaftler "Whoa" -Momente nennen. Ein "Whoa" -Moment ist, wenn ein Artikel, eine Anzeige, ein Post usw. auf Ihrem Computer angezeigt wird, der sich in Bezug auf eine aktuelle Aktion oder die aktuelle Verwendung eines Objekts befindet. Wissenschaftler entdeckten diesen Begriff, nachdem eine junge Frau ihre tägliche Routine ausführte, zu deren Trinken Kaffee gehörte, als sie ihren Computer öffnete und eine Anzeige für die gleiche Kaffeemarke bemerkte, die sie trank. "Setzte sich und öffnete heute Morgen Facebook, während ich meinen Kaffee trank, und dort waren sie zwei Anzeigen für Nespresso. Eine Art "Whoa" -Moment, in dem das von Ihnen trinkende Produkt auf dem Bildschirm vor Ihnen auftaucht. "[65] "Whoa" Momente, in denen Menschen "gefunden" werden. Dies bedeutet, dass Werbealgorithmen auf bestimmte Benutzer anhand ihres "Klickverhaltens" abzielen, um ihre Verkaufseinnahmen zu erhöhen.

Mehrere Designer haben Werkzeuge entwickelt, um den Auswirkungen von Filterblasen entgegenzuwirken (siehe § Gegenmaßnahmen).[66] Schweizer Radiosender Srf stimmte das Wort Filterblase (Die deutsche Übersetzung der Filterblase) Wort des Jahres 2016.[67]

Gegenmaßnahmen

Von Individuen

Im Die Filterblase: Was das Internet vor Ihnen versteckt,[68] Der Internetaktivist Eli Pariser hebt hervor, wie das zunehmende Auftreten von Filterblasen den Wert der eigenen Überbrückung weiter betont Sozialkapital wie von Robert Putman definiert. Während das Bindungskapital einerseits der Schaffung starker Beziehungen zwischen Gleichgesinnten entspricht und so ein Gefühl der sozialen Homogenität verstärkt, steht die Überbrückung des sozialen Kapitals andererseits die Schaffung schwacher Bindungen zwischen Menschen mit potenziell unterschiedlichen Interessen und Standpunkte, wodurch eine deutlich mehr Heterogenität eingeführt wird.[69] In diesem Sinne fördert ein hohes Überbrückungskapital viel häufiger die soziale Eingliederung, indem wir unsere Exposition gegenüber einem Raum erhöhen, in dem wir die Probleme angehen, die unsere Nischen und enge Selbstinteressen überwinden. Die Förderung des Brückenkapitals, beispielsweise durch die Verbindung mit mehr Menschen in einer informellen Umgebung, kann daher ein wirksamer Weg sein, um den Einfluss des Filterblasenphänomens zu verringern.

Benutzer können in der Tat viele Maßnahmen ergreifen, um ihre Filterblasen zu durchbrechen, indem sie sich beispielsweise bewusst bemühen, zu bewerten, an welchen Informationen sie sich selbst aussetzen, und indem sie kritisch darüber nachdenken, ob sie sich mit einer breiten Palette von Inhalten beschäftigen.[70] Diese Ansicht argumentiert, dass Benutzer die Psychologie der Annäherung an Medien ändern sollten, anstatt sich auf Technologie zu verlassen, um ihren Vorurteilen entgegenzuwirken. Benutzer können bewusst Nachrichtenquellen vermeiden, die nicht überprüfbar oder schwach sind. Chris Glushko, VP von Marketing bei IAB, befürwortet Fakten Überprüfung Websites, um gefälschte Nachrichten zu identifizieren.[71] Technologie kann auch eine wertvolle Rolle bei der Bekämpfung von Filterblasen spielen.[72]

Einige zusätzliche Plugins, wie z. B. Medienvoreingänge Faktenprüfung,[73] Ziel, den Menschen zu helfen, aus ihren Filterblasen zu treten und sie auf ihre persönlichen Perspektiven aufmerksam zu machen; So zeigen diese Medien Inhalte, die ihren Überzeugungen und Meinungen widersprechen. Zum Beispiel fordert Flucht Ihrer Blase die Benutzer auf, eine bestimmte politische Partei anzuzeigen, über die sie besser informiert werden möchten.[74] Das Plug-In schlägt dann Artikel aus gut etablierten Quellen vor, um sich auf diese politische Partei zu lesen und die Benutzer zu ermutigen, sich über die andere Partei zu informieren.[74] Zusätzlich zu Plug-Ins gibt es Apps, die erstellt haben, um Benutzer zu ermutigen, ihre Echokammern zu öffnen. Unfundiert.News Bietet eine KI (Künstliche Intelligenz) kuratierte Nachrichten -App für Leser, die ihnen Nachrichten aus verschiedenen und unterschiedlichen Perspektiven präsentieren und ihnen helfen, eine Begründung und eine fundierte Meinung zu bilden, anstatt ihren eigenen Vorurteilen zu erliegen. Die Leser stupsen auch an, verschiedene Perspektiven zu lesen, wenn ihr Lesemuster einer Seite/Ideologie voreingenommen ist.[75][76] Über den Gang lesen ist eine Nachrichten -App, die zeigt, ob Benutzer aus verschiedenen neuen Quellen lesen oder nicht.[77] Jede Quelle ist farben koordiniert und repräsentiert das politische Lehnen jedes Artikels.[77] Wenn Benutzer nur Nachrichten aus einer Perspektive lesen, übermittelt die App dies dem Benutzer und ermutigt die Leser, andere Quellen mit entgegengesetzten Standpunkten zu erkunden.[77] Obwohl Apps und Plug-Ins Tools sind, die Menschen verwenden können, erklärte Eli Pariser: "Sicherlich gibt es hier eine individuelle Verantwortung, um wirklich nach neuen Quellen und Menschen zu suchen, die nicht wie Sie sind."[49]

Da webbasierte Werbung die Wirkung der Filterblasen fördern kann, indem sie Benutzer mehr des gleichen Inhalts aussetzen, können Benutzer viel Werbung blockieren, indem sie ihren Suchverlauf löschen, gezielte Anzeigen ausschalten und Browser-Erweiterungen herunterladen.[78][79] Erweiterungen wie entkommen Ihrer Blase[80] Für Google Chrome möchten Sie dazu beitragen, Inhalte zu kuratieren und zu verhindern, dass Benutzer nur voreingenommene Informationen ausgesetzt werden, während Mozilla Firefox -Erweiterungen wie Lightbeam[81] und selbstzerstörende Kekse[82] Ermöglichen Sie den Benutzern, sich zu visualisieren, wie ihre Daten verfolgt werden Kekse. Einige verwenden anonyme oder nicht personalisierte Suchmaschinen wie z. Yacy, Duckduckgo, Qwant, Startpage.com, Trennen, und Searx Um zu verhindern, dass Unternehmen ihre Web-Such-Daten sammeln. Schweizer täglich Neue Zürcher Zeitung Ist Beta-Test eine personalisierte Nachrichten-Engine-App, die maschinelles Lernen verwendet, um zu erraten, an welchen Inhalten ein Benutzer interessiert ist, während "immer ein Überraschungselement einbezogen"; Die Idee ist, Geschichten zu mischen, denen ein Benutzer in der Vergangenheit wahrscheinlich nicht verfolgt wurde.[83]

Die Europäische Union ergreift Maßnahmen, um die Wirkung der Filterblase zu verringern. Das Europäisches Parlament Sponentiert Anfragen darüber, wie Filterblasen die Fähigkeit der Menschen beeinflussen, auf verschiedene Nachrichten zuzugreifen.[84] Darüber hinaus wurde ein Programm eingeführt, um die Bürger über soziale Medien aufzuklären.[85] In den USA schlägt das CSCW -Gremium die Verwendung von Nachrichtenaggregator -Apps vor, um die Aufnahme von Nachrichtenverbrauchern in den Bereichen der Medien zu erweitern. Nachrichtenaggregator -Apps scannen alle aktuellen Nachrichtenartikel und lenken Sie zu verschiedenen Standpunkten zu einem bestimmten Thema. Benutzer können auch einen unterschiedlich bewussten Nachrichtenbalancer verwenden, der dem Medienverbraucher visuell zeigt, wenn er sich nach links oder rechts lehnt, wenn es darum geht, die Nachrichten zu lesen, und die rechtsgerichtete mit einer größeren roten Balken oder links mit einer größeren blauen Balken anzeigen. Eine Studie zur Bewertung dieses Nachrichtenbalancer ergab "eine kleine, aber spürbare Veränderung des Leseverhaltens, um eine ausgewogenere Exposition zu erhalten, bei denen Benutzer im Vergleich zu einer Kontrollgruppe das Feedback sehen".[86]

Von Medienunternehmen

In Anbetracht der jüngsten Bedenken hinsichtlich der Informationsfilterung in sozialen Medien bestätigte Facebook die Anwesenheit von Filterblasen und hat Fortschritte gemacht, um sie zu entfernen.[87] Im Januar 2017 entfernte Facebook die Personalisierung von seiner Trend-Themenliste als Reaktion auf Probleme mit einigen Benutzern, die dort keine hochgesprochenen Ereignisse sahen.[88] Die Strategie von Facebook besteht darin, die zugehörige Artikel -Funktionen, die es 2013 implementiert hatte, umzukehren, was verwandte Nachrichten veröffentlichen würde, nachdem der Benutzer einen gemeinsam genutzten Artikel gelesen hatte. Jetzt würde die überarbeitete Strategie diesen Prozess umdrehen und Artikel aus verschiedenen Perspektiven zum gleichen Thema veröffentlichen. Facebook versucht auch, einen Überprüfungsprozess durchzuführen, bei dem nur Artikel aus seriösen Quellen angezeigt werden. Zusammen mit dem Gründer von Craigslist Und einige andere hat Facebook 14 Millionen US -Dollar in Bemühungen investiert, "das Vertrauen in den Journalismus auf der ganzen Welt zu erhöhen und das öffentliche Gespräch besser zu informieren".[87] Die Idee ist, dass selbst wenn Menschen nur Beiträge lesen, die von ihren Freunden geteilt werden, zumindest diese Beiträge glaubwürdig sind.

In ähnlicher Weise hat Google ab dem 30. Januar 2018 auch die Existenz einer Filterblasenschwierigkeiten innerhalb seiner Plattform anerkannt. Da die aktuellen Google -Suchvorgänge algorithmisch bewertete Ergebnisse basierend auf "Autoritativität" und "Relevanz", die bestimmte Suchergebnisse anzeigen und verbergen, basieren, versucht Google, dies zu bekämpfen. Durch Schulung seiner Suchmaschine, um das zu erkennen Absicht von einer Suchanfrage und nicht der wörtlichen Syntax der Frage versucht Google, die Größe der Filterblasen zu begrenzen. Ab sofort wird die Anfangsphase dieses Trainings im zweiten Quartal 2018 eingeführt. Fragen, die Verzerrungen und/oder kontroverse Meinungen beinhalten Handelt entweder als Schiedsrichter der Wahrheit oder als sachkundiger Leitfaden, nach dem Entscheidungen getroffen werden können.[89]

Im April 2017 tauchten Nachrichten auf, dass Facebook, Mozillaund Craigslist trug zur Mehrheit einer Spende von 14 Millionen US -Dollar an bei Cuny'S "News Integrity Initiative", die darauf abzielt, gefälschte Nachrichten zu eliminieren und ehrlichere Nachrichtenmedien zu erstellen.[90]

Später im August Mozilla, Hersteller der Feuerfuchs Webbrowser kündigte die Bildung der Mozilla Information Trust Initiative (MITI) an. Das +MITI würde als kollektive Anstrengung zur Entwicklung von Produkten, Forschung und gemeindenahen Lösungen zur Bekämpfung der Auswirkungen von Filterblasen und der Verbreitung gefälschter Nachrichten dienen. Das Open Innovation Team von Mozilla leitet die Initiative und bemüht sich, Fehlinformationen zu bekämpfen, wobei der Schwerpunkt auf dem Produkt in Bezug auf Alphabetisierung, Forschung und kreative Interventionen liegt.[91]

Ethische Implikationen

Als Popularität von Cloud-Services Erhöht, personalisiert Algorithmen Es wird erwartet, dass Filterblasen verbreitet werden.[92] Wissenschaftler haben begonnen, die Auswirkung von Filterblasen auf die Benutzer von zu berücksichtigen sozialen Medien von einem Ethischer Standpunktbesonders in Bezug auf die Bereiche von persönliche Freiheit, Sicherheit, und Informationsverzerrung.[93] Filterblasen in beliebten sozialen Medien und personalisierten Suchwebsites können den jeweiligen Inhalt der Benutzer bestimmen, häufig ohne ihre direkte Zustimmung oder Erkenntnis.[92] Aufgrund der Algorithmen, mit denen dieser Inhalt kuratiert wird. Selbst erstellte Inhalte, die sich aus Verhaltensmustern manifestieren, können zu teilweise Informationsblindheit führen.[94] Kritiker der Verwendung von Filterbubbles spekulieren, dass Einzelpersonen die Autonomie über ihre eigenen sozialen Medienerfahrungen verlieren und ihre Identitäten aufgrund der Verbreitung von Filterblasen sozial konstruiert haben.[92]

Technologen, Social -Media -Ingenieure und Computerspezialisten haben auch die Prävalenz von Filterblasen untersucht.[95] Mark Zuckerberg, Gründer von Facebook und Eli Pariser, Autor von Die Filterblase, haben Bedenken hinsichtlich der Risiken von Datenschutz und Informationspolarisierung geäußert.[96][97] Die Informationen der Benutzer von personalisierten Suchmaschinen und Social -Media -Plattformen sind nicht privat, obwohl einige Leute glauben, dass dies der Fall sein sollte.[96] Die Besorgnis über die Privatsphäre hat zu einer Debatte geführt, ob es für Informationstechnologen moralisch ist, die Online -Aktivität der Benutzer zu übernehmen und zukünftige Exposition gegenüber verwandten Informationen zu manipulieren.[97]

Einige Wissenschaftler haben Bedenken hinsichtlich der Auswirkungen von Filterblasen auf das individuelle und soziale Wohlbefinden geäußert, d. H. Die Verbreitung von Gesundheitsinformationen an die Öffentlichkeit und die potenziellen Auswirkungen von Internet-Suchmaschinen zur Veränderung des gesundheitsbezogenen Verhaltens.[15][16][17][98] Ein multidisziplinäres Buch aus dem Jahr 2019 berichtete über Forschung und Perspektiven zu den Rollenfilterblasen, die in Bezug auf gesundheitliche Fehlinformationen spielen.[17] Aus Zeichnen von verschiedenen Bereichen wie Journalismus, Recht, Medizin und Gesundheitspsychologie befasst sich das Buch mit unterschiedlichen kontroversen Gesundheitsüberzeugungen (z. B. alternative Medizin und Pseudowissenschaften) sowie mögliche Recht Diskurs. Eine Studie aus dem Jahr 2016 über die potenziellen Auswirkungen von Filterblasen auf Suchmaschinenergebnisse im Zusammenhang mit Selbstmord ergab, dass Algorithmen eine wichtige Rolle bei der Frage spielen, ob Helplinen und ähnliche Suchergebnisse den Benutzern angezeigt werden, und die Auswirkungen ihrer Forschung auf Gesundheitspolitik erörtert.[16] Eine weitere Studie aus dem kroatischen medizinischen Journal aus dem Jahr 2016 schlug einige Strategien vor, um die potenziell schädlichen Auswirkungen von Filterblasen auf Gesundheitsinformationen zu mildern, z. und mehr Erläuterung der Prozessessuchmaschinen verwenden ihre angezeigten Ergebnisse.[15]

Da der von einzelnen Social -Media -Nutzern beobachtete Inhalt von Algorithmen beeinflusst wird, die Filterblasen produzieren, sind Benutzer von Social -Media -Plattformen anfälliger für Bestätigungsverzerrung,[99] und kann voreingenommenen, irreführenden Informationen ausgesetzt sein.[100] Soziale Sortierung und andere unbeabsichtigte Diskriminierende Praktiken werden auch als Ergebnis einer personalisierten Filterung erwartet.[101]

Im Lichte der US -Präsidentschaftswahlen 2016 Wissenschaftler haben ebenfalls Bedenken hinsichtlich der Auswirkung von Filterblasen auf geäußert Demokratie und demokratische Prozesse sowie der Aufstieg der "ideologischen Medien".[10] Diese Wissenschaftler befürchten, dass Benutzer nicht in der Lage sein werden, "über das RECK-Eigeninteresse hinaus zu denken], da Filterblasen personalisierte soziale Feeds erzeugen und sie aus verschiedenen Gesichtspunkten und ihren umliegenden Gemeinschaften isolieren können.[102] Aus diesem Grund besteht eine zunehmend diskutierte Möglichkeit darin, soziale Medien mit mehr Serendipität zu entwerfen, dh in Inhalten zu empfehlen, die außerhalb der Filterblase liegen, einschließlich herausfordernder politischer Informationen und schließlich, um den Benutzern Filter und Tools zu ermöglichen.[103][104][105] Eine damit verbundene Sorge ist in der Tat, wie Filterblasen zur Verbreitung von "beitragen"Gefälschte Nachrichten"Und wie dies die politische Neigung beeinflussen kann, einschließlich der Abstimmung von Benutzern.[10][106][107]

Enthüllungen im März 2018 von Cambridge AnalyticaDie Ernte und Verwendung von Benutzerdaten für mindestens 87 Millionen Facebook -Profile während der Präsidentschaftswahl 2016 unterstreichen die ethischen Auswirkungen von Filterblasen.[108] Mitbegründer und Whistleblower von Cambridge Analytica Christopher Wylie stellte fest, wie das Unternehmen die Fähigkeit hatte, "psychografische" Profile dieser Benutzer zu entwickeln und die Informationen zu verwenden, um ihr Wahlverhalten zu formen.[109] Der Zugriff auf Benutzerdaten durch Dritte wie Cambridge Analytica kann vorhandene Filterblasen -Benutzer verärgert und verstärken, die vorhandene Verzerrungen künstlich erhöht und Gesellschaften dividieren.

Gefahren

Filterblasen stammen aus einem Anstieg der Medienpersonalisierung, die Benutzer fangen kann. Die Verwendung von KI zur Personalisierung von Angeboten kann dazu führen, dass Benutzer nur Inhalte ansehen, die ihre eigenen Standpunkte verstärken, ohne sie herauszufordern. Social -Media -Websites wie Facebook präsentieren möglicherweise auch Inhalte auf eine Weise, die es den Benutzern schwierig macht, die Quelle des Inhalts zu bestimmen und sie zu entscheiden, ob die Quelle zuverlässig oder gefälscht ist.[110] Dies kann dazu führen, dass sich Menschen daran gewöhnen, zu hören, was sie hören möchten, was dazu führen kann, dass sie radikaler reagieren, wenn sie einen gegnerischen Standpunkt sehen. Die Filterblase kann dazu führen, dass die Person entgegengesetzte Gesichtspunkte als falsch ansieht, und kann es den Medien ermöglichen, den Verbrauchern Ansichten zu erzwingen.[111][110][112]

Untersuchungen erklären, dass die Filterblase verstärkt, was man bereits denkt.[113] Aus diesem Grund ist es äußerst wichtig, Ressourcen zu nutzen, die verschiedene Standpunkte bieten.[113]

Erweiterungen des Konzepts

Das Konzept einer Filterblase wurde in andere Bereiche ausgedehnt, um Gesellschaften zu beschreiben, die sich nach politischen Ansichten, aber auch nach wirtschaftlichen, sozialen und kulturellen Situationen selbst senken.[114] Diese sprudelnde Leistung führt zu einem Verlust der breiteren Gemeinschaft und schafft das Gefühl, dass Kinder beispielsweise nicht zu gesellschaftlichen Ereignissen gehören, es sei denn, diese Ereignisse waren besonders geplant, um Kinder ansprechend zu machen und für Erwachsene ohne Kinder nicht ansprechend zu sein.[114]

Siehe auch

Anmerkungen

  1. ^ Der Begriff Cyber-Balkanisierung (manchmal mit einem Bindestrich) ist eine Mischung von Cyberin Bezug auf das Internet und Balkanisierungunter Bezugnahme auf diese Region Europas, die historisch von Sprachen, Religionen und Kulturen unterteilt wurde; Der Begriff wurde in einem Papier von geprägt von MIT Forscher van Alstyne und Brynjolfsson.

Verweise

  1. ^ Technopädie, Definition - Was bedeutet Filterblase? Archiviert 2017-10-10 bei der Wayback -Maschine, Abgerufen am 10. Oktober 2017, ".... Eine Filterblase ist die intellektuelle Isolation, die auftreten kann, wenn Websites Algorithmen verwenden, um die Informationen, die ein Benutzer sehen möchte, selektiv anzunehmen, und dann dem Benutzer Informationen nach Angaben nach Angaben zu geben. Diese Annahme ... eine Filterblase kann daher dazu führen, dass Benutzer erheblich weniger Kontakt mit widersprüchlichen Gesichtspunkten erhalten, was dazu führt, dass der Benutzer intellektuell isoliert wird .... "
  2. ^ Bozdag, Engin (September 2013). "Tendenz in der algorithmischen Filterung und Personalisierung". Ethik und Informationstechnologie. 15 (3): 209–227. doi:10.1007/s10676-013-9321-6. S2CID 14970635.
  3. ^ Web -Fehler (Slang)
  4. ^ Website -Besucherverfolgung
  5. ^ Huffington Post, Die Huffington Post "Sehen Filterblöcke unsere Gedanken?" Archiviert 2016-11-03 bei der Wayback -Maschine
  6. ^ Encrypt, Search (2019-02-26). "Was sind Filterblasen und wie man sie vermeidet?". Suchen Sie den Verschlüsselungsblog. Archiviert vom Original am 2019-02-25. Abgerufen 2019-03-19.
  7. ^ a b c d e Boutin, Paul (20. Mai 2011). "Ihre Ergebnisse können variieren: Werden sich die Informationen wegen automatisierter Filter in eine Sackgasse in eine Sackgasse verwandeln?". Das Wall Street Journal. Archiviert Aus dem Original am 5. April 2015. Abgerufen 15. August, 2011. Durch die Verfolgung einzelner Webbrowser mit Cookies konnte Google die Ergebnisse auch für Benutzer personalisieren, die kein persönliches Google -Konto erstellen oder nicht in eines angemeldet sind. ...
  8. ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (2012). "Auralist: Einführung von Serendipity in die Musikempfehlung". Proceedings der fünften ACM Internationalen Konferenz über Websuche und Data Mining - WSDM '12: 13. doi:10.1145/2124295.2124300. S2CID 2956587.
  9. ^ "Der Autor der Filterblase darüber, wie gefälschte Nachrichten das Vertrauen in den Journalismus erodieren". Der Verge. 2016-11-16. Archiviert vom Original am 2017-04-19. Abgerufen 2017-04-19.
  10. ^ a b c Baer, ​​Drake. "Die 'Filterblase' erklärt, warum Trump gewonnen hat und du hast es nicht kommen gesehen". Wissenschaft von uns. Archiviert vom Original am 2017-04-19. Abgerufen 2017-04-19.
  11. ^ a b DiFranzo, Dominic; Gloria-Garcia, Kristine (5. April 2017). "Filterblasen und falsche Nachrichten". XRDs. 23 (3): 32–35. doi:10.1145/3055153. S2CID 7069187.
  12. ^ a b Jasper Jackson (8. Januar 2017). "Eli Pariser: Aktivist, dessen Filterblasenwarnungen Trump und Brexit voraussagten: Der Upworthy Chief warnte fünf Jahre vor den Stimmen des Jahres 2016 vor Gefahren der Echokammern des Internets.". Der Wächter. Archiviert Aus dem Original am 7. März 2017. Abgerufen 3. März, 2017. ... "Wenn Sie nur Beiträge von Leuten sehen, die wie Sie sind, werden Sie überrascht sein, wenn jemand ganz anders als Sie die Präsidentschaft gewinnt", sagt Pariser dem Vormund.
  13. ^ Mostafa M. El-Bermawy (18. November 2016). "Ihre Filterblase zerstört Demokratie". Verdrahtet. Archiviert Aus dem Original am 9. März 2017. Abgerufen 3. März, 2017. ... das globale Dorf, das einst das Internet war ... Digitale Isolationsinseln, die jeden Tag weiter auseinander driften ... Ihre Erfahrung online wird immer personalisierter ...
  14. ^ Drake Baer (9. November 2016). "Die 'Filterblase' erklärt, warum Trump gewonnen hat und du hast es nicht kommen gesehen". New York Magazine. Archiviert Aus dem Original am 26. Februar 2017. Abgerufen 3. März, 2017. ... Trumps Sieg ist blind. Weil wir, wie Medienwissenschaftler es verstehen, zunehmend in einer "Filterblase" leben: Die Informationen, die wir aufnehmen, sind so personalisiert, dass wir für andere Perspektiven blind sind.
  15. ^ a b c Holone, Harald (Juni 2016). "Die Filterblase und ihre Auswirkungen auf die persönlichen Gesundheitsinformationen online". Kroatisches medizinisches Journal. 57 (3): 298–301. doi:10.3325/cmj.2016.57.298. PMC 4937233. PMID 27374832.
  16. ^ a b c Haim, Mario; Arendt, Florian; Scherr, Sebastian (Februar 2017). "Abyss oder Unterkunft? Über die Relevanz der Suchergebnisse der Web -Suchmaschinen, wenn Personen nach Selbstmord googeln". Gesundheitskommunikation. 32 (2): 253–258. doi:10.1080/10410236.2015.1113484. PMID 27196394. S2CID 3399012.
  17. ^ a b c "Medizinische Fehlinformationen und soziale Schäden in nichtwissenschaftlichen Gesundheitspraktiken: Eine multidisziplinäre Perspektive". CRC Press. Archiviert vom Original am 2020-08-04. Abgerufen 2020-04-22.
  18. ^ Kevin J. Delaney (21. Februar 2017). "Filterblasen sind ein ernstes Problem mit Nachrichten, sagt Bill Gates". Quarz. Archiviert Aus dem Original am 4. März 2017. Abgerufen 3. März, 2017. ... Gates ist eine von einer wachsenden Anzahl von Technologieführern, die mit dem Thema Filterblasen, ...
  19. ^ a b c Parramore, Lynn (10. Oktober 2010). "Die Filterblase". Der Atlantik. Archiviert vom Original am 22. August 2017. Abgerufen 20. April, 2011. Seit dem 4. Dezember 2009 ist Google für alle personalisiert. Als ich in diesem Frühjahr Google "BP" zwei Freunde hatte, bekam einer von ihnen eine Reihe von Links, bei denen es um Investitionsmöglichkeiten in BP ging. Der andere erhielt Informationen über die Ölpest ....
  20. ^ a b c d e f g h Weisberg, Jacob (10. Juni 2011). "Bubble Trouble: Wendet uns die Web -Personalisierung in solipsistische Twits?". Schiefer. Archiviert Aus dem Original am 12. Juni 2011. Abgerufen 15. August, 2011.
  21. ^ a b c Gross, Doug (19. Mai 2011). "Was das Internet vor dir versteckt". CNN. Archiviert Aus dem Original am 9. April 2016. Abgerufen 15. August, 2011. Ich hatte Freunde Google BP, als die Ölverschmutzung stattfand. Dies sind zwei Frauen, die in vielerlei Hinsicht ziemlich ähnlich waren. Man erzielte viele Ergebnisse zu den Umweltkonsequenzen des Geschehens und der Verschüttung. Der andere hat gerade Investitionsinformationen und überhaupt nichts über die Verschüttung.
  22. ^ a b c Lazar, Shira (1. Juni 2011). "Algorithmen und die Filterblase ruinieren Ihre Online -Erfahrung?". Huffington Post. Archiviert vom Original am 13. April 2016. Abgerufen 15. August, 2011. Eine Filterblase ist die figurative Sphäre, die Sie umgibt, wenn Sie im Internet suchen.
  23. ^ Pariser, Eli (2011-05-12). Die Filterblase: Wie das neue personalisierte Web verändert, was wir lesen und wie wir denken. Pinguin. ISBN 9781101515129. Archiviert vom Original am 2021-01-19. Abgerufen 2020-10-11.
  24. ^ "Wie Filterblasen die Realität verzerren: Alles, was Sie wissen müssen". 2017-07-31. Archiviert vom Original am 2019-07-03. Abgerufen 2019-06-23.
  25. ^ Nikolov, Dimitar; Oliveira, Diego F.M.; Flammini, Alessandro; Menczer, Filippo (2. Dezember 2015). "Messung von Online -sozialen Blasen". Peerj Informatik. 1: e38. Arxiv:1502.07162. Bibcode:2015ArXIV150207162n. doi:10.7717/peerj-cs.38.
  26. ^ Pariser, Eli (März 2011). "Achten Sie auf Online" Filterblasen "". Archiviert vom Original am 2018-05-28. Abgerufen 2018-05-30.
  27. ^ SDF (2004-06-23). "John Gorenfeld, Moon the Messias und die Medien -Echo -Kammer". Tägliche Kos. Archiviert vom Original am 2016-05-02. Abgerufen 2017-09-24.
  28. ^ Jamieson, Kathleen Hall; Cappella, Joseph N. (2008-07-22). Echokammer: Rush Limbaugh und das konservative Medienbetrieb. Oxford University Press. ISBN 978-0-19-536682-2. Abgerufen 2017-09-24.
  29. ^ Hosanagar, Kartik (2016-11-25). "Schuld an der Echo -Kammer auf Facebook. Aber beschuldige dich auch.". Verdrahtet. Archiviert vom Original am 2017-09-25. Abgerufen 2017-09-24.
  30. ^ Difonzo, Nicholas (2011-04-21). "Der Echokamber-Effekt". Die New York Times. Archiviert vom Original am 2017-06-13. Abgerufen 2017-09-24.
  31. ^ Pariser, Eli (März 2011). "Achten Sie auf Online 'Filter Bubbles'". Ted.com. Archiviert vom Original am 2017-09-22. Abgerufen 2017-09-24.
  32. ^ "Erster Montag: Was ist in diesem Monat im Fernsehen und in Filmen und Büchern auf Tap. Die Filterblase von Eli Pariser". USA heute. 2011. Archiviert vom Original am 2011-05-03. Abgerufen 20. April, 2011. Pariser erklärt, dass das Füttern von uns nur das, was uns vertraut und bequem für uns ist, zu neuen Ideen, Themen und wichtigen Informationen abschließt.
  33. ^ a b Bosker, Bianca (7. März 2011). "Facebook, Google gibt uns Informationen Junk Food, Eli Pariser warnt". Huffington Post. Archiviert Aus dem Original am 13. März 2011. Abgerufen 20. April, 2011. Wenn es um Inhalte geht, bieten Google und Facebook uns zu viel Süßigkeiten und nicht genug Karotten.
  34. ^ "Unsichtbares Sieb: versteckt, speziell für Sie". Der Ökonom. 30. Juni 2011. Archiviert Aus dem Original am 3. Juli 2011. Abgerufen 27. Juni, 2011. Das Buch von Herrn Pariser bietet eine Übersicht über die Entwicklung des Internets zur Personalisierung und untersucht, wie das Präsentieren von Informationen die Art und Weise verändert, wie es wahrgenommen wird, und schließt mit Vorschriften für das Platzen der Filterblase, die jeden Benutzer umgibt.
  35. ^ a b Hern (2017-05-22). "Wie Social -Media -Filterblasen und Algorithmen die Wahl beeinflussen". Der Wächter. Archiviert vom Original am 2018-05-31. Abgerufen 2018-05-30.
  36. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (März 1997) [Copyright 1996]. "Elektronische Gemeinschaften: globales Dorf oder Cyberbalkan?" (PDF). Archiviert (PDF) vom Original am 2016-04-05. Abgerufen 2017-09-24.
  37. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). "Könnte das Internet die Wissenschaft balkanisieren?". Wissenschaft. 274 (5292): 1479–1480. Bibcode:1996Sci ... 274.1479v. doi:10.1126/science.274.5292.1479. S2CID 62546078.
  38. ^ Alex Pham; Jon Healey (24. September 2005). "Systeme hoffen, Ihnen zu sagen, was Sie möchten: 'Preference Engines' Benutzer durch die Flut des Inhalts führen.". Chicago Tribune. Archiviert Aus dem Original am 8. Dezember 2015. Abgerufen 4. Dezember, 2015. ... Wenn Empfehlungen perfekt waren, kann ich die Möglichkeit haben, nur mit Menschen zu sprechen, die genau wie ich sind ... Cyber-Balkanisierung, wie Brynjolfsson das Szenario geprägt hat, ist kein unvermeidlicher Effekt von Empfehlungswerkzeugen.
  39. ^ Elanor Colleoni; Alessandro Rozza; Adam Arvidsson (April 2014). "Echokammer oder öffentliche Sphäre? Vorhersage der politischen Orientierung und Messung der politischen Homophilie in Twitter mit Big Data". Journal of Communication. 64 (2): 317–332. doi:10.1111/jcom.12084. HDL:10281/66011.
  40. ^ Obama, Barack (10. Januar 2017). Abschiedsrede von Präsident Obama (Rede). Washington, D.C. Archiviert Aus dem Original am 24. Januar 2017. Abgerufen 24. Januar 2017.
  41. ^ Grankvist, per (2018-02-08). Die große Blase: Wie Technologie es schwieriger macht, die Welt zu verstehen. United Stories Publishing. p. 179. ISBN 978-91-639-5990-5.
  42. ^ a b Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (Dezember 2013). "Wird das globale Dorf in Stämme eingebrochen: Empfehlungssysteme und ihre Auswirkungen auf die Verbraucher". Management Science, bevor. SSRN 1321962.
  43. ^ Ludwig, Amber. "Google -Personalisierung in Ihren Suchergebnissen plus, wie Sie sie ausschalten". Ngng. Archiviert von das Original am 17. August 2011. Abgerufen 15. August, 2011. Google Customizing Suchergebnisse ist eine automatische Funktion, aber Sie können diese Funktion ausschalten.
  44. ^ Bruns, Axel (29. November 2019). "Filterblase". Überprüfung der Internetrichtlinien. 8 (4). doi:10.14763/2019.4.1426.
  45. ^ Davies, Huw C (September 2018). "Filterblasen neu definieren als (flüchtige) sozio-technische Rekursion". Soziologische Forschung online. 23 (3): 637–654. doi:10.1177/1360780418763824. S2CID 149367030. Archiviert vom Original am 2021-01-19. Abgerufen 2020-08-29.
  46. ^ Dahlgren, Peter M. (29. Januar 2021). "Eine kritische Überprüfung der Filterblasen und einen Vergleich mit selektiver Exposition". Nordicom Review. 42 (1): 15–33. doi:10.2478/NOR-2021-0002.
  47. ^ Flaxman, Seth; Goel, Sharad; Rao, Justin M. (2016). "Filterblasen, Echokammern und Online -Nachrichtenkonsum". Öffentliche Meinung vierteljährlich. 80 (S1): 298–320. doi:10.1093/poq/nfw006. S2CID 2386849.
  48. ^ Chitra, Uthsav; Musco, Christopher (2020). "Analyse der Auswirkungen von Filterblasen auf die Polarisation des sozialen Netzwerks". WSDM '20: Verfahren der 13. Internationalen Konferenz über Websuche und Data Mining. S. 115–123. doi:10.1145/3336191.3371825.
  49. ^ a b "5 Fragen mit Eli Pariser, Autor von 'The Filter Bubble'". Zeit. 16. Mai 2011. Archiviert Aus dem Original am 14. April 2017. Abgerufen 24. Mai 2017.
  50. ^ a b c d e BLEIBERG, JOSHUA; West, Darrell M. (2017-05-24). "Politische Polarisierung auf Facebook". Brookings Institution. Archiviert vom Original am 2017-10-10. Abgerufen 2017-05-24.
  51. ^ Bakshy, E.; Messing, S.; Adamic, L. A. (5. Juni 2015). "Exposition gegenüber ideologisch vielfältigen Nachrichten und Meinung auf Facebook". Wissenschaft. 348 (6239): 1130–1132. Bibcode:2015Sci ... 348.1130b. doi:10.1126/science.aaa1160. PMID 25953820. S2CID 206632821.
  52. ^ Lumb (2015-05-08). "Warum Wissenschaftler über die Facebook -Filterblasenstudie verärgert sind". Archiviert vom Original am 2017-11-11. Abgerufen 2017-11-10.
  53. ^ Oremus, Will (5. April 2017). "Die Filterblase überarbeitet". Slate Magazine. Archiviert vom Original am 6. Februar 2020. Abgerufen 2. März, 2020.
  54. ^ a b Sindermann, Cornelia; Elhai, Jon D.; Moshagen, Morten; Montag, Christian (Januar 2020). "Alter, Geschlecht, Persönlichkeit, ideologische Einstellungen und individuelle Unterschiede im Nachrichtenspektrum einer Person: Wie viele und wer könnte anfällig für" Filterblasen "und" Echo Chambers "online neigen?". Heliyon. 6 (1): e03214. doi:10.1016/j.heliyon.2020.e03214. PMC 7002846. PMID 32051860.
  55. ^ a b Pariser, Eli (7. Mai 2015). "Unterhaltsame Fakten aus der neuen Facebook -Filterblasenstudie". Mittel. Archiviert Aus dem Original am 11. November 2017. Abgerufen 24. Oktober, 2017.
  56. ^ Lumb, David (8. Mai 2015). "Warum Wissenschaftler über die Facebook -Filterblasenstudie verärgert sind". Schnelle Firma. Archiviert Aus dem Original am 23. Oktober 2017. Abgerufen 24. Oktober, 2017.
  57. ^ Pariser, Eli (7. Mai 2015). "Hat Facebooks Big Study meine Filterblasenarbeit getötet?". Verdrahtet. Archiviert Aus dem Original am 11. November 2017. Abgerufen 24. Oktober, 2017.
  58. ^ "Im Gegensatz zu dem, was Sie gehört haben, kann Facebook dazu beitragen, unsere politischen" Blasen "zu durchspannen.". Vox. Archiviert vom Original am 2018-06-13. Abgerufen 2018-05-30.
  59. ^ Bakshy, E.; Messing, S.; Adamic, L. A. (2015). "Exposition gegenüber ideologisch vielfältigen Nachrichten und Meinung auf Facebook". Wissenschaft. 348 (6239): 1130–1132. Bibcode:2015Sci ... 348.1130b. doi:10.1126/science.aaa1160. PMID 25953820. S2CID 206632821.
  60. ^ Barberá, Pabló (August 2015). "Wie soziale Medien die politische Polarisierung der Massen reduzieren. Beweise aus Deutschland, Spanien und den USA". Wallstreet Journal. Citeseerx 10.1.1.658.5476.
  61. ^ M. Hilbert, S. Ahmed, J. Cho, B. Liu & J. Luu (2018). Kommunikation mit Algorithmen: Eine Transfer-Entropie-Analyse von emotionsbasierten Flüchtlingen aus Online-Echokammern. Kommunikationsmethoden und -messungen, 12 (4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Archiviert 2021-01-19 am Wayback -Maschine; https://www.martinhilbert.net/communicating-with-algorithms/ Archiviert 2019-05-09 bei der Wayback -Maschine
  62. ^ a b Kaution, Christopher; Argyle, Lisa; Brown, Taylor; Chen, Haohan; Hunzaker, M.B.F.; Lee, Jaemin (2018). "Die Exposition gegenüber gegnerischen Ansichten in den sozialen Medien kann die politische Polarisation erhöhen" (PDF). Verfahren der National Academy of Sciences. 115 (37): 9216–9221. doi:10.1073/pnas.1804840115. PMC 6140520. PMID 30154168. Archiviert (PDF) vom Original am 2020-04-10. Abgerufen 2020-04-22.
  63. ^ a b Min, Yong; Jiang, Tingjun; Jin, Cheng; Li, qu; Jin, Xiaogang (2019). "Endogenetische Struktur der Filterblase in sozialen Netzwerken". Royal Society Open Science. 6 (11): 190868. Arxiv:1907.02703. Bibcode:2019rsos .... 690868m. doi:10.1098/rsos.190868. PMC 6894573. PMID 31827834.
  64. ^ Statt, Nick (2018-12-04). "Google personalisiert die Suchergebnisse auch dann, wenn Sie angemeldet sind, neue Studienansprüche". Der Verge. Archiviert vom Original am 2020-07-31. Abgerufen 2020-04-22.
  65. ^ Bucher, Taina (25. Februar 2016). "Die algorithmische Imagination: Erforschung der gewöhnlichen Auswirkungen von Facebook -Algorithmen". Information, Kommunikation & Gesellschaft. 20 - über Taylor & Francis online.
  66. ^ "Wie brechen wir die Filterblase und das Design für Demokratie?". 3. März 2017. Archiviert Aus dem Original am 3. März 2017. Abgerufen 3. März, 2017.
  67. ^ ""Filterblase" ist Das Wort des Jahres 2016 ". 7. Dezember 2016. Archiviert vom Original am 20. Dezember 2016. Abgerufen 27. Dezember, 2016.
  68. ^ Eli Pariser (Mai 2011). Die Filterblase: Was das Internet vor Ihnen versteckt. New York: Penguin Press. p.17. ISBN 978-1-59420-300-8.
  69. ^ Stephen Baron; John Field; Tom Schuller (30. November 2000). "Sozialkapital: Eine Überprüfung und Kritik.". Sozialkapital: Kritische Perspektiven. Oxford University Press. ISBN 9780199243679.
  70. ^ "Sind wir in Filterblasen festgefahren? Hier sind fünf potenzielle Pfade draußen". Nieman Lab. Archiviert vom Original am 2017-03-04. Abgerufen 2017-03-03.
  71. ^ Glushko, Chris (2017-02-08). "Pop die Personalisierungsfilterblasen und bewahren Sie die Online -Vielfalt auf.". Marketingland. Archiviert vom Original am 2017-03-15. Abgerufen 22. Mai 2017.
  72. ^ Ritholtz, Barry. "Versuchen Sie, Ihre Medienfilterblase zu brechen.". Bloomberg. Archiviert vom Original am 2017-08-21. Abgerufen 22. Mai 2017.
  73. ^ "Offizielle Medienvoreingänge Faktenkontroll -Symbol". Chrome.google.com. Archiviert vom Original am 2020-03-13. Abgerufen 2020-04-30.
  74. ^ a b "Seien Sie mehr andere an - escapeyourbubble". EscapeyOurBubble.com. Archiviert vom Original am 2017-05-19. Abgerufen 2017-05-24.
  75. ^ "KI trifft Nachrichten". unfundiert.News. Archiviert vom Original am 2018-06-11. Abgerufen 2018-06-12.
  76. ^ "Echokammern, Algorithmen und Start-ups". Livemint. Archiviert vom Original am 2018-10-02. Abgerufen 2018-06-12.
  77. ^ a b c "Eine Nachrichten -App zielt darauf ab, Filterblasen zu platzen, indem die Leser zu einer" ausgewogeneren "Mediendiät" stupsen. Nieman Lab. Archiviert vom Original am 2017-05-15. Abgerufen 2017-05-24.
  78. ^ "Ublock -Ursprung - Ein effizienter Blocker für Chrom und Firefox. Schnell und schlank". GitHub. 2018-11-14. Archiviert vom Original am 2017-02-25. Abgerufen 2017-03-03.
  79. ^ "Privatsphäre Dachs". 2018-07-10. Archiviert vom Original am 2015-07-26. Abgerufen 2017-03-03.
  80. ^ "Wen willst du es besser wissen?". Entkomme deiner Blase. Archiviert vom Original am 2017-03-04. Abgerufen 2017-03-03.
  81. ^ "Glanz ein Licht in Bezug auf wer dich beobachtet". Lichtstrahl. Archiviert vom Original am 2017-03-04. Abgerufen 2017-03-03.
  82. ^ "Selbstzerstörende Kekse". Add-Ons. Archiviert vom Original am 2017-03-13. Abgerufen 2017-03-03.
  83. ^ Mădălina Ciobanu (3. März 2017). "NZZ entwickelt eine App, die den Lesern personalisierte Nachrichten gibt, ohne eine Filterblase zu erstellen: Die App gibt maschinelles Lernen, um den Lesern einen Strom von 25 Geschichten zu geben, an denen sie sich möglicherweise basierend auf ihren Vorlieben interessieren, aber" immer ein Überraschungselement enthalten ", aber ein Element der Überraschung", aber "immer ein überraschendes Element", das sie möglicherweise interessiert, an denen sie interessiert sein könnten, gibt es ein Stream von 25 Geschichten.". Journalism.co.uk. Archiviert Aus dem Original am 3. März 2017. Abgerufen 3. März, 2017. ... Wenn jemand auf seiner Verbrauchshistorie nicht Interesse am Sport bekundet hat, wird sein Stream Neuigkeiten über große, wichtige Geschichten im Zusammenhang mit Sport enthalten, ...
  84. ^ Catalina Albeanu (17. November 2016). "Nach den US -Wahl die Filterblase platzen: Ist die Medien zum Scheitern verurteilt? Bei einem Ereignis in Brüssel diese Woche diskutierten Medien und Politiker Echokammern in den sozialen Medien und den Kampf gegen falsche Nachrichten". Journalism.co.uk. Archiviert Aus dem Original am 10. März 2017. Abgerufen 3. März, 2017. ... EU -Referendum in Großbritannien auf einem Gremium der "Politiker in einem Kommunikationssturm" -Event ... zusätzlich in der Filterblase servierte Partisan -Facebook -Seiten auch eine Diät in gefälschten Nachrichten.
  85. ^ "Europäische Kommission". Archiviert vom Original am 2017-03-04. Abgerufen 2017-03-03.
  86. ^ Resnick, Paul; Garrett, R. Kelly; Kriplan, Travis; Munson, Sean A.; Stroud, Natalie Jomini (2013). "Die Blase (Filter) platzen". Proceedings der Konferenz 2013 über Computer unterstützte kooperative Arbeitsbegleiter - CSCW '13. p. 95. doi:10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID 20865375.
  87. ^ a b Vanian, Jonathan (2017-04-25). "Facebook testet verwandte Artikel, um Filterblasen zu bekämpfen". Fortune.com. Archiviert vom Original am 2017-09-25. Abgerufen 2017-09-24.
  88. ^ Sydell, Laura (25. Januar 2017). "Facebook optimiert seinen Algorithmus" Trendthemen ", um echte Nachrichten besser widerzuspiegeln". KQED Public Media. NPR. Archiviert Aus dem Original am 26. Februar 2018. Abgerufen 5. April 2018.
  89. ^ Hao, Karen. "Google gibt endlich zu, dass es ein Filter-Bubble-Problem hat". Quarz. Archiviert vom Original am 2018-05-04. Abgerufen 2018-05-30.
  90. ^ "Facebook, Mozilla und Craigslist Craig Fund gefälschte Nachrichten Feuerwehrmann". Archiviert vom Original am 2018-11-23. Abgerufen 2019-01-14.
  91. ^ "Die Mozilla Information Trust Initiative: Aufbau einer Bewegung zur Online -Bekämpfung von Fehlinformationen". Der Mozilla -Blog. Archiviert vom Original am 2019-01-14. Abgerufen 2019-01-14.
  92. ^ a b c Bozdag, Engin; Timmerman, Job. "Werte in der Filterblasenethik von Personalisierungsalgorithmen im Cloud Computing". Forschungstor. Archiviert vom Original am 14. Dezember 2020. Abgerufen 6. März 2017.
  93. ^ Al-Rodhan, Nayef. "Die vielen ethischen Implikationen aufkommender Technologien". Wissenschaftlicher Amerikaner. Archiviert Aus dem Original am 8. April 2017. Abgerufen 6. März 2017.
  94. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd (16. März 2018). "Ausbruch der Filterblase?". Digitaler Journalismus. 6 (3): 330–343. doi:10.1080/21670811.2017.1338145. S2CID 168906316.
  95. ^ "Die Filterblase wirft wichtige Probleme auf - Sie müssen sie nur selbst herausfiltern.". Rainforest Action Network. Archiviert Aus dem Original am 8. April 2017. Abgerufen 6. März 2017.
  96. ^ a b Sterling, Greg (2017-02-20). "Mark Zuckerbergs Manifest: Wie Facebook die Welt verbinden, gefälschte Nachrichten besiegen und die Filterblase knallen lassen". Marketingland. Archiviert vom Original am 2017-03-08. Abgerufen 6. März 2017.
  97. ^ a b Morozov, Evgeny (2011-06-10). "Ihre eigenen Fakten". Die New York Times. Archiviert vom Original am 2017-03-04. Abgerufen 6. März 2017.
  98. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (12. Dezember 2005). "Vertrauen und Quellen für Gesundheitsinformationen: Die Auswirkungen des Internets und seine Auswirkungen auf die Gesundheitsdienstleister: Ergebnisse der ersten Umfrage zur nationalen Trends der nationalen Trends im Gesundheitswesen". Archiv der Inneren Medizin. 165 (22): 2618–24. doi:10.1001/archinte.165.22.2618. PMID 16344419.
  99. ^ El-Bermawy, Mostafa (2016-11-18). "Ihre Filterblase zerstört Demokratie". Verdrahtet. Archiviert vom Original am 2017-03-09. Abgerufen 6. März 2017.
  100. ^ "Wie man die" Filterblase "platzt, die uns vor gegnerischen Ansichten schützt". MIT Technology Review. Archiviert Aus dem Original am 19. Januar 2021. Abgerufen 6. März 2017.
  101. ^ Borgesius, Frederik; Trilling, Damian; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali (2016-03-31). "Sollten wir uns um Filterblasen sorgen?". Überprüfung der Internetrichtlinien. Archiviert vom Original am 2017-03-20. Abgerufen 6. März 2017.
  102. ^ Pariser, Eli (2011). Die Filterblase: Wie das neue personalisierte Web verändert, was wir lesen und wie wir denken. New York: Penguin Press. ISBN 978-1-59420-300-8.
  103. ^ "Lob von Serendipity". Der Ökonom. 9. März 2017. Archiviert Aus dem Original am 15. Januar 2019. Abgerufen 14. Januar 2019.
  104. ^ Reviglio, Urbano (Juni 2019). "Serendipity als aufstrebendes Designprinzip der Infosphäre: Herausforderungen und Chancen". Ethik und Informationstechnologie. 21 (2): 151–166. doi:10.1007/s10676-018-9496-y. S2CID 57426650.
  105. ^ Harambam, Jaron; Helberger, Natali; Van Hoboken, Joris (28. November 2018). "Demokratisierende algorithmische Nachrichten empfehlen: Wie man die Stimme in einem technologisch gesättigten Medien -Ökosystem materialisiert". Philosophische Transaktionen der Royal Society A: Mathematische, physische und technische Wissenschaften. 376 (2133): 20180088. Bibcode:2018RSPTA.37680088H. doi:10.1098/rsta.2018.0088. PMC 6191663. PMID 30323002.
  106. ^ Herrman, John (24. August 2016). "In Facebooks (völlig verrückt, ungewollt gigantisch, hyperpartisan) politische Medienmaschine". Die New York Times. Archiviert Aus dem Original am 19. Oktober 2017. Abgerufen 24. Oktober, 2017.
  107. ^ Del Vicario, Michela; Bessi, Alessandro; Zollo, Fabiana; Petroni, Fabio; Scala, Antonio; Caldarelli, Guido; Stanley, H. Eugene; Quattrociocchi, Walter (19. Januar 2016). "Die Verbreitung von Fehlinformationen online". Verfahren der National Academy of Sciences. 113 (3): 554–559. Bibcode:2016pnas..113..554d. doi:10.1073/pnas.1517441113. PMC 4725489. PMID 26729863.
  108. ^ Granville, Kevin (19. März 2018). "Facebook und Cambridge Analytica: Was Sie wissen müssen, wenn sich die Fallout erweitert". Die New York Times. Archiviert Aus dem Original am 19. Oktober 2018. Abgerufen 19. Oktober 2018.
  109. ^ Meredith, Sam (10. April 2018). "Facebook-Cambridge Analytica: Eine Zeitleiste des Daten entführten Skandal". CNBC. Archiviert Aus dem Original am 19. Oktober 2018. Abgerufen 19. Oktober 2018.
  110. ^ a b Gross, Michael (Januar 2017). "Die Gefahren einer Welt nach der Wahrheit". Current Biology. 27 (1): R1 - R4. doi:10.1016/j.cub.2016.12.034.
  111. ^ "Wie Filterblasen die Realität verzerren: Alles, was Sie wissen müssen". Farnam Street. 2017-07-31. Archiviert vom Original am 2019-05-20. Abgerufen 2019-05-21.
  112. ^ Dish, The Daily (2010-10-10). "Die Filterblase". Der Atlantik. Archiviert vom Original am 2017-08-22. Abgerufen 2019-05-21.
  113. ^ a b "Archivierte Kopie". Archiviert vom Original am 2020-10-23. Abgerufen 2020-10-22.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  114. ^ a b Menkedick, Sarah (14. Mai 2020). "Warum werden amerikanische Kinder als eine andere Art als Erwachsene behandelt?". Äon. Archiviert vom Original am 2020-05-15. Abgerufen 2020-05-15.

Weitere Lektüre

Externe Links