Bestätigungsverzerrung

Bestätigungsverzerrung ist die Tendenz, Informationen auf eine Weise zu suchen, zu interpretieren, zu fördern und abzurufen, die den eigenen Prior bestätigt oder unterstützt Überzeugungen oder Werte.[1] Menschen zeigen diese Tendenz, wenn sie Informationen auswählen, die ihre Ansichten unterstützen, entgegengesetzte Informationen ignorieren oder wenn sie mehrdeutige Beweise als die Unterstützung ihrer bestehenden Einstellungen interpretieren. Der Effekt ist für die gewünschten Ergebnisse am stärksten emotional Aufgeladene Probleme und für tief verwurzelte Überzeugungen. Die Bestätigungsverzerrung kann nicht beseitigt werden, kann jedoch beispielsweise durch Bildung und Ausbildung in verwaltet werden kritisches Denken Fähigkeiten.

Eine voreingenommene Suche nach Informationen, voreingenommene Interpretation dieser Informationen und voreingenommener Speicherrückruf wurden aufgerufen, um vier spezifische Effekte zu erklären:

  1. Haltung Polarisation (Wenn eine Meinungsverschiedenheit extremer wird, obwohl die verschiedenen Parteien denselben Beweisen ausgesetzt sind)
  2. Glaube Ausdauer (Wenn sich die Überzeugungen anhalten, nachdem die Beweise für sie falsch sind)
  3. das Irrationaler Primat -Effekt (Eine stärkere Abhängigkeit von Informationen, die früh in einer Serie gestoßen sind)
  4. Illusorische Korrelation (Wenn Menschen einen Zusammenhang zwischen zwei Ereignissen oder Situationen fälschlicherweise wahrnehmen).

Eine Reihe von Psychologische Experimente In den 1960er Jahren schlug vor, dass die Menschen voreingenommen sind, ihre bestehenden Überzeugungen zu bestätigen. Spätere Arbeiten interpretierten diese Ergebnisse erneut als Tendenz, Ideen einseitig zu testen, sich auf eine Möglichkeit zu konzentrieren und Alternativen zu ignorieren. Im Allgemeinen zeigen aktuelle Erklärungen für die beobachteten Verzerrungen die begrenzte menschliche Kapazität, um die vollständigen verfügbaren Informationen zu verarbeiten, was dazu führt, dass es zu einer neutralen und wissenschaftlichen Art und Weise führt.

Fehlerhaft Entscheidungen Aufgrund der Bestätigungsverzerrung wurden in politischen, organisatorischen, finanziellen und wissenschaftlichen Kontexten festgestellt. Diese Vorurteile tragen dazu bei Überbewusstsein in persönlichen Überzeugungen und kann Angesichts gegenteiliger Beweise aufrechterhalten oder stärken. Beispielsweise erzeugt die Bestätigungsverzerrung systematische Fehler in der wissenschaftlichen Forschung, basierend auf Induktiver Argumentation (Die allmähliche Anhäufung unterstützender Beweise). In ähnlicher Weise kann ein Polizeidetektiv einen Verdächtigen zu Beginn einer Untersuchung identifizieren, aber dann möglicherweise nur eine Bestätigung als eine Bestätigung der Beweise einholen. Ein Arzt kann sich frühzeitig in einer diagnostischen Sitzung auf eine bestimmte Störung konzentrieren und dann nur nachweisen. Im sozialen Medien, Bestätigungsverzerrung wird durch die Verwendung von verstärkt Filterblasen, oder "algorithmische Bearbeitung", die Einzelpersonen nur Informationen anzeigen, mit denen sie wahrscheinlich zustimmen, während sie entgegengesetzte Ansichten ausschließen.

Definition und Kontext

Bestätigungsverzerrung, ein von englischer Psychologe geprägter Ausdruck Peter Wason, ist die Tendenz der Menschen, Informationen zu bevorzugen, die ihre Überzeugungen oder Werte bestätigt oder stärken, und es ist schwer zu verdrehen, wenn sie einmal bestätigt werden.[2] Bestätigungsverzerrung ist ein Beispiel für a kognitive Verzerrung.

Bestätigungsverzerrung (oder Bestätigungsverzerrung) wurde ebenfalls bezeichnet Myside -Voreingenommenheit.[Anmerkung 1] "Kongenialitätsverzerrung" wurde ebenfalls verwendet.[3]

Bestätigungsverzerrungen sind Auswirkungen in Informationsverarbeitung. Sie unterscheiden sich von dem, was manchmal das genannt wird Verhaltensbestätigungseffekt, Üblicherweise bekannt als sich selbst erfüllende Prophezeiung, in dem die Erwartungen einer Person ihr eigenes Verhalten beeinflussen und das erwartete Ergebnis hervorrufen.[4]

Einige Psychologen beschränken den Begriff "Bestätigungsverzerrung" auf selektive Erfassung von Beweisen, die das stützen, was man bereits glaubt, während er Beweise ignoriert oder ablehnt, die eine andere Schlussfolgerung stützen. Andere wenden den Begriff allgemeiner auf die Tendenz an, die bestehenden Überzeugungen bei der Suche nach Beweisen zu bewahren, zu interpretieren oder ihn aus dem Gedächtnis abzurufen.[5][Anmerkung 2]

Die Bestätigungsverzerrung ist eher auf automatische, unbeabsichtigte Strategien als auf absichtliche Täuschung.[6][7] Die Bestätigungsverzerrung kann nicht vermieden oder beseitigt werden, sondern nur durch Verbesserung von Bildung und kritischen Denkfähigkeiten verwaltet werden.

Die Bestätigungsverzerrung ist ein breites Konstrukt, das eine Reihe möglicher Erklärungen enthält, nämlich: Hypothesenprüfung durch Fälschung, Hypothesentests durch positive Teststrategie und Erklärungen zur Informationsverarbeitung.

Arten von Bestätigungsverzerrungen

Voreingenommene Suche nach Informationen

A drawing of a man sitting on a stool at a writing desk
Die Bestätigungsverzerrung wurde als interner "Ja, Mann" beschrieben, der die Überzeugungen einer Person wie möglich zurückgibt wie Charles Dickens'Charakter Uriah Heep[8]

Experimente haben wiederholt festgestellt, dass Menschen dazu neigen, Hypothesen einseitig zu testen, indem sie nach Beweisen suchen, die mit ihrem Strom übereinstimmen Hypothese.[1]: 177–178[9] Anstatt alle relevanten Beweise zu durchsuchen, fordern sie Fragen, um eine positive Antwort zu erhalten, die ihre Theorie stützt.[10] Sie suchen nach den Konsequenzen, die sie erwarten würden, wenn ihre Hypothese wahr wäre, und nicht das, was passieren würde, wenn sie falsch wären.[10] Zum Beispiel kann jemand, der Ja/Nein -Fragen verwendet, um eine Nummer zu finden, die er vermutet, die Nummer 3 ist, "ist es ein ungerade Zahl? "Die Leute bevorzugen diese Art von Frage, die als" positiver Test "bezeichnet wird, auch wenn ein negativer Test wie" ist es eine gleichmäßige Zahl? ", Liefert genau die gleichen Informationen.[11] Dies bedeutet jedoch nicht, dass Menschen Tests suchen, die eine positive Antwort garantieren. In Studien, in denen Probanden entweder solche oder wirklich diagnostischen pseudo-tests oder wirklich diagnostischen auswählen konnten, bevorzugten sie die wirklich diagnostische.[12][13]

Die Präferenz für positive Tests an sich ist keine Verzerrung, da positive Tests sehr informativ sein können.[14] In Kombination mit anderen Effekten kann diese Strategie jedoch unabhängig davon bestehende Überzeugungen oder Annahmen bestätigen, ob sie wahr sind.[6] In realen Situationen sind die Beweise oft komplex und gemischt. Zum Beispiel könnten verschiedene widersprüchliche Vorstellungen über jemanden unterstützt werden, indem sie sich auf einen Aspekt seines Verhaltens konzentrieren.[9] Daher ist jede Suche nach Beweisen zugunsten einer Hypothese wahrscheinlich erfolgreich.[6] Ein Beispiel dafür ist die Art und Weise, wie die Formulierung einer Frage die Antwort erheblich ändern kann.[9] Zum Beispiel Menschen, die gefragt werden: "Bist du mit deinem sozialen Leben zufrieden?" Melden Sie mehr Zufriedenheit als diejenigen, die gefragt wurden: "Sind Sie unglücklich mit deinem sozialen Leben? "[15]

Selbst eine kleine Veränderung in der Formulierung einer Frage kann beeinflussen, wie Menschen durch verfügbare Informationen suchen, und daher zu den Schlussfolgerungen, die sie gelangen. Dies wurde unter Verwendung eines fiktiven Sorgerechtsfalls gezeigt.[16] Die Teilnehmer lesen, dass Eltern A mäßig geeignet waren, der Wächter auf verschiedene Weise zu sein. Parent B hatte eine Mischung aus herausragenden positiven und negativen Eigenschaften: eine enge Beziehung zum Kind, aber eine Arbeit, die sie für lange Zeiträume wegnehmen würde. Auf die Frage: "Welcher Elternteil sollte das Sorgerecht für das Kind haben?" Die Mehrheit der Teilnehmer wählte Eltern B und betrachtete hauptsächlich positive Attribute. Auf die Frage: "Welcher Elternteil sollte das Sorgerecht für das Kind verweigert werden?" Sie suchten nach negativen Attributen und die Mehrheit antwortete, dass Eltern B das Sorgerecht verweigert werden sollten, was bedeutet, dass Eltern A Sorgerecht haben sollten.[16]

Ähnliche Studien haben gezeigt, wie Menschen eine voreingenommene Suche nach Informationen durchführen, aber auch, dass dieses Phänomen durch eine Präferenz für echte diagnostische Tests eingeschränkt sein kann. In einem ersten Experiment bewerteten die Teilnehmer eine andere Person mit Introversion -Extroversion Persönlichkeitsdimension auf der Grundlage eines Interviews. Sie wählten die Interviewfragen aus einer bestimmten Liste. Als der Befragte als Introvertierter vorgestellt wurde, wählten die Teilnehmer Fragen, die eine Introversion vermuteten, wie z. B. "Was finden Sie an lauten Parteien unangenehm?" Als der Befragte als extrovertiert beschrieben wurde, vermuteten fast alle Fragen die Extroversion, wie zum Beispiel: "Was würden Sie tun, um eine langweilige Party zu beleben?" Diese geladenen Fragen gaben den Befragten wenig oder gar keine Gelegenheit, die Hypothese über sie zu verfälschen.[17] Eine spätere Version des Experiments gab den Teilnehmern weniger mutmaßliche Fragen zur Auswahl, z. B. "Scheuen Sie sich vor sozialen Interaktionen?"[18] Die Teilnehmer zogen es vor, diese diagnostischeren Fragen zu stellen und zeigten nur eine schwache Verzerrung gegenüber positiven Tests. Dieses Muster einer Hauptpräferenz für diagnostische Tests und eine schwächere Präferenz für positive Tests wurde in anderen Studien repliziert.[18]

Persönlichkeitsmerkmale beeinflussen und interagieren mit voreingenommenen Suchprozessen.[19] Die Einzelpersonen unterscheiden sich in ihren Fähigkeiten, ihre Einstellungen vor externen Angriffen in Bezug auf die Angriffe zu verteidigen selektive Belichtung. Die selektive Exposition tritt auf, wenn Einzelpersonen mit ihren persönlichen Überzeugungen nach Informationen suchen, die eher konsistent als inkonsistent sind.[20] In einem Experiment wurde untersucht, inwieweit Einzelpersonen Argumente widerlegen könnten, die ihren persönlichen Überzeugungen widersprachen.[19] Menschen mit hoch Vertrauen Die Ebenen leichter nach widersprüchlichen Informationen in ihre persönliche Position suchen, um ein Argument zu formen. Dies kann die Form eines annehmen Oppositioneller Nachrichtenkonsum, wo Individuen entgegengesetzte Partisanennachrichten suchen, um Gegenargue zu entgegenzuwirken.[21] Personen mit geringer Vertrauensniveau suchen keine widersprüchlichen Informationen und bevorzugen Informationen, die ihre persönliche Position unterstützen. Menschen erzeugen und bewerten Beweise in Argumenten, die auf ihre eigenen Überzeugungen und Meinungen voreingenommen sind.[22] Das erhöhte Vertrauensniveau verringert die Präferenz für Informationen, die den persönlichen Überzeugungen des Einzelnen unterstützen.

Ein weiteres Experiment gab den Teilnehmern eine komplexe Regelentwicklung, bei der bewegte Objekte von einem Computer simuliert wurden.[23] Objekte auf dem Computerbildschirm folgten spezifischen Gesetzen, die die Teilnehmer herausfinden mussten. Die Teilnehmer konnten also Objekte auf dem Bildschirm "feuern", um ihre Hypothesen zu testen. Obwohl keiner der Teilnehmer viele Versuche über eine zehnstündige Sitzung unternommen hat, fand er die Regeln des Systems heraus. Sie versuchten normalerweise, ihre Hypothesen zu bestätigen, anstatt sie zu fälschen, und zögerten, Alternativen zu berücksichtigen. Selbst nachdem sie objektive Beweise gesehen hatten, die ihre funktionierenden Hypothesen widerlegten, machten sie häufig die gleichen Tests. Einige der Teilnehmer wurden ordnungsgemäße Hypothesenstests beigebracht, aber diese Anweisungen hatten fast keine Wirkung.[23]

Voreingenommene Interpretation von Informationen

Kluge Leute glauben seltsame Dinge, weil sie aus nicht schlauen Gründen gekommen sind, um Überzeugungen zu verteidigen, zu denen sie angekommen sind.

Michael Shermer[24]

Bestätigungsverzerrungen beschränken sich nicht auf die Erfassung von Beweisen. Selbst wenn zwei Personen die gleichen Informationen haben, kann die Art und Weise, wie sie es interpretieren, voreingenommen werden.

Ein Team bei Universität in Stanford führte ein Experiment mit Teilnehmern durch, die stark über die Todesstrafe waren, mit Hälften und halb dagegen.[25][26] Jeder Teilnehmer las Beschreibungen von zwei Studien: ein Vergleich von US -Bundesstaaten mit und ohne die Todesstrafe und einen Vergleich der Mordraten in einem Staat vor und nach der Einführung der Todesstrafe. Nachdem die Teilnehmer eine kurze Beschreibung jeder Studie gelesen hatten, wurden die Teilnehmer gefragt, ob sich ihre Meinungen geändert hätten. Dann las sie einen detaillierteren Bericht über das Verfahren jeder Studie und mussten bewerten, ob die Forschung gut gelaufen und überzeugend war.[25] Tatsächlich waren die Studien fiktiv. Die Hälfte der Teilnehmer wurde mitgeteilt, dass eine Art von Studie das unterstützte abschreckend Wirkung und der andere untergraben es, während für andere Teilnehmer die Schlussfolgerungen getauscht wurden.[25][26]

Die Teilnehmer, ob Anhänger oder Gegner, gaben an, ihre Einstellungen leicht in Richtung der ersten Studie zu verschieben, die sie gelesen haben. Nachdem sie die detaillierteren Beschreibungen der beiden Studien gelesen hatten, kehrten sie fast alle zu ihrem ursprünglichen Glauben zurück, unabhängig von den vorgelegten Beweisen, die auf Details hinwies, die ihren Standpunkt stützten und etwas Gegenteiles ignorierten. Die Teilnehmer beschrieben Studien, die ihre bereits bestehende Ansicht als überlegen gegenüber denen, die sie widersprachen, auf detaillierte und spezifische Weise überlegen waren.[25][27] Ein Schreiben über eine Studie, die den Abschreckungseffekt zu untergraben schien, schrieb ein Befürworter der Todesstrafe: "Die Forschung deckte nicht lange genug Zeitraum ab", während der Kommentar eines Gegners zu derselben Studie sagte: "Keine starken Beweise dafür, dem zu widersprechen Forscher wurden vorgestellt. "[25] Die Ergebnisse zeigten, dass Menschen höhere Beweisstandards für Hypothesen festlegen, die gegen ihre aktuellen Erwartungen verstoßen. Dieser Effekt, der als "nicht bestätigende Voreingenommenheit" bezeichnet wird, wurde durch andere Experimente unterstützt.[28]

Eine weitere Studie zur voreingenommenen Interpretation trat während der 2004 US -Präsidentschaftswahlen und beteiligten Teilnehmer, die berichteten, starke Gefühle für die Kandidaten zu haben. Sie wurden anscheinend widersprüchliche Aussagenpaare gezeigt, entweder von republikanischer Kandidaten George W. Bush, Demokratischer Kandidat John kerry oder eine politisch neutrale öffentliche Figur. Sie erhielten auch weitere Aussagen, die den offensichtlichen Widerspruch vernünftig erscheinen machten. Aus diesen drei Informationen mussten sie entscheiden, ob die Aussagen jedes Einzelnen inkonsistent waren.[29]: 1948 Es gab starke Unterschiede in diesen Bewertungen, wobei die Teilnehmer Aussagen von dem Kandidaten, dem sie sich widersetzten, viel häufiger interpretierten.[29]: 1951

A large round machine with a hole in the middle, with a platter for a person to lie on so that their head can fit into the hole
Ein MRT -Scanner Ermöglichten den Forschern zu untersuchen, wie das menschliche Gehirn mit dissonanten Informationen umgeht

In diesem Experiment haben die Teilnehmer ihre Urteile in a beurteilt Magnetresonanztomographie (MRT) Scanner, der ihre Gehirnaktivität überwachte. Als Teilnehmer bewerteten widersprüchliche Aussagen durch ihren bevorzugten Kandidaten, emotional Zentren ihres Gehirns wurden erregt. Dies geschah nicht mit den Aussagen der anderen Zahlen. Die Experimentatoren schließen, dass die unterschiedlichen Antworten auf die Aussagen nicht auf passive Argumentationsfehler zurückzuführen waren. Stattdessen reduzierten die Teilnehmer aktiv die kognitive Dissonanz induziert durch Lesen über die irrationalen oder heuchlerisch Verhalten.[29]: 1956

Vorurteile bei der Interpretation von Glauben sind unabhängig von der Intelligenzniveau anhaltend. Die Teilnehmer an einem Experiment nahmen das an Sa Test (ein in den USA verwendetes College -Zulassungstest), um ihre Geheimdienste zu bewerten. Anschließend lesen sie Informationen zu Sicherheitsbedenken für Fahrzeuge, und die Experimentatoren manipulierten den nationalen Ursprung des Autos. Amerikanische Teilnehmer gaben ihre Meinung ab, wenn das Auto auf einer Sechs-Punkte-Skala verboten werden sollte, wobei man "definitiv Ja" und sechs "definitiv nein" angegeben hat. Die Teilnehmer bewerteten zunächst, wenn sie ein gefährliches deutsches Auto auf amerikanischen Straßen und ein gefährliches amerikanisches Auto auf deutschen Straßen zulassen würden. Die Teilnehmer waren der Ansicht, dass das gefährliche deutsche Auto auf amerikanischen Straßen schneller verboten werden sollte als das gefährliche amerikanische Auto auf deutschen Straßen. Es gab keinen Unterschied zwischen den Geheimdiensten im Raten, das die Teilnehmer ein Auto verbieten würden.[22]

Eine voreingenommene Interpretation ist nicht auf emotional bedeutende Themen beschränkt. In einem anderen Experiment wurde den Teilnehmern eine Geschichte über einen Diebstahl erzählt. Sie mussten die nachweisliche Bedeutung von Aussagen bewerten, die entweder für oder gegen einen bestimmten Charakter verantwortlich waren. Als sie die Schuld dieses Charakters hypothekern, bewerteten sie Aussagen, die diese Hypothese als wichtiger als widersprüchliche Aussagen bewerteten.[30]

Voreingenommener Speicher Rückruf von Informationen

Die Menschen erinnern sich möglicherweise an Beweise, um ihre Erwartungen selektiv zu verstärken, selbst wenn sie die Beweise auf neutrale Weise sammeln und interpretieren. Dieser Effekt wird als "selektiver Rückruf", "Bestätigungsgedächtnis" oder "Zugriffsgedächtnis" bezeichnet.[31] Psychologische Theorien unterscheiden sich in ihren Vorhersagen über den selektiven Rückruf. Schema -Theorie Prognostiziert voraus, dass Informationen über die vorherigen Erwartungen leichter gespeichert und zurückgerufen werden als Informationen, die nicht übereinstimmen.[32] Einige alternative Ansätze sagen, dass überraschende Informationen und so unvergesslich sind.[32] Vorhersagen aus diesen beiden Theorien wurden in verschiedenen experimentellen Kontexten bestätigt, ohne dass die Theorie direkt gewann.[33]

In einer Studie lesen die Teilnehmer ein Profil einer Frau, die eine Mischung aus introvertierten und extrovertierten Verhaltensweisen beschrieb.[34] Sie mussten sich später an Beispiele für ihre Introversion und Extroversion erinnern. Eine Gruppe wurde mitgeteilt, dass dies die Frau für einen Job als Bibliothekar beurteilen sollte, während eine zweite Gruppe mitgeteilt wurde, dass dies für einen Job im Immobilienverkauf sei. Es gab einen signifikanten Unterschied zwischen dem, was diese beiden Gruppen erinnerten, und die Gruppe "Bibliothekarin" erinnerte sich an mehr Beispiele für Introversion und die "Verkaufsgruppen", die sich an ein extrovertiertes Verhalten erinnern.[34] Ein selektiver Gedächtniseffekt wurde auch in Experimenten gezeigt, die die Wünschbarkeit von Persönlichkeitstypen manipulieren.[32][35] In einem dieser Teilnehmer wurde eine Gruppe von Teilnehmern Beweise dafür gezeigt, dass extrovertierte Menschen erfolgreicher sind als Introvertierte. Eine andere Gruppe wurde das Gegenteil erzählt. In einer nachfolgenden, anscheinend nicht verwandten Studie wurden die Teilnehmer gebeten, Ereignisse aus ihrem Leben zu erinnern, in denen sie entweder introvertiert oder extrovertiert worden waren. Jede Gruppe von Teilnehmern stellte mehr Erinnerungen zur Verfügung, die sich mit dem wünschenswerteren Persönlichkeitstyp verbanden, und erinnerte diese Erinnerungen schneller.[36]

Veränderungen in emotionalen Zuständen können auch den Erinnerungsrückruf beeinflussen.[37][38] Die Teilnehmer bewerteten, wie sie sich fühlten, als sie das zum ersten Mal gelernt hatten O. J. Simpson war von Mordanklagen freigesprochen worden.[37] Sie beschrieben ihre emotionalen Reaktionen und ihr Vertrauen in das Urteil einer Woche, zwei Monate und ein Jahr nach dem Versuch. Die Ergebnisse zeigten, dass sich die Bewertungen der Teilnehmer für Simpsons Schuld im Laufe der Zeit änderten. Je mehr die Meinung der Teilnehmer über das Urteil geändert hatte, desto weniger stabil waren die Erinnerungen des Teilnehmers an ihre anfänglichen emotionalen Reaktionen. Als die Teilnehmer zwei Monate und ein Jahr später an ihre anfänglichen emotionalen Reaktionen erinnerten, ähnelten frühere Bewertungen den aktuellen Bewertungen von Emotionen sehr. Die Menschen zeigen eine beträchtliche Myside -Voreingenommenheit, wenn sie ihre Meinung zu kontroversen Themen diskutieren.[22] Erinnerungsrückruf und Konstruktion von Erfahrungen werden in Bezug auf entsprechende emotionale Zustände überarbeitet.

Es wurde gezeigt, dass Myside -Voreingenommenheit die Genauigkeit des Speicherrückrufs beeinflusst.[38] In einem Experiment bewerteten Witwen und Witwer die Intensität ihrer erfahrenen Trauer sechs Monate und fünf Jahre nach dem Tod ihrer Ehepartner. Die Teilnehmer stellten nach sechs Monaten eine höhere Trauererfahrung als nach fünf Jahren fest. Als die Teilnehmer nach fünf Jahren gefragt wurden, wie sie sich sechs Monate nach dem Tod ihres Lebensgefährten gefühlt hatten, war die Intensität der Trauer, die sich die Teilnehmer an die Trauer erinnerten korreliert mit ihrem aktuellen Grad an Trauer. Individuen scheinen ihre aktuellen emotionalen Zustände zu nutzen, um zu analysieren, wie sie sich beim Erleben vergangener Ereignisse gefühlt haben müssen.[37] Emotionale Erinnerungen werden durch aktuelle emotionale Zustände rekonstruiert.

Eine Studie zeigte, wie das selektive Gedächtnis den Glauben aufrechterhalten kann sinnliche Wahrnehmung (Insb).[39] Gläubigen und Ungläubigen wurden jeweils Beschreibungen von ESP -Experimenten gezeigt. Die Hälfte jeder Gruppe wurde mitgeteilt, dass die experimentellen Ergebnisse die Existenz von ESP stützten, während den anderen gesagt wurde, dass sie es nicht taten. In einem nachfolgenden Test erinnerten die Teilnehmer das Material genau, abgesehen von Gläubigen, die die nicht unterstützenden Beweise gelesen hatten. Diese Gruppe erinnerte sich an wesentlich weniger Informationen und einige von ihnen erinnerten sich fälschlicherweise an die Ergebnisse als unterstützend.[39]

Individuelle Unterschiede

Myside -Voreingenommenheit wurde einst vermutlich mit der Intelligenz korreliert; Studien haben jedoch gezeigt, dass Myside -Bias mehr von der Fähigkeit beeinflusst werden kann, rational zu denken als im Gegensatz zu Intelligenzniveau.[22] Myside -Voreingenommenheit kann dazu führen, dass die entgegengesetzte Seite eines Arguments effektiv und logisch bewertet wird. Studien haben angegeben, dass Myside-Voreingenommenheit ein Fehlen von "Active Open Onnessness" ist, was bedeutet, dass die aktive Suche nach dem Grund, warum eine erste Idee falsch ist.[40] Typischerweise wird Myside -Bias in empirischen Studien als die zur Unterstützung ihrer Seite im Vergleich zur gegenüberliegenden Seite verwendeten Beweise operationalisiert.[41]

Eine Studie hat individuelle Unterschiede in der Myside -Voreingenommenheit festgestellt. Diese Studie untersucht individuelle Unterschiede, die durch das Lernen im kulturellen Kontext erworben werden und veränderlich sind. Der Forscher fand einen wichtigen individuellen Unterschied in der Argumentation. Studien haben darauf hingewiesen, dass individuelle Unterschiede wie die Fähigkeit zur Deduktionsbekämpfung, die Fähigkeit zur Überwindung der Glaubensvoreingenommenheit, das erkenntnistheoretische Verständnis und die Denkweise signifikante Prädiktoren für das Denken und die Erzeugung von Argumenten, Gegenargumenten und Widerlegungen sind.[42][43][44]

Eine Studie von Christopher Wolfe und Anne Britt untersuchte auch, wie die Ansichten der Teilnehmer über "Was macht ein gutes Argument aus?" Kann eine Quelle von Myside -Voreingenommenheit sein, die die Art und Weise beeinflusst, wie eine Person ihre eigenen Argumente formuliert.[41] Die Studie untersuchte individuelle Unterschiede des Argumentationsschemas und forderte die Teilnehmer auf, Aufsätze zu schreiben. Die Teilnehmer wurden zufällig zugewiesen, Aufsätze entweder für oder gegen ihre bevorzugte Seite eines Arguments zu schreiben, und erhielten Forschungsanweisungen, die entweder einen ausgewogenen oder einen uneingeschränkten Ansatz verfolgten. Die Anweisungen für ausgewogene Forschungen wies die Teilnehmer an, ein "ausgewogenes" Argument zu erstellen, d. H. Das enthielt sowohl Vor- als auch Nachteile. Die uneingeschränkten Forschungsanweisungen enthielten nichts, wie das Argument erstellt werden soll.[41]

Insgesamt zeigten die Ergebnisse, dass die Ausgleichsforschungsanweisungen die Inzidenz entgegengesetzter Informationen in Argumenten erheblich erhöhten. Diese Daten zeigen auch, dass persönlicher Glaube keiner ist Quelle von Myside -Voreingenommenheit; Die Teilnehmer, die glauben, dass ein gutes Argument auf Fakten basiert, zeigen jedoch eher Myside -Vorurteile als andere Teilnehmer. Diese Beweise stimmen mit den in Barons Artikel vorgeschlagenen Behauptungen überein - dass die Meinungen der Menschen darüber, was gutes Denken ausmacht, die Erzeugung von Argumenten beeinflussen kann.[41]

Entdeckung

Informelle Beobachtungen

Vor der psychologischen Erforschung der Bestätigungsverzerrung wurde das Phänomen im Laufe der Geschichte beobachtet. Beginnend mit dem griechischen Historiker Thukydides (c. 460 v. Chr. - c. 395 v. Der Peloponnesische Krieg; "... denn es ist eine Gewohnheit der Menschheit, der nachlässigen Hoffnung zu beunruhigen, wonach sie sich sehnen, und den souveränen Grund zu verwenden, um das beiseite zu schieben, was sie nicht mögen."[45] Italienischer Dichter Dante Alighieri (1265–1321) bemerkte es in der Göttliche Komödie, in welchem St. Thomas Aquin Vorsichtsmaßnahmen Dante, als er sich im Paradies treffen kann, "Meinung - HASTEY - kann oft auf die falsche Seite neigen und dann die Zuneigung zur eigenen Meinung bindet, beschränkt den Geist".[46] Ibn Khaldun bemerkte den gleichen Effekt in seinem Muqaddimah:[47]

Unwahrheit betrifft natürlich historische Informationen. Es gibt verschiedene Gründe, die dies unvermeidlich machen. Eine von ihnen ist Parteilichkeit für Meinungen und Schulen. ... Wenn die Seele mit Parteilichkeit für eine bestimmte Stellungnahme oder Sekte infiziert ist, akzeptiert sie die Informationen, die ihnen angenehm sind, ohne einen Moment zu zögern. Vorurteile und Parteilichkeit verdunkeln die kritische Fakultät und schließen kritische Untersuchungen aus. Das Ergebnis ist, dass Unwahrheiten akzeptiert und übertragen werden.

In dem November organums, Englischer Philosoph und Wissenschaftler Francis Bacon (1561–1626)[48] stellte fest, dass eine voreingenommene Bewertung der Beweise "alle Aberglauben, sei es in Astrologie, Träumen, Omen, göttlichen Urteilen oder ähnlichem".[49] Er schrieb:[49]

Das menschliche Verständnis, wenn es einmal eine Meinung eingenommen hat ... zieht alle Dinge an, um sie zu unterstützen und damit einverstanden zu sein. Und obwohl es auf der anderen Seite eine größere Anzahl und Gewicht von Instanzen gibt, vernachlässigt es oder verachtet sie jedoch oder lehnt durch einige Unterscheidungssätze beiseite oder lehnt es ab [.]

Im zweiten Band von ihm Die Welt als Willen und Repräsentation (1844), deutscher Philosoph Arthur Schopenhauer beobachtete, dass "eine verabschiedete Hypothese uns Luchs-Augen für alles gibt, was sie bestätigt und uns für alles blind macht, was ihm widerspricht."[50]

In seinem Aufsatz (1897) "Was ist Kunst?", Russische Schriftsteller Leo Tolstoi schrieb:[51]

Ich weiß, dass die meisten Männer - nicht nur diejenigen, die als klug angesehen werden, sondern auch diejenigen, die sehr klug sind und in der Lage sind, am schwierigsten wissenschaftlichsten, mathematischen oder philosophischen Probleme zu verstehen - selbst die einfachste und offensichtlichste Wahrheit sehr selten erkennen, wenn es so ist, wenn es so ist, wie sie sie zu verpflichten, die Falschheit der Schlussfolgerungen zuzugeben, die sie gegründet haben, vielleicht mit viel Schwierigkeit - auf die sie stolz sind, auf die sie anderen beigebracht haben und auf die sie ihr Leben aufgebaut haben.

In seinem Aufsatz (1894) "Das Reich Gottes ist in dir", Russische Schriftsteller Leo Tolstoi hatte früher geschrieben:[52]

Die schwierigsten Themen können dem langsamsten Mann erklärt werden, wenn er noch keine Vorstellung von ihnen gebildet hat. Aber das Einfachste kann dem intelligentesten Mann nicht klar gemacht werden, wenn er fest davon überzeugt ist, dass er es bereits weiß, ohne Zweifel, was vor ihm gelegt wird.

Hypothesentest (Fälschung) Erklärung (WASON)

In Peter Wasons erstem Experiment, das 1960 veröffentlicht wurde (was den Begriff "Bestätigungsverzerrung" nicht erwähnt), forderte er die Teilnehmer wiederholt auf, eine Regel zu identifizieren, die für Dreifachzahlen gilt. Ihnen wurde gesagt, dass (2,4,6) die Regel entspricht. Sie erzeugten Dreifach, und der Experimentator erzählte ihnen, ob sich jedes Dreifach der Regel entsprach.[1]: 179

Die tatsächliche Regel war einfach "jede aufsteigende Sequenz", aber die Teilnehmer hatten große Schwierigkeiten, sie zu finden, und kündigten häufig Regeln an, die weitaus spezifischer waren, wie "die mittlere Zahl ist der Durchschnitt des ersten und letzten".[53] Die Teilnehmer schienen nur positive Beispiele zu testen - Streifen, die ihrer hypothetischen Regel gehorchten. Wenn sie beispielsweise der Meinung waren, dass die Regel "jede Zahl ist zwei größer als ihr Vorgänger", würden sie ein Triple bieten, das diese Regel (bestätigt hat), wie (11,13,15) und nicht ein Triple, das verletzt wurde gefälscht) es, wie (11,12,19).[54]

Wason interpretierte seine Ergebnisse als eine Präferenz für die Bestätigung gegenüber Fälschungen, daher prägte er den Begriff "Bestätigungsverzerrung".[Notiz 3][55] Wason verwendete auch Bestätigungsverzerrung, um die Ergebnisse seiner zu erklären Auswahlaufgabe Experiment.[56] Die Teilnehmer haben wiederholt bei verschiedenen Formen dieses Tests schlecht durchgeführt, in den meisten Fällen ignorierten Informationen, die möglicherweise die angegebene Regel widerlegen (fälschen).[57][58]

Hypothesentest (positive Teststrategie) Erklärung (Klayman und HA)

Das Papier von Klayman und Ha von 1987 argumentiert, dass die WASON -Experimente keine Tendenz zur Bestätigung zeigen, sondern eine Tendenz, Tests mit der Arbeitshypothese übereinzustimmen.[14][59] Sie nannten dies die "positive Teststrategie".[9] Diese Strategie ist ein Beispiel für a Heuristik: Eine Argumentationskürzung, die unvollkommen, aber leicht zu berechnen ist.[60] Klayman und ha benutzten Bayesianische Wahrscheinlichkeit und Informationstheorie als ihr Standard für Hypothesen-Tests und nicht als der von Wason verwendete Fälschungsmerkmal. Nach diesen Ideen ergibt jede Antwort auf eine Frage eine andere Menge an Informationen, was von den früheren Überzeugungen der Person abhängt. Ein wissenschaftlicher Test einer Hypothese ist daher eine, die die meisten Informationen liefert. Da der Informationsgehalt von den anfänglichen Wahrscheinlichkeiten abhängt, kann ein positiver Test entweder sehr informativ oder uninformativ sein. Klayman und Ha argumentierten, wenn Menschen über realistische Probleme nachdenken, suchen sie nach einer bestimmten Antwort mit einer kleinen anfänglichen Wahrscheinlichkeit. In diesem Fall sind positive Tests normalerweise informativer als negative Tests.[14] In Wasons Regelentdeckungsaufgabe ist die Antwort - drei Zahlen in aufsteigender Reihenfolge - jedoch sehr breit, sodass positive Tests wahrscheinlich nicht informative Antworten liefern. Klayman und HA unterstützten ihre Analyse, indem sie ein Experiment zitierten, das die Etiketten "Dax" und "Med" anstelle von "Pass the Regel" verwendete und "nicht zur Regel passt". Dies vermieden, dass das Ziel darin bestand, eine geringe Wahrscheinlichkeitsregel zu finden. Die Teilnehmer hatten mit dieser Version des Experiments viel mehr Erfolg.[61][62]

Within the universe of all possible triples, those that fit the true rule are shown schematically as a circle. The hypothesized rule is a smaller circle enclosed within it.
Wenn die wahre Regel (t) die aktuelle Hypothese (h) umfasst, zeigt positive Tests (untersucht ein H, um festzustellen, ob es t ist) nicht, dass die Hypothese falsch ist.
Two overlapping circles represent the true rule and the hypothesized rule. Any observation falling in the non-overlapping parts of the circles shows that the two rules are not exactly the same. In other words, those observations falsify the hypothesis.
Wenn die wahre Regel (t) Überlappungen Die aktuelle Hypothese (H), dann entweder ein negativer Test oder ein positiver Test kann möglicherweise H fällen.
The triples fitting the hypothesis are represented as a circle within the universe of all triples. The true rule is a smaller circle within this.
Wenn die Arbeitshypothese (h) die wahre Regel (t) enthält, dann sind positive Tests die nur Weg, um H.

In Anbetracht dieser und anderer Kritikpunkte hat sich der Fokus der Forschung von der Bestätigung gegenüber der Fälschung einer Hypothese abgeleitet, um zu untersuchen, ob Menschen Hypothesen auf informative Weise oder auf uninformative, aber positive Weise testen. Die Suche nach "echten" Bestätigungsverzerrungen veranlasste Psychologen, ein breiteres Spektrum von Effekten bei der Verarbeitung von Informationen zu betrachten.[63]

Erklärungen zur Informationsverarbeitung

Derzeit gibt es drei Hauptstücken Informationsverarbeitung Erklärungen zur Bestätigungsverzerrung sowie eine aktuelle Ergänzung.

Kognitiv gegen Motivation

Happy Events werden eher in Erinnerung bleiben.

Entsprechend Robert MaccounDie meisten voreingenommenen Evidenzverarbeitung erfolgen durch eine Kombination aus "kalten" (kognitiven) und "heißen" (motivierten) Mechanismen.[64]

Kognitive Erklärungen zur Bestätigungsverzerrung basieren auf Einschränkungen bei der Fähigkeit der Menschen, komplexe Aufgaben und die Verknüpfungen zu erledigen, die genannt werden Heuristik, dass sie benutzen.[65] Zum Beispiel können Personen die Zuverlässigkeit von Beweisen anhand der Verwendung der Beweismittel beurteilen Verfügbarkeit heuristisch Das ist, wie leicht eine bestimmte Idee in den Sinn kommt.[66] Es ist auch möglich, dass sich die Menschen jeweils nur auf einen Gedanken konzentrieren können. Es ist daher schwierig, alternative Hypothesen parallel zu testen.[1]: 198–199 Eine weitere Heuristik ist die positive Teststrategie, die von Klayman und HA identifiziert wurde und bei der Menschen eine Hypothese testen, indem sie Fälle untersuchen, in denen sie erwarten, dass ein Eigentum oder ein Ereignis auftritt. Diese Heuristik vermeidet die schwierige oder unmögliche Aufgabe, herauszufinden, wie diagnostisch jede mögliche Frage sein wird. Es ist jedoch nicht universell zuverlässig, sodass die Menschen die Herausforderungen ihrer bestehenden Überzeugungen übersehen können.[14][1]: 200

Motivationserklärungen beinhalten eine Wirkung von Verlangen an Glauben.[1]: 197[67] Es ist bekannt, dass Menschen in vielerlei Hinsicht positive Gedanken gegenüber negativen bevorzugen: Dies wird als "als" bezeichnet "Pollyanna -Prinzip".[68] Angewendet Argumente oder Quellen von BeweisDies könnte erklären, warum die gewünschten Schlussfolgerungen eher wahr sind. Nach Experimenten, die die Wünschbarkeit der Schlussfolgerung manipulieren, fordern Menschen einen hohen Beweisstandard für unangenehme Ideen und einen niedrigen Standard für bevorzugte Ideen. Mit anderen Worten, sie fragen: "Kann ich das glauben?" Für einige Vorschläge und "Muss ich das glauben?" für andere.[69][70] Obwohl Konsistenz ist ein wünschenswertes Merkmal von Einstellungen, ein übermäßiger Antrieb für Konsistenz ist eine weitere potenzielle Verzerrung, da sie Menschen daran hindern, neue, überraschende Informationen neutral zu bewerten. Sozialpsychologe Ziva Kunda Kombiniert die kognitiven und motivierenden Theorien und argumentiert, dass die Motivation die Verzerrung erzeugt, aber kognitive Faktoren bestimmen die Größe des Effekts.[1]: 198

Kosten-Nutzen

Erklärungen in Bezug auf Kosten-Nutzen-Analyse Angenommen, die Menschen testen nicht nur Hypothesen auf uninteressierte Weise, sondern bewerten Sie die Kosten unterschiedlicher Fehler.[71] Verwenden von Ideen von EvolutionspsychologieJames Friedrich schlägt vor, dass die Menschen nicht in erster Linie zielen Wahrheit Beim Testen von Hypothesen, aber versuchen Sie, die kostspieligsten Fehler zu vermeiden. Beispielsweise stellen Arbeitgeber möglicherweise einseitige Fragen in Vorstellungsgesprächen, da sie sich darauf konzentrieren, ungeeignete Kandidaten auszusonieren.[72] Yaacov Trope und Akiva Libermans Verfeinerung dieser Theorie gehen davon aus, dass Menschen die beiden verschiedenen Arten von Irrtum vergleichen: eine falsche Hypothese akzeptieren oder eine wahre Hypothese ablehnen. Zum Beispiel könnte jemand, der die Ehrlichkeit eines Freundes unterschätzt, ihn verdächtig behandeln und die Freundschaft so untergraben. Die Ehrlichkeit des Freundes zu überschätzen, mag auch kostspielig sein, aber weniger. In diesem Fall wäre es rational, ihre Ehrlichkeit auf eine voreingenommene Weise nach Beweisen ihrer Ehrlichkeit zu suchen, zu bewerten oder zu erinnern.[73] Wenn jemand einen ersten Eindruck hat, introvertiert oder extrovertiert zu sein, wirken Fragen, die mit diesem Eindruck übereinstimmen Empathisch.[74] Dies deutet darauf hin, dass beim Gespräch mit jemandem, der ein Introvertierter zu sein scheint, ein Zeichen für besser ist soziale Fähigkeiten Um zu fragen: "Fühlen Sie sich in sozialen Situationen unangenehm?" Anstatt: "Magst du laute Partys?" Der Zusammenhang zwischen Bestätigungsverzerrungen und sozialen Fähigkeiten wurde durch eine Studie bestätigt, wie Studenten andere Menschen kennenlernen. Höchst Selbstüberwachung Schüler, die sensibler für ihre Umgebung sind und für soziale Normen, stellte mehr passende Fragen beim Befragen eines Mitarbeiters mit hohem Status als bei der Kenntnis von Kommilitonen.[74]

Erkundungsversus -Bestätigung

Psychologen Jennifer Lerner und Philip Tetlock Unterscheiden Sie zwei verschiedene Arten von Denkprozess. Erkundungsdacht Neutral berücksichtigt mehrere Standpunkte und versucht, alle möglichen Einwände gegen eine bestimmte Position zu antizipieren Bestätigungsgedenken versucht, einen bestimmten Standpunkt zu rechtfertigen. Lerner und Tetlock sagen, wenn die Leute erwarten, ihre Position anderen zu rechtfertigen, deren Ansichten sie bereits kennen, werden sie tendenziell eine ähnliche Position wie diese Personen einnehmen und dann bestätigende Gedanken verwenden, um ihre eigene Glaubwürdigkeit zu stärken. Wenn die externen Parteien jedoch übermäßig aggressiv oder kritisch sind, werden die Menschen sich insgesamt aus dem Gedanken lösen und einfach ihre persönlichen Meinungen ohne Begründung geltend machen. Lerner und Tetlock sagen, dass die Leute sich nur dazu drängen, kritisch und logisch zu denken, wenn sie im Voraus wissen, dass sie sich anderen erklären müssen, die gut informiert sind, wirklich an der Wahrheit interessiert sind und deren Ansichten sie noch nicht kennen. Da diese Bedingungen selten existieren, verwenden sie die meisten Menschen die meiste Zeit bestätigende Gedanken.[75][76][77]

Vorspiegelung

Der Entwicklungspsychologe Eve Whitmore hat argumentiert, dass Überzeugungen und Vorurteile, die an der Bestätigungsverzerrung beteiligt sind, ihre Wurzeln im Kindesalter durch Make-Believe haben, was "die Grundlage für komplexere Formen der Selbsttäuschung und Illusion in das Erwachsenenalter ist". Die Reibung, die durch Befragung als Jugendlicher mit kritischem Denken hervorgerufen wird, kann zur Rationalisierung falscher Überzeugungen führen, und die Gewohnheit einer solchen Rationalisierung kann im Laufe der Jahre unbewusst werden.[78]

Reale Effekte

Sozialen Medien

Im sozialen Medien, Bestätigungsverzerrung wird durch die Verwendung von verstärkt Filterblasen, oder "algorithmische Bearbeitung", die Einzelpersonen nur Informationen anzeigt, mit denen sie wahrscheinlich zustimmen, während sie entgegengesetzte Ansichten ausschließen.[79] Einige haben argumentiert, dass die Bestätigungsverzerrung der Grund ist, warum die Gesellschaft niemals aus Filterblasen entkommen kann, da Einzelpersonen psychisch fest verdrahtet sind, um Informationen zu suchen, die ihren bereits bestehenden Werten und Überzeugungen übereinstimmen.[80] Andere haben weiter argumentiert, dass sich die Mischung der beiden verschlechtert Demokratie- Wenn diese "algorithmische Bearbeitung" unterschiedliche Standpunkte und Informationen beseitigt - und dass die Wähler nicht in der Lage sind, vollständig fundierte politische Entscheidungen zu treffen, wenn Filterblasenalgorithmen entfernt werden.[81][79]

Der Aufstieg der sozialen Medien hat stark zur raschen Verbreitung von beigetragen Gefälschte NachrichtenDas heißt, falsche und irreführende Informationen, die als glaubwürdige Nachrichten aus einer scheinbar zuverlässigen Quelle dargestellt werden. Bestätigungsverzerrung (Auswahl oder Neuinterpretation von Beweisen zur Unterstützung der eigenen Überzeugungen) ist einer von drei Haupthürden, die unter diesen Umständen in die Irre geführt werden. Die anderen beiden sind Verknüpfungsheuristiken (wenn sie überfordert oder kurz sind, verlassen sich Menschen auf einfache Regeln wie Gruppenkonsens oder Vertrauen eines Experten oder Vorbilds) und soziale Ziele (soziale Motivation oder Gruppenzwang können die objektive Analyse von Tatsachen stören). .[82]

Bei der Bekämpfung der Verbreitung gefälschter Nachrichten haben sich Social -Media -Websites in Betracht gezogen, sich "digitales Nudging" zuzuwenden.[83] Dies kann derzeit in zwei verschiedenen Formen des Stups erfolgen. Dies beinhaltet die Einführung von Informationen und die Struktur der Präsentation. Die Ankennung von Informationen beinhaltet Social -Media Bestätigungsverzerrungen.[84]

Wissenschaft und wissenschaftliche Forschung

Ein unterschiedliches Merkmal von wissenschaftliches Denken ist die Suche nach bestätigenden oder unterstützenden Beweisen (Induktiver Argumentation) sowie fälschliche Beweise (Beweise (deduktive Argumentation). Insbesondere induktive Forschung kann ein ernstes Problem mit der Bestätigungsverzerrung haben.[85][86]

Oft in der Geschichte der WissenschaftWissenschaftler haben sich neuen Entdeckungen widersetzt, indem ungünstige Daten selektiv interpretiert oder ignoriert wurden.[1]: 192–94 Die Bewertung der Qualität der wissenschaftlichen Studien scheint besonders anfällig für Bestätigungsverzerrungen zu sein. Mehrere Studien haben gezeigt, dass Wissenschaftler Studien bewerten, in denen Ergebnisse im Einklang mit ihren früheren Überzeugungen günstiger berichten als Studien, die Ergebnisse melden, die mit ihren früheren Überzeugungen vereinbar sind.[7][87][88]

Unter der Annahme, dass die Forschungsfrage relevant ist, das experimentelle Design angemessen und die Daten klar und umfassend beschrieben werden, sollten die erhaltenen empirischen Daten für die wissenschaftliche Gemeinschaft wichtig sein und nicht vorjud dass, unabhängig davon, ob sie den aktuellen theoretischen Vorhersagen entsprechen .[88] In der Praxis können Forscher alle Studien missverstehen, falsch interpretieren oder nicht lesen, die ihren Vorurteilen widersprechen, oder sie trotzdem fälschlicherweise so zitieren, als ob sie ihre Behauptungen tatsächlich unterstützten.[89]

Darüber hinaus können Bestätigungsverzerrungen wissenschaftliche Theorien oder Forschungsprogramme angesichts unzureichender oder sogar widersprüchlicher Beweise aufrechterhalten.[57][90] Die Disziplin von Parapsychologie wird oft als Beispiel als Beispiel im Kontext, ob es a ist Protoscience oder eine Pseudowissenschaft.[91]

Die Bestätigungsverzerrung eines Experimentators kann sich möglicherweise auswirken, welche Daten gemeldet werden. Daten, die mit den Erwartungen des Experimentators in Konflikt stehen Dateischubladeneffekt. Um diese Tendenz zu bekämpfen, lehrt wissenschaftliche Ausbildung Wege, um Verzerrungen zu verhindern.[92] Zum Beispiel, Experimentelles Design von Randomisierte kontrollierte Studien (zusammen mit ihrem Systematische Überprüfung) zielt darauf ab, Verzerrungsquellen zu minimieren.[92][93]

Der soziale Prozess von Peer Review Ziel ist es, die Wirkung einzelner Wissenschaftlerverzerrungen zu mildern, obwohl der Peer -Review -Prozess selbst anfällig für solche Vorurteile ist[94][95][88][96][97] Die Bestätigungsverzerrung kann daher für objektive Bewertungen in Bezug auf nicht konforme Ergebnisse besonders schädlich sein, da voreingenommene Personen die gegnerischen Beweise als prinzipiell als schwach ansehen und wenig ernsthafte Gedanken daran haben, ihre Überzeugungen zu überarbeiten.[87] Wissenschaftliche Innovatoren treffen häufig Widerstand der wissenschaftlichen Gemeinschaft, und Forschungsergebnisse, die kontroverse Ergebnisse präsentieren, werden häufig harte Peer -Reviews erhalten.[98]

Finanzen

Die Bestätigungsverzerrung kann dazu führen, dass die Anleger zu übermütig sind, und ignorieren Beweise dafür, dass ihre Strategien Geld verlieren werden.[8][99] In Studien von Politische Aktienmärkte, Anleger erzielten mehr Gewinn, als sie sich der Vorurteile widersetzten. Zum Beispiel waren die Teilnehmer, die die Debattenleistung eines Kandidaten auf neutraler als auf Partisaner interpretierten, eher profitieren.[100] Um die Auswirkungen von Bestätigungsverzerrungen zu bekämpfen, können Anleger versuchen, einen gegenteiligen Standpunkt "aus Gründen der Argumentation" zu verfolgen.[101] In einer Technik stellen sie sich vor, dass ihre Investitionen zusammengebrochen sind und sich fragen, warum dies passieren könnte.[8]

Medizin und Gesundheit

Kognitive Verzerrungen sind wichtige Variablen bei der klinischen Entscheidungsfindung durch medizinische Allgemeinmediziner (GPS) und medizinische Spezialisten. Zwei wichtige sind Bestätigungsverzerrungen und die überlappende Verfügbarkeitsverzerrung. Ein Hausarzt kann während einer Untersuchung frühzeitig eine Diagnose stellen und dann nach Beweismitteln einholen, anstatt Beweise zu fälschen. Dieser kognitive Fehler wird teilweise durch die Verfügbarkeit von Beweisen über die vermeintliche Störung verursacht. Zum Beispiel hat der Kunde möglicherweise die Störung erwähnt, oder der GP hat kürzlich ein viel diskutiertes Papier über die Störung gelesen. Die Grundlage dieser kognitiven Verknüpfung oder Heuristik (als Verankerung bezeichnet) besteht darin, dass der Arzt nicht mehrere Möglichkeiten berücksichtigt, die auf Beweismitteln basieren, sondern vorzeitig an einer einzigen Ursache festzuhalten (oder Anker zu).[102] In der Notfallmedizin gibt es aufgrund des Zeitdrucks eine hohe Entscheidungsdichte und Verknüpfungen werden häufig angewendet. Die potenzielle Versagensrate dieser kognitiven Entscheidungen muss von Bildung über die 30 oder mehr kognitiven Verzerrungen verwaltet werden, die auftreten können, um die richtigen Debiasing -Strategien festzulegen.[103] Die Bestätigungsverzerrung kann auch dazu führen, dass Ärzte aufgrund des Drucks von Adamantenpatienten unnötige medizinische Eingriffe durchführen.[104]

Raymond Nickerson, ein Psychologe, beschuldigt die Bestätigungsverzerrung für die ineffektiven medizinischen Eingriffe, die seit Jahrhunderten vor dem verwendet wurden Ankunft der wissenschaftlichen Medizin.[1]: 192 Wenn sich ein Patient erholte, zählten die medizinischen Behörden die Behandlung als erfolgreich, anstatt nach alternativen Erklärungen zu suchen, wie beispielsweise die Krankheit ihren natürlichen Verlauf. Eine voreingenommene Assimilation ist ein Faktor für die moderne Anziehungskraft von alternative Medizin, deren Befürworter positiv beeinflusst werden anekdotische Beweise aber behandeln wissenschaftlicher Beweis hyperkritisch.[105][106][107]

Kognitive Therapie wurde entwickelt von Aaron T. Beck In den frühen 1960er Jahren und ist zu einem beliebten Ansatz geworden.[108] Laut Beck ist die voreingenommene Informationsverarbeitung ein Faktor in Depression.[109] Sein Ansatz lehrt die Menschen, Beweise unparteiisch zu behandeln, anstatt negative Aussichten selektiv zu verstärken.[48] Phobien und Hypochondrie Es wurde auch gezeigt, dass es eine Bestätigungsverzerrung für bedrohliche Informationen beinhaltet.[110]

Politik, Recht und Polizeiarbeit

A woman and a man reading a document in a courtroom
Scheinversuche Ermöglichen Sie den Forschern, Bestätigungsverzerrungen in einer realistischen Umgebung zu untersuchen

Nickerson argumentiert, dass die Argumentation in gerichtlichen und politischen Kontexten manchmal unbewusst voreingenommen ist, was Schlussfolgerungen begünstigt, zu denen Richter, Jurys oder Regierungen bereits verpflichtet sind.[1]: 191–193 Da die Beweise in einem Gerichtsverfahren komplex sein können und die Geschworenen oft frühzeitig Entscheidungen über das Urteil treffen, ist es vernünftig, einen Einstellungspolarisationseffekt zu erwarten. Die Vorhersage, dass die Geschworenen in ihren Ansichten extremer werden, da sie in Experimenten mit mehr Beweisen getragen wurden Scheinversuche.[111][112] Beide Inquisitorial und kontrovers Strafjustizsysteme sind von Bestätigungsverzerrungen betroffen.[113]

Die Bestätigungsverzerrung kann ein Faktor bei der Schaffung oder Ausweitung von Konflikten von emotional aufgeladenen Debatten bis hin zu Kriegen sein: Durch die Interpretation der Beweise zu ihren Gunsten kann jede gegnerische Partei zu übersichtlich werden, dass es sich in der stärkeren Position befindet.[114] Andererseits kann die Bestätigungsverzerrung dazu führen, dass Menschen die Anzeichen eines bevorstehenden oder beginnenden Konflikts ignorieren oder falsch interpretieren. Zum Beispiel Psychologen Stuart Sutherland und Thomas Kida haben das jeweils argumentiert US -Marine Admiral Ehemann E. Kimmel zeigte eine Bestätigungsverzerrung, als sie die ersten Anzeichen des Japaner abspielten Angriff auf Pearl Harbor.[57][115]

Eine zwei Jahrzehnte lang politische Experten von Philip E. Tetlock stellte fest, dass ihre Vorhersagen im Großen und Ganzen nicht viel besser waren als Zufall. Tetlock teilte Experten in "Füchse" auf, die mehrere Hypothesen aufrechterhalten, und "Igel", die dogmatischer waren. Im Allgemeinen waren die Igel viel weniger genau. Tetlock beschuldigte sein Versagen bei der Bestätigungsverzerrung und speziell für ihre Unfähigkeit, neue Informationen zu nutzen, die ihren bestehenden Theorien widersprachen.[116]

Bei polizeilichen Ermittlungen kann ein Detektiv zu Beginn einer Untersuchung einen Verdächtigen identifizieren, aber dann manchmal weitgehend die Unterstützung oder Bestätigung von Beweisen suchen, die fälschliche Beweise ignorieren oder herunterspielen.[117]

Sozialpsychologie

Sozialpsychologen haben zwei Tendenzen so identifiziert, wie Menschen Informationen über sich selbst suchen oder interpretieren. Selbstverifizierung ist der Antrieb, um das Bestehende zu verstärken Selbstbild und Selbstverbesserung ist der Antrieb, positives Feedback zu suchen. Beide werden durch Bestätigungsverzerrungen bedient.[118] In Experimenten, bei denen Menschen Feedback erhalten, die mit ihrem Selbstbild in Konflikt stehen, sind sie weniger wahrscheinlich, dass sie sich darum kümmern oder sich daran erinnern, als wenn sie selbst überprüftes Feedback gegeben haben.[119][120][121] Sie verringern die Auswirkungen solcher Informationen, indem sie sie als unzuverlässig interpretieren.[119][122][123] Ähnliche Experimente haben eine Präferenz für positives Feedback und die Menschen, die es geben, über negatives Feedback gefunden.[118]

Massenwahn

Bestätigungsverzerrung kann eine Schlüsselrolle bei der Verbreitung von spielen Massenwahn. Hexenprozesse werden häufig als Beispiel zitiert.[124][125]

Für ein anderes Beispiel in der Seattle Windschutzscheibe POPIDEMICEMEEs schien eine "Loch -Epidemie" zu geben, in der Windschutzscheiben aufgrund einer unbekannten Ursache beschädigt wurden. Als sich die Nachricht von der scheinbaren Welle des Schadens ausbreitete, überprüften immer mehr Menschen ihre Windschutzscheiben, und stellten fest, dass auch ihre Windschutzscheiben beschädigt worden waren, was den Glauben an die vermeintliche Epidemie bestätigte. Tatsächlich wurden die Windschutzscheiben zuvor beschädigt, aber der Schaden blieb unbemerkt, bis die Leute ihre Windschutzscheiben überprüften, während sich die Täuschung ausbreitete.[126]

Paranormale Überzeugungen

Ein Faktor in der Berufung von angeblich psychisch Lesungen sind, dass die Zuhörer eine Bestätigungsverzerrung anwenden, die den Aussagen des Psychischen in ihr eigenes Leben entspricht.[127] Indem der Psychic eine große Anzahl mehrdeutiger Aussagen in jeder Sitzung macht, bietet er dem Klienten mehr Möglichkeiten, ein Match zu finden. Dies ist eine der Techniken von kaltes Lesen, mit dem ein Hellseher eine subjektiv beeindruckende Lektüre ohne vorherige Informationen über den Kunden liefern kann.[127] Ermittler James Randi Verglich das Protokoll einer Lesart mit dem Bericht des Kunden über das, was der Psychische gesagt hatte, und stellte fest, dass der Klient einen starken selektiven Rückruf der "Hits" zeigte.[128]

Als auffällige Illustration der Bestätigungsverzerrung in der realen Welt erwähnt Nickerson numerologisch Pyramidologie: Die Praxis, Bedeutung in den Proportionen der ägyptischen Pyramiden zu finden.[1]: 190 Es gibt viele unterschiedliche Längenmessungen, aus denen beispielsweise die Grosse Pyramide von Gizeh und viele Möglichkeiten, sie zu kombinieren oder zu manipulieren. Daher ist es fast unvermeidlich, dass Menschen, die diese Zahlen selektiv betrachten, oberflächlich beeindruckende Korrespondenzen finden, beispielsweise mit den Dimensionen der Erde.[1]: 190

Rekrutierung und Musterung

Unbewusste kognitive Verzerrung (einschließlich Bestätigungsverzerrung) in Jobrekrutierung Beeinträchtigt Einstellungsentscheidungen und kann möglicherweise einen vielfältigen und integrativen Arbeitsplatz verbieten. Es gibt eine Vielzahl von unbewussten Vorurteilen, die die Rekrutierungsentscheidungen beeinflussen, aber die Bestätigungsverzerrung ist eine der wichtigsten, insbesondere während der Interviewphase.[129] Der Interviewer wählt häufig einen Kandidaten aus, der seine eigenen Überzeugungen bestätigt, obwohl andere Kandidaten gleich oder besser qualifiziert sind.

Damit verbundene Effekte und Ergebnisse

Polarisierung der Meinungsvermögen

Wenn Menschen mit gegnerischen Ansichten neue Informationen auf voreingenommene Weise interpretieren, können sich ihre Ansichten noch weiter auseinander bewegen. Dies wird als "Haltungspolarisation" bezeichnet.[130] Der Effekt wurde durch ein Experiment demonstriert, das eine Reihe von roten und schwarzen Bällen aus einem von zwei verborgenen "Bingokörben" zeichnete. Die Teilnehmer wussten, dass ein Korb 60 Prozent schwarz und 40 Prozent rote Bälle enthielt. die anderen, 40 Prozent schwarz und 60 Prozent rot. Die Experimentatoren untersuchten, was passiert ist, als sich die Bälle mit abwechselnden Farben wiederum gezogen hatten, eine Sequenz, die keiner der beiden Korb bevorzugt. Nachdem jeder Ball gezogen worden war, wurden die Teilnehmer einer Gruppe gebeten, ihre Urteile über die Wahrscheinlichkeit laut zu sagen, dass die Bälle aus dem einen oder anderen Korb gezogen wurden. Diese Teilnehmer neigten bei jeder aufeinanderfolgenden Unentschieden dazu, selbstbewusster zu werden - ob sie zunächst der Meinung waren, dass der Korb mit 60 Prozent schwarzen Bällen oder der mit 60 Prozent roten Bällen die wahrscheinlichere Quelle war, und ihre Schätzung der Wahrscheinlichkeit stieg. Eine andere Gruppe von Teilnehmern wurde gebeten, Wahrscheinlichkeitsschätzungen nur am Ende einer Abfolge von gezogenen Bällen und nicht nach jedem Ball zu staatlichen. Sie zeigten den Polarisationseffekt nicht, was darauf hindeutet, dass sie nicht unbedingt auftreten, wenn Menschen einfach entgegengesetzte Positionen innehaben, sondern wenn sie sich offen für sie verpflichten.[131]

Eine weniger abstrakte Studie war das voreingenommene Interpretationsexperiment in Stanford, bei dem die Teilnehmer mit starken Meinungen über die Todesstrafe über gemischte experimentelle Beweise lesen. 23 Prozent der Teilnehmer gaben an, dass ihre Ansichten extremer geworden waren, und diese selbst berichtete Verschiebung korrelierte stark mit ihren anfänglichen Einstellungen.[25] In späteren Experimenten berichteten die Teilnehmer auch, dass ihre Meinungen als Reaktion auf mehrdeutige Informationen extremer geworden sind. Vergleiche ihrer Einstellungen vor und nach den neuen Beweisen zeigten jedoch keine signifikante Veränderung, was darauf hindeutet, dass die selbst gemeldeten Veränderungen möglicherweise nicht real sind.[28][130][132] Basierend auf diesen Experimenten kamen Deanna Kuhn und Joseph Lao zu dem Schluss, dass Polarisation ein echtes Phänomen ist, aber alles andere als unvermeidlich ist, nur in einer kleinen Minderheit von Fällen, und es wurde nicht nur durch Berücksichtigung gemischter Beweise, sondern durch lediglich an das Thema nachgedacht.[130]

Charles Taber und Milton Lodge argumentierten, dass das Ergebnis des Stanford -Teams schwer zu replizieren war, da die in späteren Experimenten verwendeten Argumente zu abstrakt oder verwirrend waren, um eine emotionale Reaktion hervorzurufen. Die Studie von Taber und Lodge verwendete die emotional aufgeladenen Themen von Waffenkontrolle und positive Handlung.[28] Sie haben die Einstellungen ihrer Teilnehmer zu diesen Themen vor und nach dem Lesen von Argumenten auf jeder Seite der Debatte gemessen. Zwei Gruppen von Teilnehmern zeigten eine Polarisierung der Einstellung: diejenigen mit starken früheren Meinungen und diejenigen, die politisch kenntnisreich waren. In einem Teil dieser Studie wählten die Teilnehmer aus einer Liste, die von den Experimentatoren erstellt werden soll, welche Informationsquellen gelesen werden. Zum Beispiel könnten sie das lesen National Rifle Associationund die und die Brady Anti-Handgun-KoalitionArgumente zur Waffenkontrolle. Selbst als sie angewiesen waren, ausgeglichen zu sein, las die Teilnehmer eher Argumente, die ihre bestehenden Einstellungen unterstützten als Argumente, die dies nicht taten. Diese voreingenommene Suche nach Informationen korrelierte gut mit dem Polarisationseffekt.[28]

Das Rückschläge ist ein Name für die Feststellung, dass die Menschen die Beweise ablehnen und noch stärker glauben können.[133][134] Der Satz wurde von geprägt von Brendan Nyhan und Jason Reifler im Jahr 2010.[135] Nachfolgende Untersuchungen haben jedoch seitdem keine Ergebnisse der Erkenntnisse, die den Rückschlag -Effekt unterstützen, nicht wiederholt.[136] Eine Studie, die von der Ohio State University und der George Washington University durchgeführt wurde, studierte 10.100 Teilnehmer mit 52 verschiedenen Themen, die erwartet wurden, dass sie einen Rückschlag -Effekt auslösen. Während die Ergebnisse zu dem Schluss gekommen sind, dass Einzelpersonen es zögern, Tatsachen zu berücksichtigen, die ihrer bereits festgelegten Ideologie widersprechen, wurden keine Fälle von Rückfällen festgestellt.[137] Der Rückschlag -Effekt wurde seitdem eher als seltenes Phänomen als ein häufiges Ereignis angesehen[138] (Vergleich die Bumerangeffekt).

Beharrlichkeit diskreditierter Überzeugungen

Überzeugungen können starke logische oder empirische Herausforderungen überleben. Sie können überleben und sogar durch Beweise gestärkt werden, dass die meisten nicht beförderten Beobachter zustimmen würden, dass solche Überzeugungen logisch schwächer werden. Sie können sogar die völlige Zerstörung ihrer ursprünglichen Beweisgrundlagen überleben.

- Lee Ross und Craig Anderson[139]

Bestätigungsverzerrungen liefern eine plausible Erklärung für die Beharrlichkeit von Überzeugungen, wenn die ersten Beweise für sie entfernt werden oder wenn sie stark widerlegt wurden.[1]: 187 Dieser Überzeugungsausdauer -Effekt wurde erstmals experimentell von demonstriert Festinger, Riecken und Schachter. Diese Psychologen Zeit verbracht mit Ein Kult, dessen Mitglieder überzeugt waren, dass die Welt würde Ende am 21. Dezember 1954. Nachdem die Vorhersage gescheitert war, klammerten sich die meisten Gläubigen immer noch an ihren Glauben. Ihr Buch, das diese Forschung beschreibt, wird treffend benannt Wenn die Prophezeiung fehlschlägt.[140]

Der Begriff Glaube Ausdauerwurde jedoch in einer Reihe von Experimenten mit dem sogenannten "Nachbesprechungsparadigma" geprägt: Die Teilnehmer lesen gefälschte Beweise für eine Hypothese, ihre Einstellungsänderung wird gemessen, dann wird die Fakery ausführlich freigelegt. Ihre Einstellungen werden dann erneut gemessen, um zu sehen, ob ihr Glaube in das vorherige Niveau zurückkehrt.[139]

Ein häufiger Befund ist, dass zumindest ein Teil des anfänglichen Glaubens auch nach einer vollständigen Nachbesprechung bleibt.[141] In einem Experiment mussten die Teilnehmer zwischen realen und gefälschten Selbstmordnotizen unterscheiden. Das Feedback war zufällig: Einige sagten, sie hätten es gut abgefunden, während andere mitgeteilt wurden, dass sie schlecht abgewickelt worden waren. Auch nach vollempfindten Nachbesprechungen wurden die Teilnehmer immer noch von dem Feedback beeinflusst. Sie dachten immer noch, dass sie bei dieser Art von Aufgabe besser oder schlechter waren als der Durchschnitt, je nachdem, was ihnen ursprünglich gesagt worden war.[142]

In einer anderen Studie lesen die Teilnehmer Arbeitsleistung Bewertungen von zwei Feuerwehrleuten zusammen mit ihren Antworten auf a Risikoaversion Prüfung.[139] Diese fiktiven Daten wurden angeordnet, um entweder einen negativen oder positiven Assoziation zu zeigen: Einige Teilnehmer wurden mitgeteilt, dass ein gefährdeter Feuerwehrmann besser abschneidet, während anderen mitgeteilt wurde, dass sie weniger gut waren als ein risikoaverse Kollege.[143] Selbst wenn diese beiden Fallstudien wahr wären, wären sie wissenschaftlich schlechte Beweise für eine Schlussfolgerung über Feuerwehrleute im Allgemeinen gewesen. Die Teilnehmer fanden sie jedoch subjektiv überzeugend.[143] Wenn sich gezeigt hatte, dass die Fallstudien fiktiv waren, nahm der Glaube der Teilnehmer an eine Verbindung ab, aber etwa die Hälfte des ursprünglichen Effekts blieb jedoch.[139] Nachverfolgungsinterviews stellten fest, dass die Teilnehmer die Nachbesprechung verstanden und ernst genommen hatten. Die Teilnehmer schienen der Nachbesprechung zu vertrauen, betrachteten jedoch die diskreditierten Informationen als irrelevant für ihren persönlichen Glauben.[143]

Das Fortsetzung Einflusswirkung ist die Tendenz, dass Fehlinformationen weiterhin das Gedächtnis und die Argumentation über ein Ereignis beeinflussen, obwohl die Fehlinformationen zurückgezogen oder korrigiert wurden. Dies geschieht auch, wenn das Individuum der Korrektur glaubt.[144]

Präferenz für frühe Informationen

Experimente haben gezeigt, dass Informationen stärker gewichtet werden, wenn sie früh in einer Reihe erscheint, auch wenn die Bestellung unwichtig ist. Zum Beispiel machen die Menschen einen positiveren Eindruck von jemandem, der als "intelligent, fleißig, impulsiv, kritisch, hartnäckig, neidisch" bezeichnet wird, als wenn sie in umgekehrter Reihenfolge dieselben Worte erhalten.[145] Dies Irrationaler Primat -Effekt ist unabhängig von der Primatwirkung im Gedächtnis in denen die früheren Elemente in einer Serie eine stärkere Speicherspur hinterlassen.[145] Die voreingenommene Interpretation bietet eine Erklärung für diesen Effekt: Wenn die anfänglichen Beweise die anfänglichen Beweise sehen, bilden die Menschen eine funktionierende Hypothese, die sich auswirkt, wie sie den Rest der Informationen interpretieren.[1]: 187

Eine Demonstration des irrationalen Primats verwendete farbige Chips, die angeblich aus zwei Urnen gezogen wurden. Den Teilnehmern wurde die Farbverteilungen der Urnen mitgeteilt und mussten die Wahrscheinlichkeit schätzen, dass ein Chip von einem von ihnen gezogen wurde.[145] Tatsächlich erschienen die Farben in einer vorbereiteten Reihenfolge. Die ersten dreißig Unentschieden bevorzugten eine Urne und die nächsten dreißig favorisierten die andere.[1]: 187 Die gesamte Serie war neutral, so dass die beiden Urnen rational gleich wahrscheinlich waren. Nach sechzig Unentschieden bevorzugten die Teilnehmer die von den ersten dreißig vorgeschlagene Urne.[145]

Ein weiteres Experiment beinhaltete eine Diashow eines einzelnen Objekts, das mit jeder nachfolgenden Folie als nur eine Unschärfe angesehen wird.[145] Nach jeder Folie mussten die Teilnehmer ihre beste Vermutung darüber angeben, was das Objekt war. Teilnehmer, deren frühe Vermutungen falsch waren, bestanden bei diesen Vermutungen, selbst wenn das Bild ausreichend im Fokus stand, dass das Objekt für andere Menschen leicht erkennbar war.[1]: 187

Illusorischer Zusammenhang zwischen Ereignissen

Illusorische Korrelation ist die Tendenz, nicht existierende Korrelationen in einer Reihe von Daten zu sehen.[146] Diese Tendenz wurde erstmals in den späten 1960er Jahren in einer Reihe von Experimenten demonstriert.[147] In einem Experiment lesen die Teilnehmer eine Reihe psychiatrischer Fallstudien, einschließlich der Reaktionen auf die Rorschach Inkblot -Test. Die Teilnehmer berichteten, dass die homosexuellen Männer im Set eher berichteten, dass das Gesäß, Anus oder sexuell mehrdeutige Zahlen in den Tintenblößen gesehen wurde. Tatsächlich wurden die fiktiven Fallstudien so konstruiert, dass die homosexuellen Männer diese Bilder nicht mehr berichteten oder in einer Version des Experiments sie weniger wahrscheinlich meldeten als heterosexuelle Männer.[146] In einer Umfrage berichtete eine Gruppe erfahrener Psychoanalytiker mit der gleichen illusorischen Assoziationen mit Homosexualität.[146][147]

In einer anderen Studie wurden die Symptome von arthritischen Patienten zusammen mit den Wetterbedingungen über einen Zeitraum von 15 Monaten aufgezeichnet. Fast alle Patienten berichteten, dass ihre Schmerzen mit den Wetterbedingungen korrelierten, obwohl die reale Korrelation Null war.[148]

Beispiel
Tage Regen Kein Regen
Arthritis 14 6
Keine Arthritis 7 2

Dieser Effekt ist eine Art voreingenommener Interpretation, indem objektiv neutrale oder ungünstige Beweise interpretiert werden, um bestehende Überzeugungen zu unterstützen. Es hängt auch mit Verzerrungen im Hypothesen-Testverhalten zusammen.[149] Bei der Beurteilung, ob zwei Ereignisse wie Krankheit und schlechtes Wetter korreliert sind, verlassen sich die Menschen stark auf die Anzahl der Anzahl positiv-positiv Fälle: In diesem Beispiel Fälle von Schmerz und schlechtem Wetter. Sie achten relativ wenig auf die anderen Arten von Beobachtungen (ohne Schmerzen und/oder gutes Wetter).[150] Dies entspricht der Abhängigkeit von positiven Tests bei Hypothesentests.[149] Es kann auch den selektiven Rückruf widerspiegeln, da Menschen das Gefühl haben, dass zwei Ereignisse korreliert sind, weil es einfacher ist, sich Zeiten zu erinnern, wenn sie zusammen passiert sind.[149]

Siehe auch

Anmerkungen

  1. ^ David Perkins, Professor und Forscher an der Harvard Graduate School of Education, prägte den Begriff "Myside -Bias", der sich auf eine Präferenz für "My" -Seite eines Problems bezieht (Baron 2000, p. 195).
  2. ^ "Assimilationsverzerrung" ist ein weiterer Begriff, der für die voreingenommene Interpretation von Beweisen verwendet wird. ((Aufstieg & Gilovich 2007, p. 113)
  3. ^ Wason verwendete auch den Begriff "Überprüfungsverzerrung". (Poletiek 2001, p. 73)

Verweise

Zitate

  1. ^ a b c d e f g h i j k l m n o p Nickerson 1998, S. 175–220
  2. ^ Prüge 1993, p. 233
  3. ^ Hart, William; Albarracin, D.; Eagly, A. H.; Brechan, ich.; Lindberg, M. J.; Merrill, L. (2009), "Validiert fühlen und korrekt sind: Eine Metaanalyse der selektiven Informationsbelastung", Psychologisches Bulletin, 135 (4): 555–588, doi:10.1037/a0015701, PMC 4797953, PMID 19586162
  4. ^ Darley, John M.; Gross, Paget H. (2000), "Eine hypothesenbeweisende Tendenz bei der Markierungseffekte", in Stangor, Charles (Hrsg.), Stereotypen und Vorurteile: Wesentliche Lesungen, Psychologiepresse, p. 212, ISBN 978-0863775895, OCLC 42823720
  5. ^ Aufstieg & Gilovich 2007
  6. ^ a b c Oswald & Grosjean 2004, S. 82–83
  7. ^ a b Hergovich, Schott & Burger 2010
  8. ^ a b c Zweig, Jason (19. November 2009), "Wie man den Ja-Mann in deinem Kopf ignoriert", Wallstreet Journal, abgerufen 13. Juni 2010
  9. ^ a b c d Kunda 1999, S. 112–115
  10. ^ a b Baron 2000, S. 162–64
  11. ^ Kida 2006, S. 162–65
  12. ^ Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990), "Diagnostische und Bestätigungsstrategien in der Hypothese -Tests von Merkmalen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 58 (6): 952–963, doi:10.1037/0022-3514.58.6.952, ISSN 1939-1315
  13. ^ Trope, Yaacov; Bassok, Miriam (1982), "Bestätigungs- und Diagnosestrategien in der Sammlung sozialer Informationen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 43 (1): 22–34, doi:10.1037/0022-3514.43.1.22, ISSN 1939-1315
  14. ^ a b c d Klayman, Joshua; Ha, Young-Won (1987), "Bestätigung, Trennung und Informationen beim Hypothesentest" (PDF), Psychologische Überprüfung, 94 (2): 211–228, Citeseerx 10.1.1.174.5232, doi:10.1037/0033-295x.94.2.211, ISSN 0033-295X, abgerufen 14. August 2009
  15. ^ Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993), "Richtungsfragen Direkte Selbstverständnisse", Zeitschrift für experimentelle Sozialpsychologie, 29: 62–63, doi:10.1006/jesp.1993.1004, ISSN 0022-1031 über Fein 2006, S. 63–65
  16. ^ a b Shafir, E. (1993), "Auswahl gegen Ablehnung: Warum einige Optionen sowohl besser als auch schlechter sind als andere", Erinnerung und Wahrnehmung, 21 (4): 546–556, doi:10.3758/bf03197186, PMID 8350746 über Fein 2006, S. 63–65
  17. ^ Snyder, Mark; Swann, Jr., William B. (1978), "Hypothesen-Testprozesse in der sozialen Interaktion", Zeitschrift für Persönlichkeit und Sozialpsychologie, 36 (11): 1202–1212, doi:10.1037/0022-3514.36.11.1202 über Poletiek 2001, p. 131
  18. ^ a b Kunda 1999, S. 117–18
  19. ^ a b Albarracin, D.; Mitchell, A. L. (2004), "Die Rolle des defensiven Vertrauens in die Präferenz für pro -idudinale Informationen: Wie der An der Annahme, dass man stark ist, kann manchmal eine defensive Schwäche sein", Bulletin Persönlichkeit und Sozialpsychologie, 30 (12): 1565–1584, doi:10.1177/0146167204271180, PMC 4803283, PMID 15536240
  20. ^ Fischer, P.; Fischer, Julia K.; Aydin, Nilüfer; Frey, Dieter (2010), "physisch attraktive Sozialinformationsquellen führen zu einer erhöhten selektiven Informationseinstellung", Basic and Applied Social Psychology, 32 (4): 340–347, doi:10.1080/01973533.2010.519208, S2CID 143133082
  21. ^ Dahlgren, Peter M. (2020), Medien -Echo -Kammern: Selektive Exposition und Bestätigungsverzerrung bei der Mediennutzung und ihre Konsequenzen für die politische Polarisierung, Göteborg: Universität von Göteborg, ISBN 978-9188212955
  22. ^ a b c d Stanovich, K.E.; West, R.F.; Toplak, M. E. (2013), "Myside -Voreingenommenheit, rationales Denken und Intelligenz", Aktuelle Richtungen in der psychologischen Wissenschaft, 22 (4): 259–264, doi:10.1177/0963721413480174, S2CID 14505370
  23. ^ a b Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978), "Konsequenzen der Bestätigung und Trennung in einem simulierten Forschungsumfeld", Vierteljährliches Journal of Experimental Psychology, 30 (3): 395–406, doi:10.1080/00335557843000007, S2CID 145419628
  24. ^ Kida 2006, p. 157
  25. ^ a b c d e f Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979), "Voreingenommene Assimilation und Haltungspolarisation: Die Auswirkungen früherer Theorien auf anschließend als Beweismittel", " Zeitschrift für Persönlichkeit und Sozialpsychologie, 37 (11): 2098–2109, Citeseerx 10.1.1.372.1743, doi:10.1037/0022-3514.37.11.2098, ISSN 0022-3514
  26. ^ a b Baron 2000, S. 201–202
  27. ^ Vyse 1997, p. 122
  28. ^ a b c d Taber, Charles S.; Lodge, Milton (Juli 2006), "motivierte Skepsis bei der Bewertung politischer Überzeugungen", American Journal of Political Science, 50 (3): 755–769, Citeseerx 10.1.1.472.7064, doi:10.1111/j.1540-5907.2006.00214.x, ISSN 0092-5853
  29. ^ a b c Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006), "Neuronale Grundlagen des motivierten Denkens: Eine fMRI -Studie über emotionale Einschränkungen des politischen Urteils von Partisanen bei den US -amerikanischen Präsidentschaftswahlen 2004", Journal of Cognitive Neurowissenschaften, 18 (11): 1947–1958, Citeseerx 10.1.1.578.8097, doi:10.1162/jocn.2006.18.11.1947, PMID 17069484, S2CID 8625992
  30. ^ Gadenne, V.; Oswald, M. (1986), "Entstehung und Veränung von Bestättigungstendenzenzen Tests von Hypothesen [Bildung und Veränderung der Bestätigungsneigung während der Prüfung von Hypothesen]", ",", ",", ",", ",", ",", ",", ",", ",", ",", ",", ",", " Zeitschrift für Experimentelle und Angewandte Psychologie, 33: 360–374 über Oswald & Grosjean 2004, p. 89
  31. ^ Hastie, Reid; Park, Bernadette (2005), "Die Beziehung zwischen Gedächtnis und Urteil hängt davon ab, ob die Urteilsaufgabe Gedächtnisbasis oder Online ist", in Hamilton, David L. (Hrsg.), Soziale Kognition: Schlüssellesungen, New York: Psychology Press, p. 394, ISBN 978-0863775918, OCLC 55078722
  32. ^ a b c Oswald & Grosjean 2004, S. 88–89
  33. ^ Stangor, Charles; McMillan, David (1992), "Erinnerung an die Erwartungskongruent- und Erwartungsinformationen: Eine Überprüfung der sozialen und sozialen Entwicklungsliteraturen", Psychologisches Bulletin, 111 (1): 42–61, doi:10.1037/0033-2909.111.1.42
  34. ^ a b Snyder, M.; Cantor, N. (1979), "Testen von Hypothesen über andere Menschen: die Verwendung historischer Wissen", Zeitschrift für experimentelle Sozialpsychologie, 15 (4): 330–342, doi:10.1016/0022-1031 (79) 90042-8 über Goldacre 2008, p. 231
  35. ^ Kunda 1999, S. 225–232
  36. ^ Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990), "Motivierte Rekrutierung autobiografischer Erinnerungen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 59 (2): 229–241, doi:10.1037/0022-3514.59.2.229, ISSN 0022-3514, PMID 2213492
  37. ^ a b c Levine, L.; Prohaska, V.; Burgess, S.L.; Rice, J.A.; Laulhere, T.M. (2001), "Erinnerung an vergangene Emotionen: die Rolle der aktuellen Bewertungen", Kognition und Emotion, 15 (4): 393–417, doi:10.1080/02699930125955, S2CID 22743423
  38. ^ a b Safer, M. A.; Bonanno, G.A.; Field, N. (2001), "Es war nie so schlimm: voreingenommener Rückruf von Trauer und langfristiger Anpassung an den Tod eines Ehepartners", Erinnerung, 9 (3): 195–203, doi:10.1080/09658210143000065, PMID 11469313, S2CID 24729233
  39. ^ a b Russell, Dan; Jones, Warren H. (1980), "Wenn der Aberglaube fehlschlägt: Reaktionen auf die Trennung paranormaler Überzeugungen", Bulletin Persönlichkeit und Sozialpsychologie, 6 (1): 83–88, doi:10.1177/014616728061012, ISSN 1552-7433, S2CID 145060971 über Vyse 1997, p. 121
  40. ^ Baron, Jonathan (1995), "Myside -Voreingenommenheit beim Nachdenken über Abtreibung",, Denken & Argumentation, 1 (3): 221–235, Citeseerx 10.1.1.112.1603, doi:10.1080/13546789508256909
  41. ^ a b c d Wolfe, Christopher; Anne Britt (2008), "Der Ort der Myside -Voreingenommenheit in schriftlicher Argumentation" (PDF), Denken & Argumentation, 14: 1–27, doi:10.1080/13546780701527674, S2CID 40527220
  42. ^ Mason, Lucia; Scirica, Fabio (Oktober 2006), "Vorhersage der Argumentationsfähigkeiten der Schüler zu kontroversen Themen durch erkenntnistheoretisches Verständnis", Lernen und Unterricht, 16 (5): 492–509, doi:10.1016/j.learninstruc.2006.09.007
  43. ^ Weinstock, Michael (2009), "Relatives Fachwissen in einer alltäglichen Argumentationsaufgabe: epistemisches Verständnis, Problemrepräsentation und Argumentationskompetenz", Lernen und individuelle Unterschiede, 19 (4): 423–434, doi:10.1016/j.lindif.2009.03.003
  44. ^ Weinstock, Michael; Neuman, Yair; Tabak, Iris (2004), "Fehlende Punkte oder Fehlen der Normen? Erkenntnistheoretische Normen als Prädiktoren für die Fähigkeit der Schüler, trügerische Argumente zu identifizieren", Zeitgenössische Bildungspsychologie, 29 (1): 77–94, doi:10.1016/s0361-476x (03) 00024-9
  45. ^ Thukydides 4.108.4.
  46. ^ Alighieri, Dante. Paradiso Canto XIII: 118–120. Trans. Allen Mandelbaum.
  47. ^ Ibn Khaldun (1958), Die muqadimmah, Princeton, NJ: Princeton University Press, p. 71.
  48. ^ a b Baron 2000, S. 195–196.
  49. ^ a b Speck, Franziskus (1620). November organums. nachgedruckt Burtt, E. A., ed. (1939), Die englischen Philosophen von Speck bis Mill, New York: Beliebiges Haus, p. 36 über Nickerson 1998, p. 176.
  50. ^ Schopenhauer, Arthur (2011) [1844], Carus, David; Aquila, Richard E. (Hrsg.), Die Welt als Willen und Präsentation, vol. 2, New York: Routledge, p. 246.
  51. ^ Tolstoy, Leo (1896). Was ist Kunst? CH. 14 p. 143. Übersetzt aus Russisch von Aylmer Maude, New York, 1904. Projekt Gutenberg Edition veröffentlicht am 23. März 2021. Abgerufen am 17. August 2021.
  52. ^ Tolstoy, Leo (1894). Das Reich Gottes ist in dir p. 49. Übersetzt aus Russisch von Constance Garnett, New York, 1894. Projekt Gutenberg Edition veröffentlicht 26. Juli 2013. Abgerufen am 17. August 2021.
  53. ^ Wason 1960
  54. ^ Lewicka 1998, p. 238
  55. ^ Oswald & Grosjean 2004, S. 79–96
  56. ^ Wason, Peter C. (1968), "Begründung über eine Regel", Vierteljährliches Journal of Experimental Psychology, 20 (3): 273–278, doi:10.1080/14640746808400161, ISSN 1747-0226, PMID 5683766, S2CID 1212273
  57. ^ a b c Sutherland, Stuart (2007), Irrationalität (2. Aufl.), London: Pinter und Martin, S. 95–103, ISBN 978-1905177073, OCLC 72151566
  58. ^ Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995), Der angepasste Geist: Evolutionäre Psychologie und die Generierung der Kultur, Oxford University Press Uns, pp.181–184, ISBN 978-0195101072, OCLC 33832963
  59. ^ Oswald & Grosjean 2004, S. 81–82, 86–87
  60. ^ Prüge 1993, p. 233
  61. ^ Lewicka 1998, p. 239
  62. ^ Tweney, Ryan D.; Doherty, Michael E. (1980), "Strategien der Regelentdeckung in einer Inferenzaufgabe", Das Quarterly Journal of Experimental Psychology, 32 (1): 109–123, doi:10.1080/00335558008248237, ISSN 1747-0226, S2CID 143148831 (Experiment IV)
  63. ^ Oswald & Grosjean 2004, S. 86–89
  64. ^ Maccoun 1998
  65. ^ Friedrich 1993, p. 298
  66. ^ Kunda 1999, p. 94
  67. ^ Baron 2000, p. 206
  68. ^ Matlin, Margaret W. (2004), "Pollyanna -Prinzip", in Pohl, Rüdiger F. (Hrsg.), Kognitive Illusionen: Ein Handbuch über Irrtümer und Vorurteile in Denken, Urteilsvermögen und Gedächtnis, Hove, UK: Psychologiepresse, pp.255–272, ISBN 978-1841693514, OCLC 55124398
  69. ^ Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (Oktober 2002), "Motiviertes Denken und Leistung bei der WASON -Auswahlaufgabe", Bulletin Persönlichkeit und Sozialpsychologie, 28 (10): 1379–1387, doi:10.1177/014616702236869, S2CID 143957893
  70. ^ Ditto, Peter H.; Lopez, David F. (1992), "Motivierte Skepsis: Verwendung differentieller Entscheidungskriterien für bevorzugte und nicht puldierte Schlussfolgerungen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 63 (4): 568–584, doi:10.1037/0022-3514.63.4.568, ISSN 0022-3514
  71. ^ Oswald & Grosjean 2004, S. 91–93
  72. ^ Friedrich 1993, S. 299, 316–317
  73. ^ Trope, Y.; Liberman, A. (1996), "Soziale Hypothese -Tests: Kognitive und Motivationsmechanismen", in Higgins, E. Tory; Kruglanski, Arie W. (Hrsg.), Sozialpsychologie: Handbuch der Grundprinzipien, New York: Guilford Press, ISBN 978-1572301009, OCLC 34731629 über Oswald & Grosjean 2004, S. 91–93
  74. ^ a b Dardenne, Benoit; Leyens, Jacques-Philippe (1995), "Bestätigungsverzerrung als sozialer Kkill" (PDF), Bulletin Persönlichkeit und Sozialpsychologie, 21 (11): 1229–1239, doi:10.1177/01461672952111011, ISSN 1552-7433, S2CID 146709087
  75. ^ Shanteau, James (2003), Sandra L. Schneider (Hrsg.), Aufkommende Perspektiven auf Urteils- und Entscheidungsforschung, Cambridge [u. a.]: Cambridge University Press, p. 445, ISBN 978-0521527187
  76. ^ Haidt, Jonathan (2013), Der gerechte Verstand: Warum gute Menschen durch Politik und Religion geteilt werden, London: Penguin Books, S. 87–88, ISBN 978-0141039169
  77. ^ Fiske, Susan T.; Gilbert, Daniel T.; Lindzey, Gardner, Hrsg. (2010), Das Handbuch der Sozialpsychologie (5. Aufl.), Hoboken, NJ: Wiley, p.811, ISBN 978-0470137499
  78. ^ American Psychological Association (2018), "Warum sind wir anfällig für gefälschte Nachrichten - und wie man sich dagegen verteidigen", Skeptischer Untersucher, 42 (6): 8–9
  79. ^ a b Pariser, Eli (2. Mai 2011), "TED Talk: Vorsicht auf Online" Filterblasen "", Ted: Ideen, die es wert ist, sich zu verbreiten, abgerufen 1. Oktober 2017
  80. ^ Selbst, Will (28. November 2016), "Vergessen Sie gefälschte Nachrichten auf Facebook - Die echte Filterblase ist Sie", NewStatesman, abgerufen 24. Oktober 2017
  81. ^ Pariser, Eli (7. Mai 2015), "Hat Facebooks Big Study meine Filterblasenarbeit getötet?", Verdrahtet, abgerufen 24. Oktober 2017
  82. ^ Kendrick, Douglas T.; Cohen, Adam B.; Neuberg, Steven L.; Cialdini, Robert B. (2020), "Die Wissenschaft des Anti-Wissens-Denkens", Wissenschaftlicher Amerikaner, 29 (4, Herbst, Sonderausgabe): 84–89
  83. ^ Weinmann, Markus; Schneider, Christoph; Vom Brocke, Jan (2015), "Digital Nudging", SSRN, Rochester, NY, doi:10.2139/ssrn.2708250, S2CID 219380211, SSRN 2708250
  84. ^ Thornhill, Calum; Meeus, Quentin; Peperkamp, ​​Jeroen; Berendt, Bettina (2019), "Ein digitaler Anstoß zur Bekämpfung der Bestätigungsverzerrung", Grenzen in Big Data, 2: 11, doi:10.3389/fdata.2019.00011, ISSN 2624-909x, PMC 7931917, PMID 33693334
  85. ^ Mahoney, Michael J.; Demonbreun, B.G. (1977), "Psychologie des Wissenschaftlers: Eine Analyse der Problemlösung", "," Kognitive Therapie und Forschung, 1 (3): 229–238, doi:10.1007/bf01186796, S2CID 9703186
  86. ^ Mitroff, I. I. (1974), "Normen und Gegennormen in einer ausgewählten Gruppe der Apollo Moon-Wissenschaftler: Eine Fallstudie über die Ambivalenz der Wissenschaftler", Amerikanische soziologische Überprüfung, 39 (4): 579–395, doi:10.2307/2094423, JStor 2094423
  87. ^ a b Koehler 1993
  88. ^ a b c Mahoney 1977
  89. ^ Letrud, kåre; Hernes, Sigbjørn (2019), "Bestätigende Zitiervoreingenommenheit im Debunking des wissenschaftlichen Mythos: Eine Drei-in-One-Fallstudie", PLUS EINS, 14 (9): e0222213, Bibcode:2019PLOSO..1422213L, doi:10.1371/journal.pone.0222213, PMC 6733478, PMID 31498834
  90. ^ Ball, Phillip (14. Mai 2015), "Das Problem mit Wissenschaftlern: Wie ein Psychologe menschliche Vorurteile in der Wissenschaft in Angriff nehmen", Nautilus, abgerufen 6. Oktober 2019
  91. ^ Sternberg, Robert J. (2007), "Kritisches Denken in Psychologie: Es ist wirklich kritisch", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (Hrsg.), Kritisches Denken in der Psychologie, Cambridge University Press, p. 292, ISBN 978-0521608343, OCLC 69423179, Einige der schlimmsten Beispiele für Bestätigungsverzerrungen sind in der Erforschung der Parapsychologie ... wohl gibt es hier ein ganzes Feld ohne leistungsstarke Bestätigungsdaten. Aber die Menschen wollen glauben, und so finden sie Wege zu glauben.
  92. ^ a b Shadish, William R. (2007), "Kritisches Denken in Quasi-Experimentation", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (Hrsg.), Kritisches Denken in der Psychologie, Cambridge University Press, p. 49, ISBN 978-0521608343
  93. ^ Jüni, P.; Altman, D.G.; Egger, M. (2001), "Systematische Überprüfungen im Gesundheitswesen: Bewertung der Qualität kontrollierter klinischer Studien", BMJ (Clinical Research Ed.), 323 (7303): 42–46, doi:10.1136/bmj.323.7303.42, PMC 1120670, PMID 11440947
  94. ^ Lee, C.J.; Sugimoto, C.R.; Zhang, G.; Cronin, B. (2013), "Voreingenommenheit in Peer Review", Journal of the Association for Information Science und Technologie, 64: 2–17, doi:10.1002/asi.22784
  95. ^ Shermer, Michael (Juli 2006), "Das politische Gehirn: Eine kürzlich durchgeführte Studie des Gehirnbetriebs zeigt, dass unsere politischen Vorlieben ein Produkt unbewusster Bestätigungsverzerrung sind", Wissenschaftlicher Amerikaner, 295 (1): 36, Bibcode:2006Sciam.295a..36s, doi:10.1038/ScientificAmerican0706-36, ISSN 0036-8733, PMID 16830675
  96. ^ Emerson, G.B.; Wärme, W.J.; Wolf, F.M.; Heckman, J.D.; Brand, R.A.; Leopold, S.S. (2010), "Tests auf das Vorhandensein einer positiven Ergebnisse bei Peer Review: eine randomisierte kontrollierte Studie", Archiv der Inneren Medizin, 170 (21): 1934–1339, doi:10.1001/archinternmed.2010.406, PMID 21098355
  97. ^ Bartlett, Steven James, "Die Psychologie des Missbrauchs in Publishing: Peer Review und redaktionelle Voreingenommenheit", Kap. 7, S. 147–177, in Steven James Bartlett, Normalität ist nicht gleich psychischer Gesundheit: Die Notwendigkeit, anderswo nach Standards für gute psychologische Gesundheit zu suchen. Santa Barbara, CA: Praeger, 2011.
  98. ^ Horrobin, David F. (1990), "Die philosophische Grundlage der Peer Review und die Unterdrückung von Innovation", Zeitschrift der American Medical Association, 263 (10): 1438–1441, doi:10.1001/jama.263.10.1438, PMID 2304222
  99. ^ Pompian, Michael M. (2006), Verhaltensfinanzierung und Vermögensverwaltung: So erstellen Sie optimale Portfolios, die Anlegerverzerrungen ausmachen, John Wiley und Söhne, S. 187–190,, ISBN 978-0471745174, OCLC 61864118
  100. ^ Hilton, Denis J. (2001), "Die Psychologie der finanziellen Entscheidungsfindung: Anträge auf Handel, Handel und Investitionsanalyse", Journal of Behavioral Finance, 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579, S2CID 153379653
  101. ^ Krueger, David; Mann, John David (2009), Die geheime Sprache des Geldes: Wie man intelligenteren finanziellen Entscheidungen trifft und ein reicheres Leben führt, McGraw Hill Professional, S. 112–113, ISBN 978-0071623391, OCLC 277205993
  102. ^ Groopman, Jerome (2007), Wie der Arzt denkt, Melbourne: Scribe Publications, S. 64–66, ISBN 978-1921215698
  103. ^ Croskerry, Pat (2002), "Qualität in der klinischen Entscheidungsfindung erreichen: kognitive Strategien und Erkennung von Voreingenommenheit", Akademische Notfallmedizin, 9 (11): 1184–1204, doi:10.1197/aemj.9.11.1184, PMID 12414468.
  104. ^ Pang, Dominic; Bleetman, Anthony; Bleetman, David; Wynne, Max (2. Juni 2017), "Der Fremdkörper, der nie war: die Auswirkungen der Bestätigungsverzerrung", British Journal of Hospital Medicine, 78 (6): 350–351, doi:10.12968/hMed.2017.78.6.350, PMID 28614014
  105. ^ Goldacre 2008, p. 233
  106. ^ Singh, Simon; Ernst, Edzard (2008), Trick oder Behandlung?: Alternative Medizin vor Gericht, London: Bantam, S. 287–288, ISBN 978-0593061299
  107. ^ Atwood, Kimball (2004), "Naturheilkunde, Pseudowissenschaften und Medizin: Mythen und Irrtümer gegen Wahrheit", Medscape General Medicine, 6 (1): 33, PMC 1140750, PMID 15208545
  108. ^ Neenan, Michael; Dryden, Windy (2004), Kognitive Therapie: 100 wichtige Punkte und Techniken, Psychology Press, p. ix, ISBN 978-1583918586, OCLC 474568621
  109. ^ Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Kognitive Therapie für Depressionen und Angstzustände: Der Leitfaden eines Praktizierenden (2. ed.), Wiley-Blackwell, p. 19, ISBN 978-0632039869, OCLC 32699443
  110. ^ Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Kognitive Verhaltensprozesse über psychologische Störungen hinweg: ein transdiagnostischer Ansatz für Forschung und Behandlung, Oxford University Press, S. 172–173, 176, ISBN 978-0198528883, OCLC 602015097
  111. ^ Myers, D.G.; Lamm, H. (1976), "Das Gruppenpolarisationsphänomen", Psychologisches Bulletin, 83 (4): 602–527, doi:10.1037/0033-2909.83.4.602 über Nickerson 1998, S. 193–194
  112. ^ Halpern, Diane F. (1987), Kritisches Denken im gesamten Lehrplan: Eine kurze Ausgabe von Gedanken und Wissen, Lawrence Erlbaum Associates, p. 194, ISBN 978-0805827316, OCLC 37180929
  113. ^ Roach, Kent (2010), "Falschüberzeugende Überzeugungen: Gegentliche und inquisitorische Themen", North Carolina Journal of International Law and Commercial Regulation, 35: 387–446, SSRN 1619124, Zitat: Sowohl kontrovers als auch inquisitoriale Systeme scheinen den Gefahren des Tunnel -Sehens oder der Bestätigungsverzerrung ausgesetzt zu sein.
  114. ^ Baron 2000, S. 191, 195
  115. ^ Kida 2006, p. 155
  116. ^ Tetlock, Philip E. (2005), Expertes politisches Urteil: Wie gut ist es? Wie können wir es wissen?, Princeton, NJ: Princeton University Press, S. 125–128, ISBN 978-0691123028, OCLC 56825108
  117. ^ O'Brien, B. (2009), "Hauptverdächtiger: Eine Untersuchung von Faktoren, die die Bestätigungsverzerrung bei kriminellen Ermittlungen verschlimmern und entgegenwirken", Psychologie, öffentliche Ordnung und Recht, 15 (4): 315–334, doi:10.1037/a0017881
  118. ^ a b Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), "Angenehm ausgefallene oder unangenehme Wahrheit? Selbsterhanz und Selbstverifizierung in Einklang bringen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 57 (5): 782 - is 791, doi:10.1037/0022-3514.57.5.782, ISSN 0022-3514, PMID 2810025
  119. ^ a b Swann, William B.; Read, Stephen J. (1981), "Selbstverifizierungsprozesse: Wie wir unsere Selbstverständnisse aufrechterhalten", Zeitschrift für experimentelle Sozialpsychologie, 17 (4): 351–372, doi:10.1016/0022-1031 (81) 90043-3, ISSN 0022-1031
  120. ^ Story, Amber L. (1998), "Selbstwertgefühl und Gedächtnis für günstige und ungünstige Persönlichkeitsfeedback", Bulletin Persönlichkeit und Sozialpsychologie, 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433, S2CID 144945319
  121. ^ White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), "Bestätigende Vorspannung bei der Bewertung von Persönlichkeitstestinformationen: Bin ich wirklich diese Art von Person?", Journal of Counseling Psychology, 40 (1): 120–126, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167
  122. ^ Swann, William B.; Read, Stephen J. (1981), "Selbsterkenntnis erworben: Die Suche nach Feedback, die passt", Zeitschrift für Persönlichkeit und Sozialpsychologie, 41 (6): 1119–1328, Citeseerx 10.1.1.537.2324, doi:10.1037/0022-3514.41.6.1119, ISSN 0022-3514
  123. ^ Shrauger, J. Sidney; Lund, Adrian K. (1975), "Selbstbewertung und Reaktionen auf Bewertungen von anderen", Journal of Persönlichkeit, 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574.x, PMID 1142062
  124. ^ Lidén, Moa (2018). "3.2.4.1" (PDF). Bestätigungsverzerrung in Strafsachen (These). Abteilung für Recht, Uppsala Universität. Abgerufen 20. Februar 2020.
  125. ^ Trevor-Roper, H. R. (1969). Die europäische Hexenverschaffung des 16. und 17. Jahrhunderts und anderer Essays. London: HarperCollins.
  126. ^ Chrisler, Mark (24. September 2019), "Die Konstante: Eine Geschichte, die Dinge falsch verstanden haben", ConstantPodcast.com (Podcast), abgerufen 19. Februar 2020
  127. ^ a b Smith, Jonathan C. (2009), Pseudowissenschaften und außergewöhnliche Behauptungen des Paranormalen: Ein kritisches Denker -Toolkit, London: Wiley-Blackwell, S. 149–151, ISBN 978-1405181228, OCLC 319499491
  128. ^ Randi, James (1991), James Randi: Psychischer Ermittler, London: Boxtree, S. 58–62, ISBN 978-1852831448, OCLC 26359284
  129. ^ Agarwal, Dr. Pragva (19. Oktober 2018), "So kann die Voreingenommenheit die Rekrutierung in Ihrer Organisation beeinflussen können", Forbes, abgerufen 31. Juli 2019
  130. ^ a b c Kuhn, Deanna; Lao, Joseph (März 1996), "Auswirkungen von Beweisen auf Einstellungen: Ist Polarisierung die Norm?", Psychologische Wissenschaft, 7 (2): 115–120, doi:10.1111/j.1467-9280.1996.tb00340.x, S2CID 145659040
  131. ^ Baron 2000, p. 201
  132. ^ Miller, A.G.; Mchoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993), "Das Phänomen der Haltung Polarisation: Rolle der Reaktionsmaßnahme, Einstellungssausdruck und Verhaltensfolgen der gemeldeten Einstellungsänderung", Zeitschrift für Persönlichkeit und Sozialpsychologie, 64 (4): 561–574, doi:10.1037/0022-3514.64.4.561, S2CID 14102789
  133. ^ "Rückspieleffekt", Das Wörterbuch des Skeptikers, abgerufen 26. April 2012
  134. ^ Silverman, Craig (17. Juni 2011), "Der Rückschlag -Effekt", Columbia Journalism Review, abgerufen 1. Mai 2012, Wenn Ihre tiefsten Überzeugungen durch widersprüchliche Beweise in Frage gestellt werden, werden Ihre Überzeugungen stärker.
  135. ^ Nyhan, B. & Reifler, J. (2010). "Wenn Korrekturen scheitern: die Persistenz politischer Fehlwahrnehmungen". Politisches Verhalten, 32, 303–320
  136. ^ "Fakten sind schließlich wichtig: Ablehnung des" Rückschlägeffekts "abzulehnen". Oxford Education Blog. 12. März 2018. Abgerufen 23. Oktober 2018.
  137. ^ Holz, Thomas; Porter, Ethan (2019), "Der schwer fassbare Hinterkopf -Effekt: Masseneinstellungen 'standhafter sachlicher Haftung", Politisches Verhalten, 41: 135–163, doi:10.2139/ssrn.2819073, ISSN 1556-5068
  138. ^ "Faktenüberprüfungen" Backfire ", schlägt eine neue Studie vor.", Poynter, 2. November 2016, abgerufen 23. Oktober 2018
  139. ^ a b c d Ross, Lee; Anderson, Craig A. (1974), "Urteil unter Unsicherheit: Heuristik und Vorurteile", Wissenschaft, 185 (4157): 1124–1131, Bibcode:1974Sci ... 185.1124t, doi:10.1126/science.185.4157.1124, PMID 17835457, S2CID 143452957
    * Kahneman, Daniel; Slovic, Paul; Tversky, Amos, Hrsg. (1982), "Mängel im Zuordnungsprozess: Über die Ursprünge und die Aufrechterhaltung fehlerhafter sozialer Bewertungen", Urteil unter Unsicherheit: Heuristik und Vorurteile, Cambridge University Press, ISBN 978-0521284141, OCLC 7578020
  140. ^ Festinger, Leon (1956), Wenn die Prophezeiung fehlschlägt: Eine soziale und psychologische Studie einer modernen Gruppe, die die Zerstörung der Welt vorhergesagt hat, New York: Harper Torchbooks.
  141. ^ Kunda 1999, p. 99
  142. ^ Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975), "Ausdauer in der Selbstwahrnehmung und sozialer Wahrnehmung: voreingenommene Attributionsprozesse im Nachbesprechungsparadigma", Zeitschrift für Persönlichkeit und Sozialpsychologie, 32 (5): 880 - is 892, doi:10.1037/0022-3514.32.5.880, ISSN 0022-3514, PMID 1185517 über Kunda 1999, p. 99
  143. ^ a b c Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980), "Ausdauer sozialer Theorien: Die Rolle der Erklärung in der Beharrlichkeit diskreditierter Informationen", Zeitschrift für Persönlichkeit und Sozialpsychologie, 39 (6): 1037–1049, Citeseerx 10.1.1.130.933, doi:10.1037/h0077720, ISSN 0022-3514
  144. ^ Cacciatore, Michael A. (9. April 2021), "Fehlinformationen und öffentliche Meinung von Wissenschaft und Gesundheit: Ansätze, Erkenntnisse und zukünftige Richtungen", Verfahren der National Academy of Sciences, 118 (15): e1912437117, doi:10.1073/pnas.1912437117, ISSN 0027-8424, PMC 8053916, PMID 33837143, p. 4: Der CIE bezieht sich auf die Tendenz zu Informationen, die ursprünglich als wahr dargestellt, aber später als falsch bekannt sind, weiterhin Gedächtnis und Argumentation zu beeinflussen
  145. ^ a b c d e Baron 2000, S. 197–200
  146. ^ a b c Fein 2006, S. 66–70
  147. ^ a b Prüge 1993, S. 164–166
  148. ^ Redelmeir, D.A.; Tversky, Amos (1996), "über die Überzeugung, dass Arthritisschmerzen mit dem Wetter zusammenhängen", Verfahren der National Academy of Sciences, 93 (7): 2895–2896, Bibcode:1996pnas ... 93.2895r, doi:10.1073/pnas.93.7.2895, PMC 39730, PMID 8610138 über Kunda 1999, p. 127
  149. ^ a b c Kunda 1999, S. 127–130
  150. ^ Prüge 1993, S. 162–164

Quellen

Weitere Lektüre

Externe Links