Dan Ariely: Daten gefälscht, Lügen und Halbwahrheiten eines Superstars der Psychologie

Dan Ariely: Daten gefälscht, Lügen und Halbwahrheiten eines Superstars der Psychologie

Dan Ariely

Published on:

Mar 25, 2026

Mann im schwarzen Anzug und Zylinder führt einen Zaubertrick mit einem roten Getränk und schwebendem Ballon vor

DESCRIPTION:

Psychologe und Verhaltensökonom Dan Ariely ist weltweit bekannt, doch seine berühmte Studie über Ehrlichkeit steht unter Verdacht: Daten gefälscht, Befunde widerlegt. Psychologe Dan Ariely und der Fall, der die Wissenschaft erschütterte.

Ariely, die Daten und die halbe Wahrheit: Ergebnisse offenbar gefälscht, falsch oder unerklärlich

Im August 2021 erschien auf der Datenanalyse-Website DataColada ein anonymer Beitrag. Sein Gegenstand war ein einzelnes Excel-File. Sein Befund: Die darin enthaltenen Daten verhielten sich nicht wie Daten aus der Realität. Sie sahen aus wie erfunden. Was folgte, war eine der aufschlussreichsten Debatten über Forschungsintegrität der vergangenen Jahre, und ein Lehrstück darüber, wie Anreize, Bekanntheit und schwache institutionelle Kontrollen in der Wissenschaft zusammenwirken können.

Der Psychologe und Verhaltensökonom Dan Ariely gilt als einer der weltweit bekanntesten Wissenschaftskommunikatoren. Seine Bücher wurden zu Bestsellern, seine TED-Talks millionenfach aufgerufen, seine Forschung prägte Debatten über menschliches Verhalten in Politik, Wirtschaft und Alltag. Dass ausgerechnet er im Mittelpunkt einer Debatte über gefälschte Daten steht, ist mehr als ein Skandal. Es ist eine Diagnose.

Die Studie im Fachjournal, und ein verdächtiges Datum

Im Jahr 2012 veröffentlichten Dan Ariely und Kolleginnen eine Studie im Fachjournal PNAS (Proceedings of the National Academy of Sciences). Die Studie über Ehrlichkeit beschrieb ein Feldexperiment mit einer amerikanischen Kfz-Versicherung. Versicherungskunden sollten ihren aktuellen Kilometerstand angeben. Die experimentelle Manipulation war einfach: Eine Gruppe unterschrieb eine Ehrlichkeitserklärung gleich zu Beginn des Formulars, die andere erst am Ende. Das Ergebnis, so die Autoren: Wer gleich zu Beginn unterschrieb, machte signifikant ehrlichere Angaben.

Das klang plausibel, war gut erzählt, wurde rasch zum Kernargument eines Bestsellers und fand Eingang in die Regierungsberatung auf mehreren Kontinenten. Das psychologische Prinzip, wonach moralische Erinnerungen am stärksten wirken, wenn sie der Handlung vorausgehen, schien bestätigt.

Doch das Datum in den Metadaten der Excel-Datei erzählte eine andere Geschichte. Ariely war als Ersteller und letzter Bearbeiter der Datei vermerkt, bevor sie an die Mitautorin Nina Mazar weitergeleitet wurde. Und die Daten selbst verhielten sich statistisch so, wie echte Kilometerstände sich nicht verhalten: keine Rundungen, keine Häufungen bei psychologisch markanten Zahlen, stattdessen eine nahezu gleichmäßige Verteilung über den gesamten Wertebereich. Ein solches Muster ist bei menschlichen Selbstauskünften schlicht unerklärlich. Es ist das Muster, das entsteht, wenn Zahlen nicht gemessen, sondern generiert werden.

Der Datensatz unter dem Mikroskop: Verdacht wird zur Gewissheit

Die DataColada-Autoren legten ihre Befunde systematisch dar. Neben der Verteilungsanomalie fanden sie ein weiteres merkwürdiges Merkmal: Die Basiskilometerstände im Datensatz waren in zwei verschiedenen Schriftarten formatiert, Calibri und Cambria, und zwar in nahezu exakt gleicher Zahl: 6.744 Werte in der einen, 6.744 in der anderen. Eine solche Aufteilung tritt in einem realen Dateneingabeprozess nie auf.

Dazu kam ein auffallender Widerspruch in der Stichprobengröße. Die Studie behauptete, Angaben von über 13 000 Policen und 20 000 Fahrzeugen ausgewertet zu haben. Die Versicherungsgesellschaft erklärte später, sie habe lediglich Daten zu 3.700 Policen und rund 6.000 Fahrzeugen geliefert. Das Unternehmen führte eine eigene interne Prüfung durch und bestätigt schriftlich: Der übermittelte Datensatz sei „manipuliert und durch synthetisierte oder erfundene Daten ergänzt“ worden. Die eigene Replikation fand keinen signifikanten Effekt.

Ariely die Daten anzulasten, ist in diesem Kontext mehr als eine Zuschreibung, es ist die Frage, die das gesamte Forschungsprojekt infrage stellt. Ariely räumte ein, dass die Daten gefälscht seien, bestritt aber, selbst die Fälschung vorgenommen zu haben. Die Versicherung wies diese Darstellung zurück. Die Metadaten der Datei sprachen gegen Arielys Version der Ereignisse.

Wie sz.de und weitere Medien berichteten, war zu diesem Zeitpunkt bereits eine zweite prominente Figur aus dem Umfeld der Verhaltensökonomie in einer ähnlichen Lage: Francesca Gino, Professorin an der Harvard Business School und ebenfalls bekannt für Studien über unehrliches Verhalten, sah sich mit vergleichbaren Vorwürfen konfrontiert. Die Gleichzeitigkeit war nicht zufällig, sie verweist auf ein strukturelles Problem, nicht auf bloße individuelle Fehler.

Superstar der Wissenschaft, und die Logik des Markts

Dan Ariely von der Duke University hatte in den Jahren vor der Kontroverse eine institutionelle Stellung aufgebaut, die in der akademischen Psychologie ihresgleichen sucht. Als Psychologe Dan Ariely in Medien und auf Konferenzen auftrat, sprach er nicht nur zu Fachkollegen, er sprach zu Politikern, CEOs und Millionen von TED-Zuschauern. Sein Einfluss war real und messbar: Die Obama-Regierung griff auf Erkenntnisse aus seiner Forschung zurück, und die israelische Regierung schloss einen Vertrag ab, der laut Berichten rund 17 Millionen Dollar umfasste.

Dieser Superstar-Status ist psychologisch und soziologisch bedeutsam. Er erzeugt Anreize, die mit wissenschaftlicher Integrität in Konflikt geraten können. Wer berühmt ist und dessen Forschung kommerziell verwertet wird, durch Beraterverträge, Vortragsreihen, Buchvermarktung, steht unter einem Druck, der sich von dem eines unbekannten Grundlagenforschers grundlegend unterscheidet. Das ist eine Erklärung dafür, warum das Phänomen des wissenschaftlichen Betrugs nicht zufällig unter herausragenden Wissenschaftlern gehäuft auftritt.

Die Lüge, falls sie eine war, wäre dann nicht allein ein psychologisches Versagen einer Einzelperson. Sie wäre das Produkt einer Anreizstruktur, die spektakuläre, medienkompatible Ergebnisse belohnt und stille Nullergebnisse bestraft. Forschung, die bestätigt, was Menschen hören wollen, findet auf dem Aufmerksamkeitsmarkt Abnehmer. Forschung, die widerspricht oder nichts findet, bleibt in Schubladen.

Sogenannte Replikationsforschung: Die Wahrheit kommt ans Licht

Die Studie über Ehrlichkeit war nicht die einzige, die unter Beschuss geriet. Das gesamte Paradigma der „moralischen Anstöße“, die Idee, dass die Aktivierung ethischer Schemata unehrliches Verhalten unterbindet, wurde in den Folgejahren mehrfach zu replizieren versucht. Eine 2018 durchgeführte Meta-Analyse untersuchte 19 unabhängige Replikationsversuche. Der mittlere Effekt war klein und wies zudem in entgegengesetzte Richtung zur Originalbehauptung. Die Studien aus Arielys Labor hatten stets die größten Effekte ergeben.

Wenn Originalstudien systematisch stärkere Befunde produzieren als alle nachfolgenden Replikationen, und wenn diese Originalstudien übereinstimmend aus demselben Labor stammen, ist das ein Muster, das zu berechtigten Zweifeln Anlass gibt.

Hinzu kamen fehlende Nachweise zur Datenherkunft. Ariely von der Duke University und seine Mitautoren konnten auf Anfrage nicht mehr rekonstruieren, wo und wie die Labordaten zu den Zehn-Gebote-Experimenten erhoben worden waren. Eine am anderen Ende des Landes tätige Psychologin, die in den Danksagungen namentlich erwähnt wurde, erklärte, die Studie könne nicht in der beschriebenen Weise durchgeführt worden sein. Stichprobengröße, Anreizstruktur, logistische Umsetzung, offensichtlich falsch.

Was der Fall über Forschungsbetrug lehrt

Der Fall ist kein Sonderfall. Er ist ein Lehrstück über systemische Schwachstellen in der Wissenschaft, und die Psychologen und Verhaltensökonomen, die in diesem Bereich arbeiten, wissen das. Peer Review prüft keine Rohdaten. Ein gut konstruierter, intern konsistenter Datensatz ermöglicht die erfolgreiche Begutachtung ebenso zuverlässig wie ein echter. Dass jemand betrogen hat, zeigt sich nicht im Manuskript, es zeigt sich erst, wenn jemand die Rohdaten anfordert und analysiert.

Die Reformen, die das ändern könnten, wie Vorabregistrierung von Hypothesen, Pflicht zur Veröffentlichung von Rohdaten und verpflichtende Replikation vor jeder Übernahme in die Politik, waren zum Zeitpunkt der meisten hier diskutierten Studien nicht Standard. In weiten Teilen der Wissenschaft sind sie es heute noch nicht. Dabei reicht institutionelles Vertrauen als Kontrollmechanismus ganz offensichtlich nicht aus.

Für Journalisten, Politikberater und informierte Laien lässt sich aus dem Fall ein einfaches Prüfschema ableiten: Sind die Rohdaten zugänglich? Gibt es unabhängige Replikationen mit dokumentierten Effektgrößen? Wurde das Ergebnis kommerzialisiert, bevor seine Robustheit gesichert war? Im Fall der Kfz-Versicherungsstudie lauteten die Antworten: nein, nein, ja. Das ist keine Randnotiz, das ist das Muster, aus dem wissenschaftliche Fehlinformation entsteht.

Fazit

Mehrere voneinander unabhängige Befundlinien, digitale Forensik, institutionelle Widersprüche seitens der Versicherung, systematische Replikationsmisserfolge und umstrittene Datenquellen, wecken ernsthafte Zweifel an zentralen Veröffentlichungen, die den Ruf des weltweit bekannten Psychologen und Verhaltensökonomen Dan Ariely begründeten. Einfluss und Überzeugungskraft sind kein Ersatz für Datenintegrität. Und Wissenschaft, die auf Marktlogik optimiert wird, liefert verlässlich Ergebnisse, die lediglich


VERWANDTE ARTIKEL:

Selbsttäuschung erkennen und überwinden – Der Weg zu mehr Ehrlichkeit und innerer Freiheit

Selbsthilfe kritisch hinterfragen – Die Wahrheit über Selbstoptimierungsmythen und Erfolg

Belief Bias – Ursachen, Beispiele und Vermeidung des Denkfehlers

Themenartikel 8 – Parallelen zu anderen psychologischen Klassikern

Neuromodulation verstehen – Ein evidenzbasierter Weg zur Selbstregulation 03: Die Polyvagal-Theorie und ihre Kritik

DESCRIPTION:

Psychologe und Verhaltensökonom Dan Ariely ist weltweit bekannt, doch seine berühmte Studie über Ehrlichkeit steht unter Verdacht: Daten gefälscht, Befunde widerlegt. Psychologe Dan Ariely und der Fall, der die Wissenschaft erschütterte.

Ariely, die Daten und die halbe Wahrheit: Ergebnisse offenbar gefälscht, falsch oder unerklärlich

Im August 2021 erschien auf der Datenanalyse-Website DataColada ein anonymer Beitrag. Sein Gegenstand war ein einzelnes Excel-File. Sein Befund: Die darin enthaltenen Daten verhielten sich nicht wie Daten aus der Realität. Sie sahen aus wie erfunden. Was folgte, war eine der aufschlussreichsten Debatten über Forschungsintegrität der vergangenen Jahre, und ein Lehrstück darüber, wie Anreize, Bekanntheit und schwache institutionelle Kontrollen in der Wissenschaft zusammenwirken können.

Der Psychologe und Verhaltensökonom Dan Ariely gilt als einer der weltweit bekanntesten Wissenschaftskommunikatoren. Seine Bücher wurden zu Bestsellern, seine TED-Talks millionenfach aufgerufen, seine Forschung prägte Debatten über menschliches Verhalten in Politik, Wirtschaft und Alltag. Dass ausgerechnet er im Mittelpunkt einer Debatte über gefälschte Daten steht, ist mehr als ein Skandal. Es ist eine Diagnose.

Die Studie im Fachjournal, und ein verdächtiges Datum

Im Jahr 2012 veröffentlichten Dan Ariely und Kolleginnen eine Studie im Fachjournal PNAS (Proceedings of the National Academy of Sciences). Die Studie über Ehrlichkeit beschrieb ein Feldexperiment mit einer amerikanischen Kfz-Versicherung. Versicherungskunden sollten ihren aktuellen Kilometerstand angeben. Die experimentelle Manipulation war einfach: Eine Gruppe unterschrieb eine Ehrlichkeitserklärung gleich zu Beginn des Formulars, die andere erst am Ende. Das Ergebnis, so die Autoren: Wer gleich zu Beginn unterschrieb, machte signifikant ehrlichere Angaben.

Das klang plausibel, war gut erzählt, wurde rasch zum Kernargument eines Bestsellers und fand Eingang in die Regierungsberatung auf mehreren Kontinenten. Das psychologische Prinzip, wonach moralische Erinnerungen am stärksten wirken, wenn sie der Handlung vorausgehen, schien bestätigt.

Doch das Datum in den Metadaten der Excel-Datei erzählte eine andere Geschichte. Ariely war als Ersteller und letzter Bearbeiter der Datei vermerkt, bevor sie an die Mitautorin Nina Mazar weitergeleitet wurde. Und die Daten selbst verhielten sich statistisch so, wie echte Kilometerstände sich nicht verhalten: keine Rundungen, keine Häufungen bei psychologisch markanten Zahlen, stattdessen eine nahezu gleichmäßige Verteilung über den gesamten Wertebereich. Ein solches Muster ist bei menschlichen Selbstauskünften schlicht unerklärlich. Es ist das Muster, das entsteht, wenn Zahlen nicht gemessen, sondern generiert werden.

Der Datensatz unter dem Mikroskop: Verdacht wird zur Gewissheit

Die DataColada-Autoren legten ihre Befunde systematisch dar. Neben der Verteilungsanomalie fanden sie ein weiteres merkwürdiges Merkmal: Die Basiskilometerstände im Datensatz waren in zwei verschiedenen Schriftarten formatiert, Calibri und Cambria, und zwar in nahezu exakt gleicher Zahl: 6.744 Werte in der einen, 6.744 in der anderen. Eine solche Aufteilung tritt in einem realen Dateneingabeprozess nie auf.

Dazu kam ein auffallender Widerspruch in der Stichprobengröße. Die Studie behauptete, Angaben von über 13 000 Policen und 20 000 Fahrzeugen ausgewertet zu haben. Die Versicherungsgesellschaft erklärte später, sie habe lediglich Daten zu 3.700 Policen und rund 6.000 Fahrzeugen geliefert. Das Unternehmen führte eine eigene interne Prüfung durch und bestätigt schriftlich: Der übermittelte Datensatz sei „manipuliert und durch synthetisierte oder erfundene Daten ergänzt“ worden. Die eigene Replikation fand keinen signifikanten Effekt.

Ariely die Daten anzulasten, ist in diesem Kontext mehr als eine Zuschreibung, es ist die Frage, die das gesamte Forschungsprojekt infrage stellt. Ariely räumte ein, dass die Daten gefälscht seien, bestritt aber, selbst die Fälschung vorgenommen zu haben. Die Versicherung wies diese Darstellung zurück. Die Metadaten der Datei sprachen gegen Arielys Version der Ereignisse.

Wie sz.de und weitere Medien berichteten, war zu diesem Zeitpunkt bereits eine zweite prominente Figur aus dem Umfeld der Verhaltensökonomie in einer ähnlichen Lage: Francesca Gino, Professorin an der Harvard Business School und ebenfalls bekannt für Studien über unehrliches Verhalten, sah sich mit vergleichbaren Vorwürfen konfrontiert. Die Gleichzeitigkeit war nicht zufällig, sie verweist auf ein strukturelles Problem, nicht auf bloße individuelle Fehler.

Superstar der Wissenschaft, und die Logik des Markts

Dan Ariely von der Duke University hatte in den Jahren vor der Kontroverse eine institutionelle Stellung aufgebaut, die in der akademischen Psychologie ihresgleichen sucht. Als Psychologe Dan Ariely in Medien und auf Konferenzen auftrat, sprach er nicht nur zu Fachkollegen, er sprach zu Politikern, CEOs und Millionen von TED-Zuschauern. Sein Einfluss war real und messbar: Die Obama-Regierung griff auf Erkenntnisse aus seiner Forschung zurück, und die israelische Regierung schloss einen Vertrag ab, der laut Berichten rund 17 Millionen Dollar umfasste.

Dieser Superstar-Status ist psychologisch und soziologisch bedeutsam. Er erzeugt Anreize, die mit wissenschaftlicher Integrität in Konflikt geraten können. Wer berühmt ist und dessen Forschung kommerziell verwertet wird, durch Beraterverträge, Vortragsreihen, Buchvermarktung, steht unter einem Druck, der sich von dem eines unbekannten Grundlagenforschers grundlegend unterscheidet. Das ist eine Erklärung dafür, warum das Phänomen des wissenschaftlichen Betrugs nicht zufällig unter herausragenden Wissenschaftlern gehäuft auftritt.

Die Lüge, falls sie eine war, wäre dann nicht allein ein psychologisches Versagen einer Einzelperson. Sie wäre das Produkt einer Anreizstruktur, die spektakuläre, medienkompatible Ergebnisse belohnt und stille Nullergebnisse bestraft. Forschung, die bestätigt, was Menschen hören wollen, findet auf dem Aufmerksamkeitsmarkt Abnehmer. Forschung, die widerspricht oder nichts findet, bleibt in Schubladen.

Sogenannte Replikationsforschung: Die Wahrheit kommt ans Licht

Die Studie über Ehrlichkeit war nicht die einzige, die unter Beschuss geriet. Das gesamte Paradigma der „moralischen Anstöße“, die Idee, dass die Aktivierung ethischer Schemata unehrliches Verhalten unterbindet, wurde in den Folgejahren mehrfach zu replizieren versucht. Eine 2018 durchgeführte Meta-Analyse untersuchte 19 unabhängige Replikationsversuche. Der mittlere Effekt war klein und wies zudem in entgegengesetzte Richtung zur Originalbehauptung. Die Studien aus Arielys Labor hatten stets die größten Effekte ergeben.

Wenn Originalstudien systematisch stärkere Befunde produzieren als alle nachfolgenden Replikationen, und wenn diese Originalstudien übereinstimmend aus demselben Labor stammen, ist das ein Muster, das zu berechtigten Zweifeln Anlass gibt.

Hinzu kamen fehlende Nachweise zur Datenherkunft. Ariely von der Duke University und seine Mitautoren konnten auf Anfrage nicht mehr rekonstruieren, wo und wie die Labordaten zu den Zehn-Gebote-Experimenten erhoben worden waren. Eine am anderen Ende des Landes tätige Psychologin, die in den Danksagungen namentlich erwähnt wurde, erklärte, die Studie könne nicht in der beschriebenen Weise durchgeführt worden sein. Stichprobengröße, Anreizstruktur, logistische Umsetzung, offensichtlich falsch.

Was der Fall über Forschungsbetrug lehrt

Der Fall ist kein Sonderfall. Er ist ein Lehrstück über systemische Schwachstellen in der Wissenschaft, und die Psychologen und Verhaltensökonomen, die in diesem Bereich arbeiten, wissen das. Peer Review prüft keine Rohdaten. Ein gut konstruierter, intern konsistenter Datensatz ermöglicht die erfolgreiche Begutachtung ebenso zuverlässig wie ein echter. Dass jemand betrogen hat, zeigt sich nicht im Manuskript, es zeigt sich erst, wenn jemand die Rohdaten anfordert und analysiert.

Die Reformen, die das ändern könnten, wie Vorabregistrierung von Hypothesen, Pflicht zur Veröffentlichung von Rohdaten und verpflichtende Replikation vor jeder Übernahme in die Politik, waren zum Zeitpunkt der meisten hier diskutierten Studien nicht Standard. In weiten Teilen der Wissenschaft sind sie es heute noch nicht. Dabei reicht institutionelles Vertrauen als Kontrollmechanismus ganz offensichtlich nicht aus.

Für Journalisten, Politikberater und informierte Laien lässt sich aus dem Fall ein einfaches Prüfschema ableiten: Sind die Rohdaten zugänglich? Gibt es unabhängige Replikationen mit dokumentierten Effektgrößen? Wurde das Ergebnis kommerzialisiert, bevor seine Robustheit gesichert war? Im Fall der Kfz-Versicherungsstudie lauteten die Antworten: nein, nein, ja. Das ist keine Randnotiz, das ist das Muster, aus dem wissenschaftliche Fehlinformation entsteht.

Fazit

Mehrere voneinander unabhängige Befundlinien, digitale Forensik, institutionelle Widersprüche seitens der Versicherung, systematische Replikationsmisserfolge und umstrittene Datenquellen, wecken ernsthafte Zweifel an zentralen Veröffentlichungen, die den Ruf des weltweit bekannten Psychologen und Verhaltensökonomen Dan Ariely begründeten. Einfluss und Überzeugungskraft sind kein Ersatz für Datenintegrität. Und Wissenschaft, die auf Marktlogik optimiert wird, liefert verlässlich Ergebnisse, die lediglich


VERWANDTE ARTIKEL:

Selbsttäuschung erkennen und überwinden – Der Weg zu mehr Ehrlichkeit und innerer Freiheit

Selbsthilfe kritisch hinterfragen – Die Wahrheit über Selbstoptimierungsmythen und Erfolg

Belief Bias – Ursachen, Beispiele und Vermeidung des Denkfehlers

Themenartikel 8 – Parallelen zu anderen psychologischen Klassikern

Neuromodulation verstehen – Ein evidenzbasierter Weg zur Selbstregulation 03: Die Polyvagal-Theorie und ihre Kritik

Directions & Opening Hours

Close-up portrait of Dr. Stemper
Close-up portrait of a dog

Psychologie Berlin

c./o. AVATARAS Institut

Kalckreuthstr. 16 – 10777 Berlin

virtual landline: +49 30 26323366

email: info@praxis-psychologie-berlin.de

Monday

11:00 AM to 7:00 PM

Tuesday

11:00 AM to 7:00 PM

Wednesday

11:00 AM to 7:00 PM

Thursday

11:00 AM to 7:00 PM

Friday

11:00 AM to 7:00 PM

a colorful map, drawing

Load Google Maps:

By clicking on this protection screen, you agree to the loading of the Google Maps. Data will be transmitted to Google and cookies will be set. Google may use this information to personalize content and ads.

For more information, please see our privacy policy and Google's privacy policy.

Click here to load the map and give your consent.

Dr. Stemper

©

2026

Dr. Dirk Stemper

Sunday, 4/5/2026

Technical implementation

a green flower
an orange flower
a blue flower