Skip to main content
Erschienen in: Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz 3/2024

Open Access 08.02.2024 | COVID-19 | Leitthema

Falsch- und Desinformation in sozialen Medien: Ansätze zur Minimierung von Risiken in digitaler Kommunikation über Gesundheit

verfasst von: Prof. Dr. Benjamin Schüz, Christopher Jones

Erschienen in: Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz | Ausgabe 3/2024

Zusammenfassung

Insbesondere im Kontext der COVID-19-Pandemie sind Falsch- und Desinformationen in sozialen Medien zu einer Herausforderung für effektive Public-health-Maßnahmen geworden. Hier betrachten wir Einflussfaktoren auf das Glauben und Teilen von Falschinformationen auf individueller, sozialer und situativ-kontextueller Ebene und diskutieren Interventionsmöglichkeiten.
Auf individueller Ebene spielen Wissensdefizite, mangelnde Kompetenzen und emotionale Motivation eine Rolle. Menschen mit geringer Gesundheitskompetenz und bestimmten Überzeugungen sind anfälliger für Falschinformationen. Auf sozialer Ebene beeinflussen die Glaubwürdigkeit von Informationsquellen und soziale Normen das Teilen von Falschinformationen. Das Bedürfnis nach Status und Gruppenzugehörigkeit spielt ebenfalls eine Rolle. Auf kontextueller Ebene wirken Emotionen und die Wiederholung von Nachrichten auf das Glauben und Teilen von Falschinformationen.
Interventionen auf individueller Ebene beinhalten Maßnahmen zur Verbesserung von Wissen und Kompetenzen. Auf sozialer Ebene können soziale Prozesse und soziale Normen angesprochen werden, um das Teilen von Falschinformationen zu reduzieren. Auf kontextueller Ebene wird die Regulierung von sozialen Netzwerken als wichtiger Ansatzpunkt betrachtet.
Es wird darauf hingewiesen, dass soziale Ungleichheiten in der Exposition gegenüber Falschinformationen und im Umgang damit eine wichtige Rolle spielen. Es bleibt unklar, ob die Anfälligkeit für Falschinformationen eine generelle Tendenz oder kontextabhängig ist. Die Entwicklung von Interventionen muss daher vielfältige Einflussfaktoren berücksichtigen.
Hinweise

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Einleitung

Eigentlich müssten die meisten Leser:innen zum Zeitpunkt der Lektüre dieses Artikels bereits tot sein – der Ballermann-Sänger Michael Wendler hat schließlich seinen über 140.000 Followern auf dem sozialen Messenger-Dienst Telegram bereits im August 2021 prophezeit: „!!LETZTE WARNUNG!! DR. COLDWELL SICHER: IM SEPTEMBER SIND ALLE GEIMPFTEN TOT“1. Auch noch nach dem September 2021 hatte derselbe Sänger wenig Hoffnung für die vielen Menschen, die sich mehrfach gegen COVID-19 impfen ließen: „!!JEDER COVID-19 GEIMPFTE WIRD INNERHALB VON 24 MONATEN STERBEN!!“2. Zur Beruhigung: Zum Zeitpunkt der Einreichung dieses Artikels (mehr als 24 Monaten nach dem letzten Post) waren beide Autoren dieses Artikels sowohl mehrfach gegen COVID-19 geimpft als auch noch am Leben.
Spaß und Häme beiseite, was diese Posts allerdings exemplarisch zeigen, ist, dass gesundheitliche Falsch- und Desinformation in sozialen Medien eine sehr große Reichweite erzielen können. Europaweite Umfragen [1] haben gezeigt, dass mehr als ein Drittel der Nutzer:innen von Social Media davon berichten, häufig bis täglich mit Falschinformationen konfrontiert zu sein. Sowohl Falschinformation (möglicherweise unbeabsichtigt falsch wiedergegebene oder inkorrekte Information) als auch Desinformation (intentional weitergegebene wissentlich falsche Information) zu gesundheitlichen Themen in sozialen Medien können verheerende Folgen für die populationsbezogene Gesundheit haben, insbesondere wenn durch die fehlerhaften Informationen Vertrauen in empfohlene und evidenzbasierte Maßnahmen wie Impfungen unterminiert oder wie im Fall der COVID-19-Pandemie Verhaltensempfehlungen wie das Tragen von Masken nicht mehr befolgt werden [2].
In diesem Artikel werden wir daher das Ausmaß von gesundheitlichen Falschinformationen in digitalen sozialen Medien untersuchen und anhand einer systematischen Betrachtung von Einflussgrößen auf das Glauben und die Weiterleitung von Falschinformationen Perspektiven für Interventionsmaßnahmen aufzeigen, um diesem aktuellen und relevanten Public-health-Problem [3] zu begegnen.

Verbreitung von Falsch- und Desinformation

Das „International Fact-Checking Network“ (IFCN) der US-amerikanischen Journalistenschule „Poynter Institute“ hat im Kontext der COVID-19-Pandemie über 17.000 unterschiedliche Falschinformationen in den sozialen Medien dokumentiert [4], die in unzähligen weiteren Einzelnachrichten verbreitet oder geteilt wurden. Problematisch ist, dass sich Falschinformationen typischerweise schneller verbreiten als korrekte Information [5] und dann innerhalb eng verbundener sozialer Netzwerke um besonders prominente Accounts vielfach geteilt werden [6]. So ergeben sich, ähnlich wie bei Krankheitserregern, Szenarien, bei denen eine Falschmeldung exponentielle Verbreitung erreichen kann – daher auch die Analogie einer „Infodemie“ [7].
Analysen der bekanntesten Social-Media-Plattformen wie Twitter, Facebook oder Instagram zeigen, dass alle das Potenzial haben, eine exponentielle Verbreitung zu fördern – einige jedoch weit mehr als andere. Auf Twitter (heute: „X“) wurden beispielsweise laut einer Studie aus 2018 Falschinformationen etwa zu 70 % wahrscheinlicher geteilt als korrekte Informationen, und korrekte Informationen brauchten bis zu 6‑mal länger, um 1500 Menschen zu erreichen [5]. Das Potenzial für eine Infodemie hängt also stark von den Plattformen [3], aber auch vom Verhalten der Nutzer:innen ab. Normalerweise machen Falsch- und Desinformation nur einen kleinen Anteil des Informationsangebots auf Social Media aus, allerdings konsumieren und verbreiten einige wenige und sehr spezifische Gruppen den Großteil der Falschinformation – hier wird nicht nur von „Supersharern“, sondern zunehmend auch von „Superconsumern“ gesprochen [8]. Solche Cluster von Nutzer:innen können sich zunehmend polarisieren und dadurch die Verbreitung von Falschinformationen beschleunigen und mögliche Korrekturen erschweren [9].
Für den Konsum von Falschinformationen (bzw. den Glauben daran) und das Teilen von Falschinformationen gibt es möglicherweise unterschiedliche Einflussfaktoren. Im Folgenden betrachten wir deshalb beide Prozesse getrennt voneinander und ordnen die Einflussgrößen in einem sozialökologischen Modell mit unterschiedlichen hierarchisch angeordneten sozialen und umweltbezogenen Ebenen an [10].

Glauben an Falsch- und Desinformationen: Einflussfaktoren

Insbesondere im Kontext der COVID-19-Pandemie wurde zunehmend an Einflussgrößen geforscht, die erklären können, warum und wie Personen Falsch- und Desinformationen in sozialen Medien Glauben schenken und welche Interventionsmöglichkeiten sich daraus ableiten lassen. Wir ordnen diese Einflussgrößen auf 3 Ebenen an (individuell, sozial und situativ-kontextbezogen; Abb. 1), was vor allem pragmatischen Überlegungen geschuldet ist – die Ebenen ließen sich sicherlich auch feiner unterteilen.
Individuelle Einflussfaktoren.
Eine zentrale Annahme ist, dass Nutzer:innen Falsch- und Desinformationen schlicht aufgrund mangelnden Wissens, geringer Bildung, fehlender Kompetenz, zwischen vertrauenswürdigen und irreführenden Informationen zu unterscheiden, oder wegen erschwertem Zugang zu vertrauenswürdigen Informationen Glauben schenken [11]. So geht beispielsweise geringe Gesundheitskompetenz damit einher, dass Menschen Falschinformationen eher nicht als solche erkennen [12]. Ähnliche Befunde zeigen sich für andere Kompetenzbereiche, wie beispielsweise digitale (Gesundheits‑)Kompetenzen [13], Medienkompetenzen und naturwissenschaftliche Bildung [14]. Weil solche digitalen und Medienkompetenzen auch nach dem Alter ungleich verteilt sind, fällt es teilweise älteren Menschen schwerer, Falschinformationen zu identifizieren [15].
Neben individuellen Kompetenzen sind aber auch motivationale Faktoren relevant. Menschen glauben beispielsweise Falschinformationen eher, wenn diese mit bereits bestehenden Überzeugungen übereinstimmen [16]. Wenn solche Überzeugungen beinhalten, dass die Welt von mächtigen Personengruppen mit böswilligen Absichten im Verborgenen gelenkt wird, spricht man von Verschwörungsmentalität („conspiracy mindset“; [17]). Eine solche Überzeugung kann, insbesondere wenn der eigene Einfluss auf den Lauf der Dinge als gering eingeschätzt wird und die Informationen dem wissenschaftlichen Konsens widersprechen, dazu beitragen, dass zur Überzeugung passende Falschinformationen geglaubt werden. Nutzer:innen, die davon überzeugt sind, dass sie wichtige Ereignisse ohne eigene Suche mitbekommen (engl. „News-will-find-me-thinking“ [18]) oder stark intuitions- oder auch emotionsgeleitet über den Wahrheitsgehalt von Nachrichten entscheiden, sind ebenfalls eher anfällig für Fehlschlüsse [19]. Im Gegensatz dazu kann ein kritisch-reflektierender und prüfender kognitiver Stil (engl. „need for cognition“ [20]) dazu beitragen, vertrauenswürdige Informationen und den aktuellen wissenschaftlichen Konsens zu identifizieren [21, 22].
Allerdings kann auch eine gründlichere Beschäftigung (tiefere Verarbeitung – „deliberation“) mit Inhalten von Falschinformationen den Glauben an diese Inhalte verstärken. Dies gilt insbesondere für Verschwörungsinhalte, wenn diese mit bestehenden Einstellungen oder Ideologien der Nutzer:innen übereinstimmen. In einer Reihe von Experimenten konnten Bago et al. [23] zeigen, dass eine Intervention zur Förderung analytischen Denkens vor allem dazu führte, dass die Teilnehmer:innen neue Informationen in Einklang mit vorher bestehenden Einstellungen interpretierten: Teilnehmer:innen mit höherer Verschwörungsmentalität interpretierten neue Inhalte im Einklang mit bestehenden Verschwörungstheorien, Teilnehmer:innen mit niedriger Verschwörungsmentalität interpretierten neue Informationen im Widerspruch zu bestehenden Verschwörungstheorien.
Soziale Einflussfaktoren.
Insbesondere wenn sich Menschen in informationsreichen Umgebungen wie sozialen Netzwerken bewegen, kommen Heuristiken (verkürzte Entscheidungsregeln) zum Einsatz [24]. Eine zentrale Rolle können dabei soziale Informationen wie die Glaubwürdigkeit der Informationsquelle spielen [25]. Wenig überraschend werden Informationen von Personen, die als glaubwürdig eingeschätzt werden, eher für richtig gehalten. Das gilt insbesondere auch für Nachrichten aus offiziellen Quellen, wo mehr Vertrauen in die Institutionen auch mehr Vertrauen in die Informationen bedingen kann [26]. Darüber hinaus erhöht soziales Feedback die Vertrauenswürdigkeit von Informationen – mehr Likes können also auch offensichtliche Falschinformationen vertrauenswürdiger machen [27].
Situative und kontextuelle Einflussfaktoren.
Weiter können situativ variable Faktoren innerhalb der Person und in den kontextuellen Rahmenbedingungen von Nachrichten entscheidend dafür sein, ob die Falschinformationen geglaubt werden. Insbesondere haben die durch eine Nachricht angesprochenen Emotionen einen Einfluss darauf, ob Falschinformationen erkannt werden [28]. Der momentane Affekt der Nutzer:innen kann sich auch auf den Glauben an Falschinformationen auswirken: Wer bei einer Entscheidungsaufgabe stärkeren Affekt empfindet (negativ oder positiv), glaubt eher falsche Informationen. Und die Anweisung, sich bei der Einschätzung auf die eigenen Emotionen zu verlassen, erhöhte in einer Studie noch zusätzlich den Glauben an falsche Überschriften [29].
Daneben haben auch situative Merkmale aus dem Kontext der Falschinformationen wie die Wiederholung von Nachrichten einen Einfluss. Wird beispielsweise eine Überschrift wiederholt angezeigt, neigen Nutzer:innen eher dazu, diese auch zu glauben (engl. „illusory truth effect“ [30]), solange sich die Information auch nur entfernt plausibel anhört [31].

Teilen von Falsch- und Desinformationen: Einflussfaktoren

Auch wenn es plausibel scheint, dass Falschinformationen, als solche erkannt, weniger wahrscheinlich weitergeleitet werden, zeigen aktuelle Arbeiten, dass es für das Teilen oder Weiterleiten eines Posts weniger entscheidend ist, ob der Inhalt als korrekt oder falsch erkannt wird, als anzunehmen wäre [14]: In dieser Studie von Pennycook und Kollegen schätzten die Teilnehmer:innen Überschriften, die dem wissenschaftlichen Konsens entsprachen, tatsächlich auch häufiger als richtig ein als frei erfundene Überschriften. Allerdings hatte diese Einschätzung fast gar keinen Einfluss auf ihre Absicht, die Nachrichten zu teilen, unabhängig davon, ob es gesundheitliche oder politische Informationen waren [14]. Dieses Missverhältnis zwischen der inhaltlichen Bewertung und der Absicht zu teilen deutet darauf hin, dass viele Teilnehmer:innen anscheinend bereit waren, Inhalte zu teilen, die sie selbst nicht als vollständig zutreffend beurteilt hatten. Daher betrachten wir im Folgenden die Faktoren, die das Teilen beeinflussen und ordnen diese ebenfalls den Ebenen innerhalb eines sozialökologischen Modells zu (Abb. 2).
Individuelle Einflussfaktoren.
Wissen – oder vor allem fehlendes Wissen – hat einen Einfluss auf das Weiterleiten von Falschinformationen. Personen mit geringerem gesundheitlichen Vorwissen teilten Falschinformationen eher als Personen mit mehr Vorwissen [32]. Ein besseres Verständnis von wissenschaftlichen Abläufen führte eher dazu, dass weniger Falschinformationen geteilt wurden [33]. Auch bessere Gesundheits- und digitale Kompetenzen sind damit assoziiert, dass Menschen weniger Falschinformationen teilen [34]. Neben diesem Wissen bedingen auch Faktoren aus Theorien des Gesundheitsverhaltens wie Risikowahrnehmung das Teilen von Falschinformationen – allerdings in Abhängigkeit von Fachwissen: Während gut informierte Teilnehmer:innen mit höherer Risikowahrnehmung eher weniger Falschinformationen teilten, teilten schlechter informierte eher mehr Falschinformationen, wenn sie gesundheitliche Risiken wahrnahmen [35].
Soziale Einflussfaktoren.
Das Teilen von Information in sozialen Medien hat allerdings auch zentrale soziale Funktionen. So kann das Bedürfnis, Status [36], Gruppenzugehörigkeit [37] oder soziale Identität [38] zu signalisieren, dazu führen, dass Falschinformationen geteilt werden. Dabei scheint die Übereinstimmung mit persönlichen Werten und Ansichten viel stärkeren Einfluss auf das Teilen als auf das Glauben von Falschinformationen auszuüben. So zeigen politisch eher konservativ orientierte Nutzende eine insgesamt geringere Tendenz, Informationen zu teilen, sie neigen jedoch dazu, viel eher irreführende als zutreffende Informationen zu teilen [14]. Soziale Hinweisreize (z. B. Likes aus dem eigenen sozialen Netzwerk) können das Verhalten, Inhalte zu teilen, zusätzlich verstärken. Analog können aber soziale Informationen, dass im eigenen Netzwerk bestimmte Informationen nicht geteilt oder „gelikt“ werden, auch dazu führen, dass weniger Falschinformationen geteilt werden [39]. Darüber hinaus können eigentlich positive soziale Motive wie der Wunsch, andere in seinem sozialen Netzwerk auf mögliche Risiken hinzuweisen, dazu führen, dass mehr Falschinformationen verbreitet werden. Zusammenfassend lässt sich feststellen, dass soziale Einflussgrößen vermutlich einen größeren Einfluss auf das Teilen von Falschinformationen haben als individuelle Einflussgrößen und sich daher auch eher als Interventionsziele anbieten.
Situative und kontextuelle Einflussfaktoren.
Allerdings lässt sich auch unter Einbezug von individuellen und sozialen Einflussgrößen das Teilen von Falsch- und Desinformationen nicht vollständig erklären [21]. Deswegen kann es hilfreich sein, auch hier situative und kontextbezogene Merkmale der Social-Media-Plattformen zu betrachten.
Zum Geschäftsmodell der Plattformen gehört die Maximierung der Zeit, die Nutzer:innen auf der Plattform verbringen, und entsprechend die Maximierung ihrer dortigen Aktivitäten (Likes, Reposts oder allgemeines „user engagement“), um so mehr gezielte Werbung zeigen zu können. Die informationsreiche Umgebung kann, wie oben erwähnt, dazu führen, dass Nutzer:innen ihr Verhalten auf den Plattformen hauptsächlich auf Heuristiken aufbauen und sich weniger intensiv mit den eigentlichen Inhalten von Posts beschäftigen.
Dies zeigt sich beispielsweise, wenn Studienteilnehmer:innen, die sich von der hohen Informationsmenge (engl. „cognitive overload“) überfordert fühlen, auch eher bereit sind Falschinformationen zu teilen [40]. In Experimenten konnte gezeigt werden, dass bereits kurz eingeblendete Nachfragen, ob die Nutzer:innen die Information als richtig einschätzen, dazu führen konnten, dass sich die Nutzer:innen intensiver mit der Nachricht auseinandersetzen. Der veränderte Aufmerksamkeitsfokus führte dazu, dass die Informationen seltener geteilt wurden [14].

Interventionsansätze: Besseres Erkennen von Falschinformationen und weniger Teilen

Analog zu der Anordnung der Einflussgrößen auf hierarchischen Ebenen können auch Interventionen auf individuelle, soziale und kontextuelle Ansatzpunkte abzielen.
Individuelle Ebene.
Interventionen auf individueller Ebene können das Wissen und die Kompetenzen von Nutzer:innen in den sozialen Medien verbessern, um so die Identifikation von Falsch- und Desinformation zu erleichtern. Solche Interventionen knüpfen an die oben erwähnte Defizithypothese an und sollen dazu führen, dass Nutzer:innen die notwendigen Kompetenzen erwerben, wahre von falschen Informationen zu trennen und so weniger Falschinformationen weiterzuleiten. Dieser kompetenzorientierte Ansatz entstand vor allem aus der Erkenntnis, dass eine Richtigstellung von Falschinformationen im Nachhinein (sog. Debunking) mit einer Reihe von Schwierigkeiten verbunden und nur in sehr begrenztem Rahmen effektiv ist [41].
Präventive Ansätze zur Bekämpfung von Falschinformationen werden häufig als Prebunking (vorgreifendes Debunking) bezeichnet. Das prominenteste Beispiel solchen Prebunkings sind Interventionen, die sich einer Impfanalogie bedienen (engl. Inoculation). Dabei sollen die Nutzenden durch die Exposition gegenüber eher „schwachen“ Falschinformationen auf die spätere Konfrontation mit tatsächlich irreführenden Inhalten vorbereitet werden [42]. Wichtig dabei ist, dass die Nutzenden den irreführenden Beiträgen nicht einfach ausgesetzt werden, sondern diesen jeweils ein Hinweis auf nun folgende Falschinformationen und eine differenzierte Gegendarstellung vorangehen. Neben dieser eher passiven Art der inhaltlichen Auseinandersetzung [43] unterstützen aktive Immunisierungsinterventionen die Nutzenden dabei, eigene Gegenargumente auszuformulieren [44].
Während bei der Entwicklung der Immunisierungsinterventionen zunächst vor allem auf sehr spezifische und konkrete Fälle von Falschinformationen eingegangen wurde (z. B. auf die Falschinformation, dass das Medikament Ivermectin bei der Behandlung von COVID-19 große Erfolge erzielt habe), werden aktuell eher Interventionen entwickelt, die typische Charakteristika der Formulierung, Darstellung und Argumentation von Falschinformationen beschreiben. So sollen die Nutzenden befähigt werden, typische Muster zu erkennen, die dann auf irreführende Inhalte zu verschiedenen Themen übertragen werden können. Diese Art der strategieorientierten Immunisierungsintervention kann vor allem dann hilfreich sein, wenn neue und noch unbekannte Inhalte auftauchen. Sind die angesprochenen Themen und genutzten Argumentationsstränge der Falschinformationen bereits bekannt, können eher inhaltlich orientierte Interventionen stärkere Effekte vorweisen. Zwar haben Metaanalysen [45] zuletzt positive Effekte von Immunisierungsinterventionen bestätigt, allerdings bleibt bisher unklar, ob diese Effekte aus einer grundlegend skeptischen Haltung gegenüber allen Informationen entstehen oder spezifisch für irreführende Inhalte zu interpretieren sind.
Soziale Ebene.
Interventionen auf sozialer Ebene zielen vor allem darauf ab, durch die Veränderung von sozialen Prozessen das Teilen von Falschinformationen zu beeinflussen. So konnte in einer Interventionsstudie [39] gezeigt werden, dass durch Veränderungen in den sozialen Rückmeldungen Veränderungen im Teilen verursacht wurden. Statt Likes und Shares wurde angezeigt, wie viele Mitglieder des eigenen Netzwerks (Followers) oder des gesamten sozialen Netzwerks eine Falschinformation zwar gesehen, aber nicht gelikt oder weitergeleitet hatten. Wenn Falschinformationen mit der Information versehen wurden, dass sie nur von wenigen Mitgliedern des eigenen Netzwerks geteilt wurden, sank die Wahrscheinlichkeit des Teilens deutlich. Dieser Effekt ist möglicherweise durch Veränderungen in sozialen Normen bedingt, d. h., die Nutzer:innen nahmen es als weniger angebracht wahr, solche Inhalte zu teilen.
Situative und kontextuelle Ebene: Regulation sozialer Netzwerke.
Auch wenn in Deutschland seit 2018 das Netzwerkdurchsetzungsgesetz die Betreiber von sozialen Medien verpflichtet, vor allem Anfeindungen und Beleidigungen (Hate Speech) innerhalb von 24 h zu entfernen, ist die Durchführung kontrovers diskutiert worden. Auf Ebene der Europäischen Union (EU) gilt seit 2022 der Digital Services Act, der zum einen vorsieht, dass Plattformbetreiber regelmäßig Bericht darüber erstatten, inwiefern Maßnahmen zur Vermeidung von illegalen Inhalten und Falschinformationen durchgeführt wurden,3 zum anderen aber auch erlaubt, dass im Kontext von Krisen das „European Board for Digital Services“ von Betreibern verlangen kann, bestimmte Inhalte zu filtern und inhaltliche Moderation durchzuführen [46].
Im Rahmen der aktuellen Berichterstattung fällt vor allem auf, dass seit der Übernahme von Twitter (jetzt „X“) durch Elon Musk und der damit einhergehenden Entsperrung von vielen Accounts, die zuvor durch Desinformation und Hate Speech aufgefallen waren, wieder deutlich mehr Desinformation veröffentlicht wird. Auch der anfangs erwähnte Ballermann-Sänger durfte seinen Account wieder eröffnen. Vor allem die Veränderungen auf dieser Plattform zeigen, wie wichtig ernst gemeinte Regulation und inhaltliche Moderation zur Vermeidung von Falsch- und Desinformation im Netz sind.

Offene Fragen zu sozialer Ungleichheit und individuellen Unterschieden

Soziale Ungleichheit.
Ein besonders relevanter, aber oft nicht mitberücksichtigter Aspekt in der Forschung zu gesundheitsbezogenen Falschinformationen im Netz und deren Implikationen sind soziale Ungleichheiten in der Exposition und in der Verteilung von Ressourcen zur Unterscheidung zwischen falschen und korrekten Informationen [47]. Soziale Unterschiede in Grundlagen- und Anwendungswissen zu Gesundheitsthemen haben erwiesenermaßen einen Einfluss darauf, wie Menschen mit Gesundheitsinformationen umgehen – die „Knowledge Gap Hypothesis“ [48] sagt beispielsweise aus, dass Menschen mit höheren Bildungsabschlüssen und mehr gesundheitsbezogenem Grundlagenwissen weniger Probleme damit haben, wahre von falschen Informationen zu unterscheiden (was insbesondere in globalen Notfalllagen wie einer Pandemie wichtig ist; [49]), und zudem schlüssige Empfehlungen eher als Menschen mit niedrigen Bildungsabschlüssen befolgen. Gleichzeitig zeigt eine Reihe von Untersuchungen während der COVID-19-Pandemie, dass Menschen mit geringeren Bildungsabschlüssen sich mehr oder sogar exklusiv auf soziale Medien als Quelle für Nachrichten und Gesundheitsinformationen verlassen und damit auch anfälliger dafür sind, Falsch- und Desinformation ausgesetzt zu werden.
Während der Pandemie haben sich auch Muster gezeigt, wonach Menschen in sozialen Medien Informationen vor allem von solchen Quellen und Persönlichkeiten bezogen und weiterleiteten, die ihnen im Hinblick auf demografische Merkmale und politische Ausrichtung ähnlich waren [50]. So zeigten sich beispielsweise in Großbritannien Unterschiede in der Impfbereitschaft bei Frauen aus ethnischen Minderheiten im Vergleich zur Allgemeinbevölkerung [51]. Grund dafür war, dass diese Frauen Gesundheitsinformationen aus Kanälen sozialer Netzwerke bezogen, in denen mehr Falschinformationen über mögliche Auswirkungen der COVID-19-Schutzimpfung auf die Fruchtbarkeit zirkulierten. Aus dieser Studie war aber auch ersichtlich, dass Frauen, die Quellen von Gesundheitsinformationen außerhalb sozialer Netzwerke vertrauten, eine deutlich höhere Impfbereitschaft zeigten. Gleichzeitig ist es wichtig zu betonen, dass neben der unterschiedlichen Exposition gegenüber Falschinformationen auch Diskriminierungserfahrungen im Gesundheitssystem und ein damit verbundenes geringeres Vertrauen in Informationen der entsprechenden Institutionen eine Rolle spielen können [52].
Fact-checking, also die Überprüfung, ob Informationen in sozialen Netzwerken korrekt sind, läuft oft über KI-basierte Systeme ab. Erste Simulationsstudien zeigen, dass die Resultate von Fact-checking Nutzer:innen aus benachteiligten Bevölkerungsgruppen weniger zugutekommen, insbesondere wenn Falschinformationen in seltener benutzten Sprachen oder in anderen Formaten erst später oder gar nicht überprüft werden [53].
Individuelle Unterschiede.
Bisher ist unklar, ob die Anfälligkeit für Falschinformationen eine generelle individuelle Tendenz darstellt oder kontext- und themenabhängig auftritt. Es ist anzunehmen, dass bei Nutzer:innen, die politische Falschinformationen glauben, eine generelle individuelle Tendenz besteht, gleichzeitig auch gesundheitsbezogene Falschinformationen zu glauben und zu teilen. Dies wird beispielsweise durch Befunde gestützt, die bei Personen mit einer Verschwörungsmentalität eine größere generelle Bereitschaft zum Teilen von Falschinformationen zeigen [17]. Ob und welche als falsch erkannte Informationen geteilt werden, kann aber auch, wie oben erwähnt, davon abhängen, inwiefern diese Informationen mit eigenen Überzeugungen übereinstimmen. [16]. Ein besseres Verständnis dieser Zusammenhänge könnte die Entwicklung und Erprobung von Interventionen verbessern und effizienter machen. So könnten generelle Kompetenzen zentrales Interventionsziel sein und gleichzeitig in Abhängigkeit von individuellen Merkmalen zusätzlich soziale und kontextuelle Ansatzpunkte adressiert werden.

Schlussfolgerungen

Falsch- und Desinformation in sozialen Medien sind ein relevantes Problem. Insbesondere im Kontext der COVID-19-Pandemie hat das Thema zunehmend wissenschaftliche und mediale Aufmerksamkeit bekommen. Im Zuge dieser zunehmenden Aufmerksamkeit wurde eine Reihe von Interventionsansätzen vorgestellt, die an verschiedenen individuellen, sozialen und kontextuellen Punkten ansetzen [22].
Es handelt sich aber um ein komplexes Problem mit Einflussgrößen auf Ebene der Person, des sozialen Umfelds, der Situation und des regulativen Kontexts. In welchem Maße Menschen aufgrund von individuellen Unterschieden, Lebenslagen und Ressourcen oder wegen situativer und kontextabhängiger Faktoren für Falschinformationen anfällig sind, ist noch nicht abschließend geklärt. Die teilweise noch sehr disparate Literatur dazu, wie wir Falschinformationen und Desinformationen in sozialen Medien verarbeiten, interpretieren und womöglich auch weiterleiten, lässt sich vermutlich noch nicht in einem integrierten Modell von maladaptivem Engagement mit Falschinformationen zusammenfassen. Es gibt aber sicherlich kein Allheilmittel gegen Falsch- und Desinformation in digitalen sozialen Medien und wir werden komplexe Interventionen entwickeln müssen, die verschiedene Einflussgrößen kombinieren.

Einhaltung ethischer Richtlinien

Interessenkonflikt

B. Schüz und C. Jones geben an, dass kein Interessenkonflikt besteht.
Für diesen Beitrag wurden von den Autor/-innen keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz

Print-Titel

  • Öffentliches Gesundheitswesen und staatliche Gesundheitspolitik
  • Erkenntnisse der biologisch-medizinischen Grundlagenforschung
  • Konkrete Maßnahmen zu Risikoabwehr und Gesundheitsschutz

e.Med Interdisziplinär

Kombi-Abonnement

Für Ihren Erfolg in Klinik und Praxis - Die beste Hilfe in Ihrem Arbeitsalltag

Mit e.Med Interdisziplinär erhalten Sie Zugang zu allen CME-Fortbildungen und Fachzeitschriften auf SpringerMedizin.de.

Literatur
2.
Zurück zum Zitat Imhoff R, Lamberty P (2020) A bioweapon or a hoax? The link between distinct conspiracy beliefs about the coronavirus disease (COVID-19) outbreak and pandemic behavior. Soc Psychol Personal Sci 11:1110–1118PubMedCentral Imhoff R, Lamberty P (2020) A bioweapon or a hoax? The link between distinct conspiracy beliefs about the coronavirus disease (COVID-19) outbreak and pandemic behavior. Soc Psychol Personal Sci 11:1110–1118PubMedCentral
3.
Zurück zum Zitat Cinelli M, Quattrociocchi W, Galeazzi A et al (2020) The COVID-19 social media infodemic. Sci Rep 10:16598PubMedPubMedCentral Cinelli M, Quattrociocchi W, Galeazzi A et al (2020) The COVID-19 social media infodemic. Sci Rep 10:16598PubMedPubMedCentral
5.
Zurück zum Zitat Vosoughi S, Roy D, Aral S (2018) The spread of true and false news online. Science 359:1146–1151PubMedADS Vosoughi S, Roy D, Aral S (2018) The spread of true and false news online. Science 359:1146–1151PubMedADS
6.
Zurück zum Zitat Shao C, Hui P‑M, Wang L et al (2018) Anatomy of an online misinformation network. PLoS One 13:e196087PubMedPubMedCentral Shao C, Hui P‑M, Wang L et al (2018) Anatomy of an online misinformation network. PLoS One 13:e196087PubMedPubMedCentral
8.
Zurück zum Zitat Guess AM, Malhotra N, Pan J et al (2023) How do social media feed algorithms affect attitudes and behavior in an election campaign? Science 381:398–404PubMedADS Guess AM, Malhotra N, Pan J et al (2023) How do social media feed algorithms affect attitudes and behavior in an election campaign? Science 381:398–404PubMedADS
9.
10.
Zurück zum Zitat Sundelson AE, Jamison AM, Huhn N, Pasquino S‑L, Sell TK (2023) Fighting the infodemic: the 4 i framework for advancing communication and trust. BMC Public Health 23:1662PubMedPubMedCentral Sundelson AE, Jamison AM, Huhn N, Pasquino S‑L, Sell TK (2023) Fighting the infodemic: the 4 i framework for advancing communication and trust. BMC Public Health 23:1662PubMedPubMedCentral
11.
Zurück zum Zitat Scherer LD, Pennycook G (2020) Who is susceptible to online health misinformation? Am J Public Health 110:S276–S277PubMedPubMedCentral Scherer LD, Pennycook G (2020) Who is susceptible to online health misinformation? Am J Public Health 110:S276–S277PubMedPubMedCentral
12.
Zurück zum Zitat Scherer LD, McPhetres J, Pennycook G et al (2021) Who is susceptible to online health misinformation? A test of four psychosocial hypotheses. Health Psychol 40:274–284PubMed Scherer LD, McPhetres J, Pennycook G et al (2021) Who is susceptible to online health misinformation? A test of four psychosocial hypotheses. Health Psychol 40:274–284PubMed
13.
Zurück zum Zitat Pickles K, Cvejic E, Nickel B et al (2021) COVID-19 misinformation trends in Australia: prospective longitudinal national survey. J Med Internet Res 23:e23805PubMedPubMedCentral Pickles K, Cvejic E, Nickel B et al (2021) COVID-19 misinformation trends in Australia: prospective longitudinal national survey. J Med Internet Res 23:e23805PubMedPubMedCentral
14.
Zurück zum Zitat Pennycook G, McPhetres J, Zhang Y, Lu JG, Rand DG (2020) Fighting COVID-19 misinformation on social media: experimental evidence for a scalable accuracy-nudge intervention. Psychol Sci 31:770–780PubMed Pennycook G, McPhetres J, Zhang Y, Lu JG, Rand DG (2020) Fighting COVID-19 misinformation on social media: experimental evidence for a scalable accuracy-nudge intervention. Psychol Sci 31:770–780PubMed
15.
16.
Zurück zum Zitat Sikder O, Smith RE, Vivo P, Livan G (2020) A minimalistic model of bias, polarization and misinformation in social networks. Sci Rep 10:5493PubMedPubMedCentralADS Sikder O, Smith RE, Vivo P, Livan G (2020) A minimalistic model of bias, polarization and misinformation in social networks. Sci Rep 10:5493PubMedPubMedCentralADS
17.
Zurück zum Zitat Romer D, Jamieson KH (2023) The role of conspiracy mindset in reducing support for child vaccination for COVID-19 in the United States. Front Psychol 14: Romer D, Jamieson KH (2023) The role of conspiracy mindset in reducing support for child vaccination for COVID-19 in the United States. Front Psychol 14:
18.
Zurück zum Zitat Lin Y, Chen M, Lee SY et al (2024) Understanding the effects of news-finds-me perception on health knowledge and information seeking during public health crises. Health Commun 39:352–362PubMed Lin Y, Chen M, Lee SY et al (2024) Understanding the effects of news-finds-me perception on health knowledge and information seeking during public health crises. Health Commun 39:352–362PubMed
19.
Zurück zum Zitat Roozenbeek J, Schneider CR, Dryhurst S et al (2020) Susceptibility to misinformation about COVID-19 around the world. R Soc open sci 7:201199PubMedPubMedCentralADS Roozenbeek J, Schneider CR, Dryhurst S et al (2020) Susceptibility to misinformation about COVID-19 around the world. R Soc open sci 7:201199PubMedPubMedCentralADS
20.
Zurück zum Zitat Ozimek P, Nettersheim M, Rohmann E, Bierhoff H‑W (2022) Science vs. conspiracy theory about COVID-19: need for cognition and openness to experience increased belief in conspiracy-theoretical postings on social media. Behav Sci 12:435PubMedPubMedCentral Ozimek P, Nettersheim M, Rohmann E, Bierhoff H‑W (2022) Science vs. conspiracy theory about COVID-19: need for cognition and openness to experience increased belief in conspiracy-theoretical postings on social media. Behav Sci 12:435PubMedPubMedCentral
21.
Zurück zum Zitat Pennycook G, Rand DG (2021) The psychology of fake news. Trends Cogn Sci 25:388–402PubMed Pennycook G, Rand DG (2021) The psychology of fake news. Trends Cogn Sci 25:388–402PubMed
22.
Zurück zum Zitat Roozenbeek J, Culloty E, Suiter J (2023) Countering misinformation. Eur Psychol 28:189–205 Roozenbeek J, Culloty E, Suiter J (2023) Countering misinformation. Eur Psychol 28:189–205
23.
Zurück zum Zitat Bago B, Rand DG, Pennycook G (2022) Does deliberation decrease belief in conspiracies? J Exp Soc Psychol 103:104395 Bago B, Rand DG, Pennycook G (2022) Does deliberation decrease belief in conspiracies? J Exp Soc Psychol 103:104395
24.
Zurück zum Zitat Pennycook G, Rand DG (2019) Lazy, not biased: susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning. Cognition 188:39–50PubMed Pennycook G, Rand DG (2019) Lazy, not biased: susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning. Cognition 188:39–50PubMed
25.
Zurück zum Zitat Swire-Thompson B, Lazer D (2020) Public health and online misinformation: challenges and recommendations. Annu Rev Public Health 41:433–451PubMed Swire-Thompson B, Lazer D (2020) Public health and online misinformation: challenges and recommendations. Annu Rev Public Health 41:433–451PubMed
26.
Zurück zum Zitat Nadarevic L, Reber R, Helmecke AJ, Köse D (2020) Perceived truth of statements and simulated social media postings: an experimental investigation of source credibility, repeated exposure, and presentation format. Cogn Res Princ Implic 5:56PubMedPubMedCentral Nadarevic L, Reber R, Helmecke AJ, Köse D (2020) Perceived truth of statements and simulated social media postings: an experimental investigation of source credibility, repeated exposure, and presentation format. Cogn Res Princ Implic 5:56PubMedPubMedCentral
28.
Zurück zum Zitat Freiling I, Krause NM, Scheufele DA, Brossard D (2023) Believing and sharing misinformation, fact-checks, and accurate information on social media: the role of anxiety during COVID-19. New Media Soc 25:141–162PubMedPubMedCentral Freiling I, Krause NM, Scheufele DA, Brossard D (2023) Believing and sharing misinformation, fact-checks, and accurate information on social media: the role of anxiety during COVID-19. New Media Soc 25:141–162PubMedPubMedCentral
29.
Zurück zum Zitat Martel C, Pennycook G, Rand DG (2020) Reliance on emotion promotes belief in fake news. Cogn Res Princ Implic 5:47PubMedPubMedCentral Martel C, Pennycook G, Rand DG (2020) Reliance on emotion promotes belief in fake news. Cogn Res Princ Implic 5:47PubMedPubMedCentral
30.
Zurück zum Zitat Pennycook G, Rand DG (2020) Who falls for fake news? The roles of bullshit receptivity, overclaiming, familiarity, and analytic thinking. J Pers 88:185–200PubMed Pennycook G, Rand DG (2020) Who falls for fake news? The roles of bullshit receptivity, overclaiming, familiarity, and analytic thinking. J Pers 88:185–200PubMed
31.
Zurück zum Zitat Pennycook G, Cannon TD, Rand DG (2018) Prior exposure increases perceived accuracy of fake news. J Exp Psychol Gen 147:1865–1880PubMedPubMedCentral Pennycook G, Cannon TD, Rand DG (2018) Prior exposure increases perceived accuracy of fake news. J Exp Psychol Gen 147:1865–1880PubMedPubMedCentral
32.
Zurück zum Zitat Xue H, Taylor L (2023) When do people believe, check, and share health rumors on social media? Effects of evidence type, health literacy, and health knowledge. J Health Psychol 28:607–619PubMed Xue H, Taylor L (2023) When do people believe, check, and share health rumors on social media? Effects of evidence type, health literacy, and health knowledge. J Health Psychol 28:607–619PubMed
33.
Zurück zum Zitat Keselman A, Arnott Smith C, Leroy G, Kaufman DR (2021) Factors influencing willingness to share health misinformation videos on the internet: web-based survey. J Med Internet Res 23:e30323PubMedPubMedCentral Keselman A, Arnott Smith C, Leroy G, Kaufman DR (2021) Factors influencing willingness to share health misinformation videos on the internet: web-based survey. J Med Internet Res 23:e30323PubMedPubMedCentral
34.
Zurück zum Zitat Southwell BG, Otero Machuca J, Cherry ST, Burnside M, Barrett NJ (2023) Health misinformation exposure and health disparities: observations and opportunities. Annu Rev Public Health 44:113–130PubMed Southwell BG, Otero Machuca J, Cherry ST, Burnside M, Barrett NJ (2023) Health misinformation exposure and health disparities: observations and opportunities. Annu Rev Public Health 44:113–130PubMed
35.
Zurück zum Zitat Wang R, Zhang H (2023) Who spread COVID-19 (mis)information online? Differential informedness, psychological mechanisms, and intervention strategies. Comput Human Behav 138:107486PubMed Wang R, Zhang H (2023) Who spread COVID-19 (mis)information online? Differential informedness, psychological mechanisms, and intervention strategies. Comput Human Behav 138:107486PubMed
36.
Zurück zum Zitat Apuke OD, Omar B (2020) Modelling the antecedent factors that affect online fake news sharing on COVID-19: the moderating role of fake news knowledge. Health Educ Res 35:490–503PubMed Apuke OD, Omar B (2020) Modelling the antecedent factors that affect online fake news sharing on COVID-19: the moderating role of fake news knowledge. Health Educ Res 35:490–503PubMed
37.
Zurück zum Zitat Lobato EJC, Powell M, Padilla LMK, Holbrook C (2020) Factors predicting willingness to share COVID-19 misinformation. Front Psychol 11:566108PubMedPubMedCentral Lobato EJC, Powell M, Padilla LMK, Holbrook C (2020) Factors predicting willingness to share COVID-19 misinformation. Front Psychol 11:566108PubMedPubMedCentral
38.
Zurück zum Zitat Shin J, Yang A, Liu W, Kim MH, Zhou A, Sun J (2022) Mask-wearing as a partisan issue: social identity and communication of party norms on social media among political elites. Soc Media Soc 8:20563051221086233 Shin J, Yang A, Liu W, Kim MH, Zhou A, Sun J (2022) Mask-wearing as a partisan issue: social identity and communication of party norms on social media among political elites. Soc Media Soc 8:20563051221086233
39.
Zurück zum Zitat Jones CM, Diethei D, Schöning J, Shrestha R, Jahnel T, Schüz B (2023) Impact of social reference cues on misinformation sharing on social media: series of experimental studies. J Med Internet Res 25:e45583PubMedPubMedCentral Jones CM, Diethei D, Schöning J, Shrestha R, Jahnel T, Schüz B (2023) Impact of social reference cues on misinformation sharing on social media: series of experimental studies. J Med Internet Res 25:e45583PubMedPubMedCentral
40.
Zurück zum Zitat Wu M (2022) What drives people to share misinformation on social media during the COVID-19 pandemic: a stimulus-organism-response perspective. Int J Environ Res Public Health 19:11752PubMedPubMedCentral Wu M (2022) What drives people to share misinformation on social media during the COVID-19 pandemic: a stimulus-organism-response perspective. Int J Environ Res Public Health 19:11752PubMedPubMedCentral
41.
Zurück zum Zitat van der Linden S, Roozenbeek J, Maertens R et al (2021) How can psychological science help counter the spread of fake news? Span J Psychol 24:e25PubMed van der Linden S, Roozenbeek J, Maertens R et al (2021) How can psychological science help counter the spread of fake news? Span J Psychol 24:e25PubMed
42.
Zurück zum Zitat van der Linden S (2022) Misinformation: susceptibility, spread, and interventions to immunize the public. Nat Med 28:460–467PubMedADS van der Linden S (2022) Misinformation: susceptibility, spread, and interventions to immunize the public. Nat Med 28:460–467PubMedADS
43.
Zurück zum Zitat Basol M, Roozenbeek J, Berriche M, Uenal F, McClanahan WP, van der Linden S (2021) Towards psychological herd immunity: cross-cultural evidence for two prebunking interventions against COVID-19 misinformation. Big Data Soc 8:20539517211013868 Basol M, Roozenbeek J, Berriche M, Uenal F, McClanahan WP, van der Linden S (2021) Towards psychological herd immunity: cross-cultural evidence for two prebunking interventions against COVID-19 misinformation. Big Data Soc 8:20539517211013868
44.
Zurück zum Zitat Traberg CS, Roozenbeek J, van der Linden S (2022) Psychological inoculation against misinformation: current evidence and future directions. Ann Am Acad Pol Soc Sci 700:136–151 Traberg CS, Roozenbeek J, van der Linden S (2022) Psychological inoculation against misinformation: current evidence and future directions. Ann Am Acad Pol Soc Sci 700:136–151
45.
Zurück zum Zitat Lu C, Hu B, Li Q, Bi C, Ju X‑D (2023) Psychological Inoculation for credibility assessment, sharing intention, and discernment of misinformation: systematic review and meta-analysis. J Med Internet Res 25:e49255PubMedPubMedCentral Lu C, Hu B, Li Q, Bi C, Ju X‑D (2023) Psychological Inoculation for credibility assessment, sharing intention, and discernment of misinformation: systematic review and meta-analysis. J Med Internet Res 25:e49255PubMedPubMedCentral
46.
Zurück zum Zitat Europäisches Parlament VERORDNUNG (EU) 2022/2065 Des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG. Gesetz über digitale Dienste Europäisches Parlament VERORDNUNG (EU) 2022/2065 Des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG. Gesetz über digitale Dienste
47.
Zurück zum Zitat Viswanath K, Lee EWJ, Pinnamaneni R (2020) We need the lens of equity in COVID-19 communication. Health Commun 35:1743–1746PubMed Viswanath K, Lee EWJ, Pinnamaneni R (2020) We need the lens of equity in COVID-19 communication. Health Commun 35:1743–1746PubMed
48.
Zurück zum Zitat Viswanath K, Finnegan JR (1996) The knowledge gap hypothesis: twenty-five years later. Ann Int Commun Assoc 19:187–228 Viswanath K, Finnegan JR (1996) The knowledge gap hypothesis: twenty-five years later. Ann Int Commun Assoc 19:187–228
49.
Zurück zum Zitat Lin L, Savoia E, Agboola F, Viswanath K (2014) What have we learned about communication inequalities during the H1N1 pandemic: a systematic review of the literature. BMC Public Health 14:484PubMedPubMedCentral Lin L, Savoia E, Agboola F, Viswanath K (2014) What have we learned about communication inequalities during the H1N1 pandemic: a systematic review of the literature. BMC Public Health 14:484PubMedPubMedCentral
50.
Zurück zum Zitat Gallagher RJ, Doroshenko L, Shugars S, Lazer D, Foucault Welles B (2021) Sustained online amplification of COVID-19 elites in the United States. Soc Media Soc 7:20563051211024957 Gallagher RJ, Doroshenko L, Shugars S, Lazer D, Foucault Welles B (2021) Sustained online amplification of COVID-19 elites in the United States. Soc Media Soc 7:20563051211024957
51.
Zurück zum Zitat Naqvi M, Li L, Woodrow M, Yadav P, Kostkova P (2022) Understanding COVID-19 vaccine hesitancy in ethnic minorities groups in the UK. Front Public Health 10: Naqvi M, Li L, Woodrow M, Yadav P, Kostkova P (2022) Understanding COVID-19 vaccine hesitancy in ethnic minorities groups in the UK. Front Public Health 10:
52.
Zurück zum Zitat Khan MS, Ali SAM, Adelaine A, Karan A (2021) Rethinking vaccine hesitancy among minority groups. Lancet 397:1863–1865PubMedPubMedCentral Khan MS, Ali SAM, Adelaine A, Karan A (2021) Rethinking vaccine hesitancy among minority groups. Lancet 397:1863–1865PubMedPubMedCentral
53.
Zurück zum Zitat Neumann T, Wolczynski N (2023) Does AI-Assisted Fact-Checking Disproportionately Benefit Majority Groups Online? In: Proc. 2023 ACM Conf. Fairness Account. Transpar. Association for Computing Machinery, New York, NY, USA, S 480–490 Neumann T, Wolczynski N (2023) Does AI-Assisted Fact-Checking Disproportionately Benefit Majority Groups Online? In: Proc. 2023 ACM Conf. Fairness Account. Transpar. Association for Computing Machinery, New York, NY, USA, S 480–490
Metadaten
Titel
Falsch- und Desinformation in sozialen Medien: Ansätze zur Minimierung von Risiken in digitaler Kommunikation über Gesundheit
verfasst von
Prof. Dr. Benjamin Schüz
Christopher Jones
Publikationsdatum
08.02.2024
Verlag
Springer Berlin Heidelberg
Schlagwort
COVID-19
Erschienen in
Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz / Ausgabe 3/2024
Print ISSN: 1436-9990
Elektronische ISSN: 1437-1588
DOI
https://doi.org/10.1007/s00103-024-03836-2

Weitere Artikel der Ausgabe 3/2024

Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz 3/2024 Zur Ausgabe

Leitlinien kompakt für die Allgemeinmedizin

Mit medbee Pocketcards sicher entscheiden.

Seit 2022 gehört die medbee GmbH zum Springer Medizin Verlag

Facharzt-Training Allgemeinmedizin

Die ideale Vorbereitung zur anstehenden Prüfung mit den ersten 49 von 100 klinischen Fallbeispielen verschiedener Themenfelder

Mehr erfahren

Bei Herzinsuffizienz muss „Eisenmangel“ neu definiert werden

16.05.2024 Herzinsuffizienz Nachrichten

Bei chronischer Herzinsuffizienz macht es einem internationalen Expertenteam zufolge wenig Sinn, die Diagnose „Eisenmangel“ am Serumferritin festzumachen. Das Team schlägt vor, sich lieber an die Transferrinsättigung zu halten.

ADHS-Medikation erhöht das kardiovaskuläre Risiko

16.05.2024 Herzinsuffizienz Nachrichten

Erwachsene, die Medikamente gegen das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom einnehmen, laufen offenbar erhöhte Gefahr, an Herzschwäche zu erkranken oder einen Schlaganfall zu erleiden. Es scheint eine Dosis-Wirkungs-Beziehung zu bestehen.

Betalaktam-Allergie: praxisnahes Vorgehen beim Delabeling

16.05.2024 Pädiatrische Allergologie Nachrichten

Die große Mehrheit der vermeintlichen Penicillinallergien sind keine. Da das „Etikett“ Betalaktam-Allergie oft schon in der Kindheit erworben wird, kann ein frühzeitiges Delabeling lebenslange Vorteile bringen. Ein Team von Pädiaterinnen und Pädiatern aus Kanada stellt vor, wie sie dabei vorgehen.

Diabetestechnologie für alle?

15.05.2024 DDG-Jahrestagung 2024 Kongressbericht

Eine verbesserte Stoffwechseleinstellung und höhere Lebensqualität – Diabetestechnologien sollen den Alltag der Patienten erleichtern. Dass CGM, AID & Co. bei Typ-1-Diabetes helfen, ist belegt. Bei Typ-2 gestaltet sich die Sache komplizierter.

Update Allgemeinmedizin

Bestellen Sie unseren Fach-Newsletter und bleiben Sie gut informiert.