Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Mythos Filterblase – sind wir wirklich so isoliert? | Soziale Medien – wie sie wurden, was sie sind | bpb.de

Soziale Medien Technikgeschichte Die Vorgeschichte der „sozialen Medien“ Alles geht? Die jüngste Geschichte der „sozialen Medien“ Das vergessene Versprechen: Wie die Idee der Sozialen Medien scheitert Geschäftsmodelle Das Geschäftsmodell von Social-Media-Unternehmen Das Leben zum Beruf machen: Wie sich professionelle Influencer*innen finanzieren Getriebene der Plattformen Politische Teilhabe Soziale Medien im Spannungsfeld zwischen Demokratisierung und Fragmentierung der Öffentlichkeit Individuelle Meinungsbildung und -äußerung auf sozialen Medien Hate Speech und Inzivilität: Gegenmaßnahmen jenseits von Gegenrede Soziale Medien und die Kommunikation politischer und staatlicher Institutionen Die digitale Professionalisierung der politischen Kommunikation Digitale Medien, Partizipation und Aktivismus Gesellschaftspolitik „Wer hat, dem wird gegeben“ – Über die Logik von gesellschaftspolitischen Diskursen auf sozialen Medien Technikmythos? Utopien und Dystopien des Internets und der sozialen Medien Social Media als Technikmythos Mythos Filterblase – sind wir wirklich so isoliert? Politische Bildung Politische Bildung mit sozialen Medien Basiswissen zur politischen Bildung, sozialen Medien und Extremismus Redaktion

Mythos Filterblase – sind wir wirklich so isoliert?

Prof. Dr. Tong-Jin Smith

/ 11 Minuten zu lesen

Seit der amerikanische Internetaktivist Eli Pariser 2011 in seinem Buch „Filter Bubble. Wie wir im Internet entmündigt werden“ vor der Existenz und den Auswirkungen von Filterblasen gewarnt hat, ist der Begriff in aller Munde. Insbesondere wird dem Phänomen nach Parisers Hypothese nachgesagt, dass es Menschen in sozialen Netzwerken von Informationen abschirmt und sie medial isoliert. Ursache dafür seien die von den Netzwerkbetreibern eingesetzten Algorithmen, die Nutzer*innen Inhalte zeigen, die sie vermeintlich sehen wollen, vermeintlich unliebsame Inhalte würden ausgeblendet.

Illustration: www.leitwerk.com

Allerdings sind die Filterkriterien der Algorithmen, die Inhalte für Nutzer*innen vorstrukturieren, eine Blackbox. Von außen kann man nicht einsehen, wie genau der Algorithmus eines sozialen Netzwerks, eines Nachrichtenaggregators oder einer Suchmaschine tatsächlich programmiert ist. Somit ist nicht transparent nachvollziehbar, welche Inhalte einer Person gezeigt werden und welche nicht, oder wie Inhalte priorisiert werden. Tatsächlich ändern sich Algorithmen auch ständig. Dass aber eine Vorstrukturierung stattfindet, ist offensichtlich und im besten Fall hilfreich. Denn lauter Informationen angezeigt zu bekommen, die einen nicht interessieren und das eigene Informationsbedürfnis – sei es in Bezug auf Nachrichten, Unterhaltung oder Produktinformationen, die einen persönlichen Nutzen haben – nicht befriedigen, führt unweigerlich dazu, dass Nutzer*innen sich von der entsprechenden Plattform abwenden.

Um das zu verhindern, stützen sich die eingesetzten Algorithmen auf die Vorauswahl, die Nutzer*innen selbst treffen. Also z. B. welche Suchbegriffe sie in der Vergangenheit in Suchmaschinen eingegeben haben und welche Links sie schließlich geklickt haben oder welchen Accounts sie in sozialen Netzwerken wie Facebook, Instagram, Twitter oder Tiktok folgen, mit welchen Inhalten sie interagieren, insbesondere welche sie „liken“ und teilen.

Dieses in der Psychologie als Selective Exposure bekannte Verhalten nutzen Menschen seit jeher, um sich auf Informationen in ihrem Umfeld zu konzentrieren, die zu ihrem Weltbild passen und es stützen. Beispielsweise lesen sie eine Zeitung, die ihre politischen Ansichten spiegelt. So minimieren oder vermeiden sie kognitive Dissonanzen – eine Form mentalen Unbehangens, wenn man verschiedene Überzeugungen, Einstellungen oder Gedanken hat, die nicht zueinander passen, sich sogar widersprechen. Das gilt insbesondere in Situationen, in denen überwältigende Mengen an Informationen auf Menschen einzuprasseln drohen, wie etwa in sozialen Netzwerken mit ihren endlosen Feeds zu allen möglichen Themen, in allen möglichen Formen und in allen möglichen Sprachen. Der gezielte Konsum von Medien ist also nicht neu, die Interaktivität sozialer Medien und die theoretische Möglichkeit einer sich selbst verstärkenden Spirale schon.

Risiko für Meinungsblasen

Kritiker befürchten daher, dass nun diese auf Selective Exposure basierende algorithmische Filterung den Informationshorizont von Social-Media-Nutzer*innen so sehr einschränken könnte, dass sie nicht mehr ausgewogen informiert sind, ihr Weltbild einseitig verstärkt wird und sie im Extremfall sogar nur noch Mis- und Desiformationen ausgesetzt sind. Das gelte vor allem in Bezug auf politisch und gesellschaftlich kontrovers diskutierte Themen, so dass ein konstruktiver Dialog zwischen einzelnen Personen, aber vor allem über gesellschaftliche Gruppen hinweg nicht mehr möglich würde. Eine solche Entwicklung sei insbesondere dann möglich, wenn die Themen, die zur Diskussion stehen, komplex und ausschließlich medial vermittelt würden. In solchen Fällen wäre die Wahrnehmung zu einem Problem ausschließlich durch die Mediennutzung geprägt, ohne persönlichen Austausch in der realen Welt.

Das Risiko für derartige Meinungsblasen kann demnach, vor allem bei globalen Problemen wie dem Klimawandel oder Kriegen in zwei Schritten entstehen: Zuerst spaltet sich die Gesellschaft als Reaktion auf ein Ereignis oder eine Maßnahme in zwei Gruppen auf. Auf der einen Seite stehen die Befürworter*innen und auf der anderen die Gegner*innen. Dann beginnt – zumindest in Demokratien – ein öffentlicher, medialer Diskurs, in dem beide Seiten ihre Argumente vorbringen. Gleichzeitig versorgen sich Mitglieder der jeweiligen Seite jeweils selektiv mit Informationen, die ihrem Weltbild entsprechen. Das tun sie im persönlichen Austausch ebenso wie medial. Gegenteilige Meinungen oder Fakten werden dabei ausgeblendet oder lediglich als zu widerlegende Äußerungen betrachtet. Was hier passiert, ist eine Kombination aus Selective Exposure und Confirmation Bias – die unbewusste Tendenz, nur Informationen zu glauben, die der eigenen Meinung entsprechen. Die selektive Wahrnehmung von Informationen wird durch den Confirmation Bias unterstützt und umgekehrt. Menschen – so die Annahme – nehmen also Informationen nur noch wahr, wenn sie ihrer Meinung entsprechen. Dieses Ungleichgewicht führt dann zur Bestätigung und Verstärkung der eigenen Position. Verschiedene Studien belegen, dass diese Verhaltenskombination die politische und gesellschaftliche Meinungsbildung und das Handeln einzelner stark beeinflussen kann. Unklar bleibt jedoch, inwiefern es sich hier um digitale Phänomene handelt, da eine solche Informationsauswahl letztlich vom eigenen Weltbild und zunächst nicht von Algorithmen abhängt und somit auch analog vollzogen wird.

Es stellt sich daher die Frage, ob die algorithmische Vorauswahl von Inhalten automatisch zur weltanschaulichen Isolation, also in sogenannte Filterblasen, führt. Und ob diese „die zentrale Schuld an der gesellschaftlichen und ideologischen Polarisierung“ tragen.

Verschiedene Studien zeigen, dass man diese Fragen differenziert betrachten muss. Denn sie belegen, dass Menschen über Suchmaschinen, Nachrichtenaggregatoren und soziale Netzwerke sogar mit mehr und unterschiedlicheren Perspektiven, Themen und Inhalten konfrontiert werden, als man Angesichts einer Vorfilterung erwarten würde. Das deutet darauf hin, dass Algorithmen unsere Gewohnheit, Medieninhalte und somit unseren Medienkonsum zu personalisieren, nicht übernommen, systematisiert und intensiviert haben.

Argumente gegen die Filterblase

Peter M. Dahlgren entwickelt daher mehrere kritische Argumente, die zwischen technologischen und individuellen Effekten von Filterblasen auf der Mikro-Ebene und gesellschaftlichen Effekten auf der Makro-Ebene differenzieren. Zum einen hält er fest, dass auf der technologischen Ebene durchaus Filterblasen anhand von mathematischen Modellen identifiziert werden können, andererseits seien ihre gesellschaftlichen Effekte nicht so groß. Menschen gehören schließlich zu verschiedenen sozialen Gruppen und tauschen sich auch außerhalb der digitalen Welt aus, sei es am Arbeitsplatz, in der Schule oder bei Freizeitaktivitäten. Auch können persönliche Erlebnisse medial vermittelten Positionen entgegenwirken und z.B. Vorurteile abbauen oder Stereotype entkräften. Demnach kann man Filterblasen als „ein Missverständnis, vor allem über die Macht der Technologie – und insbesondere der Algorithmen – über die menschliche Kommunikation“ verstehen.

Hierzu passen die Ergebnisse verschiedener Studien. Sie zeigen, dass das Bedürfnis nach Informationen zu einem bestimmten Thema oder Sachverhalt stärker ist als das gezielte Auffinden von Informationen, die exklusiv den eigenen Standpunkt – Confirmation Bias – festigen. Eine Abfrage des Reuters Institutes zeigt etwa, dass 40 Prozent der Social-Media-Nutzer*innen in den für die Studie untersuchten 36 Ländern der Aussage zustimmten, dass sie mit Nachrichten konfrontiert werden, an denen sie nicht interessiert sind, oder mit Nachrichtenquellen, die sie normalerweise nicht nutzen würden, während nur 27 Prozent dieser Aussage nicht zustimmten. Das zeigt, dass die eingesetzten Algorithmen nicht zu engmaschig gefiltert haben und Menschen online durchaus diverse Informationen konsumieren. Gestützt wird die These „Information überwiegt vor Confirmation Bias“ auch von William Hart und seinen Kolleg*innen. Ihre Untersuchung hat ergeben, dass je mehr Menschen in ihrem Glauben, ihrer Meinung oder ihrem Verhalten gefestigt sind, desto eher setzen sie sich auch herausfordernden Informationen und gegenteiligen Meinungen aus.

Außerdem zeigt der Reuters Institute Digital News Report von 2023 auf, dass ein Großteil der Nutzer:innen in den 46 untersuchten Ländern skeptisch gegenüber den Algorithmen ist, die auswählen, was sie über Suchmaschinen, soziale Medien und andere Plattformen sehen. Nur 30 Prozent sind der Meinung, dass ihr bisheriger Nachrichtenkonsum eine gute Grundlage für Algorithmen ist, Nachrichten für Nutzer*innen auszuwählen. Das sind sechs Prozentpunkte weniger als bei der letzten Befragung 2016. Trotzdem bevorzugen Nutzer*innen algorithmisch ausgewählte Nachrichten im Durchschnitt immer noch leicht gegenüber Nachrichten, die von Redakteur*innen oder Journalist*innen für sie ausgewählt werden (27 Prozent). Das deutet laut Nic Newmann und Kolleg*innen darauf, dass die Sorge um Algorithmen nur ein Teil einer breiteren Besorgnis über Nachrichten und ihrer Auswahl ist. Es geht also nicht unbedingt um die Effekte einer möglichen Filterblase, sondern allgemein um Vertrauen in journalistische Medien.

Zwischen Filter und Verhalten

Ein weiterer Punkt, der die überhöhte Bedeutung von Filterblasen infrage stellt, liegt in doppelter Hinsicht in der Funktionsweise der Algorithmen. Einerseits merkt Peter M. Dahlgren an, dass die gefilterte Auswahl von Inhalten nicht das Verhalten von Menschen vorherbestimmt. Bloß weil ein Artikel im Newsfeed landet oder ein Inhalt auf der „for you“-Page angezeigt wird, heißt das also nicht, dass die Nutzer*in von diesen Inhalten überzeugt ist oder nur durch das bloße Anzeigen überzeugt wird. Andererseits sind diese Vorschläge auch nie auf das Individuum ausgerichtet. Denn obwohl die Plattformkonzerne über einen enormen Datensatz verfügen, spielen sie Inhalte stets einer Kohorte aus – also einer Gruppe von Menschen, die bestimmte Merkmale teilen. Es wird also lediglich vermutet, dass ein bestimmter Inhalt einer bestimmten Gruppe gefallen oder sie interessieren könnte. Eine Isolation in der eigenen Filterblase, so wie Eli Pariser es 2011 beschreibt, ist also bei genauerer Betrachtung nicht plausibel.

Allerdings gibt es durchaus Indizien für eine gewisse Blasenbildung. Laut Michael D. Conover und Kollegen ist sie aber nicht zwingend algorithmisch verursacht, sondern entsteht eher durch menschliches Handeln. Denn ganz im Sinne des Selective Exposure kommunizieren die meisten Menschen über Themen, die ihnen wichtig sind, lieber mit Gleichgesinnten. Wer Fußballfan ist, spricht lieber mit anderen Fans über Fußball als mit Menschen, die sich wenig oder gar nicht für Fußball begeistern können. Mit diesen Gleichgesinnten teilen sie online auch eher ihre politische Meinung, wie die Twitter-Studie von Michael D. Conover und Kollegen zeigt. Geht es aber darum, politisch zu diskutieren, entsteht ein anderes Bild: hier überwiegt die Interaktion mit Menschen, die anderer Meinung sind. So entstehen in sozialen Medien auch zum Teil heftige Diskussionen, die polarisierend wirken und somit den Eindruck erwecken können, dass hier Blasen vorliegen. Allerdings sind diese nicht technischer, sondern menschlicher Natur.

Es gibt also viele Argumente gegen eine Filterblase, als dass sie allein für die gesellschaftliche und ideologische Polarisierung verantwortlich gemacht werden könnte. Zieht man zusätzlich in Betracht, dass Menschen auch und vor allem soziale Interaktionen außerhalb des Internets haben und politische Themen nur einen geringen Teil der Gespräche und sozialen Interaktionen bestimmen, dann hat Peter M. Dahlgren durchaus recht, wenn er sagt, dass es leicht ist, das Problem durch die Wahl der Stichproben in Studien zur möglichen Bildung von Filterblasen zu überzeichnen. Konkret sagt er, „wenn wir Personen, die bereits extreme politische Nutzer*innen sind, und Diskussionen, die bereits politisch extrem sind, heranziehen, könnten wir daraus schließen, dass ihre Extremität ein Ergebnis von Filterblasen ist. Diese Art der Argumentation kann sehr leicht zu einem Zirkelschluss werden, indem das Phänomen, das nachgewiesen werden soll, einfach vorausgesetzt wird“.

Auch ist zu beachten, dass verschiedene (digitale) Medien und Plattformen verschiedene Funktionen erfüllen, die sich individuell stark unterscheiden können. Wer etwa lokale und nationale Nachrichten über eine News-App, eine Online-Zeitung oder die Mediathek von ARD und ZDF konsumiert und internationale Meldungen auf Instagram oder Facebook, indem man z.B. der New York Times, The Guardian oder Le Monde folgt, hat eine bewusste Auswahl getroffen. Andere Nutzer*innen können etwa Tiktok zur Unterhaltung verwenden und Twitter – oder X, wie es jetzt heißt – für Nachrichten und je nach Thema und Standpunkt politische Diskussionen mit Gleichgesinnten und/oder Menschen anderer Meinung führen. Wieder kommt es darauf an, welchen Accounts man auf welcher Plattform folgt, wie oft und wie bewusst man diese Plattformen nutzt und wie gut man sich ohnehin merkt, was man gesehen hat. Studien belegen nämlich, dass sich Menschen oft nicht genau daran erinnern können, was sie in sozialen Medien konsumieren. Die konkrete Botschaft und Quelle können demnach vergessen werden, was bleibt ist nur ein bestimmter Eindruck, eine Idee.

Entscheidend ist der Mensch

Zusammenfassend lässt sich sagen, dass die Filterblase als mathematisches Modell durchaus nachweisbar ist. Allerdings schließt sie gesellschaftlich betrachtet einzelne Menschen nicht zwingend in einem undurchdringlichen medialen Käfig ein. Entscheidend ist am Ende nicht die Technologie, sondern der Mensch. Es mag zwar sein, dass einzelne ihren Informationskonsum online begrenzen – Selective Exposure in Kombination mit Confirmation Bias – und dass insgesamt die Nachrichtenmüdigkeit zunimmt. Aber das ist nicht ursächlich auf digitale Filterblasen zurückzuführen, sondern hängt mit der aktuellen Krise des Journalismus und dem zunehmenden Misstrauen gegenüber sozialen Medien zusammen.

Studien belegen auch, dass sich in Deutschland Menschen in der Regel aus unterschiedlichen Quellen informieren. So „dominieren traditionelle Nachrichtenanbieter aus TV, Radio und Print die Nachrichtennutzung im Internet. 43 Prozent lesen, schauen oder hören regelmäßig die Inhalte etablierter Nachrichten; bei den 18- bis 24-Jährigen sind es 46 Prozent. Für 44 Prozent in dieser Altersgruppe sind soziale Medien eine regelmäßige Quelle für Nachrichten; das sind elf Prozentpunkte weniger als noch 2022“. Zusätzlich ist „für 43 Prozent der erwachsenen Internetnutzenden (.) das lineare Fernsehen weiterhin die wichtigste Nachrichtenquelle“.

Diese gemischte Nachrichtennutzung lässt darauf schließen, dass Filterblasen nicht allein die Verantwortung für die gesellschaftliche und ideologische Polarisierung tragen. Denn Polarisierungseffekte gab es lange vor sozialen Medien, Nachrichtenaggregatoren und Suchmaschinen. Damit sie aber nicht zunehmen, braucht es die Vermittlung von Medien- und Informationskompetenzen, die auch die Funktionsweisen von Algorithmen, Mis- und Desinformation sowie ein Bewusstsein für die eigene zunehmend öffentliche Rolle in sozialen Netzwerken einschließt. Zudem gilt es, die Bereitschaft und Fähigkeit zur sachlichen Diskussion zu fördern.

Fussnoten

Fußnoten

  1. Peter M. Dahlgren, “A critical review of filter bubbles and a comparison with selective exposure,” Nordicom Review 42 (2021): 15-33, 16.

  2. Leon Festinger, A Theory of Cognitive Dissonance. 2. Band. (Standford: Stanford University Press 1962).

  3. z. B. Raymond S. Nickerson, “Confirmation Bias: A Ubiquitous Phenomenon in Many Guises,” Review of General Psychology 2 (1998): 175-220; William Hart, Dolores Albarracín, Alice H. Eagly, Inge Brechan, Matthew J. Lindberg, & Lisa Merrill, “Feeling validated versus being correct: A meta-analysis of selective exposure to information,” Psychological Bulletin 135 (2009): 555-588; Andreas Hergovich, Reinhard Schott & Christoph Burger, “Biased evaluation of abstracts depending on topic and conclusion: further evidence of a confirmation bias within scientific psychology,” Current Psychology 29 (2010): 188-209.

  4. Axel Bruns, “Filter bubble.” Internet Policy Review 8, 29.11.2019, Externer Link: https://policyreview.info/concepts/filter-bubble

  5. u.a. Pablo Barberá, “How social media reduces mass political polarization. Evidence from Germany, Spain, and the U.S.” [Vortrag], San Francisco, 4.9.2015, Externer Link: http://pablobarbera.com/static/barbera_polarization_APSA.pdf; Michael A. Beam, Myiah J. Hutchens & Jay D. Hmielowski, „Facebook news and (de)polarization: Reinforcing spirals in the 2016 US election,” Information, Communication & Society 21 (2018): 940-958; Axel Bruns, Are filter bubbles real? (Oxford: Polity Press, 2019); Huw C. Davies, “Redefining filter bubbles as (escapable) socio-technical recursion,” Sociological Research Online 23 (2018): 637-654; Judith Möller, Damian Trilling, Natali Helberger & Bram van Es, “Do not blame it on the algorithm: an empirical assessment of multiple recommender systems and their impact on content diversity,” Information, Communication & Society 21 (2018): 959-977; Jacob L. Nelson & James G. Webster, “The Myth of Partisan Selective Exposure: A Portrait of the Online Political News Audience,” Externer Link: Social Media + Society 3 (2017), https://doi.org/10.1177/2056305117729314; Levi Boxell, Matthew Gentzkow & Jesse M. Shapiro, “Greater Internet use is not associated with faster growth in political polarization among US demographic groups,” Proceedings of the National Academy of Sciences 114 (2017): 10612-10617; Frederik J. Zuiderveen Borgesius, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vreese & Natali Helberger, “Should we worry about filter bubbles?” Externer Link: Internet Policy Review 5 (2016)

  6. Peter M. Dahlgren, “A critical review of filter bubbles and a comparison with selective exposure,” Nordicom Review 42 (2021): 15-33.

  7. Axel Bruns, Are filter bubbles real? (Oxford: Polity Press, 2019), 93.

  8. u.a. Nic Newman, Richard Fletcher, Antonis Kalogeropoulos, David A. L. Levy & Rasmus Kleis Nielsen, Reuters Institute Digital News Report 2017. (Oxford: Externer Link: Reuters Institute for the Study of Journalism, 2017); Brian E. Weeks, Thomas B. Ksiazek & R. Lance Holbert, “Partisan enclaves or shared media experiences? A network approach to understanding citizens’ political news environments,” Journal of Broadcasting & Electronic Media 60 (2016): 248-268.

  9. Nic Newman, Richard Fletcher, Antonis Kalogeropoulos, David A. L. Levy & Rasmus Kleis Nielsen, Reuters Institute Digital News Report 2017. (Oxford: Externer Link: Reuters Institute for the Study of Journalism, 2017).

  10. William Hart, Dolores Albarracín, Alice H. Eagly, Inge Brechan, Matthew J. Lindberg, & Lisa Merrill, “Feeling validated versus being correct: A meta-analysis of selective exposure to information,” Psychological Bulletin 135 (2009): 555-588.

  11. Nic Newman, Richard Fletcher, Kirsten Eddy, Craig T. Robertson & Rasmus Kleis Nielsen, Reuters Institute Digital News Report 2023. (Oxford: Externer Link: Reuters Institute for the Study of Journalism, 2023).

  12. Peter M. Dahlgren, “A critical review of filter bubbles and a comparison with selective exposure,” Nordicom Review 42 (2021): 15-33.

  13. Michael D. Conover, Jacob Ratkiewicz, Matthew Francisco, Bruno Gonçalves, Filippo Menczer & Alessandro Flammini, “Political polarization on Twitter”, Fifth International AAAI Conference on Weblogs and Social Media 5, 17.7.2011, Externer Link: https://ojs.aaai.org/index.php/ICWSM/article/view/14126/13975

  14. Peter M. Dahlgren, “A critical review of filter bubbles and a comparison with selective exposure,” Nordicom Review 42 (2021): 15-33, 24.

  15. Emily Vraga, Leticia Bode & Sonya Troller-Renfree, “Beyond Self-Reports: Using Eye Tracking to Measure Topic and Style Differences in Attention to Social Media Content,” Communication Methods and Measures 10 (2016): 149-164.

  16. Julia Behre, Sascha Höllig, Judith Möller, Reuters Institute Digital News Report 2023: Ergebnisse für Deutschland. (Hamburg: Externer Link: Verlag Hans-Bredow-Institut, 2023), 5.

  17. ulia Behre, Sascha Höllig, Judith Möller, Reuters Institute Digital News Report 2023: Ergebnisse für Deutschland. (Hamburg: Externer Link: Verlag Hans-Bredow-Institut, 2023), 5.

  18. Julia Behre, Sascha Höllig, Judith Möller, Reuters Institute Digital News Report 2023: Ergebnisse für Deutschland. (Hamburg: Externer Link: Verlag Hans-Bredow-Institut, 2023), 5.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Tong-Jin Smith ist Professorin für Journalismus an der HMKW Berlin und Mitgründerin des Center for Media and Information Literacy an der Freien Universität Berlin. Ihr Hauptinteresse in Lehre und Forschung gilt der Nachrichten- und Informationskompetenz(bildung) sowie den Transformationsprozessen des Journalismus in der Netzwerkgesellschaft und Aufmerksamkeitsökonomie.