Information 2.0 – Filterblase, Data Mining, Geschäftsmodelle

Aufmacherbild: (C) Alexas Fotos via Pixabay, CC0/Public Domain

Social Media und das Internet haben die Art revolutioniert, wie wir Informationen aufnehmen und austauschen.  Die Buchmesse in Frankfurt ist zu Ende. Der Wahlkampf in den USA tobt auf allen Kanälen. Darum jetzt unser Themenspecial. Denn ob Frankfurt oder Washington – überall spielen das Netz und seine Algorithmen eine zentrale Rolle.  Zwar hat einerseits jeder Internet-Nutzer quasi das gesamte Wissen der Menschheit im direkten Zugriff. Doch aktuell werden auch die Tücken deutlich, die mit dem Versprechen der Verfügbarkeit von Information jederzeit und überall einhergehen. Wie kann man erkennen, ob eine Information wirklich korrekt und authentisch ist? Wie lässt sich vermeiden, dass Algorithmen zu „Filterblasen“ führen? Haben Journalismus und informationsbezogene Dienstleistungen in der Zukunft noch eine Chance? Kann IT-bezogene Forschung und Entwicklung helfen, diese Fragen zu lösen?

Die Nutzung des Internet und digitaler Medien verlangt den Anwendern ein hohes Maß an Medienkompetenz ab. Nicht selten sind sie aus den Zeiten konventioneller Medien gewohnt, dass „gedruckte“ beziehungsweise auf dem Bildschirm einigermaßen professionell gestaltete und aufbereitete Informationen auch vertrauenswürdig sind. Denn Journalisten und professionelle Medien wählten die veröffentlichten Informationen aus – nach Relevanz für die Leser beziehungsweise Zuschauer, und zusätzlich nach einer Überprüfung ihres Wahrheitsgehalts. Diese Auswahl- oder Filterfunktion, die auch als „Gatekeeper-Funktion“ bezeichnet wird, geht zunehmend verloren.

Die Filterung nach Relevanz ist auf Webseiten, in Newslettern und in sozialen Medien auch gar nicht gefragt – viele Informationsangebote richten sich ja gerade an spezialisierte Zielgruppen, die von Massenmedien gar nicht oder nur in wesentlich geringerem Umfang bedient werden könnten. Doch auch die Überprüfung der Wahrheit und Authentizität von Informationen ist in digitalen Medien keineswegs mehr gesichert. Wer gezielt Falschinformationen verbreiten will, um eigene Ziele zu verfolgen, hat leichteres Spiel denn je. Die in Frage kommenden Kontrollmechanismen, wie etwa eine Gegenrede in Benutzerkommentaren, funktionieren in der Regel nur unzureichend und können vom Betreiber einer Website oder Plattform schnell ausgehebelt werden – sei es durch Löschen unliebsamer Kommentare oder dadurch, dass eine Kommentarfunktion gar nicht erst angeboten wird.

Probleme der neuen Informations-Welt: Von der Filterblase bis zu Social Bots

In sozialen Medien sind die Effekte noch komplexer: Da die Algorithmen von Facebook und Co. die angezeigten Informationen aufgrund des bisherigen Leseverhaltens und dem System bekannter Präferenzen auswählen, ergeben sich „Filterblasen“: Leser und Zuschauer werden nur noch mit Informationen versorgt, die ihrem eigenen Weltbild und ihrem eng definierten Interessensspektrum entsprechen. Dies führt nicht nur dazu, dass überraschende oder zum Hinterfragen eigener Positionen anregende Informationen ausbleiben. Likes und bestätigende Kommentare vermitteln zudem den trügerischen Eindruck, dass eine Mehrheit die eigene Sichtweise teilt und befürwortet.

Dieser Effekt ist in algorithmischer Nachrichtenauswahl fest angelegt. Doch es geht noch schlimmer: Im ungünstigsten Fall stammen die Likes und zustimmenden Kommentare in der eigenen Filterblase gar nicht von echten Menschen, sondern ihrerseits von Software und Algorithmen – sogenannten „Social Bots“. Sie sind ein Werkzeug der Propaganda 2.0 – über Fake-Accounts ein Kartenhaus an Botschaften, das mitunter gefährlich stabil werden kann. Dr. Simon Hegelich vom Forschungskolleg der Universität in Siegen und seine Kollegen im Team „Social Media Forensics“ (SoMeFo) gehen davon aus, dass hinter rund 10 Prozent der Facebook-User tatsächlich Social Bots stecken.

Angesichts der Gefahr, die aus solchen Mechanismen, für den gesellschaftlichen Diskurs und die Demokratie entstehen, beschäftigen sich Forscher sowohl an Universitäten als auch auf Seiten der Dienste-Anbieter mit der Frage, wie sich solche Manipulations-Mechanismen erkennen und verhindern lassen. Einen Überblick über Forschungsaktivitäten mit diesem Schwerpunkt gibt unser Beitrag „Social Media Bots: Wie Forscher künstliche Hetzer entlarven„.

Google News Lab und andere: Algorithmen und Big Data als Chance für Journalismus und Informationsaufbereitung

Immerhin hat die geschilderte Entwicklung auch eine positive Seite: Medien- und Nutzungswandel, Algorithmen und die Vernetzung schier unzähliger Informationsangeboten sind nicht nur Teil des Problems, sondern auch Teil der Lösung. So bieten Mechanismen wie Big Data und die fast unbeschränkte Verfügbarkeit von Informationen Journalisten und Informationsarbeitern auch ganz neue Chancen bei der Recherche, Analyse und Aufbereitung von Informationen. Google, dessen Suchmaschine heute wohl der ausgeprägteste „Gatekeeper“ ist – was Google nicht findet und listet, existiert für die Mehrzahl der Internet-Nutzer auch nicht – erforscht beispielsweise in seinem „News Lab“, wie spezialisierte Tools beim Finden und Bewerten von Informationen und Daten helfen können. Das Projekt und seine ersten sichtbaren Ergebnisse stellen wir in unserem Beitrag „Google News Lab: Datengetriebener Journalismus soll Nachrichten verbessern“ vor.

Mit diesen Aktivitäten verbindet sich nicht zuletzt die Hoffnung von Journalisten und Informationsanbietern, ihre Angebote durch kompetente und belegbare Recherche und Aufbereitung von Inhalten aus dem Einheitsbrei ungesicherter und möglicherweise tendenziöser Angebote herauszuheben. Daraus resultiert nicht zuletzt die Frage, ob sich Qualität auch im digitalen Zeitalter durchsetzen kann. Mit Sicherheit schadet es dabei nichts, wenn neben einer stabilen und seriösen Informations- und Recherchebasis auch die Qualität von Texten, Bildern und Aufbereitung überzeugt und die Rezeption durch die Leser und Zuschauer erleichtert.

Dabei ist die intelligente Datenaufbereitung nicht nur auf klassische Mediennutzung beschränkt, sondern umfasst auch den Umgang mit Rechnern und dem Internet insgesamt – wie etwa unser Beitrag „Semantische Anwendungen: Wenn der Mensch mit dem Computer spricht“ unterstreicht.

Die Medienbranche sucht dringend neue Geschäftsmodelle

Studien zur Mediennutzung, wie sie etwa die Onlinestudie von ARD und ZDF, das Branchenmagazin W&V (Werben und Verkaufen) oder auch das von der Università della Svizzera italiana gegründete „European Journalism Observatory“ präsentieren, sind sich in einem Punkt einig: Zumindest noch genießen die großen, etablierten Medienmarken einen Vertrauensvorsprung bei Lesern und Zuschauern. Dennoch stellt sich für alle Medien heute mehr denn je die Frage nach der Finanzierung beziehungsweise nach neuen Geschäftsmodellen. Die zunehmende Internet-Nutzung und die stärkere Diversifizierung im Medienmarkt (zwei Trends, die von den zitierten Studien ebenfalls klar belegt werden), führen zu sinkenden Auflagen bei Print-Medien und zu geringeren Zuschauerzahlen bei TV-Angeboten. Die Verlage und Sender leiden massiv unter schwindenden Einnahmen, weil der traditionelle Mix aus Verkaufspreisen und Anzeigenerlösen, zunehmend schlechter funktioniert. Dass die Leser- und Abrufzahlen bei den Internet-Angeboten dieser Medien steigen, hilft kaum: Denn die für Online-Angebote erzielbaren Anzeigen- und Affiliate-Erlöse (also Provisionen für die Verlinkung zu Online-Shops etc.) sind gering und können die wegbrechenden konventionellen Werbeeinnahmen nicht kompensieren. Die gesamte Medienbranche ist daher auf der Suche nach neuen Geschäfts- und Erlösmodellen. Dass die erfolgreichsten unter ihnen – wie etwa die Medienkonzerne Springe und Burda – mittlerweile mehr Umsatz mit Online-Shops als mit ihren traditionellen Medienangeboten machen, stimmt dabei nicht unbedingt hoffnungsvoll.

Doch auch und gerade auf diesem Gebiet kann vielleicht die akademische Forschung helfen. Das Problem ist längst erkannt, und Institute wie das Zentrum für Medien-, Kommunikations- und Informationsforschung an der Universität Bremen, das an der Universität Bamberg gegründete Kompetenzzentrum für Geschäftsmodelle in der digitalen Welt oder das Institut für Journalistik an der TU Dortmund suchen – neben vielen anderen – nach Lösungen und Antworten. Dass sie erfolgreich sind, liegt in unser aller Interesse. Selbstverständlich wird die Intelligente Welt auch in Zukunft weiter über dieses spannende Themenfeld berichten. Den aktuellen Stand in seinen vielen Facetten präsentieren wir mit unserem aktuellen Themenspecial „Information 2.0 – Filterblase, Data Mining, Geschäftsmodelle“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.