• Die EU will eine neue Social Media Welt schaffen

Online Marketing ist ein großes Geschäft für Unternehmen, Organisationen und einzelne Personen. Alles dreht sich um Reichweite, mehr Kunden, mehr Aufmerksamkeit. Bekannt ist, dass die Social Media Plattformen Algorithmen nutzen, die letztlich entscheiden, bei welchem User welche Daten im Newsfeed landen. Die EU wird sich wohl demnächst über den Digital Services Act (DSA) einigen. Er soll Nutzerinnen und Nutzern mehr Schutz und Transparenz bringen und soll spätestens 2023 in Kraft treten.

MO: Im gegenwärtigen Krieg Russlands gegen die Ukraine spielt Zensur eine verheerende Rolle. Der ukrainische Präsident Wolodymyr Selensky und viele andere versuchen über digitale Medien Botschaften abzusetzen und so auch das russische Volk zu erreichen. Auch Arnold Schwarzenegger ging letzte Woche mit seinem Video über Russland und den Krieg in der Ukraine viral. Was kann damit erreicht werden, Michael?

Michael Meyer-Resende: Inhalte auf sozialen Medien sind oft schlagkräftig, weil sie authentisch wirken. Arnold spricht uns direkt aus seinem Wohnzimmer an. Das geht nicht im Fernsehen oder in der Zeitung. Und er macht es gut, spricht nicht von oben herab, sondern erklärt seine eigene, problematische Familiengeschichte. Sein Video geht viral, allerdings auf Twitter, was in Russland nicht mehr leicht zugänglich ist. Auf Telegram, das viele Leute in Russland lesen, hat er bisher viel weniger Reichweite damit. Und selbst wenn es viele Russen dort sehen (was wir nicht wissen), können wir nicht sagen, was es für eine Wirkung hat. Ein Drittel der Reaktions-Emojis sind negativ, das ist zumindest ein Indiz, dass es nicht alle toll finden.

Soziale Medien sind vielschichtig, daher analysieren wir solche Diskurse, zum Beispiel rund um Wahlen (siehe unseren Bericht zur Bundestagswahl) im Detail. Generell kann man sagen: Es gibt viel Missbrauch, gerade Viralität ist oft ein Problem, aber in repressiven Ländern sind soziale Medien auch die einzige Chance an echte Informationen oder andere Meinungen zu kommen.

MO: Persönliche Ansprache und Emotionen funktionieren in Social Media besonders gut. Forscher haben aber entdeckt, dass Falschmeldungen oft prominenter angezeigt werden als echte Nachrichten, da sie mehr Emotionen wecken. Wie kann dem entgegengesteuert werden?

 Michael Meyer-Resende: Die Algorithmen registrieren, was unsere Aufmerksamkeit erweckt. Entweder weil wir länger gucken oder weil wir reagieren – mit Emojis, Antworten, Likes, usw. Inhalte, die unsere Gefühle ansprechen, fesseln uns mehr als andere Inhalte. Nehmen wir das Gefühl „Überraschung“. Es löst Dopamine aus. Ein erfundener Artikel mit der Schlagzeile „Der Papst unterstützt Donald Trump“ ging einen Tag vor den Präsidentschaftswahlen 2016 in den USA viral. Kein Wunder. Das klingt interessanter und überraschender als die meisten Überschriften aus der Politik. Und Trump selbst hat das Spiel perfekt beherrscht. Wer diskutiert schon über Politik, wenn Trump jeden Tag Aufreger liefert?

Was kann man machen? Lügen ist nicht verboten (außer in bestimmten Fällen, wie Betrug): Awful but lawful. Das Problem ist dann auch nicht das Lügen, sondern die Tatsache, dass Algorithmen dazu neigen, Lügen oder extremistischen Inhalten mehr Aufmerksamkeit zu geben. Ein bisschen wie die Bild-Zeitung am Kiosk. Der Digital Services Act sieht daher vor, dass uns Firmen viel mehr Auskünfte geben, wofür die Algorithmen eigentlich programmiert werden, welche Ergebnisse sie produzieren und wie Risiken gemindert werden.

MO: Einfach erklärt: wie genau funktioniert das mit den Algorithmen eigentlich derzeit? Du hast darüber als Geschäftsführer von Democracy Reporting International ein umfassendes Briefing geschrieben.

Michael Meyer-Resende: Die Forscher nehmen an, dass die Firmen uns möglichst lange auf ihren Plattformen behalten wollen, damit sie uns viel Werbung zeigen können. Ob die Annahme stimmt, wissen wir nicht. Der DSA wird die Firmen zwingen, uns mehr Einblicke zu geben, welche Zwecke die Algorithmen eigentlich verfolgen.

Was wir wissen: Algorithmen treffen eine „exploit/explore“ Entscheidung. Eine Entscheidungsfrage, die unser Leben prägt: Probieren wir ein neues Restaurant aus (explore), oder gehen wir lieber in eines, dass wir kennen und mögen (exploit)?

Algorithmen wägen ab: Zeige ich Merle als erstes (also ganz vorne im Ranking) Inhalte an, die ihre Freunde gepostet haben? Oder zeige ich ihr etwas Neuartiges? Ich weiß, dass sie Inhalte ihrer Freunde in der Regel anguckt, aber ich stelle fest, dass sie die in letzter Zeit schneller durchscrollt; vielleicht findet sie sie langweilig? Vielleicht biete ich ihr etwas Neues an und teste, ob sie das Thema interessiert. Je mehr ich über ihre Interessen weiß, je mehr ich neue wecken kann (es ist ja keine Einbahnstraße), desto besser. Bei der Auswahl berücksichtigen die Algorithmen natürlich alles, was sie über uns wissen. Merle schaut sich Fotos eher auf ihrem Handy an, aber liest Texte auf dem Tablet? Dann bieten ich ihr auf dem Handy mehr Fotos, auf dem Tablet mehr Texte an.

MO: In einer Demokratie ist Meinungsfreiheit eins der höchsten Güter. Social Media kann grundsätzlich zu mehr Demokratie beitragen, da alle Menschen Zugang haben und sich frei äußern können. Wie will man mit Inhalten umgehen, die Fake News sind oder Hate Speech, ohne die freie Meinungsäußerung zu verletzen?

Michel Meyer- Resende: Freie Meinungsäußerung ist nicht grenzenlos. In Deutschland sind wir etwas restriktiver, als zum Beispiel in den USA, man denke an Straftatbestände wie Volksverhetzung oder Holocaust-Leugnung. Trotzdem kann man natürlich fast alles sagen. Dem „lawful but awful“ kann man mit einem anderen englischen Stichwort begegnen: „Freedom of speech is not freedom of reach.“ Weitgehend bestimmen die Firmen, welche Inhalte viel reach (Reichweite) bekommen. Mit dem DSA müssen sie sich nun mehr Gedanken darüber machen, ob sie risikoreichen Inhalten weniger Reichweite geben. Nehmen wir an, es gäbe eine Desinformationskampagne, dass man erst ab 20 Jahren wählen darf, um junge Wähler von der Wahl abzuhalten. Firmen müssen solche Desinformation identifizieren und dürfen ihnen keine Reichweite geben.

Um nochmal auf Trump zurückzukommen: Ihm haben nicht nur Algorithmen geholfen, sondern die Medien und auch die Gesellschaft. Jeder Aufreger wurde genüsslich ausgebreitet. Die Medien haben sehr gut an ihm verdient. Trump war große Unterhaltung. Wir fühlten uns wie im Zirkus. Aber der Bär in der Mitte war nicht Trump. Wir waren der Bär, er der Dompteur. Er hat uns alle an der Nase herumgeführt. Wir sind da hingetrottet, wo er uns haben wollte. Hat die Themen gesetzt und der Konkurrenz die ganze Aufmerksamkeit entzogen. Da ging es nicht nur um Algorithmen, sondern um die ganze Gesellschaft. Ich hoffe, wir haben daraus gelernt.

Mehr Informationen finden Sie in dem Briefing-Papier von Michael Meyer-Resende, in dem er die komplexen algorithmischen Mechanismen untersucht, die hinter dem Ranking von Inhalten stehen. Er zeigt Möglichkeiten auf, wie die Politik eingreifen könnte, um zu gewährleisten, dass Social-Media-Unternehmen beim Ranking von Inhalten das öffentliche Interesse im Auge behalten: https://democracy-reporting.org/en/office/global/publications/briefing-paper-117-how-do-social-media-algorithms-rank-content-and-what-can-the-digital-services-act-do-about-it
Democracy Reporting International (DRI) wurde 2006 von einer internationalen Expertengruppe für demokratische Regierungsführung und Wahlen gegründet. Durch ihre nichtstaatliche, unabhängige Organisation schlagen sie die Brücke zwischen großen zwischenstaatlichen Organisationen und kommerziellen Beratungsunternehmen. Ihr Fokus: Sie analysieren demokratische Entwicklungen und können auf Grundlage ihrer Beobachtungen schnell und flexibel zu verfassungsrechtlichen und wahlrechtlichen Rahmenbedingungen beraten.

Weitere Beiträge:

Merle von Oppen

mo@moco-communicate.de
Steuernummer: 003/854/30424

Merle von Oppen

mo@moco-communicate.de
Steuernummer: 003/854/30424