Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht

Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Die Macht der digitalen Plattformen ist groß. Sie können Präsidenten verstummen lassen – wie es Twitter und Facebook nach dem Sturm auf das Kapitol Anfang Januar mit den persönlichen Accounts von Donald Trump taten. Und sie können von einem Tag auf den anderen Nachrichten von etablierten Medien verbannen – wie es Facebook im Februar tat als Protest gegen ein australisches Gesetz, laut dem Google und Facebook Medien für ihre Inhalte bezahlen sollten. 

Die EU arbeitet aktuell an zwei Gesetzesvorhaben, um diese Macht zu begrenzen – die wirtschaftliche mit dem Digital Markets Act und die Auswirkungen auf die Gesellschaft mit dem Digital Services Act (DSA, auf Deutsch: Gesetz über digitale Dienste). Sie stellen zum ersten Mal seit 20 Jahren Regeln für digitale Unternehmen und insbesondere für die großen Plattformen auf. Im Dezember legte die EU-Kommission einen Entwurf vor, der nun im EU-Parlament debattiert wird, bevor am Schluss noch die Regierungen der Mitgliedstaaten eingeschaltet werden. 

Der DSA soll den rechtlichen Flickenteppich der Digitalregulierung in Europa vereinheitlichen. Wettbewerb, illegale Inhalte oder Verstöße gegen den Verbraucherschutz lassen sich relativ klar regeln, weil es schon jahrelange Erfahrung mit diesen Themen gibt. Aber wie soll man ein Gesetz gegen sogenannte Fake News gestalten? Was ist mit der Meinungsfreiheit? Weil das schwierig ist, gibt es bisher eine Vielzahl von verschiedenen Maßnahmen, die sich am Schluss im DSA verfestigen sollen. 

Die folgende Analyse zeigt, welche Möglichkeiten und Probleme es gibt, Regulierung als Waffe gegen Desinformation einzusetzen.

„Verhaltenskodex gegen Desinformation“ war bisher nicht effektiv

Desinformation ist im DSA selbst nur eine Nebensache, meist verweist der Entwurf dafür auf zwei andere Maßnahmen – den Verhaltenskodex gegen Desinformation und den Europäischen Aktionsplan für Demokratie, die Ideen, Vorschläge und angekündigte Gesetzesinitiativen enthalten.

Zuerst kam im Jahr 2018 der Verhaltenskodex gegen Desinformation. Zu der Zeit standen die EU-Parlamentswahlen bevor. Die Sorge war groß, dass Desinformations-Kampagnen die Wahl beeinflussen könnten. Um Plattformen wie Facebook, Youtube und Twitter dazu zu bewegen, dagegen vorzugehen, entwickelte die EU mit ihnen zusammen eine Selbstverpflichtung – den Verhaltenskodex (Code of Practice on Disinformation). 

Er schlug den Plattformen unter anderem vor, Scheinkonten zu schließen und den Verbreitern von Desinformation die Möglichkeit zu nehmen, damit Geld zu verdienen. Bald zeigte sich, dass diese Selbstverpflichtungen nicht effektiv waren. Das sagten Verbraucherschützer, Regierungen, und das war auch das Ergebnis der EU-Kommission, als sie 2020 die Umsetzung des Kodex überprüfte. 

Deshalb wird der Verhaltenskodex im Moment überarbeitet. Věra Jourová, EU-Kommissarin für Werte und Transparenz, leitet die Diskussionen. Plattformen, zivilgesellschaftliche Organisationen und Menschen aus der Medienbranche schalten sich regelmäßig per Video zusammen, sie sprechen darüber, wie Desinformation bekämpft werden kann und diskutieren, was sinnvoll und nötig ist. (Auch CORRECTIV nahm im Februar an einer solchen Sitzung teil.) 

Eine von diesen Menschen ist Sarah Andrew, sie arbeitet als Rechtsberaterin bei der Kampagnen-Organisation Avaaz. Sie sagt: „Wir von Avaaz wollen einen hoch-ambitionierten Verhaltenskodex gegen Desinformation, der zu einem leuchtenden Beispiel dafür werden kann, wie man mit Transparenz und Rechenschaftspflichten effektiv gegen Desinformation vorgehen kann. Auf eine Art, die sowohl die Demokratie als auch die Redefreiheit schützt. Die Arbeit von Faktencheck-Organisationen ist die Basis dafür.“ Avaaz und Faktencheck-Organisationen erarbeiten im Moment Vorschläge dafür, welche Ziele die Plattformen in Zukunft erfüllen sollten. Es geht um Transparenz – also die Frage, welche Daten die Plattformen veröffentlichen sollen – und auch um Effektivität – etwa, welche Hinweise an die Leute gehen sollen, die falsche oder irreführende Behauptungen gesehen haben.

Der Europäische Aktionsplan für Demokratie (EDAP) ist anders als der Verhaltenskodex ein ganz neues Instrument. Er beinhaltet verbindliche Maßnahmen gegen Desinformation. Ein Ansatz gegen ausländische Einmischung ist zum Beispiel die „Verhängung von Sanktionen bei wiederholten Verstößen“. Sanktionen wegen Desinformation – das ist etwas Neues.

 Zugleich bekennt sich der Aktionsplan immer wieder zur Meinungsfreiheit. Denn genau das ist der die Schwierigkeit: Wie sollen wir umgehen mit falschen, schädlichen aber nicht illegalen Meldungen, und wie kann dabei der freie Zugang zu Informationen gewahrt bleiben?

„Bei den Plattformen herrscht immer noch Wild West“

Renate Nikolay arbeitet im Kabinett von Věra Jourová. Sie sagt im Gespräch mit CORRECTIV.Faktencheck: „Bei den Plattformen herrscht immer noch Wild West.“ Nikolay hat bereits vor Jahren bei der Datenschutzgrundverordnung mitverhandelt und kennt den Umgang mit den Plattformen und ihren Lobbyisten noch von damals. Sie sagt, den Plattformen sei klar, dass die Regulierung kommt. Das könnten sie nicht mehr aufhalten. Und doch gebe es bestimmte Punkte im Digital Services Act, die sie verändern und abschwächen wollten.

Ein kritischer Punkt ist die Prüfung von Algorithmen. Sie helfen bei der Verbreitung von Desinformation, da müsse es rote Linien geben, sagt Nikolay. Im DSA-Entwurf heißt es: „Die Kommission kann auch anordnen, dass [eine] Plattform Zugang zu ihren Datenbanken und Algorithmen gewährt und entsprechende Erläuterungen dazu gibt.“ Hier sieht Google Probleme und wünscht sich mehr Klarheit. Das Unternehmen will zum Beispiel das Recht behalten, Anträge auf Einsicht abzulehnen. Aus drei Gründen: Der eine ist, dass es sich um Geschäftsgeheimnisse handeln könnte. Ein zweiter ist der Schutz von persönlichen Daten. Und drittens wollen sie nicht durch eine Öffentlichkeit den „bad actors“ Informationen verschaffen, wie sie die Algorithmen für schädliche Taktiken austricksen können.   

Facebook schreibt auf Anfrage, dass sich der DSA auf einem guten Weg befinde. 

Nikolay meint: „Die Plattformen wollen nicht, dass wir in ihre Algorithmen reinschauen – deshalb müssen sie unser Vertrauen stärken in ihre Handhabung.“ 

Das Problem mit den Algorithmen

Eine Funktionsweise der Plattformen ist, die Menschen so lange wie möglich da zu behalten, und ihnen umso länger Werbung zeigen zu können. Dies hat vor kurzem noch einmal die Netflix-Dokumentation The Social Dilemma in dramatischem Ton gezeigt. (Netflix ist selbst betroffen vom DSA.) Diese Aufmerksamkeits-Ökonomie hat auch zu Algorithmen geführt, die Menschen immer weiter zu immer extremeren Inhalten hinführen können. 

Ein interner Facebook-Bericht aus dem Jahr 2016 zeigte laut Medienberichten, dass in 64 Prozent der Fälle, wenn Leute einer extremistischen Facebook-Gruppe beitraten, der Beitritt auf einem Vorschlag von Facebook basierte, also auf dem Algorithmus. 

 Eine Studie von der New York University kam zu dem Ergebnis, dass vor den US-Wahlen 2020 Quellen aus dem rechten politischen Spektrum am meisten Interaktionen bekamen. Rechte Webseiten, die Falschinformationen verbreiteten, bekamen zudem mehr Aufmerksamkeit als Webseiten, die das nicht taten. Vielleicht auch, weil Algorithmen diese Informationen mehr Menschen angezeigt haben.

Und Forscher konnten im Mai 2020 belegen, dass jene, die Videos mit falschen Informationen auf Youtube schauen, weitere Videos mit Falschinformationen vorgeschlagen bekommen. 

Das Problem ist: Auch wenn die Plattformen sich selbst Gemeinschaftsstandards auferlegen, ist nicht sicher, dass sie sich auch daran halten. Zum Beispiel berichtete Wired kürzlich, dass sich Falschmeldungen über Covid-19-Impfungen weiterhin auf Facebook verbreiten konnten, obwohl die Plattform sie eigentlich entfernen wollte. 

Kontrolle von Plattformen – aber wie?

Falls die Plattformen diese Probleme nicht lösen und tatsächlich irgendwann Algorithmen überprüft werden, wer soll das tun? Tiemo Wölken, EU-Abgeordneter der SPD, wünscht sich eine zentrale Stelle, eine Art europäische Agentur, die die Umsetzung des DSA und damit zusammenhängender Maßnahmen kontrolliert. Eine andere Idee ist, dass in jedem Mitgliedstaat Behörden dafür zuständig sind – zum Beispiel die Landesmedienanstalten in Deutschland. 

Gegen ersteres spricht zum Beispiel, dass in den Mitgliedstaaten unterschiedliche Regeln herrschen, was illegale Inhalte sind und was nicht – in Deutschland ist etwa die Holocaust-Leugnung verboten, in anderen EU-Ländern hingegen nicht. Und auch gegen die zweite Möglichkeit gibt es Argumente. 

Alexandra Geese, Grünen-Abgeordnete im EU-Parlament sagt: „Wie soll die Landesmedienanstalt Saarland das machen?“ In einem Streit mit Google könne Google leicht lange Prozesse führen. Und Ann Cathrin Riedel, die bei der nächsten Bundestagswahl für die FDP kandidiert, hält beide Möglichkeiten für nicht ideal: „Ein Algorithmus-Tüv ist schwierig. Zu überlegen wären Prüfende, ähnlich wie Wirtschaftsprüfer.“

 Nicola Aitken, Strategie-Managerin bei der britischen Faktencheck-Organisation Full Fact, schrieb uns per E-Mail: „Die größte Lücke in bisherigen EU-Vorhaben war der Aspekt der Umsetzung, also beobachte ich vor allem, wie sich das entwickelt.“

Die Faktenchecker von Full Fact geht der DSA als EU-Regulierung zwar nicht mehr direkt etwas an, dennoch haben sie sich mit einem Meinungsbeitrag in die öffentliche Konsultation eingeschaltet. Denn indirekt betrifft er sie doch auf zwei Arten: Zum einen plant Großbritannien ebenfalls ein Gesetz über schädliche Online-Tätigkeiten, das sich wohl am DSA orientieren wird. Außerdem kann ein EU-Gesetz auch leicht größere Strahlkraft haben. Nicola Aitken schreibt uns: „Der DSA und der Aktionsplan haben das Potential, den Mindeststandard für das Moderieren von Inhalten in der ganzen Welt zu setzen.“  

Der DSA und Desinformation

Martin Schirdewan, EU-Abgeordneter von den Linken, sagt, das Thema Desinformation werde im DSA „stiefmütterlich“ behandelt. Tatsächlich taucht es nur am Rande auf, das Wort kommt sieben Mal im Dokument vor. Meist wird dabei auf den Verhaltenskodex oder den Aktionsplan verwiesen. 

Allerdings ist Des- und Misinformation mitgemeint, wenn im DSA von „Online-Risiken“ die Rede ist. Denn die Kommission hat sich für das Konzept der Risikoanalyse entschieden: „[Den Plattformen] wird die Verpflichtung auferlegt, die von ihren Systemen ausgehenden Risiken zu bewerten, um geeignete Risikomanagementinstrumente zu entwickeln, die die Integrität ihrer Dienste vor manipulativen Techniken schützen.“

Alexandra Geese, Abgeordnete des EU-Parlaments für die Grünen, hält das allerdings für wenig sinnvoll. „Wie sollen sie das Risiko abwenden, wenn sie mit diesen Risiken ihr Geld machen?“, sagt sie. 

Angriff auf das Business Modell

Desinformation steht im Zusammenhang mit Werbung, denn auch falsche Informationen werden gezielt an bestimmte Personengruppen gespielt. Geese und Schirdewan setzen sich für die Abschaffung von personalisierter Werbung und Technologien wie Microtargeting ein. Der DSA wäre damit eine wirkliche Gefahr für das Business Modell der Plattformen. Die Werbeeinnahmen von Google lieferten Berichten zufolge 2019 ungefähr 80 Prozent des Gesamtbudgets des Mutterkonzerns Alphabet. Bei Facebook waren es mutmaßlich sogar 99 Prozent. Das macht Google und Facebook zu den beiden größten Werbeplätzen weltweit, die die größten Werbeeinnahmen haben. 

Auch Tiemo Wölken unterstützt den Vorschlag. Er ist EU-Abgeordneter für die SPD. Er sagt, der DSA könne zu einer Art digitalem Grundgesetz werden und die Spielregeln grundsätzlich ändern. Über personenbezogenen Daten argumentiert Wölken ähnlich wie Geese und Schirdewan: Durch die Sammlung von persönlichen Daten für Werbezwecke werde eine „digitale Kopie von uns“ erstellt. Algorithmen zeigen uns dann, was uns vermutlich interessiert, dadurch finde eine Emotionalisierung und manchmal auch eine Radikalisierung statt.

Der aktuelle DSA-Entwurf enthält kein Verbot von personalisierter Werbung. Geese meint aber, dass es dafür eine Mehrheit im Europäischen Parlament gebe. Im Oktober sprach sich das Parlament nämlich in einem sogenannten Initiativbericht zum DSA schon einmal dafür aus, die Abschaffung personalisierter Werbung in Betracht zu ziehen. Laut Geese wollten Abgeordnete von den Liberalen diesen Punkt aus dem Bericht streichen. Der Streichungsantrag habe ein Mehrheit von 50 Stimmen abgelehnt.

Im DSA-Entwurf der Kommission steht von einem solchen Verbot allerdings nichts. 

Politische Online-Werbung 

Konkreter sind dagegen die Pläne im Aktionsplan für Demokratie, der Regeln für politische Werbung suchen will. Besonders im Zusammenhang mit Wahlen können falsche Informationen, die durch bezahltes Microtargeting zu bestimmten Personengruppen gelangen, Schaden anrichten. Ann Cathrin Riedel, die bei der kommenden Bundestagswahl für die FDP kandidiert und für die parteinahe Friedrich-Naumann-Stiftung Analysen über den DSA schreibt, hat noch keine abschließende Meinung darüber, ob sie ein Verbot von politischer Werbung will. Die Frage, die sie sich stellt, ist, ob das überhaupt möglich wäre.

Bisher steht ein Verbot von politischer Werbung nicht im DSA. Im Aktionsplan für Demokratie heißt es, dass es im Laufe des Jahres einen Gesetzesvorschlag geben soll, um politische Werbung transparent zu machen. Riedel fragt: „Was gilt als politische Werbung?“ 

Klar ist das bei Werbung von Parteien. Aber das Brexit-Referendum und die Trump-Wahl waren geprägt von Werbung, die nicht direkt von klassischen politischen Akteuren kam. Und würde zum Beispiel eine Kampagne von Greenpeace als politische Werbung gelten? All das ist noch unklar. Bis April läuft noch eine öffentliche Befragung der EU zum Thema politische Werbung, alle Menschen können ihre Ideen zu diesen Fragen einreichen.

 Die künftigen Regeln über politische Werbung könnten Auswirkungen haben auf die politische Online-Werbung in ganz Europa – also auch die der deutschen Parteien. 

 Tatsächlich bekommen die Maßnahmen des Aktionsplans für Demokratie und des DSA Lob: Riedel sagt zum Beispiel, dass sie überrascht war, endlich mal gute Ansätze für Digitalgesetzgebung zu sehen. Und für Martin Schirdewan kommt es darauf an, die Balance zwischen schnellem Löschen von illegalen Inhalten und dem Bewahren der Meinungsfreiheit zu finden. 

Auch wenn Regulierung nötig ist – die Meinungsfreiheit soll gewahrt werden

Schirdewan sagt: „Das Problem ist nicht, dass eine Person fragwürdige Inhalte postet, sondern dass Plattformen damit Geld machen.“ Und was Riedel gut findet, ist, dass der DSA sich nicht um Inhalte kümmere, sondern um Mechanismen. Dies hört man immer wieder. 

Und doch bestehen auch noch Sorgen. So warnt zum Beispiel Tiemo Wölken vor der Gefahr des Overblockings. Wenn Inhalte durch Regulierung zensiert werden, und nicht-Einhalten sanktioniert wird, dann könnten Plattformen voreilig löschen, um eventuellen Strafen zu entgehen – und sich bei unklaren Entscheidungen eher für die Restriktion entscheiden. Deshalb sei der Aktionsplan von Jourová der richtige Weg. „Es geht nicht ums Löschen unliebsamer Meinungen – private Plattformen sollen die Verbreitung verhindern“, so Wölken.

Es ist eine gängige Meinung, dass der Staat sich bei den Inhalten der Informationen, die sich auf den Plattformen verbreiten, möglichst raushalten soll. Giovanni Zagni, Direktor der italienischen Faktencheck-Organisation Pagella Politica, beschreibt das Dilemma mit der Regulierung per E-Mail so: „Meine Leitidee ist, dass Redefreiheit auf höchstem Niveau garantiert werden muss, mit so geringen Einschränkungen wie möglich. Wahr und Falsch kann nicht per Gesetz geregelt werden, und jüngste Beispiele von Gesetzen gegen Desinformation wurden ausnahmslos zu Wegen, die Medien einzuschüchtern und kritische Stimmen zu unterdrücken.“ 

Tabea Rößner, Bundestagsabgeordnete der Grünen, sagt auch, dass Kontrollgremien staatsfern sein sollten. Sie erinnert daran, dass die deutsche Medienregulierung eine Reaktion darauf gewesen sei, dass die Nationalsozialisten die Massenmedien für Propaganda missbraucht haben. 

Bald kommt ein neues NetzDG 

Das Gesetz über digitale Dienste wird in Zukunft das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) ablösen. Einer, der am NetzDG mitgearbeitet hat ist Tankred Schipanski, Bundestagsabgeordneter der CDU. Schipanski findet, dass mehr Falschmeldungen gelöscht werden sollten, nicht nur die, die schon strafbar sind. Er sagt, dafür gebe es auch verfassungsrechtliche Unterstützung. Nämlich dass falsche Aussagen eben nicht von der Meinungsfreiheit gedeckt seien. 

Das NetzDG war das erste Gesetz in Europa, das unter anderem hohe Strafen für Plattformen festgelegt hat, sollten diese „offensichtlich“ illegale Inhalte nicht innerhalb von 24 Stunden löschen. Während der DSA noch Jahre braucht, bis er endlich fest steht, nämlich zur nächsten EU-Parlamentswahl, soll die NetzDG-Novelle später im Jahr in den Bundestag kommen.  

Die NetzDG-Novelle soll eine Klausel enthalten, um Daten der Plattformen für die Forschung zugänglich zu machen. Aber Schipanski ist auch selbstkritisch, wenn er sagt, dass sich das NetzDG nicht genug mit Desinformation beschäftige. Doch dieses Defizit könne, so Schipanski, durch den Aktionsplan und den Digital Services Act auf EU-Ebene beseitigt werden. 

Der Digital Services Act steht am Anfang eines langen Weges voll von Debatten 

In den nächsten Jahren wird um viele dieser Punkte gestritten werden. Aktuelle Ereignisse wie Wahlen und oder auch die Corona-Pandemie könnten den Blick auf diese Punkte verändern. Die Plattformen haben gerade erst angefangen, ihre Lobbyisten in Startposition zu bringen. Die Verhandlungen über den Digital Services Act und andere Regulierungen gegen Desinformation und andere schädliche Online-Praktiken sind ein Kräftemessen zwischen Plattformen und Regierungen.

Als Facebook nach ein paar Tagen das Teilen von Nachrichten und Medien-Artikeln in Australien wieder möglich machte, schrieb das Unternehmen in einer Pressemitteilung, man sei zufrieden, dass die australische Regierung einer Reihe von Änderungen und Garantien zugestimmt habe: „Wir freuen uns, dass wir eine Einigung mit der australischen Regierung finden konnten.“ Der Ton ist ein Zeichen dafür, wie Facebook offenbar die Beziehung zwischen sich und einer Regierung sieht. 

The post Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht appeared first on correctiv.org.

Zur Quelle wechseln

Comments from Mastodon:

Folge oder Like uns:

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Die Macht der digitalen Plattformen ist groß. Sie können Präsidenten verstummen lassen – wie es Twitter und Facebook nach dem Sturm auf das Kapitol Anfang Januar mit den persönlichen Accounts von Donald Trump taten. Und sie können von einem Tag auf den anderen Nachrichten von etablierten Medien verbannen – wie es Facebook im Februar tat als Protest gegen ein australisches Gesetz, laut dem Google und Facebook Medien für ihre Inhalte bezahlen sollten. 

Die EU arbeitet aktuell an zwei Gesetzesvorhaben, um diese Macht zu begrenzen – die wirtschaftliche mit dem Digital Markets Act und die Auswirkungen auf die Gesellschaft mit dem Digital Services Act (DSA, auf Deutsch: Gesetz über digitale Dienste). Sie stellen zum ersten Mal seit 20 Jahren Regeln für digitale Unternehmen und insbesondere für die großen Plattformen auf. Im Dezember legte die EU-Kommission einen Entwurf vor, der nun im EU-Parlament debattiert wird, bevor am Schluss noch die Regierungen der Mitgliedstaaten eingeschaltet werden. 

Der DSA soll den rechtlichen Flickenteppich der Digitalregulierung in Europa vereinheitlichen. Wettbewerb, illegale Inhalte oder Verstöße gegen den Verbraucherschutz lassen sich relativ klar regeln, weil es schon jahrelange Erfahrung mit diesen Themen gibt. Aber wie soll man ein Gesetz gegen sogenannte Fake News gestalten? Was ist mit der Meinungsfreiheit? Weil das schwierig ist, gibt es bisher eine Vielzahl von verschiedenen Maßnahmen, die sich am Schluss im DSA verfestigen sollen. 

Die folgende Analyse zeigt, welche Möglichkeiten und Probleme es gibt, Regulierung als Waffe gegen Desinformation einzusetzen.

„Verhaltenskodex gegen Desinformation“ war bisher nicht effektiv

Desinformation ist im DSA selbst nur eine Nebensache, meist verweist der Entwurf dafür auf zwei andere Maßnahmen – den Verhaltenskodex gegen Desinformation und den Europäischen Aktionsplan für Demokratie, die Ideen, Vorschläge und angekündigte Gesetzesinitiativen enthalten.

Zuerst kam im Jahr 2018 der Verhaltenskodex gegen Desinformation. Zu der Zeit standen die EU-Parlamentswahlen bevor. Die Sorge war groß, dass Desinformations-Kampagnen die Wahl beeinflussen könnten. Um Plattformen wie Facebook, Youtube und Twitter dazu zu bewegen, dagegen vorzugehen, entwickelte die EU mit ihnen zusammen eine Selbstverpflichtung – den Verhaltenskodex (Code of Practice on Disinformation). 

Er schlug den Plattformen unter anderem vor, Scheinkonten zu schließen und den Verbreitern von Desinformation die Möglichkeit zu nehmen, damit Geld zu verdienen. Bald zeigte sich, dass diese Selbstverpflichtungen nicht effektiv waren. Das sagten Verbraucherschützer, Regierungen, und das war auch das Ergebnis der EU-Kommission, als sie 2020 die Umsetzung des Kodex überprüfte. 

Deshalb wird der Verhaltenskodex im Moment überarbeitet. Věra Jourová, EU-Kommissarin für Werte und Transparenz, leitet die Diskussionen. Plattformen, zivilgesellschaftliche Organisationen und Menschen aus der Medienbranche schalten sich regelmäßig per Video zusammen, sie sprechen darüber, wie Desinformation bekämpft werden kann und diskutieren, was sinnvoll und nötig ist. (Auch CORRECTIV nahm im Februar an einer solchen Sitzung teil.) 

Eine von diesen Menschen ist Sarah Andrew, sie arbeitet als Rechtsberaterin bei der Kampagnen-Organisation Avaaz. Sie sagt: „Wir von Avaaz wollen einen hoch-ambitionierten Verhaltenskodex gegen Desinformation, der zu einem leuchtenden Beispiel dafür werden kann, wie man mit Transparenz und Rechenschaftspflichten effektiv gegen Desinformation vorgehen kann. Auf eine Art, die sowohl die Demokratie als auch die Redefreiheit schützt. Die Arbeit von Faktencheck-Organisationen ist die Basis dafür.“ Avaaz und Faktencheck-Organisationen erarbeiten im Moment Vorschläge dafür, welche Ziele die Plattformen in Zukunft erfüllen sollten. Es geht um Transparenz – also die Frage, welche Daten die Plattformen veröffentlichen sollen – und auch um Effektivität – etwa, welche Hinweise an die Leute gehen sollen, die falsche oder irreführende Behauptungen gesehen haben.

Der Europäische Aktionsplan für Demokratie (EDAP) ist anders als der Verhaltenskodex ein ganz neues Instrument. Er beinhaltet verbindliche Maßnahmen gegen Desinformation. Ein Ansatz gegen ausländische Einmischung ist zum Beispiel die „Verhängung von Sanktionen bei wiederholten Verstößen“. Sanktionen wegen Desinformation – das ist etwas Neues.

 Zugleich bekennt sich der Aktionsplan immer wieder zur Meinungsfreiheit. Denn genau das ist der die Schwierigkeit: Wie sollen wir umgehen mit falschen, schädlichen aber nicht illegalen Meldungen, und wie kann dabei der freie Zugang zu Informationen gewahrt bleiben?

„Bei den Plattformen herrscht immer noch Wild West“

Renate Nikolay arbeitet im Kabinett von Věra Jourová. Sie sagt im Gespräch mit CORRECTIV.Faktencheck: „Bei den Plattformen herrscht immer noch Wild West.“ Nikolay hat bereits vor Jahren bei der Datenschutzgrundverordnung mitverhandelt und kennt den Umgang mit den Plattformen und ihren Lobbyisten noch von damals. Sie sagt, den Plattformen sei klar, dass die Regulierung kommt. Das könnten sie nicht mehr aufhalten. Und doch gebe es bestimmte Punkte im Digital Services Act, die sie verändern und abschwächen wollten.

Ein kritischer Punkt ist die Prüfung von Algorithmen. Sie helfen bei der Verbreitung von Desinformation, da müsse es rote Linien geben, sagt Nikolay. Im DSA-Entwurf heißt es: „Die Kommission kann auch anordnen, dass [eine] Plattform Zugang zu ihren Datenbanken und Algorithmen gewährt und entsprechende Erläuterungen dazu gibt.“ Hier sieht Google Probleme und wünscht sich mehr Klarheit. Das Unternehmen will zum Beispiel das Recht behalten, Anträge auf Einsicht abzulehnen. Aus drei Gründen: Der eine ist, dass es sich um Geschäftsgeheimnisse handeln könnte. Ein zweiter ist der Schutz von persönlichen Daten. Und drittens wollen sie nicht durch eine Öffentlichkeit den „bad actors“ Informationen verschaffen, wie sie die Algorithmen für schädliche Taktiken austricksen können.   

Facebook schreibt auf Anfrage, dass sich der DSA auf einem guten Weg befinde. 

Nikolay meint: „Die Plattformen wollen nicht, dass wir in ihre Algorithmen reinschauen – deshalb müssen sie unser Vertrauen stärken in ihre Handhabung.“ 

Das Problem mit den Algorithmen

Eine Funktionsweise der Plattformen ist, die Menschen so lange wie möglich da zu behalten, und ihnen umso länger Werbung zeigen zu können. Dies hat vor kurzem noch einmal die Netflix-Dokumentation The Social Dilemma in dramatischem Ton gezeigt. (Netflix ist selbst betroffen vom DSA.) Diese Aufmerksamkeits-Ökonomie hat auch zu Algorithmen geführt, die Menschen immer weiter zu immer extremeren Inhalten hinführen können. 

Ein interner Facebook-Bericht aus dem Jahr 2016 zeigte laut Medienberichten, dass in 64 Prozent der Fälle, wenn Leute einer extremistischen Facebook-Gruppe beitraten, der Beitritt auf einem Vorschlag von Facebook basierte, also auf dem Algorithmus. 

 Eine Studie von der New York University kam zu dem Ergebnis, dass vor den US-Wahlen 2020 Quellen aus dem rechten politischen Spektrum am meisten Interaktionen bekamen. Rechte Webseiten, die Falschinformationen verbreiteten, bekamen zudem mehr Aufmerksamkeit als Webseiten, die das nicht taten. Vielleicht auch, weil Algorithmen diese Informationen mehr Menschen angezeigt haben.

Und Forscher konnten im Mai 2020 belegen, dass jene, die Videos mit falschen Informationen auf Youtube schauen, weitere Videos mit Falschinformationen vorgeschlagen bekommen. 

Das Problem ist: Auch wenn die Plattformen sich selbst Gemeinschaftsstandards auferlegen, ist nicht sicher, dass sie sich auch daran halten. Zum Beispiel berichtete Wired kürzlich, dass sich Falschmeldungen über Covid-19-Impfungen weiterhin auf Facebook verbreiten konnten, obwohl die Plattform sie eigentlich entfernen wollte. 

Kontrolle von Plattformen – aber wie?

Falls die Plattformen diese Probleme nicht lösen und tatsächlich irgendwann Algorithmen überprüft werden, wer soll das tun? Tiemo Wölken, EU-Abgeordneter der SPD, wünscht sich eine zentrale Stelle, eine Art europäische Agentur, die die Umsetzung des DSA und damit zusammenhängender Maßnahmen kontrolliert. Eine andere Idee ist, dass in jedem Mitgliedstaat Behörden dafür zuständig sind – zum Beispiel die Landesmedienanstalten in Deutschland. 

Gegen ersteres spricht zum Beispiel, dass in den Mitgliedstaaten unterschiedliche Regeln herrschen, was illegale Inhalte sind und was nicht – in Deutschland ist etwa die Holocaust-Leugnung verboten, in anderen EU-Ländern hingegen nicht. Und auch gegen die zweite Möglichkeit gibt es Argumente. 

Alexandra Geese, Grünen-Abgeordnete im EU-Parlament sagt: „Wie soll die Landesmedienanstalt Saarland das machen?“ In einem Streit mit Google könne Google leicht lange Prozesse führen. Und Ann Cathrin Riedel, die bei der nächsten Bundestagswahl für die FDP kandidiert, hält beide Möglichkeiten für nicht ideal: „Ein Algorithmus-Tüv ist schwierig. Zu überlegen wären Prüfende, ähnlich wie Wirtschaftsprüfer.“

 Nicola Aitken, Strategie-Managerin bei der britischen Faktencheck-Organisation Full Fact, schrieb uns per E-Mail: „Die größte Lücke in bisherigen EU-Vorhaben war der Aspekt der Umsetzung, also beobachte ich vor allem, wie sich das entwickelt.“

Die Faktenchecker von Full Fact geht der DSA als EU-Regulierung zwar nicht mehr direkt etwas an, dennoch haben sie sich mit einem Meinungsbeitrag in die öffentliche Konsultation eingeschaltet. Denn indirekt betrifft er sie doch auf zwei Arten: Zum einen plant Großbritannien ebenfalls ein Gesetz über schädliche Online-Tätigkeiten, das sich wohl am DSA orientieren wird. Außerdem kann ein EU-Gesetz auch leicht größere Strahlkraft haben. Nicola Aitken schreibt uns: „Der DSA und der Aktionsplan haben das Potential, den Mindeststandard für das Moderieren von Inhalten in der ganzen Welt zu setzen.“  

Der DSA und Desinformation

Martin Schirdewan, EU-Abgeordneter von den Linken, sagt, das Thema Desinformation werde im DSA „stiefmütterlich“ behandelt. Tatsächlich taucht es nur am Rande auf, das Wort kommt sieben Mal im Dokument vor. Meist wird dabei auf den Verhaltenskodex oder den Aktionsplan verwiesen. 

Allerdings ist Des- und Misinformation mitgemeint, wenn im DSA von „Online-Risiken“ die Rede ist. Denn die Kommission hat sich für das Konzept der Risikoanalyse entschieden: „[Den Plattformen] wird die Verpflichtung auferlegt, die von ihren Systemen ausgehenden Risiken zu bewerten, um geeignete Risikomanagementinstrumente zu entwickeln, die die Integrität ihrer Dienste vor manipulativen Techniken schützen.“

Alexandra Geese, Abgeordnete des EU-Parlaments für die Grünen, hält das allerdings für wenig sinnvoll. „Wie sollen sie das Risiko abwenden, wenn sie mit diesen Risiken ihr Geld machen?“, sagt sie. 

Angriff auf das Business Modell

Desinformation steht im Zusammenhang mit Werbung, denn auch falsche Informationen werden gezielt an bestimmte Personengruppen gespielt. Geese und Schirdewan setzen sich für die Abschaffung von personalisierter Werbung und Technologien wie Microtargeting ein. Der DSA wäre damit eine wirkliche Gefahr für das Business Modell der Plattformen. Die Werbeeinnahmen von Google lieferten Berichten zufolge 2019 ungefähr 80 Prozent des Gesamtbudgets des Mutterkonzerns Alphabet. Bei Facebook waren es mutmaßlich sogar 99 Prozent. Das macht Google und Facebook zu den beiden größten Werbeplätzen weltweit, die die größten Werbeeinnahmen haben. 

Auch Tiemo Wölken unterstützt den Vorschlag. Er ist EU-Abgeordneter für die SPD. Er sagt, der DSA könne zu einer Art digitalem Grundgesetz werden und die Spielregeln grundsätzlich ändern. Über personenbezogenen Daten argumentiert Wölken ähnlich wie Geese und Schirdewan: Durch die Sammlung von persönlichen Daten für Werbezwecke werde eine „digitale Kopie von uns“ erstellt. Algorithmen zeigen uns dann, was uns vermutlich interessiert, dadurch finde eine Emotionalisierung und manchmal auch eine Radikalisierung statt.

Der aktuelle DSA-Entwurf enthält kein Verbot von personalisierter Werbung. Geese meint aber, dass es dafür eine Mehrheit im Europäischen Parlament gebe. Im Oktober sprach sich das Parlament nämlich in einem sogenannten Initiativbericht zum DSA schon einmal dafür aus, die Abschaffung personalisierter Werbung in Betracht zu ziehen. Laut Geese wollten Abgeordnete von den Liberalen diesen Punkt aus dem Bericht streichen. Der Streichungsantrag habe ein Mehrheit von 50 Stimmen abgelehnt.

Im DSA-Entwurf der Kommission steht von einem solchen Verbot allerdings nichts. 

Politische Online-Werbung 

Konkreter sind dagegen die Pläne im Aktionsplan für Demokratie, der Regeln für politische Werbung suchen will. Besonders im Zusammenhang mit Wahlen können falsche Informationen, die durch bezahltes Microtargeting zu bestimmten Personengruppen gelangen, Schaden anrichten. Ann Cathrin Riedel, die bei der kommenden Bundestagswahl für die FDP kandidiert und für die parteinahe Friedrich-Naumann-Stiftung Analysen über den DSA schreibt, hat noch keine abschließende Meinung darüber, ob sie ein Verbot von politischer Werbung will. Die Frage, die sie sich stellt, ist, ob das überhaupt möglich wäre.

Bisher steht ein Verbot von politischer Werbung nicht im DSA. Im Aktionsplan für Demokratie heißt es, dass es im Laufe des Jahres einen Gesetzesvorschlag geben soll, um politische Werbung transparent zu machen. Riedel fragt: „Was gilt als politische Werbung?“ 

Klar ist das bei Werbung von Parteien. Aber das Brexit-Referendum und die Trump-Wahl waren geprägt von Werbung, die nicht direkt von klassischen politischen Akteuren kam. Und würde zum Beispiel eine Kampagne von Greenpeace als politische Werbung gelten? All das ist noch unklar. Bis April läuft noch eine öffentliche Befragung der EU zum Thema politische Werbung, alle Menschen können ihre Ideen zu diesen Fragen einreichen.

 Die künftigen Regeln über politische Werbung könnten Auswirkungen haben auf die politische Online-Werbung in ganz Europa – also auch die der deutschen Parteien. 

 Tatsächlich bekommen die Maßnahmen des Aktionsplans für Demokratie und des DSA Lob: Riedel sagt zum Beispiel, dass sie überrascht war, endlich mal gute Ansätze für Digitalgesetzgebung zu sehen. Und für Martin Schirdewan kommt es darauf an, die Balance zwischen schnellem Löschen von illegalen Inhalten und dem Bewahren der Meinungsfreiheit zu finden. 

Auch wenn Regulierung nötig ist – die Meinungsfreiheit soll gewahrt werden

Schirdewan sagt: „Das Problem ist nicht, dass eine Person fragwürdige Inhalte postet, sondern dass Plattformen damit Geld machen.“ Und was Riedel gut findet, ist, dass der DSA sich nicht um Inhalte kümmere, sondern um Mechanismen. Dies hört man immer wieder. 

Und doch bestehen auch noch Sorgen. So warnt zum Beispiel Tiemo Wölken vor der Gefahr des Overblockings. Wenn Inhalte durch Regulierung zensiert werden, und nicht-Einhalten sanktioniert wird, dann könnten Plattformen voreilig löschen, um eventuellen Strafen zu entgehen – und sich bei unklaren Entscheidungen eher für die Restriktion entscheiden. Deshalb sei der Aktionsplan von Jourová der richtige Weg. „Es geht nicht ums Löschen unliebsamer Meinungen – private Plattformen sollen die Verbreitung verhindern“, so Wölken.

Es ist eine gängige Meinung, dass der Staat sich bei den Inhalten der Informationen, die sich auf den Plattformen verbreiten, möglichst raushalten soll. Giovanni Zagni, Direktor der italienischen Faktencheck-Organisation Pagella Politica, beschreibt das Dilemma mit der Regulierung per E-Mail so: „Meine Leitidee ist, dass Redefreiheit auf höchstem Niveau garantiert werden muss, mit so geringen Einschränkungen wie möglich. Wahr und Falsch kann nicht per Gesetz geregelt werden, und jüngste Beispiele von Gesetzen gegen Desinformation wurden ausnahmslos zu Wegen, die Medien einzuschüchtern und kritische Stimmen zu unterdrücken.“ 

Tabea Rößner, Bundestagsabgeordnete der Grünen, sagt auch, dass Kontrollgremien staatsfern sein sollten. Sie erinnert daran, dass die deutsche Medienregulierung eine Reaktion darauf gewesen sei, dass die Nationalsozialisten die Massenmedien für Propaganda missbraucht haben. 

Bald kommt ein neues NetzDG 

Das Gesetz über digitale Dienste wird in Zukunft das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) ablösen. Einer, der am NetzDG mitgearbeitet hat ist Tankred Schipanski, Bundestagsabgeordneter der CDU. Schipanski findet, dass mehr Falschmeldungen gelöscht werden sollten, nicht nur die, die schon strafbar sind. Er sagt, dafür gebe es auch verfassungsrechtliche Unterstützung. Nämlich dass falsche Aussagen eben nicht von der Meinungsfreiheit gedeckt seien. 

Das NetzDG war das erste Gesetz in Europa, das unter anderem hohe Strafen für Plattformen festgelegt hat, sollten diese „offensichtlich“ illegale Inhalte nicht innerhalb von 24 Stunden löschen. Während der DSA noch Jahre braucht, bis er endlich fest steht, nämlich zur nächsten EU-Parlamentswahl, soll die NetzDG-Novelle später im Jahr in den Bundestag kommen.  

Die NetzDG-Novelle soll eine Klausel enthalten, um Daten der Plattformen für die Forschung zugänglich zu machen. Aber Schipanski ist auch selbstkritisch, wenn er sagt, dass sich das NetzDG nicht genug mit Desinformation beschäftige. Doch dieses Defizit könne, so Schipanski, durch den Aktionsplan und den Digital Services Act auf EU-Ebene beseitigt werden. 

Der Digital Services Act steht am Anfang eines langen Weges voll von Debatten 

In den nächsten Jahren wird um viele dieser Punkte gestritten werden. Aktuelle Ereignisse wie Wahlen und oder auch die Corona-Pandemie könnten den Blick auf diese Punkte verändern. Die Plattformen haben gerade erst angefangen, ihre Lobbyisten in Startposition zu bringen. Die Verhandlungen über den Digital Services Act und andere Regulierungen gegen Desinformation und andere schädliche Online-Praktiken sind ein Kräftemessen zwischen Plattformen und Regierungen.

Als Facebook nach ein paar Tagen das Teilen von Nachrichten und Medien-Artikeln in Australien wieder möglich machte, schrieb das Unternehmen in einer Pressemitteilung, man sei zufrieden, dass die australische Regierung einer Reihe von Änderungen und Garantien zugestimmt habe: „Wir freuen uns, dass wir eine Einigung mit der australischen Regierung finden konnten.“ Der Ton ist ein Zeichen dafür, wie Facebook offenbar die Beziehung zwischen sich und einer Regierung sieht. 

The post Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht appeared first on correctiv.org.

Zur Quelle wechseln

Comments from Mastodon:

Folge oder Like uns:

Gefällt Ihnen Lindweiler.de? Bitte verbreiten Sie es weiter :)

Jetzt den Lindweiler Newsletter abonieren!

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Die Macht der digitalen Plattformen ist groß. Sie können Präsidenten verstummen lassen – wie es Twitter und Facebook nach dem Sturm auf das Kapitol Anfang Januar mit den persönlichen Accounts von Donald Trump taten. Und sie können von einem Tag auf den anderen Nachrichten von etablierten Medien verbannen – wie es Facebook im Februar tat als Protest gegen ein australisches Gesetz, laut dem Google und Facebook Medien für ihre Inhalte bezahlen sollten. 

Die EU arbeitet aktuell an zwei Gesetzesvorhaben, um diese Macht zu begrenzen – die wirtschaftliche mit dem Digital Markets Act und die Auswirkungen auf die Gesellschaft mit dem Digital Services Act (DSA, auf Deutsch: Gesetz über digitale Dienste). Sie stellen zum ersten Mal seit 20 Jahren Regeln für digitale Unternehmen und insbesondere für die großen Plattformen auf. Im Dezember legte die EU-Kommission einen Entwurf vor, der nun im EU-Parlament debattiert wird, bevor am Schluss noch die Regierungen der Mitgliedstaaten eingeschaltet werden. 

Der DSA soll den rechtlichen Flickenteppich der Digitalregulierung in Europa vereinheitlichen. Wettbewerb, illegale Inhalte oder Verstöße gegen den Verbraucherschutz lassen sich relativ klar regeln, weil es schon jahrelange Erfahrung mit diesen Themen gibt. Aber wie soll man ein Gesetz gegen sogenannte Fake News gestalten? Was ist mit der Meinungsfreiheit? Weil das schwierig ist, gibt es bisher eine Vielzahl von verschiedenen Maßnahmen, die sich am Schluss im DSA verfestigen sollen. 

Die folgende Analyse zeigt, welche Möglichkeiten und Probleme es gibt, Regulierung als Waffe gegen Desinformation einzusetzen.

„Verhaltenskodex gegen Desinformation“ war bisher nicht effektiv

Desinformation ist im DSA selbst nur eine Nebensache, meist verweist der Entwurf dafür auf zwei andere Maßnahmen – den Verhaltenskodex gegen Desinformation und den Europäischen Aktionsplan für Demokratie, die Ideen, Vorschläge und angekündigte Gesetzesinitiativen enthalten.

Zuerst kam im Jahr 2018 der Verhaltenskodex gegen Desinformation. Zu der Zeit standen die EU-Parlamentswahlen bevor. Die Sorge war groß, dass Desinformations-Kampagnen die Wahl beeinflussen könnten. Um Plattformen wie Facebook, Youtube und Twitter dazu zu bewegen, dagegen vorzugehen, entwickelte die EU mit ihnen zusammen eine Selbstverpflichtung – den Verhaltenskodex (Code of Practice on Disinformation). 

Er schlug den Plattformen unter anderem vor, Scheinkonten zu schließen und den Verbreitern von Desinformation die Möglichkeit zu nehmen, damit Geld zu verdienen. Bald zeigte sich, dass diese Selbstverpflichtungen nicht effektiv waren. Das sagten Verbraucherschützer, Regierungen, und das war auch das Ergebnis der EU-Kommission, als sie 2020 die Umsetzung des Kodex überprüfte. 

Deshalb wird der Verhaltenskodex im Moment überarbeitet. Věra Jourová, EU-Kommissarin für Werte und Transparenz, leitet die Diskussionen. Plattformen, zivilgesellschaftliche Organisationen und Menschen aus der Medienbranche schalten sich regelmäßig per Video zusammen, sie sprechen darüber, wie Desinformation bekämpft werden kann und diskutieren, was sinnvoll und nötig ist. (Auch CORRECTIV nahm im Februar an einer solchen Sitzung teil.) 

Eine von diesen Menschen ist Sarah Andrew, sie arbeitet als Rechtsberaterin bei der Kampagnen-Organisation Avaaz. Sie sagt: „Wir von Avaaz wollen einen hoch-ambitionierten Verhaltenskodex gegen Desinformation, der zu einem leuchtenden Beispiel dafür werden kann, wie man mit Transparenz und Rechenschaftspflichten effektiv gegen Desinformation vorgehen kann. Auf eine Art, die sowohl die Demokratie als auch die Redefreiheit schützt. Die Arbeit von Faktencheck-Organisationen ist die Basis dafür.“ Avaaz und Faktencheck-Organisationen erarbeiten im Moment Vorschläge dafür, welche Ziele die Plattformen in Zukunft erfüllen sollten. Es geht um Transparenz – also die Frage, welche Daten die Plattformen veröffentlichen sollen – und auch um Effektivität – etwa, welche Hinweise an die Leute gehen sollen, die falsche oder irreführende Behauptungen gesehen haben.

Der Europäische Aktionsplan für Demokratie (EDAP) ist anders als der Verhaltenskodex ein ganz neues Instrument. Er beinhaltet verbindliche Maßnahmen gegen Desinformation. Ein Ansatz gegen ausländische Einmischung ist zum Beispiel die „Verhängung von Sanktionen bei wiederholten Verstößen“. Sanktionen wegen Desinformation – das ist etwas Neues.

 Zugleich bekennt sich der Aktionsplan immer wieder zur Meinungsfreiheit. Denn genau das ist der die Schwierigkeit: Wie sollen wir umgehen mit falschen, schädlichen aber nicht illegalen Meldungen, und wie kann dabei der freie Zugang zu Informationen gewahrt bleiben?

„Bei den Plattformen herrscht immer noch Wild West“

Renate Nikolay arbeitet im Kabinett von Věra Jourová. Sie sagt im Gespräch mit CORRECTIV.Faktencheck: „Bei den Plattformen herrscht immer noch Wild West.“ Nikolay hat bereits vor Jahren bei der Datenschutzgrundverordnung mitverhandelt und kennt den Umgang mit den Plattformen und ihren Lobbyisten noch von damals. Sie sagt, den Plattformen sei klar, dass die Regulierung kommt. Das könnten sie nicht mehr aufhalten. Und doch gebe es bestimmte Punkte im Digital Services Act, die sie verändern und abschwächen wollten.

Ein kritischer Punkt ist die Prüfung von Algorithmen. Sie helfen bei der Verbreitung von Desinformation, da müsse es rote Linien geben, sagt Nikolay. Im DSA-Entwurf heißt es: „Die Kommission kann auch anordnen, dass [eine] Plattform Zugang zu ihren Datenbanken und Algorithmen gewährt und entsprechende Erläuterungen dazu gibt.“ Hier sieht Google Probleme und wünscht sich mehr Klarheit. Das Unternehmen will zum Beispiel das Recht behalten, Anträge auf Einsicht abzulehnen. Aus drei Gründen: Der eine ist, dass es sich um Geschäftsgeheimnisse handeln könnte. Ein zweiter ist der Schutz von persönlichen Daten. Und drittens wollen sie nicht durch eine Öffentlichkeit den „bad actors“ Informationen verschaffen, wie sie die Algorithmen für schädliche Taktiken austricksen können.   

Facebook schreibt auf Anfrage, dass sich der DSA auf einem guten Weg befinde. 

Nikolay meint: „Die Plattformen wollen nicht, dass wir in ihre Algorithmen reinschauen – deshalb müssen sie unser Vertrauen stärken in ihre Handhabung.“ 

Das Problem mit den Algorithmen

Eine Funktionsweise der Plattformen ist, die Menschen so lange wie möglich da zu behalten, und ihnen umso länger Werbung zeigen zu können. Dies hat vor kurzem noch einmal die Netflix-Dokumentation The Social Dilemma in dramatischem Ton gezeigt. (Netflix ist selbst betroffen vom DSA.) Diese Aufmerksamkeits-Ökonomie hat auch zu Algorithmen geführt, die Menschen immer weiter zu immer extremeren Inhalten hinführen können. 

Ein interner Facebook-Bericht aus dem Jahr 2016 zeigte laut Medienberichten, dass in 64 Prozent der Fälle, wenn Leute einer extremistischen Facebook-Gruppe beitraten, der Beitritt auf einem Vorschlag von Facebook basierte, also auf dem Algorithmus. 

 Eine Studie von der New York University kam zu dem Ergebnis, dass vor den US-Wahlen 2020 Quellen aus dem rechten politischen Spektrum am meisten Interaktionen bekamen. Rechte Webseiten, die Falschinformationen verbreiteten, bekamen zudem mehr Aufmerksamkeit als Webseiten, die das nicht taten. Vielleicht auch, weil Algorithmen diese Informationen mehr Menschen angezeigt haben.

Und Forscher konnten im Mai 2020 belegen, dass jene, die Videos mit falschen Informationen auf Youtube schauen, weitere Videos mit Falschinformationen vorgeschlagen bekommen. 

Das Problem ist: Auch wenn die Plattformen sich selbst Gemeinschaftsstandards auferlegen, ist nicht sicher, dass sie sich auch daran halten. Zum Beispiel berichtete Wired kürzlich, dass sich Falschmeldungen über Covid-19-Impfungen weiterhin auf Facebook verbreiten konnten, obwohl die Plattform sie eigentlich entfernen wollte. 

Kontrolle von Plattformen – aber wie?

Falls die Plattformen diese Probleme nicht lösen und tatsächlich irgendwann Algorithmen überprüft werden, wer soll das tun? Tiemo Wölken, EU-Abgeordneter der SPD, wünscht sich eine zentrale Stelle, eine Art europäische Agentur, die die Umsetzung des DSA und damit zusammenhängender Maßnahmen kontrolliert. Eine andere Idee ist, dass in jedem Mitgliedstaat Behörden dafür zuständig sind – zum Beispiel die Landesmedienanstalten in Deutschland. 

Gegen ersteres spricht zum Beispiel, dass in den Mitgliedstaaten unterschiedliche Regeln herrschen, was illegale Inhalte sind und was nicht – in Deutschland ist etwa die Holocaust-Leugnung verboten, in anderen EU-Ländern hingegen nicht. Und auch gegen die zweite Möglichkeit gibt es Argumente. 

Alexandra Geese, Grünen-Abgeordnete im EU-Parlament sagt: „Wie soll die Landesmedienanstalt Saarland das machen?“ In einem Streit mit Google könne Google leicht lange Prozesse führen. Und Ann Cathrin Riedel, die bei der nächsten Bundestagswahl für die FDP kandidiert, hält beide Möglichkeiten für nicht ideal: „Ein Algorithmus-Tüv ist schwierig. Zu überlegen wären Prüfende, ähnlich wie Wirtschaftsprüfer.“

 Nicola Aitken, Strategie-Managerin bei der britischen Faktencheck-Organisation Full Fact, schrieb uns per E-Mail: „Die größte Lücke in bisherigen EU-Vorhaben war der Aspekt der Umsetzung, also beobachte ich vor allem, wie sich das entwickelt.“

Die Faktenchecker von Full Fact geht der DSA als EU-Regulierung zwar nicht mehr direkt etwas an, dennoch haben sie sich mit einem Meinungsbeitrag in die öffentliche Konsultation eingeschaltet. Denn indirekt betrifft er sie doch auf zwei Arten: Zum einen plant Großbritannien ebenfalls ein Gesetz über schädliche Online-Tätigkeiten, das sich wohl am DSA orientieren wird. Außerdem kann ein EU-Gesetz auch leicht größere Strahlkraft haben. Nicola Aitken schreibt uns: „Der DSA und der Aktionsplan haben das Potential, den Mindeststandard für das Moderieren von Inhalten in der ganzen Welt zu setzen.“  

Der DSA und Desinformation

Martin Schirdewan, EU-Abgeordneter von den Linken, sagt, das Thema Desinformation werde im DSA „stiefmütterlich“ behandelt. Tatsächlich taucht es nur am Rande auf, das Wort kommt sieben Mal im Dokument vor. Meist wird dabei auf den Verhaltenskodex oder den Aktionsplan verwiesen. 

Allerdings ist Des- und Misinformation mitgemeint, wenn im DSA von „Online-Risiken“ die Rede ist. Denn die Kommission hat sich für das Konzept der Risikoanalyse entschieden: „[Den Plattformen] wird die Verpflichtung auferlegt, die von ihren Systemen ausgehenden Risiken zu bewerten, um geeignete Risikomanagementinstrumente zu entwickeln, die die Integrität ihrer Dienste vor manipulativen Techniken schützen.“

Alexandra Geese, Abgeordnete des EU-Parlaments für die Grünen, hält das allerdings für wenig sinnvoll. „Wie sollen sie das Risiko abwenden, wenn sie mit diesen Risiken ihr Geld machen?“, sagt sie. 

Angriff auf das Business Modell

Desinformation steht im Zusammenhang mit Werbung, denn auch falsche Informationen werden gezielt an bestimmte Personengruppen gespielt. Geese und Schirdewan setzen sich für die Abschaffung von personalisierter Werbung und Technologien wie Microtargeting ein. Der DSA wäre damit eine wirkliche Gefahr für das Business Modell der Plattformen. Die Werbeeinnahmen von Google lieferten Berichten zufolge 2019 ungefähr 80 Prozent des Gesamtbudgets des Mutterkonzerns Alphabet. Bei Facebook waren es mutmaßlich sogar 99 Prozent. Das macht Google und Facebook zu den beiden größten Werbeplätzen weltweit, die die größten Werbeeinnahmen haben. 

Auch Tiemo Wölken unterstützt den Vorschlag. Er ist EU-Abgeordneter für die SPD. Er sagt, der DSA könne zu einer Art digitalem Grundgesetz werden und die Spielregeln grundsätzlich ändern. Über personenbezogenen Daten argumentiert Wölken ähnlich wie Geese und Schirdewan: Durch die Sammlung von persönlichen Daten für Werbezwecke werde eine „digitale Kopie von uns“ erstellt. Algorithmen zeigen uns dann, was uns vermutlich interessiert, dadurch finde eine Emotionalisierung und manchmal auch eine Radikalisierung statt.

Der aktuelle DSA-Entwurf enthält kein Verbot von personalisierter Werbung. Geese meint aber, dass es dafür eine Mehrheit im Europäischen Parlament gebe. Im Oktober sprach sich das Parlament nämlich in einem sogenannten Initiativbericht zum DSA schon einmal dafür aus, die Abschaffung personalisierter Werbung in Betracht zu ziehen. Laut Geese wollten Abgeordnete von den Liberalen diesen Punkt aus dem Bericht streichen. Der Streichungsantrag habe ein Mehrheit von 50 Stimmen abgelehnt.

Im DSA-Entwurf der Kommission steht von einem solchen Verbot allerdings nichts. 

Politische Online-Werbung 

Konkreter sind dagegen die Pläne im Aktionsplan für Demokratie, der Regeln für politische Werbung suchen will. Besonders im Zusammenhang mit Wahlen können falsche Informationen, die durch bezahltes Microtargeting zu bestimmten Personengruppen gelangen, Schaden anrichten. Ann Cathrin Riedel, die bei der kommenden Bundestagswahl für die FDP kandidiert und für die parteinahe Friedrich-Naumann-Stiftung Analysen über den DSA schreibt, hat noch keine abschließende Meinung darüber, ob sie ein Verbot von politischer Werbung will. Die Frage, die sie sich stellt, ist, ob das überhaupt möglich wäre.

Bisher steht ein Verbot von politischer Werbung nicht im DSA. Im Aktionsplan für Demokratie heißt es, dass es im Laufe des Jahres einen Gesetzesvorschlag geben soll, um politische Werbung transparent zu machen. Riedel fragt: „Was gilt als politische Werbung?“ 

Klar ist das bei Werbung von Parteien. Aber das Brexit-Referendum und die Trump-Wahl waren geprägt von Werbung, die nicht direkt von klassischen politischen Akteuren kam. Und würde zum Beispiel eine Kampagne von Greenpeace als politische Werbung gelten? All das ist noch unklar. Bis April läuft noch eine öffentliche Befragung der EU zum Thema politische Werbung, alle Menschen können ihre Ideen zu diesen Fragen einreichen.

 Die künftigen Regeln über politische Werbung könnten Auswirkungen haben auf die politische Online-Werbung in ganz Europa – also auch die der deutschen Parteien. 

 Tatsächlich bekommen die Maßnahmen des Aktionsplans für Demokratie und des DSA Lob: Riedel sagt zum Beispiel, dass sie überrascht war, endlich mal gute Ansätze für Digitalgesetzgebung zu sehen. Und für Martin Schirdewan kommt es darauf an, die Balance zwischen schnellem Löschen von illegalen Inhalten und dem Bewahren der Meinungsfreiheit zu finden. 

Auch wenn Regulierung nötig ist – die Meinungsfreiheit soll gewahrt werden

Schirdewan sagt: „Das Problem ist nicht, dass eine Person fragwürdige Inhalte postet, sondern dass Plattformen damit Geld machen.“ Und was Riedel gut findet, ist, dass der DSA sich nicht um Inhalte kümmere, sondern um Mechanismen. Dies hört man immer wieder. 

Und doch bestehen auch noch Sorgen. So warnt zum Beispiel Tiemo Wölken vor der Gefahr des Overblockings. Wenn Inhalte durch Regulierung zensiert werden, und nicht-Einhalten sanktioniert wird, dann könnten Plattformen voreilig löschen, um eventuellen Strafen zu entgehen – und sich bei unklaren Entscheidungen eher für die Restriktion entscheiden. Deshalb sei der Aktionsplan von Jourová der richtige Weg. „Es geht nicht ums Löschen unliebsamer Meinungen – private Plattformen sollen die Verbreitung verhindern“, so Wölken.

Es ist eine gängige Meinung, dass der Staat sich bei den Inhalten der Informationen, die sich auf den Plattformen verbreiten, möglichst raushalten soll. Giovanni Zagni, Direktor der italienischen Faktencheck-Organisation Pagella Politica, beschreibt das Dilemma mit der Regulierung per E-Mail so: „Meine Leitidee ist, dass Redefreiheit auf höchstem Niveau garantiert werden muss, mit so geringen Einschränkungen wie möglich. Wahr und Falsch kann nicht per Gesetz geregelt werden, und jüngste Beispiele von Gesetzen gegen Desinformation wurden ausnahmslos zu Wegen, die Medien einzuschüchtern und kritische Stimmen zu unterdrücken.“ 

Tabea Rößner, Bundestagsabgeordnete der Grünen, sagt auch, dass Kontrollgremien staatsfern sein sollten. Sie erinnert daran, dass die deutsche Medienregulierung eine Reaktion darauf gewesen sei, dass die Nationalsozialisten die Massenmedien für Propaganda missbraucht haben. 

Bald kommt ein neues NetzDG 

Das Gesetz über digitale Dienste wird in Zukunft das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) ablösen. Einer, der am NetzDG mitgearbeitet hat ist Tankred Schipanski, Bundestagsabgeordneter der CDU. Schipanski findet, dass mehr Falschmeldungen gelöscht werden sollten, nicht nur die, die schon strafbar sind. Er sagt, dafür gebe es auch verfassungsrechtliche Unterstützung. Nämlich dass falsche Aussagen eben nicht von der Meinungsfreiheit gedeckt seien. 

Das NetzDG war das erste Gesetz in Europa, das unter anderem hohe Strafen für Plattformen festgelegt hat, sollten diese „offensichtlich“ illegale Inhalte nicht innerhalb von 24 Stunden löschen. Während der DSA noch Jahre braucht, bis er endlich fest steht, nämlich zur nächsten EU-Parlamentswahl, soll die NetzDG-Novelle später im Jahr in den Bundestag kommen.  

Die NetzDG-Novelle soll eine Klausel enthalten, um Daten der Plattformen für die Forschung zugänglich zu machen. Aber Schipanski ist auch selbstkritisch, wenn er sagt, dass sich das NetzDG nicht genug mit Desinformation beschäftige. Doch dieses Defizit könne, so Schipanski, durch den Aktionsplan und den Digital Services Act auf EU-Ebene beseitigt werden. 

Der Digital Services Act steht am Anfang eines langen Weges voll von Debatten 

In den nächsten Jahren wird um viele dieser Punkte gestritten werden. Aktuelle Ereignisse wie Wahlen und oder auch die Corona-Pandemie könnten den Blick auf diese Punkte verändern. Die Plattformen haben gerade erst angefangen, ihre Lobbyisten in Startposition zu bringen. Die Verhandlungen über den Digital Services Act und andere Regulierungen gegen Desinformation und andere schädliche Online-Praktiken sind ein Kräftemessen zwischen Plattformen und Regierungen.

Als Facebook nach ein paar Tagen das Teilen von Nachrichten und Medien-Artikeln in Australien wieder möglich machte, schrieb das Unternehmen in einer Pressemitteilung, man sei zufrieden, dass die australische Regierung einer Reihe von Änderungen und Garantien zugestimmt habe: „Wir freuen uns, dass wir eine Einigung mit der australischen Regierung finden konnten.“ Der Ton ist ein Zeichen dafür, wie Facebook offenbar die Beziehung zwischen sich und einer Regierung sieht. 

The post Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht appeared first on correctiv.org.

Zur Quelle wechseln

Comments from Mastodon:

Folge oder Like uns:
Holler Box