© 2021 Deutscher Bundestag WD 10 - 3000 - 021/21 Meinungsfreiheit in sozialen Medien Mechanismen und Instrumentarien zur Überwachung der Darstellungs- und Löschungspraxis von Anbietern sozialer Medien in ausgewählten OECD Staaten Sachstand Wissenschaftliche Dienste Die Wissenschaftlichen Dienste des Deutschen Bundestages unterstützen die Mitglieder des Deutschen Bundestages bei ihrer mandatsbezogenen Tätigkeit. Ihre Arbeiten geben nicht die Auffassung des Deutschen Bundestages, eines seiner Organe oder der Bundestagsverwaltung wieder. Vielmehr liegen sie in der fachlichen Verantwortung der Verfasserinnen und Verfasser sowie der Fachbereichsleitung. Arbeiten der Wissenschaftlichen Dienste geben nur den zum Zeitpunkt der Erstellung des Textes aktuellen Stand wieder und stellen eine individuelle Auftragsarbeit für einen Abgeordneten des Bundestages dar. Die Arbeiten können der Geheimschutzordnung des Bundestages unterliegende, geschützte oder andere nicht zur Veröffentlichung geeignete Informationen enthalten. Eine beabsichtigte Weitergabe oder Veröffentlichung ist vorab dem jeweiligen Fachbereich anzuzeigen und nur mit Angabe der Quelle zulässig. Der Fachbereich berät über die dabei zu berücksichtigenden Fragen. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 2 Meinungsfreiheit in sozialen Medien Mechanismen und Instrumentarien zur Überwachung der Darstellungs- und Löschungspraxis von Anbietern sozialer Medien in ausgewählten OECD Staaten Aktenzeichen: WD 10 - 3000 - 021/21 Abschluss der Arbeit: 11. Mai 2021 Fachbereich: WD 10: Kultur, Medien und Sport Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 3 Inhaltsverzeichnis 1. Einleitung 4 2. Meinungsfreiheit und Zensur in sozialen Medien 6 3. Medienstaatsvertrag 6 4. Netzwerkdurchsetzungsgesetz 7 4.1. Pflichten nach dem NetzDG 7 4.2. Überwachung der Einhaltung des NetzDG 8 4.3. Weitere Handlungsmöglichkeiten 9 5. Verbindliche Regelungen zu „Hate Speech“ und „Fake News“ 9 5.1. EU 10 5.2. Frankreich 11 5.3. Österreich 12 5.4. Italien 13 5.5. Lettland 14 5.6. Litauen 15 5.7. Tschechien 15 5.8. Türkei 16 5.9. USA 17 5.10. Australien 19 6. Rechtlich unverbindliche Regelungen zu „Hate Speech“ und „Fake News“ 20 6.1. EU 20 6.2. Deutschland 21 6.3. Europarat 21 6.4. The Global Network Initiative (GNI) 22 7. Fazit 22 Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 4 1. Einleitung Soziale Medien werden zur Kommunikation, Selbstdarstellung, Verbreitung eigener und fremder Ansichten und auch als Informations- und Nachrichtenquelle genutzt. Private wie auch internationale und nationale Nicht-Regierungs- und Regierungsorganisationen, Regierungen, Behörden, Politiker, politische Parteien, Unternehmen, Medienschaffende und andere können auf Plattformen sozialer Medien ihre Inhalte in Form von Text-, Foto- oder Videobeiträgen hochladen und kostengünstig mit großer Reichweite verbreiten. Plattformbetreiber legen in der Regel Nutzungsbedingungen und Verhaltensrichtlinien fest. Bei Verstößen hiergegen behalten sie sich Kontosperrungen , Löschung von Inhalten, Nutzungs- und Reichweiteneinschränkungen vor. Dies steht oft im Spannungsfeld mit der nicht nur in Deutschland verfassungsrechtlich gewährten Freiheit der Meinungsäußerung (Art. 5 Abs. 1 Grundgesetz1: „Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten...Eine Zensur findet nicht statt.“) als konstitutives Prinzip für freiheitlich demokratisch verfasste Staaten. Die Freiheit der Meinungsäußerung ist auch auf EU- und internationaler Ebene normiert.2 Generell soll dieses Grundrecht Meinungs- und Informationskontrolle durch staatliche Stellen verhindern. Allerdings ist dieses Recht in bestimmten Fällen regelmäßig beschränkt.3 1 Grundgesetz für die Bundesrepublik Deutschland vom 23.05.1949 (BGBl. S. 1), zuletzt geändert durch Gesetz vom 29.09.2020 (BGBl. I S. 2048) m.W.v. 08.10.2020 bzw. 01.01.2021. 2 Artikel 10 der Europäischen Menschenrechtskonvention von 1950: „1. Jede Person hat das Recht auf freie Meinungsäußerung. Dieses Recht schließt die Meinungsfreiheit und die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben. „ https://www.menschenrechtskonvention.eu/konvention-zum-schutz-dermenschenrechte -und-grundfreiheiten-9236/#10-artikel-10-%E2%80%93-freiheit-der-meinungs %C3%A4u%C3%9Ferung; in gleichem Sinne, Artikel 11 Abs. 1 und 2 Charta der Grundrechte der Europäischen Union: „(1) Jede Person hat das Recht auf freie Meinungsäußerung. Dieses Recht schließt die Meinungsfreiheit und die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben.“ „(2) Die Freiheit der Medien und ihre Pluralität werden geachtet.“ https://www.europarl.europa.eu/charter /pdf/text_de.pdf. Vgl. hierzu auch Kartmann, Corinna, Recht auf Medienfreiheit – Anspruch und Wirklichkeit in der EU, in: Presse- und Medienfreiheit in der EU – ein bedrohtes Grundrecht?, Frankfurt University of Applied Sciences (CAES), 9/2019, S. 8-15, https://www.frankfurt-university.de/fileadmin/standard/Forschung /CAES/Dokumente/FRA-UAS_CAES_Presse-_und_Medienfreiheit_in_der_EU_ebook_01.pdf; in gleichem Sinne Artikel 19 der Allgemeinen Erklärung der Menschenrechte: „Jeder hat das Recht auf Meinungsfreiheit und freie Meinungsäußerung; dieses Recht schließt die Freiheit ein, Meinungen ungehindert anzuhängen sowie über Medien jeder Art und ohne Rücksicht auf Grenzen Informationen und Gedankengut zu suchen, zu empfangen und zu verbreiten.“ Allgemeine Erklärung der Menschenrechte, -Die UN-Menschenrechtscharta, Meinungsfreiheit, https://www.menschenrechtserklaerung.de/meinungsfreiheit -3648/ (diese sowie sämtliche andere in diesem Sachstand aufgeführten URL wurden zuletzt aufgerufen am 04.05.2021). 3 Siehe z. B. Art 5 Abs. 2 GG: „Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.“ Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 5 Eine Bindung auch nicht-staatlicher Stellen an verfassungsrechtliche Vorgaben (mittelbare Drittwirkung ) wird vor allem bei marktbeherrschenden Betreibern von Plattformen sozialer Medien mit besonderer Bedeutung für die Meinungsbildung gesehen. Zudem unterliegen sie spezifischen Regelungen der Gesetzgeber in den jeweiligen Ländern, in denen sie operieren. In Deutschland zählen Betreiber von Plattformen sozialer Medien laut Medienstaatsvertrag (§ 2 Abs. 2 Nr. 16 MStV)4 zu den Medienintermediären. Sie unterliegen danach bestimmten Transparenzpflichten . Ein anderes Regelungswerk - das Netzwerkdurchsetzungsgesetz (NetzDG)5 - verpflichtet darüber hinaus gewinnorientierte soziale Netzwerke bestimmter Größe, strafrechtlich relevante Inhalte zu entfernen.6 Gegenstand des vorliegenden Sachstandes ist das Spannungsfeld zwischen der staatlichen Sicherstellung der verfassungsrechtlich gewährten Freiheit der Meinungsäußerung einerseits und andererseits die gesetzliche Pflicht der Betreiber sozialer Netzwerke Privater, strafrechtlich relevante Inhalte zu löschen sowie das Löschen bzw. die Verminderung der Reichweite von fremden Inhalten nach eigenem Ermessen. Dabei werden ausgewählte OECD-Staaten7 in den Blick genommen . 4 Medienstaatsvertrag (MStV) vom 23. April 2020 in Kraft seit dem 07.11.2020; abrufbar unter z. B. https://www.gesetze-bayern.de/Content/Document/MStV/true. 5 Netzwerkdurchsetzungsgesetz vom 01.09.2017 (BGBl. I S. 3352), zuletzt geändert durch Art. 7 des Gesetzes vom 30.03.2021 (BGBl. I S. 441). 6 Zur Problematik dieser Regelung vgl. Wissenschaftliche Dienste des Deutschen Bundestages, Entwurf eines Netzwerkdurchsetzungsgesetzes - Vereinbarkeit mit der Meinungsfreiheit, WD 10 - 3000 - 026/17, 7. Juni 2017, https://www.bundestag.de/resource/blob/517610/71bea2c472dda728e8d5ba504b30bfd2/WD-10-026-17-pdfdata .pdf. 7 Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) ist eine internationale Organisation , deren Mitgliedsländer Australien, Belgien, Chile, Dänemark, Deutschland, Estland, Finnland, Frankreich, Griechenland, Irland, Island, Israel, Italien, Japan, Kanada, Kolumbien, Korea, Lettland, Litauen, Luxemburg, Mexiko, Neuseeland, Niederlande, Norwegen, Österreich, Polen, Portugal, Schweden, Schweiz, Slowakische Republik, Slowenien, Spanien, Tschechische Republik, Türkei, Ungarn, Vereinigtes Königreich und die Vereinigten Staaten sind, https://www.oecd.org/ueber-uns/. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 6 2. Meinungsfreiheit und Zensur in sozialen Medien Grundrechte binden nicht nur staatliche Gewalt, sondern bilden eine Grundordnung, die alle bindet; sie haben eine Ausstrahlungswirkung auf alle Bereiche und mithin auch auf das Privatrecht .8 Für soziale Netzwerke heißt das, dass sie die Meinungsfreiheit ihrer Nutzer beachten müssen . Strafrechtlich relevante Inhalte sind nicht durch die Meinungsfreiheit geschützt.9 Meinungsäußerungen , die nicht gegen das Strafrecht verstoßen, dürfen hingegen nicht ohne weiteres von Plattformen gelöscht werden. Solche Löschungen geschehen einerseits aufgrund von Verstößen gegen die Plattformregeln (sog. Community-Richtlinien). Andererseits kann es auch vorkommen, dass Inhalte übermäßig gelöscht werden (sog. Overblocking),10 auch wenn sie legal sind, um z. B. finanzielle Risiken bei Bußgeldandrohung bei möglichen Verstößen gegen das NetzDG zu vermeiden .11 In diesem Zusammenhang stellt sich auch die Frage nach einer Kontrolle des Löschverhaltens und Einschränkens der Reichweite von Inhalten auf Plattformen sozialer Netzwerke. Dabei ist zu beachten, dass staatliche Vorgaben oder staatliche Überwachung der Lösch- und Sperraktivitäten von Anbietern sozialer Netzwerke nicht nur zu Überreaktionen führen, sondern interessengeleiteten Löschungen oder Reichweitenbegrenzungen legaler Inhalte Vorschub leisten können. Plattformbetreiber können somit gesetzlich induziert oder vorsätzlich gegen das Gebot der Meinungsfreiheit verstoßen. In vielen Ländern sind Medienintermediäre zur Löschung bestimmter Inhalte verpflichtet,12 was auf eine länderübergreifende Problematik schließen lässt. 3. Medienstaatsvertrag Als Medienintermediäre unterliegen soziale Netzwerke insbesondere den Regelungen der §§ 92 ff. MStV. Im MStV wird davon ausgegangen, dass Medienintermediäre einen großen Einfluss auf die Meinungsbildung nehmen können. Daher wurden Regelungen zur Sicherung der 8 OLG München, Beschluss vom 24.08.2018 – 18 W 1294/18 – Rn. 29, juris; Jarass in Jarass/Pieroth, Grundgesetz für die Bundesrepublik Deutschland, 16. Auflage 2020, Art. 1, Rn. 52 f. 9 Bundesamt für Justiz, Hassrede im Netz, Häufig gestellte Fragen, Frage 14, https://www.bundesjustizamt .de/DE/Themen/Buergerdienste/NetzDG/Fragen/FAQ_node.html#faq9925166. 10 Zur Problematik des übermäßigen Löschens durch Plattformbetreiber, um mögliche Strafen zu vermeiden. Vgl. Wissenschaftliche Dienste des Deutschen Bundestages, Entwurf eines Netzwerkdurchsetzungsgesetzes - Vereinbarkeit mit der Meinungsfreiheit, WD 10 - 3000 - 026/17, 7. Juni 201, https://www.bundestag.de/resource /blob/510514/eefb7cf92dee88ec74ce8e796e9bc25c/wd-10-037-17-pdfdata. 11 Die Bundesregierung ist der Auffassung, dass „Overblocking“ im Zusammenhang mit dem NetzDG kein Problem ist. Dagegen kommt Liesching in einer Studie zur Untersuchung dieses Phänomens zu einen anderen Ergebnis . Vgl. Bundesregierung, Antwort auf die Kleine Anfrage der Abgeordneten Manuel Höferlin, weiterer Abg. und der Fraktion der FDP, Praktischer Regulierungseffekt des Netzwerkdurchsetzungsgesetzes, BT-Drs. 19/28631, 19.04.2021; https://dip21.bundestag.de/dip21/btd/19/286/1928631.pdf. Liesching et al, Das NetzDG in der praktischen Anwendung - Eine Teilevaluation des Netzwerkdurchsetzungsgesetzes, 04/21, https://carlgrossmann.com/?ddownload=12203. 12 OECD, The Role of Internet Intermediaries in Advancing Public Policy Objectives, 2011, S. 103. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 7 Meinungsvielfalt getroffen. Nach § 93 Abs. 1 MStV müssen sie bestimmte Informationen leicht wahrnehmbar, unmittelbar erreichbar und ständig verfügbar halten. Dazu zählen Kriterien über den Zugang und Verbleib von Inhalten auf den Portalen sowie die zentralen Kriterien einer Aggregation , Selektion und Präsentation von Inhalten und ihre Gewichtung. Außerdem sind Informationen über die Funktionsweise der eingesetzten Algorithmen in verständlicher Sprache zur Verfügung zu stellen. Die Überwachung der Einhaltung der Transparenzkriterien sowie die Entscheidung darüber, ob die Transparenzkriterien selbst diskriminierend sind, übernehmen die Landesmedienanstalten (§ 104 Abs. 1 S. 1 MStV). Sie können von selbst tätig werden oder nach Eingang einer Beschwerde ermitteln.13 Bei der Feststellung eines Verstoßes gegen Vorschriften des MStV kann die Landesmedienanstalt je nach Vorfall eine Beanstandung, Untersagung, Sperrung, Rücknahme und/oder einen Widerruf vornehmen (§ 109 Abs. 1 S. 1 und 2 MStV). Bei einem Verstoß gegen das Transparenzgebot oder gegen das Diskriminierungsverbot liegt eine Ordnungswidrigkeit vor (§ 115 Abs. 1 S. 2 Nr. 42-46 MStV), die mit einer Geldstrafe von bis zu 500.000 Euro geahndet werden kann (§ 115 Abs. 2 MStV). 4. Netzwerkdurchsetzungsgesetz In Deutschland regelt das NetzDG Löschungspflichten für bestimmte Anbieter sozialer Medien. Es sieht vor, dass rechtswidrige Inhalte zu entfernen sind. In § 1 Abs. 3 NetzDG werden die rechtswidrigen Inhalte näher spezifiziert. Es sind Inhalte, die den Tatbestand der §§ 86, 86 a, 89 a, 91, 100 a, 111, 126, 129–129 b, 130, 131, 140, 166, 184 b, 185–187, 201 a, 241 oder 269 des Strafgesetzbuchs erfüllen und nicht gerechtfertigt sind. 4.1. Pflichten nach dem NetzDG § 3 Abs. 1 und 2 NetzDG verpflichtet soziale Netzwerke mit mehr als zwei Millionen Nutzern in Deutschland dazu, Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte einzurichten . Wird eine Beschwerde über einen vermeintlich rechtswidrigen Inhalt eingereicht, ist das soziale Netzwerk bei offensichtlichem Rechtsverstoß dazu verpflichtet, den Beitrag innerhalb von 24 Stunden zu löschen oder zu sperren. Ansonsten muss es in der Regel innerhalb von sieben Tagen feststellen, ob es sich um einen Gesetzesverstoß handelt und gegebenenfalls eine Pflicht zum Entfernen oder Sperren des Inhaltes besteht. Zusätzlich müssen Betreiber sozialer Netzwerke halbjährlich einen Bericht über Beschwerden über anstößige Inhalte und Löschungen veröffentlichen (§ 2 NetzDG). 13 Die Medienanstalten, Intermediäre, https://www.die-medienanstalten.de/themen/intermediaere. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 8 Das NetzDG trifft keine Maßnahmen im Falle von sog. Overblocking der Plattformbetreiber, d.h. bei übermäßigen (falschen) Löschungen von legalen Inhalten, weil diese sich vor möglichen Bußgeldforderungen von bis zu 50 Mio. Euro14 bei Verstößen gegen das NetzDG abzusichern wollen.15 Im Gesetz gibt es keine Vorkehrungen für Beschwerden von Nutzern, deren Inhalte fälschlicherweise gelöscht wurden. Für die Überwachung der Inhalte auf sozialen Medien und deren Vereinbarkeit mit dem NetzDG sind (in Deutschland) Angestellte der sozialen Netzwerke zuständig. Das Verfahren soll durch die Leitung der sozialen Netzwerke überwacht werden und es sollen mindestens halbjährlich Schulungsangebote für die mit der Bearbeitung von Beschwerden beauftragten Personen angeboten werden (§ 3 Abs. 4 NetzDG). 4.2. Überwachung der Einhaltung des NetzDG Zuständig für die Überwachung der Einhaltung des NetzDG ist das Bundesamt für Justiz in Bonn. Wird eine Beschwerde über einen vermeintlich rechtswidrigen Inhalt von dem entsprechenden sozialen Netzwerk nicht als rechtswidrig beurteilt und somit nicht gelöscht, kann sich der Beschwerdeführer zur Prüfung seines Anliegens an das Bundesamt für Justiz wenden. Es wird dann die Rechtswidrigkeit des Inhaltes im Sinne des § 1 Abs. 3 NetzDG zunächst von einem Gericht überprüfen lassen. Liegt Rechtswidrigkeit vor, kann der Betreiber des sozialen Mediums mit einer Bußgeldpflicht belegt werden (§ 3 Abs. 4 NetzDG). Das Bußgeld kann wie oben angegeben einen Betrag von bis zu 50 Mio. Euro ausmachen.16 Bei einem vorsätzlichen oder fahrlässigen Verstoß gegen die Einführungspflicht eines wirksamen Beschwerdesystems oder gegen die Berichtspflicht liegt eine Ordnungswidrigkeit vor, die mit bis zu 5 Millionen Euro geahndet werden kann (§ 4 Abs. 2 S. 1 NetzDG). Geahndet werden hier nur systemische Mängel, weshalb ein Verstoß im Einzelfall noch keine Bußgeldpflicht auslöst.17 Die Regelung einer mit Bußgeld bewehrten ausführlichen Berichtspflicht (§ 2 NetzDG) für die dem NetzDG unterliegenden Betreiber sozialer Netzwerke ist ein weiteres Instrument zur Kontrolle der Lösch- bzw. Sperrpflichten. 14 Bundesministerium der Justiz und Verbraucherschutz, Regeln gegen Hass im Netz – das Netzwerkdurchsetzungsgesetz , 3. Bußgelder, https://www.bmjv.de/DE/Themen/FokusThemen/NetzDG/NetzDG_node.html. 15 Bundesamt für Justiz, Hassrede im Netz, Häufig gestellte Fragen, Frage 22, https://www.bundesjustizamt .de/DE/Themen/Buergerdienste/NetzDG/Fragen/FAQ_node.html#faq9925166. 16 Bundesministerium der Justiz und Verbraucherschutz, Regeln gegen Hass im Netz – das Netzwerkdurchsetzungs -gesetz, 3. Bußgelder, https://www.bmjv.de/DE/Themen/FokusThemen/NetzDG/NetzDG_node.html. 17 Bundesamt für Justiz, Hassrede im Netz, Häufig gestellte Fragen, Frage 19, https://www.bundesjustizamt .de/DE/Themen/Buergerdienste/NetzDG/Fragen/FAQ_node.html#faq9925166. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 9 4.3. Weitere Handlungsmöglichkeiten Mit dem NetzDG sind Regelungen getroffen worden, die die Überwachung der Löschungstätigkeiten von Anbietern sozialer Netzwerke sicherstellen sollen. Dazu gehören die Berichtspflicht sowie die Möglichkeit der Beschwerde über einen möglicherweise rechtswidrigen Inhalt beim Bundesamt für Justiz. Das Bundesamt für Justiz wird aber nicht von selbst tätig. Beschwerden über rechtswidrige Inhalte nimmt nicht nur das das Bundesamt für Justiz, sondern auch in bestimmten Fällen die Landesmedienanstalten, Strafverfolgungsbehörden und Beschwerdestellen der Netzwerkverbände entgegen.18 Vorkehrungen für den Umgang mit Beschwerden von Nutzern, deren Inhalte fälschlicherweise gelöscht wurden, gibt es nicht im NetzDG. Eine systematische Überwachung von Falschlöschungen insbesondere zur Vermeidung von Overblocking und Sicherstellung der Meinungsvielfalt und -freiheit ist mit diesem Regelungswerk nicht möglich. 5. Verbindliche Regelungen zu „Hate Speech“ und „Fake News“ „Hassrede“ („Hate Speech“), „Hasskriminalität“ und Falschnachrichten („Fake News“) sind Begriffe , die regelmäßig im Zusammenhang mit sozialen Netzwerken genannt werden. Für diese Begriffe gibt es aber keine Legaldefinitionen und das Verständnis darüber ist auch individuell und im kulturellen Kontext unterschiedlich. So existiert beispielsweise keine Definition dieser Begriffe im NetzDG, obwohl in der Begründung19 zum Gesetzentwurf die Begriffe „Hassrede“ („Hate 18 Bundesamt für Justiz, Hassrede im Netz, Häufig gestellte Fragen, Frage 23, https://www.bundesjustizamt .de/DE/Themen/Buergerdienste/NetzDG/Fragen/FAQ_node.html#faq9925166. 19 Vgl. Fraktionen der CDU/CSU und SPD, Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG), BT-Drs. 18/12356, 14.06.2017, S. 11: „…Hassrede und rassistische Hetze können jede und jeden aufgrund der Meinung, Hautfarbe oder Herkunft, der Religion , des Geschlechts oder der Sexualität diffamieren…“, http://dipbt.bundestag .de/dip21/btd/18/123/1812356.pdf. Zur Problematik der Definition von Hate Speech und Fake News vgl. auch Wissenschaftliche Dienste, Entwurf eines Netzwerkdurchsetzungsgesetzes – Vereinbarkeit mit der Meinungsfreiheit , 12.06.2017, WD 10-3000-037/17, https://www.bundestag.de/resource /blob/510514/eefb7cf92dee88ec74ce8e796e9bc25c/wd-10-037-17-pdfdata. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 10 Speech“), „Hasskriminalität“20 und Falschnachrichten („Fake News“) verwendet werden. Diese Problematik gilt auch für die Verwendung dieser Begriffe auf übernationaler Ebene.21 5.1. EU Die EU hat mit der Erneuerung der Richtlinie über audiovisuelle Mediendienste (AVMD-Richtlinie ) 22 eine für alle Mitgliedstaaten verbindliche Regelung getroffen, die Video-Sharing-Plattformen und solche soziale Netzwerke betreffen, bei denen die Bereitstellung audiovisueller Inhalte zwar nicht der Hauptzweck des Dienstes ist, aber dennoch eine wesentliche Funktion darstellt. Sie müssen ihren Nutzern ein leicht zugängliches Verfahren für Beschwerden über Videos vorhalten , die sie als anstiftend zu Gewalt, Hass oder Terrorismus identifizieren. Betreiber müssen nach Prüfung der Beschwerden diese Videos ggf. löschen. Derzeit wird auf EU-Ebene das Gesetzesvorhaben über digitale Dienste intensiv diskutiert (Digital Services Act – DSA).23 Es soll u. a. den Umgang mit illegalen Inhalten im Netz vereinheitlichen. Große Schwierigkeiten bereitet die Einigung insbesondere vor dem Hintergrund, dass in den Mitgliedstaaten unterschiedliche Inhalte als illegal gelten und unterschiedlich intensive Eingriffsbefugnisse gewünscht sind.24 Sollte das Gesetz über digitale Dienste beschlossen werden, ist eine umfassende Beaufsichtigungsstruktur geplant: „Die Hauptrolle kommt den Mitgliedstaaten zu – sie werden dabei von einem neuen Europäischen Gremium für digitale Dienste unterstützt. Bei sehr großen Plattformen soll die Kommission verantwortlich für eine erweiterte Überwachung und Durchsetzung sein.“25 20 Dieser Begriff wird besonders häufig im Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, BT-Drs. 19/17741 v. 10.03.2020, https://dip21.bundestag .de/dip21/btd/19/177/1917741.pdf, verwendet. Es gibt aber keine eigenständige Definition, sondern regelmäßig Verweise auf Normen des Strafgesetzbuches. Ähnliches gilt für die Begriffe „Hassrede“ und „Hass Postings“. 21 Vgl. hierzu am Beispiel des Begriffs „Hate Speech“ die Ausführungen in Wissenschaftliche Dienste des Deutschen Bundestages, Behandlung von „Hate Speech“ vor 2015, WD 10-3000-045/19, 16.08.2019; https://www.bundestag.de/resource/blob/662038/5f3bf16925be9219381d2a69eb56fc7d/WD- 10%E2%80%93045-19-pdf-data.pdf. Zur Definition des Begriffs „Fake News“ vgl. Wissenschaftliche Dienste des Deutschen Bundestages, Fake-News - Definition und Rechtslage, WD 10 - 3000 - 003/17, 12.02.2017, https://www.bundestag.de/resource/blob/502158/99feb7f3b7fd1721ab4ea631d8779247/wd-10-003-17-pdfdata. 22 Richtlinie 2010/13/EU über audiovisuelle Mediendienste (Richtlinie über audiovisuelle Mediendienste). Die ursprüngliche Richtlinie über audiovisuelle Mediendienste ist am 5. Mai 2010 in Kraft getreten. Richtlinie (EU) 2018/1808 eingeführten Änderungen sind am 18. Dezember 2018 in Kraft getreten und müssen in den EU-Ländern bis zum 19. September 2020 in die nationale Gesetzgebung umgesetzt werden. 23 Europäische Kommission, Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) und zur Änderung der Richtlinie 2000/31/EG vom 15.12.2020. 24 Rudl, Tomas, Entfernung illegaler Inhalte entzweit EU-Länder, 22.03.2021, https://netzpolitik.org/2021/digitalservices -act-entfernung-illegaler-inhalte-entzweit-eu-laender/. 25 Europäische Kommission, Gesetz über digitale Dienste: mehr Sicherheit und Verantwortung im Online-Umfeld, Was ändert sich?, https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-servicesact -ensuring-safe-and-accountable-online-environment_de#was-ndert-sich. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 11 5.2. Frankreich Ein dem NetzDG entsprechendes Gesetzesvorhaben in Frankreich (Proposition de loi visant à lutter contre la haine sur internet, n° 1785)26 wurde vom Conseil Constitutionel am 18. Juni 202027 teilweise für verfassungswidrig erklärt, da es u.a. die Gefahr des Overblockings beinhalte.28 Das Gesetz wurde mit den Anmerkungen des Conseil Constitutionnel angenommen und am 25. Juni 2020 im Journal Officiel veröffentlicht.29 In der letztlich verabschiedeten Fassung wurde unter anderem auf den Artikel 1 verzichtet, der bei offensichtlich rechtswidrigen Inhalten eine Löschpflicht innerhalb einer Stunde forderte.30 Diese zunächst vorgesehene extrem kurze Löschfrist wurde vom Conseil Constitutionel als unvereinbar mit der Meinungsfreiheit bewertet, da eine seriöse Einschätzung der Rechtswidrigkeit eines „Posts“ idR nicht innerhalb einer Stunde möglich sei.31 Aufgrund der kurzen Fristen mit gleichzeitiger Bußgeldandrohung würden Netzwerkbetreiber gezwungen, unter hohen Termindruck Entscheidungen zu treffen, was zu übermäßigen Löschungen und somit zu Overblocking führen würde.32 Nach Anpassung des Gesetzes an die Vorgaben des Gerichts wurden jedenfalls keine neuen Löschpflichten für die Betreiber sozialer Netzwerke eingeführt. Eine Überarbeitung des Gesetzes ist weiterhin geplant.33 Darüber hinaus sieht man in Frankreich insbesondere seit der Präsidentschaftswahl im April und Mai 2017 eine Gefahr der Wahlbeeinflussung durch „Fake News“, so dass man sich für die Einführung eines Gesetzes entschied, das bis zu drei Monate vor einer landesweiten Wahl Anwendung finden und die Manipulation von Informationen verhindern soll. 34 Hierbei können Rundfunkbetreiber und Internetplattformen gesperrt werden sowie Urheber von Manipulationen mit 26 Proposition de loi visant à lutter contre la haine sur internet, n° 1785, déposé(e) le 20 mars 2019, Assemblée nationale, ttps://www.assemblee-nationale.fr/dyn/15/dossiers/alt/lutte_contre_haine_internet. 27 Conseil Constitutionel, Décision n° 2020-801 DC du 18.06.2020, Loi visant à lutter contre les contenus haineux sur internet. 28 Heldt, Amélie, Loi Avia: Frankreichs Verfassungsrat kippt Gesetz gegen Hass im Netz, JuWissBlog Nr. 96/2020 vom 23.06.2020, https://www.juwiss.de/96-2020/. 29 LOI no 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, JOURNAL OFFICIEL DE LA RÉPUBLIQUE FRANÇAISE, 25 juin 2020, https://www.legifrance.gouv.fr/download /pdf?id=CP05NSqcPl5lPNu3MsP2PSu1fmt64dDetDQxhvJZNMc. 30 Heldt, Amélie, Loi Avia: Frankreichs Verfassungsrat kippt Gesetz gegen Hass im Netz, JuWissBlog Nr. 96/2020 vom 23.06.2020, https://www.juwiss.de/96-2020/. 31 Ebd. mit Verweis auf Conseil Constitutionel, Décision n° 2020-801 DC du 18.06.2020, Loi visant à lutter contre les contenus haineux sur internet Rn. 7. 32 Ebd. mit Verweis auf Conseil Constitutionel, Décision n° 2020-801 DC du 18.06.2020, Loi visant à lutter contre les contenus haineux sur internet Rn. 19. 33 Vgl. Zeit Online, Emmanuel Macron will Hass im Internet stärker bekämpfen, 21.10.2020, https://www.zeit.de/gesellschaft/zeitgeschehen/2020-10/frankreich-enthauptung-lehrer-islamismus-internetgedenkfeier ?utm_referrer=https%3A%2F%2Fwww.google.com%2F. 34 Vgl. hierzu auch Wissenschaftliche Dienste des Deutschen Bundestages, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 12 Gefängnis- und Geldstrafen belegt werden. Das Gesetz soll ein rasches Handeln in Wahlkampfzeiten ermöglichen und konzentriert sich auf die Verhinderung jeglicher Versuche, insbesondere ausländischer Medien, die Wahl durch Falschinformationen zu beeinflussen oder zu manipulieren . Hierzu kann ein Verfahren im einstweiligen Rechtsschutz eingeleitet werden, in dessen Verlauf ein Richter innerhalb von 48 Stunden über die vorgebrachten Tatsachen entscheiden muss, um die Verbreitung derartiger Informationen zu untersagen. Die Rundfunkbehörde hat letztlich die Befugnis, Fernsehkanäle ausländischer Staaten zu sperren. Der französische Senat hatte den Gesetzesentwurf zunächst abgelehnt, weil er nicht mit der Meinungs - und Pressefreiheit vereinbar sei. Gerade die Meinungsfreiheit sei insbesondere während des Wahlkampfes zur Führung von politischen Debatten von besonderer Bedeutung und dürfe nicht durch ein Gesetz eingeschränkt werden. Die Nationalversammlung entschied schlussendlich für die Einführung der genannten Maßnahmen. 5.3. Österreich In Österreich ist seit dem 1. Januar 2021 das Bundesgesetz über Maßnahmen zum Schutz der Nutzer auf Kommunikationsplattformen (Kommunikationsplattformen-Gesetz – KoPl-G)35 in Kraft, welches den Regelungen des NetzDG sehr nahe kommt, allerdings einige Besonderheiten aufweist: Jede Kommunikationsplattform muss eine leicht und dauerhaft zugängliche Funktion enthalten, die es ihren Nutzern ermöglicht, mutmaßlich rechtswidrige Inhalte zu melden. Der Nutzer muss außerdem über die Bearbeitung seiner Meldung sowie über die Entscheidung der Kommunikationsplattform zur Entfernung oder Sperrung der Inhalte informiert werden und kann eine Überprüfung der Entscheidung der Kommunikationsplattform verlangen (§ 3 Abs. 2 KoPl- G).36 Anbieter von Kommunikationsplattformen müssen sicherstellen, dass gemeldete Inhalte, deren Rechtswidrigkeit für Laien auch ohne weitere Prüfung offensichtlich ist, innerhalb von maximal 24 Stunden entfernt oder gesperrt werden, ansonsten innerhalb von sieben Tagen entfernt oder gesperrt werden. Die dazugehörigen Informationen müssen für Beweiszwecke für 10 Tage gespeichert werden.37 Darüber hinaus müssen die Anbieter von Kommunikationsplattformen eine effiziente und transparente Überprüfung ihrer Entscheidungen über die Entfernung oder Sperrung von Inhalten ermöglichen . Eine solche Überprüfung kann eingeleitet werden von dem Nutzer, der den vermeintlich rechtswidrigen Inhalt gemeldet hat, und auch von dem Nutzer, dessen Inhalte gelöscht oder gesperrt wurden (§ 3 Abs. 4 KoPl-G). Ein Nutzer kann sich mit Beschwerden über eine vermutete Verletzung der Pflichten des Betreibers der Kommunikationsplattform an eine Beschwerdestelle (RTR-GmbH) wenden, wenn er sich 35 Bundesgesetz über Maßnahmen zum Schutz der Nutzer auf Kommunikationsplattformen (Kommunikationsplattformen -Gesetz – KoPl-G), https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer =20011415. 36 Diese Angaben stammen aus dem österreichischen Parlament vom 26.02.2021. 37 Ebd. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 13 zuvor an den Betreiber gewandt und keine Antwort erhalten hat oder beide Parteien den Streit nicht beilegen konnten. Die Aufgabe der Beschwerdestelle ist es, eine gütliche Einigung zwischen beiden Parteien herbeizuführen (§ 7 KoPl-G). Gehen bei der Beschwerdestelle innerhalb eines Monats mehr als fünf begründete Beschwerden über einen bestimmten Anbieter von Kommunikationsplattformen ein, muss die Aufsichtsbehörde die Angemessenheit der Bearbeitung der Meldungen durch den Anbieter überprüfen. Die Aufsichtsbehörde kann den Plattformanbieter zur Einhaltung des gesetzlichen Rahmens verpflichten und unter bestimmten Umständen (z.B. bei aufeinanderfolgenden Anordnungen) gegen ihn ein Bußgeld von bis zu 10 Mio. Euro verhängen (§§ 8 und 10 KoPl-G). Damit sind insbesondere die Regelungen zu Beschwerde- und Überwachungsmöglichkeiten bei dem österreichischen Pendant zum deutschen NetzDG ausgeprägter. Insbesondere sieht das österreichische Gesetz auch eine Beschwerdemöglichkeit für den Nutzer vor, dessen Inhalte gelöscht oder gesperrt wurden bzw. werden sollen. Der damit verbundene Abwägungsprozess über die unterschiedlichen Auffassungen dürfte eine überhastete Entscheidung vermeiden und einem Overblocking entgegenwirken. 5.4. Italien38 Der „Corte Suprema di Cassazione“ (Oberster Kassationsgerichtshof ) hat mit seinem Urteil vom 31.07.2013 den Anwendungsbereich des Artikel 416 des Italienischen Strafgesetzbuches von „kriminellen Vereinigungen“ auf „Hassreden“ durch virtuelle Gemeinschaften, Blogs und soziale Netzwerke ausgeweitet.39 Die italienische Medienaufsichtsbehörde AGCOM hat im Februar 2018 Leitlinien veröffentlicht, die den gleichberechtigten Zugang aller Parteien bzw. Kandidaten zu Online-Plattformen im Hinblick auf zukünftige Parlamentswahlen sicherstellen sollen. Unter anderem sollen die Online- Plattformen Instrumente bereitstellen, mit denen verleumderische bzw. verbotene Inhalte gegenüber Kandidaten gemeldet werden können.40 Am 15. Mai 2019 verabschiedete die AGCOM mit der Verordnung Nr. 157/19/CONS41 eine Regelung mit Bestimmungen über die Achtung der Men- 38 Siehe hierzu auch Wissenschaftliche Dienste des Deutschen Bundestages, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019; https://www.bundestag.de/resource /blob/662048/190949149266f3df2e27a0f098a53026/WD-10-059-19-pdf-data.pdf. 39 Ziccardi, Giovanni, Il negazionismo in Internet, nel deep webe sui social network: evoluzionee strumenti di contrasto, notizie di Politeia, XXXIII, 125, 2017, S. 107-119, 114 f., https://www.istorecovda.it/wp-content/uploads /2018/01/Articolo-Ziccardi-Politeia.pdf. 40 Apa, Ernesto/Frigerio, Filippo, Self-regulatory guidelines for online platforms for next general elections published by Italian Communication Authority, Portolano Cavallo Studio Legale, IRIS Merlin, IRIS 2018-3:1/24, https://merlin.obs.coe.int/newsletter/download/233/pdf/en. 41 Agcom, Regolamento Recante Disposizioni in Materia di Rispetto della Dignità Umana e del Principio di Non Discriminazione e di Contrasto All’hate Speech, https://www.agcom.it/documents/10179/13511391/Delibera +157-19-CONS/568d8b16-6cb6-4ea1-b58c-c171c2e24367?version=1.0. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 14 schenwürde und den Grundsatz der Nichtdiskriminierung sowie die Bekämpfung von „Hassreden “. Sie richtet sich insbesondere an die Anbieter von Video-Sharing-Plattformen. Bis zur Umsetzung der überarbeiteten AVMD-Richtlinie durch die Gesetzgeber hat die AGCOM die Anbieter von Diensten für Videoplattformen in den Geltungsbereich der Verordnung aufgenommen. Diese sollen wirksame Systeme zur Aufdeckung und Meldung von Straftaten und ihren Tätern bereitstellen und der Behörde einen vierteljährlichen Bericht über die Überwachung übermitteln, die durchgeführt wurde, um Online-„Hassinhalte“ zu ermitteln. Bei einem Verstoß gegen die Verordnungen informiert und warnt die Behörde zunächst. Bei Nichteinhaltung der Warnung kann die Behörde auch ein Ordnungsgeld verhängen.42 In Bezug auf „Hassrede“ in sozialen Medien hat AGCOM keine rechtlichen Befugnisse zur Regulierung oder Verhängung von Sanktionen für die Verletzung von Inhalten, die von Online-Vermittlern oder -Plattformen gehostet werden, da diese Inhalte nicht in die Definition von "audiovisuellen Mediendiensten" der EU aufgenommen wurden. Dennoch hat AGCOM 2014 eine „ständige Beobachtungsstelle für Garantien und den Schutz von Minderjährigen und der Grundrechte der Person im Internet" eingerichtet. Zu ihren Aufgaben gehört das Monitoring von "Aufstachelung zu „Hass“, Bedrohung, Belästigung, Mobbing, „Hassreden“ und der Verbreitung bedauernswerter Inhalte".43 Sie hat auch die Aufgabe, Leitlinien für die Annahme von selbstregulierenden Verhaltenskodizes durch Internetunternehmen und Social Media Plattformen auszuarbeiten.44 5.5. Lettland45 In Lettland gibt es das „Law On Information Society Services“ (Informācijas sabiedrības pakalpojumu likums), das am 08.06.2011 in Kraft getreten ist.46 Es reguliert die Verbreitung von „Hassrede “ und die Anstiftung zu Gewalt in sozialen Netzwerken insoweit, als dass Abschnitt 12 vorsieht , dass Dienstanbieter durch Aufsichtsbehörden angewiesen werden können, Informationen herauszugeben oder bestimmte Aktivitäten zu unterbinden, soweit dies für die Verhütung und Untersuchung von Straftaten und die Einleitung von Strafverfahren notwendig ist. Das Gesetz 42 Apa, Ernesto/Foco, Eugenio, The new AGCOM Regulation to counter hate speech, Portolano Cavallo, 02.06.2019, https://portolano.it/en/newsletter/portolano-cavallo-inform-digital-ip/the-new-agcom-regulation-tocounter -hate-speech. 43 „Its tasks include monitoring of ‘incitement to hatred, threats, harassment, bullying, hate speech and the dissemination of deplorable contents.’ It is also tasked with drafting guidelines for the adoption of self-regulatory codes of conduct by Internet companies and social media platforms. Vgl. Article 19, ARTICLE 19 comments on new Italian regulation on ‘hate speech’, 25.07.2019, https://www.article19.org/resources/article-19-commentson -new-italian-regulation-on-hate-speech/. 44 Ebd. 45 Siehe hierzu auch Wissenschaftlichen Dienste des Deutschen Bundestages, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019. 46 Law on Information Society Services, The State Language Centre, http://www.vvc.gov.lv/export/sites/default /docs/LRTA/Likumi/Law_On_Information_Society_Services.doc. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 15 dient insoweit der Durchsetzung des im Abschnitt 78 des Strafgesetzbuches geregelten „Triggering of National, Ethnic and Racial Hatred“47. Während in Deutschland das NetzDG die Überprüfungspflicht privaten Anbietern sozialer Netzwerke selbst zuweist, erfolgt dies in Lettland durch staatliche Aufsichtsorgane.48 5.6. Litauen49 In Litauen wird „Desinformation“ ausdrücklich im Gesetz über die Bereitstellung von Informationen für die Öffentlichkeit von 1996 behandelt.50 Es handelt sich dabei um allgemeine, nicht jedoch speziell die sozialen Medien betreffende Regelungen. Danach ist es verboten, „Desinformationen “ und Informationen zu verbreiten, die eine Person verleumden, beleidigen oder ihre Ehre und Würde herabsetzen, vgl. Art. 19 des Gesetzes. Ist eine betroffene natürliche oder juristische Person der Ansicht, dass ein Urheber bzw. Verbreiter von öffentlichen Informationen solche Informationen veröffentlicht bzw. verbreitet hat, die vermutlich nicht veröffentlicht werden sollen, so hat er danach das Recht, bei der litauischen Rundfunkanstalt einen Antrag auf Durchführung von Ermittlungen zu stellen. Diese hat dann eine Entscheidung bzgl. der Veröffentlichung bzw. Verbreitung zu treffen. Sie kann auch Sanktionen aussprechen, wie die Aussetzung oder den Widerruf der Sendelizenzen. 5.7. Tschechien In Tschechien ist ein Gesetz geplant, dass die großen sozialen Medien mit rechtlichen Sanktionen (einschließlich Haftstrafen) bedroht, wenn sie in die Meinungsfreiheit eingreifen, indem sie ungerechtfertigt Beiträge ihrer Nutzer mit der Absicht entfernen, eine öffentliche Debatte über wichtige Themen von öffentlichem Interesse zu verhindern. Dies würde nicht für Inhalte gelten, die in grober Weise gegen das Gesetz oder Grundsätze der Moral verstoßen.51 47 The Criminal Law, The State Language Centre, http://vvc.gov.lv/image/catalog/dokumenti/The%20Criminal %20Law.doc. 48 Vgl. Abschnitt 12 f. Law on Information Society Services, The State Language Centre, http://www.vvc.gov.lv/export /sites/default/docs/LRTA/Likumi/Law_On_Information_Society_Services.doc. 49 Siehe hierzu auch Wissenschaftlichen Dienste des Deutschen Bundestages, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019. 50 Republic of Lithuania Law on the Provision of Information to the Public, https://e-seimas.lrs.lt/portal/legal Act/lt/TAD/2865241206f511e687e0fbad81d55a7c?jfwid=1clcwosx33. 51 Diese Angaben stammen aus dem tschechischen Parlament vom 26.02.2021. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 16 5.8. Türkei In der Türkei ist am 1. Oktober 2020 ein neues Social-Media-Gesetz (Gesetz Nr.7253)52 in Kraft getreten. Modell für das türkische Gesetz war nach Regierungsangaben das deutsche NetzDG. Allerdings entscheiden nicht private Unternehmen über die Rechtswidrigkeit von Inhalten, sondern Richter.53 Außerdem gibt es einen weitreichenderen Anwendungsbereich – neben sozialen Medien sind auch Nachrichtenseiten erfasst – mit der Androhung von Bußgeldern bis zu einer Million Euro.54 Zusätzlich besteht eine Pflicht für soziale Medien mit über einer Million Nutzern, eine Niederlassung in der Türkei vorzuweisen.55 Schließlich sind von dem Gesetz auch Inhalte erfasst, „die den nationalen und spirituellen Werten unserer [der türkischen] Gesellschaft zuwiderlaufen ."56 Als Beispiel für die Anwendung des Gesetzes kann die beabsichtigte Produktion einer Netflix-Serie mit der Rolle eines homosexuellen Protagonisten angeführt werden.57 Hierzu erging eine staatliche Aufforderung an Netflix, das Drehbuch für die Serie mit der Entfernung der Rolle des Homosexuellen zu ändern. Darafhin habe Netflix beschlossen, die Serie einzustellen.58 Bereits seit 2007 gibt es das Gesetz Nr. 5651, das dem Telekommunikationsministerium (Telecommunications Communication Presidency - TIB) weitreichende Eingriffsmöglichkeiten bietet. Zwischen Mai 2007 und Januar 2014 wurden auf Grundlage des Gesetzes nach richterlicher oder verwaltungsrechtlicher Anordnung 37.000 Webseiten gesperrt.59 Ursprünglich sollte das Gesetz dem Kinder- und Jugendschutz dienen.60 Daher räumt das Gesetz dem TIB in Bezug auf kinderund jugendgefährdende Inhalte eine Sperrung von Webseiten ohne richterliche Erlaubnis ein.61 52 İNTERNET ORTAMINDA YAPILAN YAYINLARIN DÜZENLENMESİ VE BU YAYINLAR YOLUYLA İŞLENEN SUÇLARLA MÜCADELE EDİLMESİ HAKKINDA KANUNDA DEĞİŞİKLİK YAPILMASINA DAİR KANUN, Kanun No. 7253; https://www.tbmm.gov.tr/kanunlar/k7253.html. 53 Vgl. auch FAZ.net, Kritik an Social Media-Gesetz in der Türkei, 01.10.2020, https://www.faz.net/aktuell/feuilleton /medien/kritik-an-social-media-gesetz-in-der-tuerkei-16980663.html. 54 Buttkereit, Christian, Gesetz gegen die "Unmoral" im Internet, 30.09.2020, https://www.tagesschau.de/ausland /tuerkei-social-media-105.html. 55 Ebd. 56 Sahin, Ebubekir, Chef der türkischen Rundfunkaufsichtsbehörde, zitiert in Buttkereit, Christian, Gesetz gegen die "Unmoral" im Internet, 30.09.2020, https://www.tagesschau.de/ausland/tuerkei-social-media-105.html. 57 Ebd. 58 Ebd. 59 OSCE, Briefing on Proposed Amendments to Law No. 5651 - The Internet Law of Turkey, Januar 2014, S. 2, https://www.osce.org/files/f/documents/c/e/110823.pdf. 60 Ebd., S. 9. 61 OECD, The Role of Internet Intermediaries in Advancing Public Policy Objectives, 2011, S. 125. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 17 Der Europäische Gerichtshof für Menschenrechte hat im Jahr 2012 festgestellt, dass die Anwendung des Gesetzes gegen Art. 10 der Europäischen Menschenrechtskonvention verstößt.62 5.9. USA63 In den USA gibt es keine den oben aufgeführten Normierungen entsprechenden Regelungen, da die Meinungsfreiheit eine herausragende, nahezu unantastbare Stellung genießt, die daraus folgt, dass der Regierung nicht die Kompetenz zugesprochen wird, eine Meinung als zulässig oder unzulässig einzuordnen.64 Die US-amerikanischen Gerichte räumen der Meinungsfreiheit einen nahezu absoluten Schutz ein, worin sie sich nach Brugger von deutschen Gerichten deutlich unterscheiden .65 Wenn jedoch eine Äußerung darauf abzielt, unmittelbar ein rechtswidriges Verhalten zu provozieren („imminent lawless action“) und wahrscheinlich auch ein solches Verhalten auslöst , tritt der Schutz der Meinungsfreiheit zurück.66 Für diesen ausgeprägten Schutz von Äußerungen werden verschiedene Begründungen angeführt. Im Gegensatz zu Deutschen würden Amerikaner ihrer Regierung nicht vertrauen, wenn sie Meinungen als „gut“ oder „schlecht“ auswählt .67 Es bestehe dort ein größeres Vertrauen in den Wettbewerb der Meinungen. „Gute“ Meinungen würden sich im Wettbewerbsprozess durchsetzen. Außerdem hätten Amerikaner mit offensiver oder sogenannter „hate speech“ während des Bürgerkriegs und den Protesten gegen den Vietnamkrieg befreiende Erfahrungen gemacht. 68 Allerdings gibt es eine Gesetzesinitiative, die Offenlegungspflichten auch für kommerzielle Internetunternehmen im Zusammenhang mit Wahlwerbung vorsieht. Sie dient zwar nicht unmittelbar der Meinungsfreiheit, kann aber zur Meinungsbildung beitragen. So wurde in den Congress der 62 Europäischer Gerichtshof für Menschenrechte, Urteil vom 18.12.2012 - 3111/10 – Yildirim ./. Türkei. 63 Dieser Abschnitt wurde teilweise übernommen aus einem Sachstand der Wissenschaftlichen Dienste, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019. 64 Brugger, W. (2002), Ban on or protection of hate speech-some observations based on German and American law, Tul. Eur. & Civ. LF, 17, 1, S. 2, 7, 14; https://journals.tulane.edu/teclf/article/view/1662/1494; vgl. auch die Ausführungen der Wissenschaftlichen Dienste des Deutschen Bundestages, WD 10: Kultur, Medien und Sport, Regulierung von „Hate Speech“ und „Fake News“ in sozialen Netzwerken durch ausgewählte Länder, WD 10 – 3000 – 059/19 vom 09.09.2019. 65 Brugger, ebd., S. 7. 66 Dieser Standard wurde vom Obersten Gerichtshof der Vereinigten Staaten 1969 im Fall Brandenburg v. Ohio, 395 U.S. 444 (1969) etabliert und wird daher auch der Brandenburg-Test genannt. Er ist bis heute gültig, wie u.a. Brugger, Kiska und Bleich ausführen. Siehe dazu Brugger, a.a.O., S. 14 f., Kiska, R. (2012). Hate speech: a comparison between the European Court of Human Rights and the United States Supreme Court jurisprudence. Regent UL Rev., 25, S. 142-144, Bleich, The Rise of Hate Speech and Hate Crime Laws in Liberal Democracies, Journal of Ethnic and Migration Studies, Vol. 37, No. 6, S. 922 f. 67 Brugger, ebd, S. 14. 68 Ebd. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 18 Vereinigten Staaten am 7. Mai 2019 ein Gesetzentwurf zur Verstärkung der Transparenz und Rechenschaft (accountability) eingebracht: Honest Ads Act (S. 1356)69. Der Gesetzentwurf70 sieht eine Erweiterung der Offenlegungspflichten für politische Werbung vor. Nach dem Bundeswahlkampfgesetz von 1971 (Federal Election Campaign Act (FECA) of 197171) ist bei politischen Anzeigen im Fernsehen, in Zeitungen und im Radio offen zu legen, wer die Werbung bezahlt hat. Der Honest Ads Act würde diese Verpflichtung erweitern, indem festgelegt würde, dass bezahlte Internet- und bezahlte digitale Kommunikation als "öffentliche Kommunikation" oder "Wahlkampfkommunikation " gelten könne, die den gleichen Regeln unterliegen würde wie Anzeigen, die im Fernsehen, Radio und Satellit verkauft werden. Die Regelung würde zudem verlangen, dass auch bestimmte Online-Plattformunternehmen öffentlich kenntlichmachen, wer für politische Werbungen auf ihren Plattformen verantwortlich ist und was dafür bezahlt wurde.72 Der Honest Ads Act hat parteiübergreifende Unterstützung im Kongress erhalten.73 Weiterhin sind Initiativen zur Änderung des Communications Decency Act von 199674 zu erwähnen , der insbesondere mit der Haftungsbefreiung von Plattformbetreiber für Inhalte ihrer Nutzer als Garant für die Meinungsfreiheit im Internet gesehen wird.75 In Section 230 wird bisher bestimmt : "No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider." Nach einer 69 Zum Stand der Gesetzgebung vgl. Govtrack, S. 1356. Honest Ads Act, abrufbar unter: https://www.congress .gov/bill/116th-congress/senate-bill/1356 und https://www.govtrack.us/congress/bills/116/s1356 [zuletzt abgerufen: 09.09.2019]. Es handelt sich dabei um eine Wiedereinführung des gleichbenannten Gesetzentwurfs (S.1989 - Honest Ads Act), der am 19.10.2017 bereits dem Senat vorgelegt wurde. Vgl. Congress.Gov, S.1989 - Honest Ads Act, abrufbar unter: https://www.congress.gov/bill/115th-congress/senate-bill/1989/text. 70 Honest Ads Act, abrufbar unter: https://www.govtrack.us/congress/bills/116/s1356/text/is. 71 Zum Gesetzestext und weiteren damit in Zusammenhang stehenden Bundesgesetzen vgl. Federal Election Commission , Federal Election Campaign Laws, Washington, D.C., February 2019, abrufbar unter: https://www.fec.gov/resources/cms-content/documents/feca.pdf. 72 S. 1356: Honest Ads Act vom 7. Mai 2019, a.a.O. 73 Dennoch gibt es kritische Stimmen, die hierin eine Gefährdung der freien Rede befürchten. Vgl. z. B. Smith, Bradley A., Misnamed 'Honest Ads Act' would restrict free speech, USA Today, 17.06.2019, abrufbar unter: https://eu.usatoday.com/story/opinion/2019/06/12/election-interference-honest-ads-act-threatens-free-speecheditorials -debates/1438271001/. 74 Communications Decency Act of 1996, S.314 - Communications Decency Act of 1995, 104th Congress (1995- 1996), https://www.congress.gov/bill/104th-congress/senate-bill/314/all-actions?overview=closed#tabs. 75 Vgl. z. B. Electronic Frontier Foundation (EFF), CDA 230 – The Most Important Law Protecting Internet Speech, 2021, https://www.eff.org/de/issues/cda230, Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 19 Meldung der Presseagentur Reuters von Anfang 202176 wollen Kongressabgeordente der Demokratischen Partei und der Präsident der Vereinigten Staaten Joe Biden diesen Paragraphen reformieren oder aufheben, um die großen Internetunternehmen (Big Tech) für „schädliche“ Inhalte verantwortlich zu machen.77 Wann und in welcher Form eine derartige Gesetzesänderung verwirklicht wird, ist derzeit nicht absehbar. 5.10. Australien In Australien gibt es seit 2015 den „Enhancing Online Safety Act 2015 (Cth)“78, in dem auch Löschpflichten für Anbieter sozialer Medien und Endnutzer enthalten sind. Es gibt z. B. Regelungen für die Löschung von Material, das bei Cybermobbing verwendet wurde (Division 2—Complaints about cyber‑bullying material), und für die Löschung von vertraulichen (intimate) Bildern , die ohne Zustimmung des Rechteinhabers verbreitet wurden (Division 3—Complaints about, and objections to, intimate images). Als Aufsichtsbehörde wurde mit dem Gesetz der „eSafety Commissioner“ eingerichtet. Diese Behörde dient Bürgern auch als Informationsstelle in zahlreichen Fragen der Internetsicherheit u. a. „ Cybermobbing“ und als Ansprechstell für vorgenannten Beschwerdegründe. Darüber hinaus befasst sich die australische Regierung ebenfalls mit der Problematik von „Hate Speech“ im Internet. Hierzu hat sie eine länderübergreifende Studie „Online hate speech“79 anfertigen lassen, in der die Situation in Australien, Neuseeland und Europa untersucht wurde. Außerdem wurde Anfang 2021 ein Gesetz (News Media and Digital Platforms Mandatory Bargaining Code)80 verabschiedet,81 mit dem Ungleichgewichte in der Verhandlungsmacht zwischen digitalen Plattformdiensten (speziell Google und Facebook) und dem australischen Nachrichtenwe- 76 Bose, Nandita und Renshaw, Jarrett, Exclusive: Big Tech's Democratic critics discuss ways to strike back with White House, 17.02.2021, https://www.reuters.com/article/us-usa-tech-white-house-exclusive/exclusive-bigtechs -democratic-critics-discuss-ways-to-strike-back-with-white-house-idUSKBN2AH1A4; auch Pietsch, Bryan und Hamilton, Isobel Asher, The key facts you need to know about Section 230, the controversial internet law that Trump hated and Biden might reform, Businessinsider, 28.02.2021, https://www.businessinsider .com/what-is-section-230-internet-law-communications-decency-act-explained-2020-5?r=DE&IR=T. 77 Schon die Vorgängerregierung hat eine Reform dieses Paragraphen angekündigt. Vgl. The United States, Department of Justice, The Justice Department Unveils Proposed Section 230 Legislation, 23.09.2020, https://www.justice .gov/opa/pr/justice-department-unveils-proposed-section-230-legislation; ders., Section 230 — Nurturing Innovation or Fostering Unaccountability? -KEY TAKEAWAYS AND RECOMMENDATIONS, Juni 2020, https://www.justice.gov/file/1286331/download. 78 Enhancing Online Safety Act 2015, No. 24, 2015, https://www.legislation.gov.au/Details/C2018C00356. 79 Australian Government, eSafetyCommissioner, Online hate speech - Findings from Australia, New Zealand and Europe, 2020, https://www.esafety.gov.au/sites/default/files/2020-01/Hate%20speech-Report.pdf. 80 Australia, Federal Register of Legislation, Treasury Laws Amendment (News Media and Digital Platforms Mandatory Bargaining Code) Act 2021, No. 21, 2021, https://www.legislation.gov.au/Details/C2021A00021. 81 Der Gesetzentwurf wurde am 25. Februar 2021 verabschiedet, vgl. Australian Competition & Consumer Commission (ACCC), News media bargaining code, Project overview, https://www.accc.gov.au/focus-areas/digital-platforms /news-media-bargaining-code. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 20 sen (news business) angegangen werden sollen. Internetkonzerne müssen danach mit jedem Verlag über den Wert der Inhalte verhandeln und sie entsprechend vergüten, die sie auf ihren Seiten verlinken oder einstellen.82 Im Zweifelsfall entscheidet ein Schiedsgericht.“83 Als Reaktion darauf soll Facebook sämtliche Nachrichtenseiten darunter Verlagsinhalte und Behördeninformationen für den australischen Markt abgeschaltet haben.84 6. Rechtlich unverbindliche Regelungen zu „Hate Speech“ und „Fake News“ Über die gesetzlichen Regelungen hinaus gibt es Beispiele für Vereinbarungen von freiwilligen Verhaltenskodices, an deren Ausformulierung zum Teil auch staatliche Stellen beteiligt sind. Im Folgenden werden beispielhaft einige solcher Initiativen kursorisch dargestellt. 6.1. EU Im Jahr 2018 hat die EU mit Facebook, Google, Twitter und Mozilla einen freiwilligen Verhaltenskodex für den Umgang mit Desinformationen erarbeitet.85 Im Zusammenhang mit der COVID-19 Pandemie hat die EU-Kommission eine „Gemeinsame Mitteilung an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts - und Sozialausschuss und den Ausschuss der Regionen“86 herausgegeben, die einige Maßnahmen in Bezug auf die Bekämpfung von Falschinformationen beinhaltet. Sie sieht unter anderem gezielte Gegendarstellungen vor sowie eine größere Präsenz der Kommission und ihrer Vertretungen in den sozialen Medien. Zusätzlich fordert sie eine monatliche Berichtspflicht der großen sozialen Medien zum Umgang mit „Fake News“.87 82 Zeit Online, Australien verabschiedet Gesetz zu Nachrichteninhalten, 25.02.2021, https://www.zeit.de/digital /2021-02/soziale-medien-australien-gesetz-facebook-google. 83 Senzel, Holger, Facebook sperrt Nachrichten in Australien, tagesschau.de vom 18.02.2021, https://www.tagesschau .de/ausland/australien-facebook-101.html. 84 Senzel, Holger, Facebook sperrt Nachrichten in Australien, tagesschau.de vom 18.02.2021, https://www.tagesschau .de/ausland/australien-facebook-101.html. 85 EU Code of Practice on Disinformation, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454; vgl. auch EU-Kommission, Wie Facebook, Twitter und Google Desinformation bekämpfen – Plattformen legt erste Berichte vor, https://ec.europa.eu/germany/news/20190129-desinformation-bericht_de. 86 Europäische Kommission, Gemeinsame Mitteilung an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen - Bekämpfung von Desinformation im Zusammenhang mit COVID-19 – Fakten statt Fiktion, 10.06.2020, https://eur-lex.europa .eu/legal-content/DE/TXT/?qid=1591873061977&uri=CELEX:52020JC0008. 87 Ebd. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 21 Zusätzlich gibt es einen EU-Verhaltenskodex zur Bekämpfung von „Hetze“ im Internet, dem unter anderem Facebook, TikTok und YouTube angehören. Unter anderem haben sich die Unternehmen dazu bereiterklärt, die Mehrheit der zutreffenden Meldungen in Bezug auf die Entfernung illegaler „Hassreden“ in weniger als 24 Stunden zu überprüfen und die Inhalte ggf. zu entfernen oder den Zugang dazu zu sperren. Die Kommission überwacht und bewertet die Entwicklung fortlaufend. Nach ihren Angaben würden IT-Unternehmen mittlerweile 90 % der gemeldeten Inhalte innerhalb von 24 Stunden prüfen und 71 % der Inhalte entfernen, die als „illegale Hetze“ betrachtet werden.88 6.2. Deutschland Die Initiative „Verfolgen statt nur Löschen“ der Landesanstalt für Medien NRW hat gemeinsam mit einigen Medienhäusern sowie in Zusammenarbeit mit dem Landes- und Bundeskriminalamt gegen „Hassrede“ im Netz gewirkt und steht im steten Austausch über Verfolgungsmöglichkeiten von strafrechtlich relevanten Kundgaben im Internet.89 Ihren Mitgliedern bietet die Initiative Rechtsschulungen, Musteranzeigen und Beratungsmöglichkeiten, um für die Medienunternehmen den Schritt zu einer Anzeige zu erleichtern.90 Die Initiative möchte durch sorgfältige juristische Prüfung und gegebenenfalls strafrechtliche Verfolgung der Urheber von sog. „Hasspostings“ verdeutlichen, dass es sich mit einer Löschung ihrer Beiträge nicht um die Verletzung ihrer Meinungsfreiheit handelt, sondern um eine Sanktion einer strafrechtlich relevanten Handlung.91 6.3. Europarat Der Europarat hat ebenfalls eine Inititative zur Förderung der Menschenrechte, Demokratie und Rechtsstaatlichkeit im Internet gegründet: The joint industry-Council of Europe guidelines on the protection of human rights on the internet. Hier werden gemeinsam Deklarationen entworfen und Modellgesetze - über Empfehlungen an ihre Mitgliedsstaaten - und Richtlinien für privatwirtschaftliche Internetakteure entwickelt.92 Bei allen Verletzungen der Europäischen Konvention für Menschenrechte93 kann darüber hinaus der Europäische Gerichtshof für Menschenrechte angerufen werden. Die Europäische Konvention für Menschenrechte schützt auch die Meinungsfreiheit 88 Europäische Kommission, Illegale Hetze im Internet: EU-Verhaltenskodex zeigt Wirkung, aber Plattformen müssen transparenter werden, 22.06.2020, https://ec.europa.eu/germany/news/20200622-hetze-im-internet-eu-verhaltenskodex _de. 89 Landesanstalt für Medien NRW, Die Initiative „Verfolgen statt nur löschen“, https://www.medienanstaltnrw .de/themen/hass/verfolgen-statt-nur-loeschen-rechtsdurchsetzung-im-netz.html. 90 Ebd. 91 Ebd. 92 Council of Europe, Safeguarding human rights online, https://www.coe.int/en/web/portal/council-of-europeand -internet. 93 Europarat, Europäische Menschenrechtskonvention (Konvention zum Schutze der Menschenrechte und Grundfreiheiten ) vom 04.11.1950, zuletzt geändert durch Protokoll Nr. 14 vom 13.05.2004 m.W.v. 01.06.2010. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 22 (Art. 10). Dieses Recht schließt die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben. (Art. 10 Abs. 1 S. 2). 6.4. The Global Network Initiative (GNI) Die Global Network Initiative (GNI) ist ein Zusammenschluss aus Unternehmen, Investoren, Gelehrten und Nichtregierungsorganisationen, die Prinzipien erarbeitet haben, die die (Meinungs-) Freiheit im Internet schützen sollen und auf der UN-Menschenrechtsdeklaration sowie dem UN Pakt für bürgerliche und politische Rechte beruhen.94 Ihr gehören unter anderen Facebook, Google und Microsoft sowie einige Menschenrechtsorganisationen an.95 Die Initiative setzt sich vornehmlich für den Schutz der Intermediäre vor der Zurechnung von rechtswidrigen Handlungen ihrer Nutzer ein und bewahrt nach eigenen Angaben dadurch die Meinungsfreiheit.96 7. Fazit Für Deutschland bilden der Medienstaatsvertrag und das NetzDG ein Regelungssystem, für dessen Überwachung einerseits die Landesmedienanstalten und andererseits das Bundesamt für Justiz zuständig sind. Allerdings gibt es hier keine etablierten Korrekturmechanismen, wenn legale Inhalte fälschlicherweise gelöscht werden oder strittige Inhalte entfernt werden sollen.97 Der Schwerpunkt liegt bei der Entfernung rechtswidriger Inhalte und nicht bei der Vermeidung von übermäßigen bzw. interessengelenkten Löschungen, um Meinungsvielfalt und die Freiheit der Meinungsäußerung als konstitutives Element freiheitlich demokratisch organisierter Gesellschaften besser zu schützen. Darüber hinaus ist erkennbar, dass es in vielen Staaten Bestrebungen zur Überwachung der Zulässigkeit und Ausgewogenheit der Löschaktivitäten von Anbietern sozialer Medien gibt und sie für fremde Inhalte mitverantwortlich gemacht werden sollen. Den Schwerpunkt der Kontrolle setzen die Regierungen aber jeweils unterschiedlich. Insbesondere in europäischen Staaten ist eine Tendenz der Aufsichtsbehörden zu mehr Kontrolle sozialer Medien zum Schutz der Meinungsfreiheit und -vielfalt zu erkennen, wobei sich hiervon viele von einigen Regelungen des deutschen NetzDG leiten lassen, aber Löschentscheidungen nicht den Anbietern übertragen, sondern Aufsichtsbehörden oder Richtern. Außerdem sehen sie 94 OECD, The Role of Internet Intermediaries in Advancing Public Policy Objectives, 2011, S. 104. 95 Global Network Initiative, About, Our Members, https://globalnetworkinitiative.org/. 96 Global Network Initiative, Issues, Intermediary Liability & Content Regulation, https://globalnetworkinitiative .org/policy-issues/intermediary-liability-content-regulation/. 97 Im Bericht der Bundesregierung zur Evaluierung des Netzwerkdurchsetzungsgesetzes wurde bei den ersten Erkenntnissen zu einem möglichen Änderungsbedarf die Einführung eines Gegenvorstellungsverfahrens im Regierungsentwurf zum NetzDGÄndG zur Stärkung der Rechte der Nutzerinnen und Nutzer genannt. Vgl. Bundesregierung , Unterrichtung, Bericht zur Evaluierung des Netzwerkdurchsetzungsgesetzes, BT-Drs. 19/22610, 10.09.2020, S. 31; https://dip21.bundestag.de/dip21/btd/19/226/1922610.pdf. Wissenschaftliche Dienste Sachstand WD 10 - 3000 - 021/21 Seite 23 im Gegensatz zum NetzDG auch Verfahren für den Umgang mit Beschwerden über Falschlöschungen vor. Regelungen werden oft auch nicht auf das Internet beschränkt wie beim NetzDG, sondern es werden alle Medien einbezogen. Einheitliche Regelungen auf EU-Ebene, die alle -auch traditionelle - Medien erfassen, erscheinen sinnvoll. Die derzeitigen diesbezüglichen Diskussionen im Zusammenhang mit der Initiative des Digital Services Act zeigen aber insbesondere vor dem Hintergrund der kulturellen Vielfalt in der EU, wie unterschiedlich die Ansätze bei Regulierungstiefe, -breite und -zuständigkeit liegen und was konkret unter Begriffen wie „Hass“, „Hassrede“, Hass-Posting“, „Desinformation“ und „Fake News“ zu verstehen und zu subsumieren ist. ****