© 2018 Deutscher Bundestag WD 10 - 3000 - 062/18 Regulierung von Intermediären Möglichkeiten und Auswirkungen der Regulierung im Hinblick auf Medienvielfalt Ausarbeitung Wissenschaftliche Dienste Die Wissenschaftlichen Dienste des Deutschen Bundestages unterstützen die Mitglieder des Deutschen Bundestages bei ihrer mandatsbezogenen Tätigkeit. Ihre Arbeiten geben nicht die Auffassung des Deutschen Bundestages, eines seiner Organe oder der Bundestagsverwaltung wieder. Vielmehr liegen sie in der fachlichen Verantwortung der Verfasserinnen und Verfasser sowie der Fachbereichsleitung. Arbeiten der Wissenschaftlichen Dienste geben nur den zum Zeitpunkt der Erstellung des Textes aktuellen Stand wieder und stellen eine individuelle Auftragsarbeit für einen Abgeordneten des Bundestages dar. Die Arbeiten können der Geheimschutzordnung des Bundestages unterliegende, geschützte oder andere nicht zur Veröffentlichung geeignete Informationen enthalten. Eine beabsichtigte Weitergabe oder Veröffentlichung ist vorab dem jeweiligen Fachbereich anzuzeigen und nur mit Angabe der Quelle zulässig. Der Fachbereich berät über die dabei zu berücksichtigenden Fragen. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 2 Regulierung von Intermediären Möglichkeiten und Auswirkungen der Regulierung im Hinblick auf Medienvielfalt Aktenzeichen: WD 10 - 3000 - 062/18 Abschluss der Arbeit: 29.08.2018 Fachbereich: WD 10: Medien, Kultur und Sport Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 3 Inhaltsverzeichnis 1. Einleitung 4 2. Intermediäre: Begriff, Funktions- und Wirkweise 5 2.1. Begriff 5 2.2. Funktionsweise 5 2.3. Wirkweise 7 3. Anwendbarkeit bestehender Regulierungsinstrumente auf Intermediäre 8 3.1. Kartellrecht 8 3.2. Telemedienrecht 9 3.3. Datenschutzgrundverordnung (EU-DSGVO) 10 3.4. Netzwerkdurchsetzungsgesetz (NetzDG) 11 3.5. Rundfunkrecht 12 3.6. Zwischenergebnis 12 4. Möglichkeiten der Regulierung 13 4.1. Ansätze in der wissenschaftlichen Diskussion 13 4.1.1. Must-Carry-Ansatz 13 4.1.2. Diskriminierungsfreiheit Algorithmen 13 4.1.2.1. Neutralität 14 4.1.2.2. Transparenz 14 4.1.3. Staatliche Regulierung, Selbstregulierung oder Ko-Regulierung? 15 4.2. Entwurf zum Medienstaatsvertrag der Bund-Länder-Kommission zur Medienkonvergenz 16 4.2.1. Erweiterter Anwendungsbereich 16 4.2.2. Zuständige Stelle 17 4.2.3. Transparenz 17 4.2.4. Diskriminierungsfreiheit 18 5. Einordnung und Fazit 19 Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 4 1. Einleitung Sogenannte Intermediäre werden zu einem immer wichtigeren Faktor in der öffentlichen Meinungsbildung . Sie gelten zwar selbst nicht als Medien, stellen aber eine essentielle Schnittstelle zwischen dem Informationsinteresse der Rezipienten und der immer größer und unübersichtlicher werdenden Flut und Vielfalt an Informationen und Medien der digitalen Welt dar. Die bisherige Regulierung im Bereich Medien basiert noch auf anderen Grundvoraussetzungen, nämlich auf einer Knappheit der zur Verfügung stehenden Inhalte bzw. Übertragungskapazitäten und der daraus resultierenden eingeschränkten Vielfalt, die deshalb eine staatliche Regulierung erforderte , die den Pluralismus in den Vordergrund stellte. Die Meinungs- und Inhaltsvielfalt sind in der digital vernetzten Welt jedoch nicht mehr durch technische Kapazitäten, sondern vor allem durch die Wahrnehmungskapazität des Rezipienten begrenzt. Intermediäre wie Suchmaschinen sind dabei von essentieller Bedeutung um für den Nutzer eine Vorauswahl zu treffen und ihm relevante Inhalte aus der Informationsflut zu präsentieren . So ist das Wort „Googeln“ mittlerweile zum Synonym für die Informationsbeschaffung im Internet geworden und schon im Jahre 2004 in den Duden aufgenommen worden.1 Die Nutzer müssen dabei darauf vertrauen können, dass die ausgewählten Inhalte bestimmten Neutralitätskriterien entsprechen. Die Verwendung von Algorithmen durch die Intermediäre, die im Hintergrund eine Selektion und Priorisierung von Inhalten vornehmen, die dem Nutzer angezeigt werden, wirft dabei insbesondere vor dem Hintergrund der für unsere Demokratie so wichtige Meinungsvielfalt in den Medien Fragen der Neutralität und Transparenz auf. Hinzu kommt, dass sich vor allem die jüngere Generation nicht mehr ausschließlich auf klassische Medien verlässt, sondern sich immer häufiger Informationen aus sozialen Netzwerken oder Mirco-Blogging-Diensten bedient.2 Spätestens seit dem Brexit-Referendum im Vereinigten Königreich und der Wahl von Donald Trump zum US-Präsidenten wird aber die Informationsverteilung über das Internet auch für den wachsenden Erfolg populistischer Bewegungen verantwortlich gemacht,3 wobei vor allem die Algorithmen der Dienste, aber auch zunehmend Phänomene wie „Fake News“ oder „Social Bots“ eine Rolle spielen. Im Folgenden werden zunächst der Begriff der Intermediäre und ihre Funktions- und Wirkweise erläutert, die Anwendbarkeit bestehender Regulierungsinstrumente auf Intermediäre aufgezeigt und verschiedene in der Diskussion befindliche Ansätze für die weitere Regulierung dargestellt, bevor auf die von der Bund-Länder-Kommission zur Medienkonvergenz vorgeschlagene Neufassung des Rundfunkstaatsvertrags bzw. Medienstaatsvertrags eingegangen werden wird. 1 Siehe: https://www.duden.de/rechtschreibung/googeln. 2 Grundlegend dazu: Schmidt/Lerten/Hasebrink/Petrich/Rolfs, „Zur Relevanz von Online-Intermediären für die Meinungsbildung“, Arbeitspapiere des Hans-Bredow-Instituts Nr. 40, abrufbar unter https://www.hans-bredowinstitut .de/uploads/media/default/cms/media/67256764e92e34539343a8c77a0215bd96b35823.pdf (letzter Zugriff am 24. August 2018). 3 Drexl, „Bedrohung der Meinungsvielfalt durch Algorithmen“, ZUM 2017, 529. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 5 2. Intermediäre: Begriff, Funktions- und Wirkweise 2.1. Begriff Der Begriff der „Intermediäre“ bedarf zunächst einer Präzisierung. Intermediär bedeutet „dazwischenliegend “. Davon ausgehend werden unter dem Begriff „Intermediäre“ (Online-)Dienste bezeichnet , die eine Vermittlungsfunktion zwischen digitalen Inhalten und den Nutzern wahrnehmen . Sie bieten dabei in der Regel keine eigenen Inhalte an, sondern lenken die Aufmerksamkeit des Nutzers durch Aggregation, Selektion und Präsentation auf von Dritten erstellte (und gegebenenfalls eigene) Inhalte.4 Unter diese Definition fallen vor allem Dienste wie Suchmaschinen (z.B. Google Search, Yahoo), Soziale Netzwerke (z.B. Facebook, LinkedIn), App-Plattformen (z.B. Apple App Store, Google Play Store), User-generated-content-Plattformen (z.B. Youtube, Instagram), Micro-Blogging- Dienste (z.B. Twitter), News-Aggregatoren (z.B. Feedly, Google News) oder Verkaufsplattformen (z.B. eBay, Amazon). Relevant für eine Regulierung im Hinblick auf Meinungsvielfalt sind dabei nur solche Dienste, die entsprechende meinungsrelevante Inhalte betreffen, so dass z.B. Dienste wie Online-Preisvergleiche oder Dienstleistungsplattformen, die zwar denselben Funktionsmechanismen unterliegen , in der Vielfaltssicherung der Meinungen jedoch keine oder nur eine untergeordnete Rolle spielen, von ihr nicht betroffen sein sollten. Deshalb werden teilweise zur Präzisierung die Begriffe „Informationsmediäre“5 oder „Medienintermediäre“6 vorgeschlagen. 2.2. Funktionsweise Intermediären wie z.B. Suchmaschinen kommt eine wichtige Rolle zu. Die schier unendliche Informationsflut im Internet ist für den einzelnen Nutzer ohne Hilfe nicht mehr überschaubar. Intermediäre und insbesondere Suchmaschinen haben daher eine essentielle Funktion: Als „Gatekeeper “ machen sie das Internet überhaupt erst nutzbar, indem sie generell den Zugang zur Informationsvielfalt im Netz und speziell zu meinungsrelevanten Informationsangeboten anderer Online-Anbieter ermöglichen und dabei auch maßgeblich beeinflussen.7 In der Regel kommen 4 Bericht der Bund-Länder-Kommission zur Medienkonvergenz, Juni 2016, S. 31, abrufbar unter https://www.bundesregierung.de/Content/DE/_Anlagen/BKM/2016/2016-06-14-medienkonvergenz-berichtblk .pdf?__blob=publicationFile&v=3 (letzter Zugriff am 24. August 2018). 5 Schulz/Dankert, „Die Macht der Informationsintermediäre: Erscheinungsformen, Strukturen und Regulierungsoptionen “, S. 15, abrufbar unter http://library.fes.de/pdf-files/akademie/12408.pdf (letzter Zugriff am 24. August 2018). 6 Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, Rechtsgutachten im Auftrag der LfM NRW, S. 18, abrufbar unter https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien _Forschung/Paal_Intermediaere_Regulierung-und-Vielfaltssicherung_Gutachten-2018.pdf (letzter Zugriff am 24. August 2018). 7 Hentsch, „Suchmaschinenneutralität! Aber wie? Untersuchung verschiedener Ansätze“ in MMR 2015, 434. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 6 dabei Algorithmen zur Anwendung, also komplexe Computerprogramme, die mittels einer Vielzahl von Parametern und Wenn-Dann-Logiken die Selektion der Inhalte vornehmen, die sodann dem Benutzer angezeigt werden. Die zunehmende Komplexität dieser Algorithmen, die sich teils bereits durch Elemente von künstlicher Intelligenz (K.I.) selbst permanent und mit jedem weiteren Input der Nutzer weiterentwickeln , kann in Hinblick auf Neutralität und Transparenz der Ergebnisse jedoch zu einem problematischen Faktor für die Meinungsvielfalt werden. Für Außenstehende sind die Kriterien und Prozesse, anhand derer ihnen bestimmte Inhalte angezeigt werden, nicht mehr nachvollziehbar 8, weshalb die Algorithmen auch oft als „Black Box“ bezeichnet werden. Die Begriffe Neutralität und Transparenz müssen in diesem Zusammenhang jedoch funktionell eingeschränkt werden: Zum einen ist der Grundfunktion von Intermediären eine Ungleichbehandlung von Inhalten immanent, denn in der Aggregation, Selektion und Präsentation von Inhalten in einem Ranking liegt ja gerade ihre Leistung. Die Neutralität kann sich hier also nur auf die Neutralität der Kriterien beziehen, die diesem Auswahl- und Sortierprozess zu Grunde liegen .9 Zum anderen kann als Transparenz nicht die völlige Offenlegung aller Einzelheiten der Algorithmen verstanden werden. Erstens würde diese dem Nutzer nur ein bedingtes Maß an Transparenz ermöglichen, da die Programmcodes viel zu komplex sind, um Schlussfolgerungen auf ihrem Quellcode ziehen zu können.10 Zweitens stellen die Algorithmen in ihrer konkreten Ausgestaltung oft die (grundrechtlich geschützte) Geschäftsgrundlage der jeweiligen Dienste dar und gelten als Geschäftsgeheimnisse, denn sie bestimmen zum einen die Qualität der Ergebnisse und damit die Attraktivität des Dienstes. Diese ist wiederum ausschlaggebender Faktor für die Verweildauer der Nutzer, die wiederum ein maßgeblicher Faktor beim Verkauf von Werbeanzeigen ist, der die wirtschaftliche Grundlage der Geschäftsmodelle der meisten Intermediäre darstellt.11 Außerdem würde eine vollständige Offenlegung der Algorithmen und all ihrer Kriterien einen erheblichen wirtschaftlichen, aber auch politischen Missbrauch durch Manipulation der Ergebnisse von außen ermöglichen. Transparenz kann in diesem Kontext daher nur dahingehend verstanden werden, dass die Einhaltung der oben genannten für die öffentliche Meinungsbildung erheblichen grundsätzlichen Neutralitätskriterien bzw. Maximen transparent geregelt wird.12 8 Schulz/Dankert, „Die Macht der Informationsintermediäre“, S. 64. 9 Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, S. 32. 10 Ebenda, S. 33. 11 Drexl, „Bedrohung der Meinungsvielfalt durch Algorithmen“, ZUM 2017, 529 (533). 12 Kluth/Schulz, „Konvergenz und regulatorische Folgen – Gutachten im Auftrag der Rundfunkkommission der Länder“, S. 105, abrufbar unter https://www.rlp.de/fileadmin/rlp-stk/pdf-Dateien/Medienpolitik/Konvergenz- Gutachten.pdf (letzter Zugriff am 24. August 2018). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 7 2.3. Wirkweise Für die Nutzer ist also nicht erkennbar, anhand welcher Kriterien z.B. bei einer Google-Suche die Auswahl der für Sie angezeigten Ergebnisse erfolgt. Das Zustandekommen der Ergebnisse ist nicht nachvollziehbar. Gleichzeitig sind die Nutzer auf diese Dienste angewiesen. Inhalte, die nicht auf Google gelistet sind oder die nur auf einem hinteren Rang angezeigt werden, werden nicht wahrgenommen und existieren für sie de facto nicht.13 Oft ist den Nutzern nicht einmal klar, dass die Inhalte, die sie sehen, von einem Algorithmus gefiltert und sortiert wurden. So war in einer Studie mit 40 Facebooknutzern 62,5% der Teilnehmer nicht bewusst, dass der sogenannte News Feed von Algorithmen kuratiert ist.14 Dabei können die personalisierten Algorithmen in sozialen Netzwerken oder Suchmaschinen, die dem Nutzer nur bestimmte Beiträge, nämlich die Facebook oder Google für ihn als relevant erachtet , anzeigt, auch zu unerwünschten Effekten führen. Da der Algorithmus u.a. auf dem bisherigen personalisierten Nutzungsverhalten beruht, wird befürchtet, dass Nutzern nur noch Inhalte und Meinungen präsentiert werden, die ihnen selbst gefallen.15 Andere Ansichten, deren Wahrnehmung einer ausgeglichenen Sichtweise dienen könnte, werden ausgeblendet. Dies könnte zu sogenannten Echokammer- und Filterblaseneffekten führen, die bereits vorhandene Meinungen verstärken und sogar zu einer Radikalisierung beitragen könnten.16 Eine aktuelle Studie, die die Personalisierung von Suchergebnissen auf Google zu Parteien und Politikern vor der Bundestagswahl 2017 untersucht, zeigt jedoch, dass die Personalisierung und daher die Gefahr für eine Filterblase nicht so stark sei, wie bislang angenommen wurde.17 Hinzu kommt, dass der Markt der digitalen Plattformen oft zu einer durch Netzwerk- und Log-in- Effekte bedingten natürlichen Monopolbildung tendiert, da z.B. bei sozialen Netzwerken und Messenger-Diensten die Attraktivität mit jedem neuen Nutzer überproportional steigt (Netzwerkeffekt ). Zudem bedeutet es für die Nutzer einen hohen Aufwand, zu einem neuen Anbieter zu wechseln, weil seine Daten und Kontakte nur schwer migriert werden können (Lock-In-Effekt). Deshalb wird vor allem der Markt der sozialen Netzwerke als ein „The winner takes it all“-Markt bezeichnet.18 13 Kreile/Thalhofer, „Suchmaschinen und Pluralitätsanforderungen“, ZUM 2014, 629; Paal/Hennemann, „Meinungsbildung im digitalen Zeitalter“, JZ 2017, 641 (643). 14 Eslami/Rickman/Vaccaro/Aleyasen/Vuong/Karahalios/Hamilton/Sandvig, “I always assumed that I wasn‘t really that close to [her]”: Reasoning about Invisible Algorithms in News Feeds, in: CHI 2015, 153 (156). 15 Dörr/Natt, „Suchmaschinen und Meinungsvielfalt“, ZUM 2014, 829 (836). 16 Drexl, „Bedrohung der Meinungsvielfalt durch Algorithmen“, ZUM 2017, 529. 17 Krafft/Gamer/Laessing/Zweig, „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-Suchen zur Bundestagswahl 2017“, abrufbar unter https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht __final.pdf (letzter Zugriff am 24. August 2018). 18 Schulz, „Kontrolle vorherrschender Meinungsmacht – Dekonstruktion eines medienrechtlichen Schlüsselbegriffs “, AfP 2017 373 (376). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 8 Ein weiteres, wenn auch nicht zwingend mit der Meinungsmacht der Intermediäre verknüpftes Thema sind „Fake News“, „Social Bots“ und „Hate Speech“, deren Urheber sich die Mechanismen der Intermediäre zu Nutze machen, um einzelne Personen oder Gruppen zu diskreditieren und/oder um die öffentliche Meinungsbildung zu stören oder zu manipulieren. Auch wenn die Dominanz der Informationsintermediäre gegenüber den „klassischen Medien“ im Medienbouquet der meisten Nutzer noch nicht so stark sein dürfte, wie oft angenommen wird, ist die Gefahr für die Meinungspluralität nicht von der Hand zu weisen.19 Dies gilt insbesondere vor dem Hintergrund, dass Online-Diensten durch ihre „Breitenwirkung, Aktualität und Suggestivkraft “ eine ähnlich starke Wirkung wie der weitaus strenger regulierte Rundfunk erzeugen können .20 3. Anwendbarkeit bestehender Regulierungsinstrumente auf Intermediäre Im Folgenden werden zunächst die bestehenden rechtlichen Instrumente zur Regulierung von Medien und ihre Anwendbarkeit bzw. deren Grenzen auf Intermediäre dargestellt. 3.1. Kartellrecht Das ökonomisch unterlegte Kartellrecht enthält keine unmittelbaren Anknüpfungspunkte zur Steuerung von Meinungsmacht.21 Unbeschadet dessen ist jedoch die ökonomische Marktmacht zumindest indirekt ein Faktor für die Bestimmung des Einflusses von Intermediären auf die Meinungsbildung .22 Im Bereich des Kartellrechts ist eine Regulierung nur unter engen Voraussetzungen möglich – insbesondere bedarf es einer marktbeherrschenden Stellung und eines Missbrauchs dieser Stellung23. Obgleich diese Regularien im Umgang mit Google24 und Facebook25 durchaus relevant sind, eignet sich das Kartellrecht grundsätzlich nicht, um umfassend das Transparenzdefizit bei der Nutzung von Intermediären zu verringern. Interessant ist in diesem 19 Ebenda, S. 41. 20 Dörr /Natt, „Suchmaschinen und Meinungsvielfalt“, ZUM 2014, 829 (841). 21 Beckmann/Müller in Hoeren/Sieber, „Handbuch Multimedia-Recht“, Teil 10: Kartellrecht, Rn. 4, 20. Ergänzungslieferung 2008. 22 Schulz/Dankert, „Die Macht der Informationsintermediäre“ S. 28. 23 Siehe § 19 Abs. 1 GWB, abrufbar unter https://www.gesetze-im-internet.de/gwb/__19.html (letzter Zugriff 29. August 2018). 24 Dazu: Weber/Volz, „Kartellrechtlicher Handlungsbedarf im Lichte potenzieller Meinungsmacht von Suchmaschinen “, WuW 2015, 356. 25 Dazu: Bischke/Brack, „Neuere Entwicklungen im Kartellrecht“, NZG 2016, 502. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 9 Zusammenhang aber die Beantwortung der bisher noch ungeklärten Frage, ob Informationsintermediäre als „Essential Facilities“26 zu verstehen sind27. Obgleich Web-Suchmaschinen grundsätzlich in den Anwendungsbereich fallen28, ist fraglich, ob es anderen Unternehmen aus rechtlichen oder tatsächlichen Gründen ohne die Mitbenutzung von bspw. Google nicht möglich ist, auf dem vor- oder nachgelagerten Markt als Wettbewerber tätig zu werden, weil es auch noch andere, wenn gleich weniger populäre Suchmaschinen gibt. Wäre dies der Fall, könnten sich daraus weitergehende kartellrechtliche Regulierungen ergeben. Die Schwelle für unzulässigen Missbrauch ist laut einem Beschluss des Bundeskartellamts jedoch hoch und erst dann erreicht, wenn eine Diskriminierung nicht mehr mit der Verbesserung der Suchmaschine, einer Kostenoptimierung oder sonstigem rechtmäßigem Verhalten erklärbar sei und sie deshalb aus dem Korridor unternehmerisch zulässiger Motive ausbreche, weil sie lediglich einem Dritten schaden oder ihn bestrafen wolle.29 3.2. Telemedienrecht Nach dem Telemediengesetz (TMG)30 sind Telemedien31 – darunter unter anderem die Suchmaschinen 32 aber auch soziale Netzwerke – verpflichtet, kommerzielle Kommunikationen als solche kenntlich zu machen, sodass Suchergebnisse bei der Darstellung klar von geschalteten Anzeigen zu trennen sind33. Dies sorgt für Transparenz in dem Sinne, dass für den Rezipienten grundsätzlich erkennbar ist, welche Ergebnisse nicht aufgrund ihrer hohen Übereinstimmung mit den konkreten Suchkriterien, sondern allein aufgrund werbevertraglicher Pflichten hochrangig gelistet 26 Diese Rechtsfigur ist aus dem amerikanischen Recht entlehnt und über die Auslegung von Art. 102 AEUV auf Ebene des EU-Kartellrechts und in § 19 Abs. 2 Nr. 4 GWB inkorporiert. Sie setzt neben der marktbeherrschenden Stellung die Weigerung voraus, einem anderen Unternehmen den Zugang zu eigenen Netzen oder Infrastruktureinrichtungen zu gewähren, siehe Schulz/Dankert, „Die Macht der Informationsintermediäre, S. 51. 27 Zur Diskussion siehe u.a. Paal, „Internet-Suchmaschinen im Kartellrecht“, GRUR Int. 2015, 997 (1002 f.); Schulz/Dankert, „Die Macht der Informationsintermediäre“ S. 51. 28 Fuchs/Möschel, in: Immenga/Mestmäcker (Hrsg.), Wettbewerbsrecht, 5. Aufl. 2014, Bd. 2, § 19 Rn. 326. 29 Bundeskartellamt, Beschluss B6-126/14 („Google-Beschluss“) vom 8. September 2015, Rn. 184, abrufbar unter https://www.bundeskartellamt.de/SharedDocs/Entscheidung/DE/Entscheidungen/Missbrauchsaufsicht /2015/B6-126-14.pdf;jsessionid=A863FF3E5E30EB964A336481CCF2FD6C.1_cid378?__blob=publication- File&v=2 (letzter Zugriff am 24. August 2018). 30 Telemediengesetz vom 26. Februar 2007 (BGBl. I S. 179), das zuletzt durch Artikel 1 des Gesetzes vom 28. September 2017 (BGBl. I S. 3530) geändert worden ist. Abrufbar unter https://www.gesetze-im-internet .de/tmg/BJNR017910007.html (letzter Zugriff am 28. August 2018). 31 Elektronische Informations- und Kommunikationsdienste, soweit sie nicht Telekommunikationsdienste nach § 3 Nr. 24 des Telekommunikationsgesetzes, die ganz in der Übertragung von Signalen über Telekommunikationsnetze bestehen, telekommunikationsgestützte Dienste nach § 3 Nr. 25 des Telekommunikationsgesetzes oder Rundfunk nach § 2 des Rundfunkstaatsvertrages sind, § 1 Abs. 1 S. 1 TMG. 32 U.a. Paal, „Suchmaschinenneutralität im Wettbewerbsrecht“, AfP 2011, 521 (529); Dankert/Mayer, „Die vorherrschende Meinungsmacht von Google - Bedrohung durch einen Informationsmonopolisten?“, MMR 2010, 219 f. 33 § 6 Abs. 1 Nr. 1, 2 TMG. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 10 sind (sog. „paid inclusion“34). Weiterhin suggeriert § 6 Abs. 1 Nr. 1, 2 TMG eine unzutreffende Objektivität der nicht als Anzeigen gekennzeichneten Ergebnisse. Insbesondere ist nicht auszuschließen , dass der Suchanbieter durch interne Gestaltungsentscheidungen für eine faktische Besserstellung bestimmter Drittanbieter in dem Ranking der Suchergebnisse sorgt35. Solange keine Vergütung gezahlt wird, führt dies nämlich nicht zwingend zur Klassifizierung der Trefferlinks als kommerzielle Kommunikation36. Vermeintlichen Schutz vor einer auf Grundlage des Internetverhaltens personalisierten Suche und somit einer Beschränkung der Suchmaschinenneutralität gewährt augenscheinlich § 12 Abs. 1, 2 TMG, wonach der Diensteanbieter personenbezogene Daten zur Bereitstellung von Telemedien oder anderen Zwecken nur erheben und verwenden darf, soweit eine Erlaubnisnorm einschlägig ist oder der Nutzer eingewilligt hat. Eine derartige Ermächtigungsgrundlage stellt allerdings § 15 Abs. 1 TMG dar, wonach eine Erhebung und Verwendung von personenbezogenen Daten erfolgen darf, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen . Da allerdings die personalisierte Suche mittlerweile integraler Bestandteil des Angebots der Suchmaschinen ist, ist der Tatbestand der Erlaubnisnorm wohl regelmäßig erfüllt37. Weitergehenden Schutz in Form einer „Opt-out-Option“ gewährt § 15 Abs. 3 TMG, der allerdings voraussetzt , dass der Diensteanbieter Nutzungsprofile bei Verwendung von Pseudonymen erstellt. Eine durch die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen wie bspw. durch Google Analytics soll allerdings nicht den Tatbestand erfüllen38. 3.3. Datenschutzgrundverordnung (EU-DSGVO) Europarechtlich gewährt die dieses Jahr in Kraft getretene EU-Datenschutzgrundverordnung (EU- DSGVO)39 ein Auskunftsrecht des Nutzers gegenüber algorithmennutzenden Plattformbetreibern 40. Die Regulierungsintensität ist bezogen auf die Meinungsvielfalt allerdings eher gering. Hat der Nutzer Grund zur Annahme, dass bei einer Serviceanfrage eine Software seine Daten falsch bewertet hat, kann er Auskunft über die Gründe der Entscheidung verlangen41. Dies ist vor dem 34 Paal, „Suchmaschinenneutralität im Wettbewerbsrecht“, AfP 2011, 521 (530 f.). 35 Hartl, „Suchmaschinen, Algorithmen und Meinungsmacht“, S. 150. 36 Micklitz/Schirmbacher, in: Spindler/Schuster „Recht der elektronischen Medien“, 3. Auflage 2015, TMG § 6 Rn. 39. 37 Hartl, „Suchmaschinen, Algorithmen und Meinungsmacht“, S. 154. 38 Nink/Spindler, in: Spindler/Schuster „Recht der elektronischen Medien“, 3. Auflage 2015, TMG § 15 Rn. 11. 39 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Amtsblatt L 119 vom 4.5.2016, S. 1, ber. Amtsblatt L 314 vom 22.11.2016, S. 72, Amtsblatt L 127 vom 23.5.2018, S. 2). Abrufbar unter https://dejure.org/gesetze/DSGVO (letzter Zugriff 28. August 2018). 40 Siehe Art. 15 Abs. 1 h) Abs. DSGVO. 41 Beuth, „Maas schlägt digitales Antidiskriminierungsgesetz vor“, http://www.zeit.de/digital/internet/2017- 07/heiko-maas-algorithmen-regulierung-antidiskriminierungsgesetz, (letzter Zugriff am 24. August 2018). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 11 Hintergrund von mehr Transparenz bei der Nutzung von Algorithmen zwar durchaus zu begrüßen . Weiterhin sieht Art. 22 Abs. 1 EU-DSGVO vor, dass der Nutzer das Recht hat, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihm gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Allerdings soll dies unter anderem dann nicht gelten, wenn eine automatisierte Entscheidung für den Abschluss oder die Erfüllung eines Vertrags erforderlich sind oder eine ausdrückliche Einwilligung der betroffenen Person vorliegt42. Eine weitere auf Intermediäre und auch hier vor allem auf soziale Netzwerke abzielende Vorschrift ist das Recht auf Datenübertragbarkeit (oder auch Datenportabilität) aus Art. 20 DSGVO. Diese eher kartell- als datenschutzrechtlich geprägte Vorschrift soll dem Nutzer ermöglichen vom Verwender die über ihn aufgrund einer Einwilligung automatisiert gesammelten und bearbeiteten Daten in einem gängigen maschinenlesbaren Format zu erhalten und diese dann entweder selbst an einen anderen Anbieter zu übertragen oder direkt übertragen zu lassen. Damit soll den Lock- In-Effekten (siehe oben 2.2) entgegengewirkt und ein Wechsel zu anderen (evtl. datenschutzfreundlicheren ) Anbietern erleichtert werden.43 Ob oder wann diese Vorschrift aber im Hinblick auf die Komplexität solcher Datenbanken und Interoperabilität der technischen Schnittstellen praktisch durchsetzbar sein wird, ist jedoch noch nicht absehbar.44 3.4. Netzwerkdurchsetzungsgesetz (NetzDG) Das Netzwerkdurchsetzungsgesetz (NetzDG)45 beinhaltet gesetzliche Compliance-Regeln für soziale Netzwerke. Regelungsziel ist die vereinfachte bzw. schnellere Durchsetzung von schon vorher bestehenden Rechtspflichten, nämlich der Löschung rechtswidriger Inhalte. Es soll erreicht werden , dass auf Beschwerden im Zusammenhang mit Hasskriminalität und anderen rechtswidrigen Inhalten schneller und umfassender reagiert wird.46 Obwohl das Gesetz nur für einen Teil der Intermediäre gilt und nicht primär die Medienvielfalt schützen soll, sei es als bestehende Regulierung erwähnt. Das Gesetz gilt für Telemediendienstanbieter mit über 2 Millionen Nutzern im Inland, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu 42 Dazu Goodman/Flaxman, “EU regulations on algorithmic decision making and a „right to explanation“, presented at 2016 ICML Workshop on Human Interpretability in Machine Learning”, https://arxiv.org/abs/1606.08813, (letzter Zugriff am 24. August 2018). 43 Paal/Pauly/Paal, 2. Aufl. 2018, DS-GVO Art. 20 Rn. 4-6. 44 Probleme beim Wechsel von einem zum anderen Anbieter am Beispiel Musikstreaming siehe Heuzeroth, „Die Spotify-Lücke offenbart die Absurdität der DSGVO“ erschienen am 27.05.2018 auf welt.de, abrufbar unter https://www.welt.de/wirtschaft/webwelt/article176720143/Spotify-Hier-versagt-die-DSGVO.html (letzter Zugriff am 24. August 2018). 45 Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352), abrufbar unter https://www.gesetze-iminternet .de/netzdg/BJNR335210017.html (letzter Zugriff 28. August 2018). 46 Lang, „Netzwerkdurchsuchungsgesetz und Meinungsfreiheit“, AöR 143 (2018), 221. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 12 machen (Legaldefinition des sozialen Netzwerks). Schließlich werden rechtswidrige Inhalte als solche definiert, welche den objektiven Tatbestand der im Gesetz genannten Strafgesetze erfüllen (§ 1 Abs. 1, 3 NetzDG). Anbieter solcher sozialer Netzwerke werden dazu verpflichtet, ihren Nutzern ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte zur Verfügung zu stellen Offensichtlich rechtswidrige Inhalte sind innerhalb von 24 Stunden nach Eingang der Beschwerde zu entfernen oder der Zugang zu ihnen zu sperren. Im Übrigen gilt eine Frist von sieben Tagen (§ 3 NetzDG). Eine vorsätzliche oder fahrlässige Missachtung wird als Ordnungswidrigkeit geahndet, die empfindliche Bußgeldzahlungen zur Folge haben kann (§ 4 NetzDG). Gegenüber dem NetzDG gibt es eine Fülle an Kritik, da befürchtet wird, dass durch mögliches Overblocking47 und sogenannte „Chilling Effects“ die Meinungsfreiheit über Gebühr eingeschränkt werden könnte.48 3.5. Rundfunkrecht Eine am Wettbewerbsrecht orientierte Regulierung erfahren Anbieter von Plattformen i.S.v. § 2 Abs. 2 Nr. 13 Rundfunkstaatsvertrag (RStV)49, die Rundfunk und vergleichbare Telemedien verbreiten durch § 52c Abs. 1 RStV. Dieser enge Plattformbegriff im derzeitigen RStV entspricht jedoch nicht der umgangssprachlichen Bedeutung von Plattform, so dass Online-Intermediäre in der Regel nicht davon erfasst werden. Sie unterliegen somit einer Plattformregulierung nach RStV derzeit nicht.50 3.6. Zwischenergebnis Insgesamt zeigt sich, dass im Hinblick auf die Sicherung der Meinungspluralität de lege lata nur eine äußerst lückenhafte Regulierung von Informationsintermediären möglich ist, obwohl von ihnen durchaus Gefahren für die freie öffentliche Meinungsbildung zu erkennen sind. Die bisherige rechtliche Medienordnung orientiert sich noch zu stark an den „klassischen“ Medien, so dass Intermediäre größtenteils nicht erfasst werden.51 47 Vertiefend zum Thema Overblocking: Holznagel, „Overblocking durch User Generated Content (UCG) – Plattformen : Anspruch der Nutzer auf Wiederherstellung oder Schadensersatz?“, CR 2018, 369. 48 Siehe zur Kritik beispielhaft: Paal, „Meinungsbildung im digitalen Zeitalter“, JZ 2017, 641 (650 f.); und Lang „Netzwerkdurchsuchungsgesetz und Meinungsfreiheit“, AöR 143 (2018), 220. 49 Staatsvertrag für Rundfunk und Telemedien (Rundfunkstaatsvertrag - RStV) vom 31. August 1991 in der Fassung des Einundzwanzigsten Staatsvertrages zur Änderung rundfunkrechtlicher Staatsverträge (Einundzwanzigster Rundfunkänderungsstaatsvertrag) in Kraft seit 25. Mai 2018. Abrufbar unter https://www.die-medienanstalten .de/fileadmin/user_upload/Rechtsgrundlagen/Gesetze_Staatsvertraege/Rundfunkstaatsvertrag_RStV.pdf (letzter Zugriff 28. August 2018). 50 Schulz/Dankert, „Die Macht der Informationsintermediäre“, S. 18; Paal, „Intermediäre: Regulierung und Vielfaltssicherung “, S. 17. 51 Dörr /Natt, „Suchmaschinen und Meinungsvielfalt“, ZUM 2014, 829 (844). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 13 4. Möglichkeiten der Regulierung 4.1. Ansätze in der wissenschaftlichen Diskussion In der wissenschaftlichen Diskussion beschäftigen sich mehrere Autoren mit dem Bedarf an Regulierung von Intermediären in Bezug auf die Sicherung der Meinungspluralität und wie eine solche Regulierung aussehen könnte. Einigkeit besteht darin, dass Instrumente der Regulierung aus oben genannten Gründen nicht im Kartell- oder Wettbewerbs- sondern primär im Medienrecht und speziell im Rundfunkstaatsvertrag auf Länderebene anknüpfen müssen52, so vor allem Wolfgang Schulz und Boris Paal, die im Auftrag der Bund-Länder-Kommission für Medienkonvergenz Gutachten angefertigt haben.53 In eine ähnliche Richtung geht auch der Vorschlag von Johannes Kreile54, der zwar seine Ausführungen auf die Regulierung von Suchmaschinen beschränkt , dessen Ideen aber auch für Informationsintermediäre insgesamt Relevanz zukommt. Da, wie bereits gezeigt wurde55, den Intermediären die Funktion von (wenn auch nicht im technischen sondern im Wahrnehmungssinn zu verstehenden) Gatekeepern zukommt, bauen die Regulierungsvorschläge teilweise auf Ideen der Plattformregulierung auf, die die Diskriminierungsfreiheit in den Vordergrund stellt. 4.1.1. Must-Carry-Ansatz Daraus folgt zum einen ein von Schulz/Dankert vorgeschlagener Must-Carry-Ansatz für App-Portale wie App-Stores auf Smartphones, Computern oder anderen Geräten für Inhalte oder Software , die publizistische Inhalte haben. Das heißt, dass z.B. Nachrichten-Apps von den Betreibern der App-Portale ähnlich wie Rundfunkangebote von Plattformbetreibern im Sinne des RStV verpflichtend in ihr Angebot aufgenommen werden müssen, wenn sie nicht gegen gesetzliche Verbote (oder technische Vorgaben) verstoßen.56 4.1.2. Diskriminierungsfreiheit Algorithmen Zum anderen und vor allem wird aber auf die Diskriminierungsfreiheit der Algorithmen abgezielt , die vor allem durch die Elemente der Neutralität und der Transparenz sichergestellt werden soll. 52 Schulz, „Kontrolle vorherrschender Meinungsmacht“, AfP 2017, 373 (378); Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, S. 41. 53 Schulz/Dankert, „Die Macht der Informationsintermediäre“; Paal, „Intermediäre: Regulierung und Vielfaltssicherung “ (siehe Fn. 5 und 6). 54 Kreile, „Vorschläge zur Vielfaltssicherung bei Suchmaschinen im Rundfunkstaatsvertrag“, ZUM 2017, 268; so schon Dörr /Natt, „Suchmaschinen und Meinungsvielfalt“, ZUM 2014, 829 (845). 55 S.o. unter 2.2., Seite 5. 56 Schulz/Dankert, „Die Macht der Informationsintermediäre“, S. 77. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 14 4.1.2.1. Neutralität Wie bereits dargelegt wurde, ist eine vollständige Diskriminierungsfreiheit bei der Verwendung von Algorithmen nicht möglich, da die automatische Auswahl und Sortierung von Inhalten schon denklogisch eine Ungleichbehandlung erfordert.57 Daher ist die Neutralität hier vor allem auf die Kriterien zu beziehen, anhand derer diese Prozesse erfolgen. Es muss sichergestellt werden , dass es zu keiner Diskriminierung oder Bevorzugung etwaiger Inhalte anhand von meinungsbildenden Kriterien wie etwa politischer, weltanschaulicher, religiöser oder ethnischer Ausrichtung erfolgt. Eine Nichtlistung oder Auslistung von Inhalten darf nicht ohne sachlichen Grund erfolgen, welcher insbesondere bei gesetzlichen oder behördlichen Anordnungen vorliegen kann oder um einen störungsfreien technischen Betrieb zu gewährleisten. Da es weder zweckführend noch möglich wäre die Kriterien in ihrer Gesamtheit vorzuschreiben, muss dabei aber eher an Maximen der Programmierung gedacht werden.58 Neutralitätsmaximen bzw. eine gewisse „Algorithmen-Ethik“59 könnten mittels einer Selbstverpflichtung der Anbieter manifestiert werden. 4.1.2.2. Transparenz Ebenfalls wurde bereits dargelegt, weshalb eine vollständige Offenlegung der Programmcodes oder aller Kriterien der Algorithmen aus praktischen, wirtschaftlichen und rechtlichen Gründen nicht angezeigt ist.60 Dies würde die Grundrechte der Anbieter, ihre wirtschaftliche Grundlage und die Innovationsfähigkeit der gesamten Digitalwirtschaft torpedieren. Auch würde das Ziel der Meinungsvielfalt durch sich eröffnende Möglichkeiten des Missbrauchs und der externen Manipulation sogar eher gefährdet. Es wird daher von Schulz und Dankert vorgeschlagen, den Intermediären besondere Informations- bzw. Deklarationspflichten aufzuerlegen. Dazu soll zum einen die Anzeige von Erklärungen gehören, dass die Ergebnisanzeige infolge von Algorithmen erfolgt und dass die Algorithmen anhand von neutralen Maximen arbeiten. Etwaige Änderungen der Maximen in der Selbstverpflichtung müssten ebenfalls verpflichtend deklariert werden.61 Weiter wird ein Beschwerdesystem für Nutzer oder Inhalteanbieter diskutiert. Mittels diesem könnte bei Medienintermediären, bei denen eine gewisse Meinungsmacht vermutet werden kann, bei einem begründeten „Anfangsverdacht“ einer Diskriminierung eine Erklärung eingefordert werden. Einer befürchteten Überschwemmung mit unsubstantiierten Anfragen könnte durch ein mehrstufiges automatisches Verfahren begegnet werden. Nur wenn durch mehrere Stufen mittels 57 S.o. unter 2.2., Seite 6. 58 Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, S. 32.; ebenso: Schulz/Dankert „Die Macht der Informationsintermediäre “, S. 74. 59 Paal/Hennemann, „Meinungsbildung im digitalen Zeitalter“, JZ 2017, 652. 60 S.o. unter 2.2. Seite 6. 61 Schulz/Dankert, „Die Macht der Informationsintermediäre“, S. 74; auch: Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, S. 33 f. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 15 generellen Informationen zur Entstehung der Sortierung typische Missverständnisse nicht aufgeklärt werden können und der Verdacht weiterbesteht, wäre eine individuelle Überprüfung angezeigt .62 4.1.3. Staatliche Regulierung, Selbstregulierung oder Ko-Regulierung? Die Einhaltung dieser Selbstverpflichtungen oder Verhaltenskodizes soll nach Ansicht von Schulz und Dankert von einem konzerninternen Beauftragten beaufsichtigt werden, der Einblick in die Entwicklung und Funktion der Algorithmen hat, ähnlich einem Datenschutzbeauftragen die Interessen der Nutzer vertritt, der betrieblichen Geheimhaltung unterworfen aber gleichzeitig weisungsfrei ist. Gleichzeitig könnte der Beauftragte besondere Kündigungsschutzrechte genießen , um seine Neutralität zu gewährleisten. Weitergehend könnten die Algorithmen in begrenztem Ausmaß regelmäßig von einer externen Stelle im Rahmen eines Monitorings überwacht werden, etwa um etwa herauszufinden, ob ein Algorithmus aktiv verändert oder manuell überschrieben wird.63 Auch Kreile schlägt eine konzerninterne Stelle vor, die die Pluralitätskriterien der Algorithmen überwachen soll und der Verschwiegenheit nach außen verpflichtet ist. Er favorisiert ein binnenplural aus Mitgliedern gesellschaftlich relevanter Gruppen zusammengesetztes Gremium in Form eines „Vielfaltsrates“64 mit einem Umfang von 10-15 vom Suchmaschinenbetreiber ausgewählten Personen (wohl ähnlich der Rundfunk- oder Fernsehräte im öffentlich-rechtlichen Rundfunk) und zusätzlich die Schaffung einer aus Sachverständigen zusammengesetzten „Kommission zur Vielfaltssicherung im Bereich Suchmaschinen“ (KVS) als externe Stelle, die als weitere Kontrollinstanz angehängt an die Landesmedienanstalten65 die Meinungsvielfalt und Marktkonzentration von Suchmaschinen mit einem Marktanteil von über 75% aller inländischen Suchanfragen überwachen und wenn nötig Maßnahmen (u.a. Bußgelder) ergreifen soll. Die Schwelle von 75% bedeutet , dass in absehbarer Zeit ausschließlich Google (Marktanteil in Deutschland: Desktop Suche ca. 88 %, Mobil ca. 98,5%)66 betroffen sein würde. 62 Schulz/Dankert, „Die Macht der Informationsintermediäre“, S. 78. 63 Ebenda, S. 76. 64 Kreile, „Vorschläge zur Vielfaltssicherung bei Suchmaschinen im Rundfunkstaatsvertrag“, ZUM 2017, 268; ebenso Dörr /Natt, „Suchmaschinen und Meinungsvielfalt“, ZUM 2014, 829 (846). 65 Ebenda; ähnlich: Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, S. 34. 66 Quelle: https://de.statista.com/statistik/daten/studie/301012/umfrage/marktanteile-der-suchmaschinen-undmarktanteile -mobile-suche/, Stand Juli 2018 (letzter Zugriff am 24. August 2018). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 16 4.2. Entwurf zum Medienstaatsvertrag der Bund-Länder-Kommission zur Medienkonvergenz Der im Juli dieses Jahres von der „Bund-Länder-Kommission zur Medienkonvergenz“ vorgestellte Diskussionsentwurf67 einer Neufassung des Rundfunkstaatsvertrages unter der Bezeichnung „Medienstaatsvertrag “ bringt einige Neuerungen in den Bereichen Rundfunk- und Plattformregulierung 68 und beinhaltet nun erstmals Regelungen zur Regulierung von Intermediären. Er beruht dabei zum Teil auf den Erwägungen von Paal sowie Schulz und Dankert in den von ihnen im Auftrag der Kommission erarbeiteten Rechtsgutachten.69 4.2.1. Erweiterter Anwendungsbereich Der Anwendungsbereich des RStV würde damit explizit gem. § 1 Abs. 7 des Entwurfs Medienintermediäre erfassen, die in § 2 Abs. 2 Nr. 13 b. als „jedes Telemedium, das auch journalistischredaktionelle Angebote Dritter aggregiert, selektiert und allgemein zugänglich präsentiert, ohne diese zu einem Gesamtangebot zusammenzufassen“ legaldefiniert werden. Als Medienintermediäre seien u.a. Suchmaschinen, soziale Netzwerke, App-Portale, User-Generated-Content-Portale, Blogging-Portale oder News-Aggregatoren anzusehen, wobei diese beispielhafte Aufzählung bewusst nicht abschließend formuliert ist, um zukünftige Entwicklungen mit zu erfassen. In § 53 c RStV-E wird zunächst der Anwendungsbereich dieser Regelungen definiert: Sie sollen gelten für Medienintermediäre i.S.v. § 2 Nr. 13 b. RStV-E und zwar auch dann, wenn sie in Angebote Dritter eingebunden sind. Nicht gelten sollen sie hingegen für Medienintermediäre, die weniger als eine Million monatliche Nutzer im Bundesgebiet erreichen, die auf Inhalte mit Bezug zu Waren oder Dienstleistungen spezialisiert sind (womit Verkaufsplattformen wie eBay, Preissuchmaschinen oder Dienstleistungsplattformen wie Uber oder AirBnB gemeint sein dürften) oder die ausschließlich privaten oder familiären Zwecken dienen. Es würden also nur Intermediäre erfasst, die für die Meinungsbildung eine gewisse Relevanz haben . Durch die Schwelle von einer Million Nutzern monatlich werden kleinere Anbieter nicht von der Regulierung erfasst. Dadurch wird auf der einen Seite der Regulierungsaufwand insgesamt erheblich reduziert, auf der anderen Seite gewährleistet diese Regelung, dass sich kleinere Unternehmen oder Start-Ups ungestört bis zu einer gewissen Größe bzw. Meinungsmacht entwickeln können, was den Wettbewerb und die Innovationskraft in der Digitalbranche sichern würde. Weiter schreibt § 53c RStV-E vor, dass Anbieter von Medienintermediären einen Zustellungsbevollmächtigten im Inland zu ernennen haben und auf diesen in ihrem Angebot aufmerksam zu 67 Abrufbar unter https://www.rlp.de/fileadmin/rlp-stk/pdf-Dateien/Medienpolitik/Medienstaatsvertrag_Online _JulAug2018.pdf (letzter Zugriff am 24.08.2018). 68 Unter anderem erhöhte Technologieneutralität des Rundfunkbegriffs und die Einführung des Kriteriums „journalistisch -redaktionelles Angebot“, wobei dieser nicht im Sinne von „Nachrichten“ sondern u.a. „professionellem Selektionsprozess, Agendasetting, hoher Grad an Organisation und Institutionalisierung, Aktualität usw.“ zu verstehen ist. Zur Erläuterung des Begriffs und der sich dahinter verbergenden Überlegungen siehe grundlegend : Kluth/Schulz, „Konvergenz und regulatorische Folgen“ S. 82 f. 69 Paal, „Intermediäre: Regulierung und Vielfaltssicherung“, Schulz/Dankert „Die Macht der Informationsintermediäre “. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 17 machen, so dass auch bei internationalen Unternehmen gewährleistet ist, dass diese für die Regulierungsbehörden greifbar sind. 4.2.2. Zuständige Stelle In § 36 Abs. 2 Nr. 6a. RStV-E wird die ZAK, also die gemeinsame Kommission für Zulassung und Aufsicht der Medienanstalten, für die Aufsicht über Medienintermediäre nach den §§ 53 d und e RStV-E für zuständig erklärt, die neu in den RStV-Entwurf eingefügt wurden und Regelungen über Transparenz und Diskriminierungsfreiheit enthalten. Die Medienanstalten und die aus deren Vertretern zusammengesetzte ZAK sind schon jetzt für die Vielfaltssicherung im privaten Rundfunk sowie die Plattformregulierung zuständig und haben auf dem Gebiet eine große Expertise, so dass es nicht abwegig ist, auch die Aufsicht über Intermediäre in ihre Zuständigkeit zu übergeben. Wie hoch der zusätzliche (Personal-)Aufwand zur Bewältigung dieser Aufgabe sein und ob diese eine Erhöhung der Mittel notwendig machen würde, kann von hiesiger Stelle nicht eingeschätzt werden. Es erscheint aber als wahrscheinlich, dass die für die Aufsicht der Intermediäre und insbesondere deren Algorithmen notwendige Expertise in Bereich Informatik, Software und Programmierung erst noch geschaffen werden müsste. 4.2.3. Transparenz In § 53 d des RStV-E werden den Anbietern von Medienintermediären verschiedene Transparenzgebote auferlegt. So sollen sie Informationen über die Kriterien, die über den Zugang und Verbleib von Inhalten entscheiden, die zentralen Maximen und ihrer Gewichtung bei der Auswahl einschließlich Informationen über die Funktionsweise der verwendeten Algorithmen in verständlicher Sprache sowie über Änderung dieser Kriterien leicht erkennbar, unmittelbar erreichbar und ständig verfügbar halten. Ebenso soll über eine thematische Spezialisierung des Medienintermediärs informiert werden. Damit müsste nicht der vollständige Algorithmus offengelegt werden, der wie bereits dargelegt als Geschäftsgeheimnis der Anbieter rechtlich geschützt ist, wohl aber dessen grundlegenden Kriterien . Damit soll bei den Benutzern zunächst das grundsätzliche Bewusstsein dafür erzeugt werden , dass das, was sie sehen, von einem Algorithmus ausgewählt wurde. Im nächsten Schritt soll dann anhand der Offenlegung von den grundlegenden Maximen der Auswahl eine bessere inhaltliche Einordnung der Anzeigeergebnisse ermöglicht werden. Ebenfalls findet sich der Vorschlag im Entwurf, dass gem. § 53 d Abs. 4 RStV-E Anbieter von sozialen Netzwerken dafür Sorge zu tragen haben, dass Telemedien, die mittels Computerprogrammen automatisiert Inhalte oder Mitteilungen erstellen und das dafür verwendete Nutzerkonto den Anschein erweckt, dass es für eine natürliche Person erstellt wurde, kenntlich gemacht werden sollen. Dazu soll auch zählen, wenn ein automatisierter Versand von vorgefertigten Mitteilungen oder Inhalten erfolgt (§ 55 Abs. 3 RStV-E). Gemeint dürfte damit sein, dass Beiträge in sozialen Netzwerken, die von sogenannten Social Bots massenhaft verbreitet werden und die oft gezielt zur Manipulation von Meinungen (oder gar Wahlen) eingesetzt werden, von den Anbietern gekennzeichnet werden müssen, was indirekt Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 18 auch eine Verpflichtung beinhaltet („dafür Sorge zu tragen“), dass die Anbieter Maßnahmen treffen müssen, die es ihnen ermöglichen, solche Inhalte und auch die verwendeten Profile (u.U. automatisiert ) zu identifizieren.70 4.2.4. Diskriminierungsfreiheit § 53 e des Entwurfs zum RStV enthält Regelungen zur Diskriminierungsfreiheit. Demnach dürfen Anbieter von Medienintermediären journalistisch-redaktionell gestaltete Angebote, auf deren Wahrnehmbarkeit sie besonders hohen Einfluss haben, weder mittelbar noch unmittelbar unbillig behindern oder ohne sachlichen Grund unterschiedlich behandeln. Dies soll insbesondere dann gelten, wenn von den allgemeinen Regeln der Aggregation, Selektion und Präsentation des Dienstes bewusst und zielgerichtet abgewichen wird. Dieser Anspruch auf Diskriminierungsfreiheit soll bei der zuständigen Landesmedienanstalt jedoch nur von dem betroffenen Anbieter der Inhalte selbst geltend gemacht werden können. In Abweichung zu den Überlegungen von vor allem Schulz und Paal71 beschränkt sich der Entwurf also zur Verhinderung von Diskriminierungen also nicht auf eine Festlegung von gewissen Neutralitätskriterien sondern setzt an einer „unbilligen Behinderung“ oder „Ungleichbehandlung ohne sachlichen Grund“ an. Es erscheint jedoch zumindest fraglich, ob diese Begriffe als hinreichend bestimmt im juristischen Sinne angesehen werden können und wo die Schwelle zwischen zulässiger und unzulässiger Ungleichbehandlung oder Behinderung liegen soll, so dass dieser Ansatz nach hiesiger Ansicht eine gewisse Gefahr der Rechtsunsicherheit für Intermediäre, Inhalteanbieter , Nutzer und die Aufsichtsbehörden in sich birgt. 70 Mittlerweile gehen offenbar Anbieter von Intermediären zunehmend eigenständig gegen Bot- und Fake-Accounts vor, die vermeintlich Falschmeldungen zu Zwecken der Meinungsmanipulation verbreiten. So haben laut Medienberichten Facebook, Twitter und Google kürzlich hunderte Accounts identifiziert und gesperrt und arbeiten mit (vornehmlich US-) Sicherheitsbehörden zusammen. Siehe beispielsweise: https://www.theverge .com/2018/8/21/17766422/facebook-influence-campaign-russia-iran-fake-accounts und https://www.cnet.com/news/google-removed-58-accounts-tied-to-iran-on-youtube-and-other-sites/ (letzter Zugriff am 24. August 2018). Zur Diskussion um Kontensperrungen und Meinungsfreiheit in den USA vgl. z.B. Snider „Why Facebook can stop Infowars and not break the First Amendment: analysis“ in: USA TODAY, 09. August 2018, abrufbar unter https://eu.usatoday.com/story/tect/news/2018/08/09/why-facebook-can-censor-infowars-and-not-break-firstamendment /922636002 ; und Abbruzzese, „Trump echoes conservative claims that social media companies censor conservatives” auf nbcnews.com vom 18. August 2018, abrufbar unter https://www.nbcnews.com/tech/technews /trump-echoes-conservative-claims-social-media-companies-censor-conservatives-n901876 (letzter Zugriff am 28. August 2018). Rechtliche Schritte gegen Facebook wegen derartiger Kontensperrungen und insbesondere diskriminierender Geschäftspolitik sieht offenbar die „Trump-Administration“ vor. Vgl. Dinan, „Trump admin files formal complaint against Facebook for 'discriminatory' policy“, in: The Washington Times, 17.08.2018, https://m.washingtontimes.com/news/2018/aug/17/feds-accuse-facebook-discrimination-over-ad-target/ (letzter Zugriff am 29. August 2018). 71 S.o. unter 4.1.2.1., S. 13. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 062/18 Seite 19 5. Einordnung und Fazit Der Entwurf der Bund-Länder-Kommission stellt den erstmaligen Versuch dar, Medienintermediäre in Bezug auf die Meinungsvielfalt in das medienrechtliche Regulierungsregime mit einzubeziehen . Er folgt dabei im Wesentlichen den Vorschlägen aus der medienrechtswissenschaftlichen Diskussion. Es ist aber zu beachten, dass es sich hierbei lediglich um einen ersten Diskussionsentwurf handelt . Ob, wann, inwieweit und in welcher Form die im Entwurf vorgesehenen Regelungen tatsächlich in eine zukünftige Änderung des RStV einfließen, kann nicht eingeschätzt werden. Es sind sowohl aus Wissenschaft, aus der Politik, von den betroffenen Unternehmen, Branchenverbänden und der sogenannten Netzgemeinde weitere Diskussionsbeiträge dazu zu erwarten. Die Bund-Länder-Kommission hat zudem auf der Website des Bundeslandes Rheinland-Pfalz ein an alle Bürger und Medienschaffenden gerichtetes Beteiligungsportal72 eingerichtet, auf dem noch bis zum 30. September 2018 Stellungnahmen zum Entwurf eingereicht werden können. Die ursprüngliche Frist bis zum 26. August 2018 wurde verlängert. In der ersten Woche seien bereits mehr als 300 Eingaben im Portal eingegangen, so dass zu erwarten ist, dass noch eine Vielzahl von Ideen, Stellungnahmen und Kritik zum derzeitigen Entwurf und zur Regulierung von Intermediären in die aktuelle Diskussion einfließen werden, die in diesem Gutachten nicht berücksichtigt werden können. **** 72 Abrufbar unter https://www.rlp.de/index.php?id=27687 (letzter Zugriff am 24. August 2018).