© 2017 Deutscher Bundestag WD 10 - 3000 - 048/17 Algorithmen im Medienbereich – Gesetzlicher Regelungsbedarf Ausarbeitung Wissenschaftliche Dienste Die Wissenschaftlichen Dienste des Deutschen Bundestages unterstützen die Mitglieder des Deutschen Bundestages bei ihrer mandatsbezogenen Tätigkeit. Ihre Arbeiten geben nicht die Auffassung des Deutschen Bundestages, eines seiner Organe oder der Bundestagsverwaltung wieder. Vielmehr liegen sie in der fachlichen Verantwortung der Verfasserinnen und Verfasser sowie der Fachbereichsleitung. Arbeiten der Wissenschaftlichen Dienste geben nur den zum Zeitpunkt der Erstellung des Textes aktuellen Stand wieder und stellen eine individuelle Auftragsarbeit für einen Abgeordneten des Bundestages dar. Die Arbeiten können der Geheimschutzordnung des Bundestages unterliegende, geschützte oder andere nicht zur Veröffentlichung geeignete Informationen enthalten. Eine beabsichtigte Weitergabe oder Veröffentlichung ist vorab dem jeweiligen Fachbereich anzuzeigen und nur mit Angabe der Quelle zulässig. Der Fachbereich berät über die dabei zu berücksichtigenden Fragen. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 2 Regulierung von Algorithmen Aktenzeichen: WD 10 - 3000 - 048/17 Abschluss der Arbeit: Datum: 22. September 2017 Fachbereich: WD 10: Kultur, Medien und Sport Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 3 Inhaltsverzeichnis Einleitung 4 Interessenlage der Marktteilnehmer 5 2.1. Suchmaschinenneutralität und Transparenz 5 2.2. Schutz des geistigen Eigentums 6 Rechtslage in Deutschland 7 3.1. Telemedienrechtliche Regularien 7 3.2. Regulierungen im Rundfunkstaatsvertrag (RStV) 8 3.3. Kartellrechtliche Regulierungen 9 Regelungsansätze 10 4.1. Suchmaschinenneutralität durch wettbewerbsrechtsähnliche Regulierung 10 4.2. Transparenz durch Offenlegung und Trennung 11 4.3. Vertrauen der Nutzer durch „Algorithmen-TÜV“ 12 4.4. Nutzerautonomie durch Eingriffsmöglichkeiten der Konsumenten 14 4.5. Regulierung durch Beschränkung des Anwendungsbereiches 14 Internationale Perspektive 15 Fazit 16 Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 4 Einleitung Der Algorithmus ist kein originäres Phänomen der digitalen Welt. Allerdings rückt seine Verwendung im Kontext digitaler Medien immer mehr in den Fokus der Fach- und Massenmedien1. Dabei geht es weniger um die Verwendung eines Algorithmus durch Diensteanbieter als um dessen inhaltliche Ausgestaltung. Welche Faktoren beeinflussen bzw. dürfen das Ergebnis einer Suchanfrage bei Google2 beeinflussen? Wirken sich Falschmeldungen, Hasskommentare oder „Filterblasen “3 auf demokratische Entscheidungen aus? Hat der Nutzer einen Anspruch darauf zu erfahren, nach welchen Kriterien seine personalisierten „Newsfeed“4 und Werbeanzeigen ausgewählt werden ? Besteht seitens der Diensteanbieter ein Recht zur Geheimhaltung der Algorithmen-Codes? Obgleich sich Algorithmen einer universalen Verwendung erfreuen, soll in dieser Arbeit besonderes Augenmerk auf Suchalgorithmen bspw. von Google und Newsfeed-Algorithmen von sozialen Netzwerken wie Facebook5 oder LinkedIn6 gelegt werden. Dies lässt sich mit der herausragenden Relevanz derartiger Plattformen begründen: Suchmaschinen stellen für den Internetnutzer die zentralen Zugangs-Vermittler von Web-Inhalten dar7, während der Newsfeed sozialer Netzwerke für viele Nutzer eine der wichtigsten Quellen zur kulturellen und politischen Meinungsbildung sind. Das Beeinflussungs- und Missbrauchspotential ist bei den dort verwendeten Algorithmen dementsprechend am größten, woraus sich auch das große Transparenzsinteresse der Internetnutzer in diesem Bereich ergibt. Diese Arbeit beschäftigt sich in diesem Zusammenhang mit der Frage nach dem Status quo der Regulierung bzw. der Notwendigkeit einer weiteren Regulierung derartiger Algorithmen in digitalen Medien. 1 Siehe bspw. Hiller, Wie man ein Imperium der Algorithmen beherrscht: Soziale Netze hinter Facebook, https://netzpolitik.org/2017/wie-man-ein-imperium-der-algorithmen-beherrscht/, (letzter Zugriff am 14. September 2017); Der programmierte Stumpfsinn der Algorithmen, https://www.l-iz.de/bildung/medien /2017/09/Der-programmierte-Stumpfsinn-der-Algorithmen-191150, (letzter Zugriff am 14. September 2017). 2 Internetsuchmaschine mit einem Marktanteil von knapp 90 Prozent, http://www.faz.net/aktuell/wirtschaft/grafik -des-tages-die-deutschen-lieben-google-14999842.html, (letzter Zugriff am 14. September 2017). 3 Sog. „Hallräume“ insbesondere in sozialen Medien, in denen der Nutzer durch die Personalisierung von Nachrichten und Meldungen nur noch sich wechselseitig bestätigende Meinungen antrifft, die seinen bereits vorhandenen Präferenzen entsprechen, Holzer, Gefangen in der Filterblase, http://www.faz.net/aktuell/wissen/insnetz -gegangen/internetnutzer-befinden-sich-in-einer-filterblase-14503725.html, (letzter Zugriff am 14. September 2017). 4 Durch einen Algorithmus des jeweiligen sozialen Netzwerks gesteuerter Nachrichtendienst in sozialen Netzwerken , der neben Status-Updates und Aktivitäten der eigenen Kontakte, abonnierten Seiten und gelikten Beiträgen auch Nachrichten und gesponserte Inhalte darstellt, https://www.xovi.de/wiki/Newsfeed , (letzter Zugriff am 14. September 2017). 5 Weltweit größtes soziales Netzwerk mit mehr als zwei Milliarden aktiven Nutzern, https://allfacebook .de/toll/state-of-facebook, (letzter Zugriff am 14. September 2017). 6 Weltweit größtes berufliches Netzwerk mit mehr als 500 Millionen aktiven Nutzern, https://www.adzine.de/2017/04/mitgliederzahl-linkedin-macht-die-500-millionen-voll/, (letzter Zugriff am 14. September 2017). 7 Paal/Hennemann, ZRP 2017, 76. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 5 Interessenlage der Marktteilnehmer Um die etwaig vorhandene Regulierungsnotwendigkeit von Algorithmen verstehen und bewerten zu können, muss sich zunächst die Interessenlage der Beteiligten – Medienkonsument und Dienstleister – vor Augen gehalten werden. Dabei wird in erster Linie und ohne tieferen Einblick in die Materie deutlich, dass die Interessen der Parteien gegenläufig sind: Dem Informationsinteresse des Nutzers steht das Geheimhaltungsinteresse des Algorithmennutzers gegenüber. Dabei kann aufgrund des Wissens- und Machtungleichgewichts zwischen Nutzer und Diensteanbieter nicht ohne weiteres darauf vertraut werden, dass sich das Ziel der Transparenz und Nutzerautonomie allein aufgrund der Kräfte des Marktes erreichen lässt. 2.1. Suchmaschinenneutralität und Transparenz Im Rahmen der Meinungsbildung nutzen viele Medienkonsumenten Internet-Suchmaschinen wie beispielsweise Google, um sich die relevanten Informationen oder das Meinungsbild zu einer bestimmten Frage darstellen zu lassen. Deren Einsatz ermöglicht den Nutzern einen gegenüber vordigitalen Medien erheblich leichteren und schnelleren Zugriff auf die gewünschten Informationen 8. Gleichzeitig setzen sich Medienkonsumenten dadurch der von Suchmaschinen eingesetzten Algorithmen aus – oft mit der Folge, dass Netzinhalte, die nicht oder nicht auf den ersten zehn Seiten im Suchergebnis angezeigt werden, für die breite Masse nicht existieren9. Die Nutzer sind folglich daran interessiert, ein möglichst ungefiltertes bzw. ein lediglich durch nutzerdefinierte Kriterien beschränktes Suchergebnis zu erhalten (sog. „Suchmaschinenneutralität“10). Mitunter muss der Nutzer auf diese Neutralität verzichten, um beispielsweise im Rahmen von Produkt- oder Dienstleistungsvergleichen das beste bzw. günstigste Angebot dargestellt zu bekommen . In dieser Situation besteht dann das Bedürfnis, dass die seitens des Anbieters festgelegten Kriterien der algorithmusgesteuerten Such- und Empfehlungsfunktion offengelegt werden11. Nur so ist für den Nutzer erkennbar, welche Leistung von der jeweiligen Online-Plattform erwartet werden kann. Dies gilt nicht nur im Bereich Internetsuchmaschinen, sondern ist auch besonders relevant bei Plattformen, die trotz ihres ursprünglichen Zwecks als soziales Netzwerk vielen 8 Oertel, Welchen Einfluss haben Algorithmen auf die Meinungsbildung?, TAB Brief Nr. 48, S. 13. 9 Stark, Für mich ist Google das Internet, http://www.medienpolitik.net/2014/02/medienkonvergenz-fur-mich-istgoogle -eigentlich-das-internet/, (letzter Aufruf am 04. September 2017). 10 Hentsch, Suchmaschinenneutralität! – Aber wie? - Untersuchung verschiedener Lösungsansätze, MMR 2015, 434; zur Kritik zur Begrifflichkeit siehe Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 197 f. 11 Positionspapier der Bundesrepublik Deutschland zum Regelungsumfeld für Plattformen, Online-Vermittler, Daten , Cloud-Computing und die partizipative Wirtschaft vom 22.4.2016, S. 5, https://www.bundesregierung .de/Content/DE/_Anlagen/BKM/2016/2016-04-22-positionspapier-plattformregulierung.pdf?__blob=publication File&v=2, (letzter Zugriff am 04. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 6 Nutzern mittlerweile als Nachrichtendienst dienen. Fehlende Transparenz hat in dieser Konstellation zur Folge, dass die Informationsbeschaffung und damit die Meinungsbildung durch nicht klar erkennbare algorithmische Mechanismen beeinfluss- und sogar manipulierbar werden12. 2.2. Schutz des geistigen Eigentums Bei der Forderung der Offenlegung des Algorithmus-Quellcodes darf trotz der schützenswerten Interessen der Nutzer nicht aus den Augen verloren werden, dass sich hinter dem Algorithmus das Geschäftsmodell vieler Anbieter, insbesondere der Suchmaschinen, verbirgt13. Schwer wiegt dabei auch der Umstand, dass Algorithmen als solche in der Regel nicht Inhalt eines Leistungsschutzrechts sein können14. Daraus darf im Umkehrschluss keinesfalls geschlussfolgert werden, dass Regularien im Zusammenhang mit Algorithmen uneingeschränkt möglich sein sollen. Eine vollumfängliche Offenlegungspflicht würde einem empfindlichen und tiefgreifenden Eingriff in Berufsfreiheit und die Eigentumsgarantie der Anbieter bedeuten, die wohl kaum zu rechtfertigen wäre15. Neben der Gefährdung der Geschäftsmodelle sog. Intermediäre16, die wohl unverzichtbare Leistungen für die Nutzung des Internets erbringen, ist zu erwarten, dass die Entschlüsselung des Algorithmus zur Folge haben kann, dass Inhalte und Ergebnislisten von Drittanbieter manipuliert werden17. Das Ziel, mehr Transparenz bei der Nutzung von Algorithmen zu erreichen, würde somit unterlaufen werden. Dementsprechend ist aus grundrechtlichen und Zweckmäßigkeitserwägungen eine Lösung zu finden, die zum einen den Wert des Algorithmus für das Geschäft der Diensteanbieter berücksichtigt und zum anderen die Gefahr einer Manipulation durch Drittanbieter minimiert. 12 Oertel, Welchen Einfluss haben Algorithmen auf die Meinungsbildung?, TAB Brief Nr. 48, S. 13. 13 Leuthesser-Schnarrenberger, Verantwortung der Internet-Giganten – Algorithmen und Selbstbestimmung, in: Stiftung Datenschutz, Zukunft der informationellen Selbstbestimmung, S. 73f. 14 Sonnenberg, Schützbarkeit von Algorithmen, S. 15 ff., https://www.wi1.uni-muenster.de/pi/lehre/ws0304/Seminar /01_SchutzVonAlgorithmen.pdf, (letzter Zugriff am 14. September 2017; zur Ablehnung der erforderlichen Gestaltungshöhe bei Computerprogrammen siehe bspw. BGH, Urteil vom 09.05.1985 - I ZR 52/83. 15 Kluth/Schulz, Konvergenz und regulatorische Folgen. Gutachten im Auftrag der Rundfunkkommission der Länder , S.105, https://www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media /d74b139d80000c12483526a23a55bf89f9d971c6.pdf, (letzter Zugriff am 4. September 2017). 16 Intermediäre sind solche Formate, die verschiedene „Kanäle“ bündeln, ohne dabei auf bestimmte Inhalte oder Präsentationsformen festgelegt zu sein und ohne eigenes Wissen zu generieren - sie stellen aber die Voraussetzungen zur Verfügung, dass andere dieses verbreiten bzw. auffinden können, Schmidt, Soziale Medien als Intermediäre in der Wissenschaftskommunikation, S. 30, http://www.schmidtmitdete.de/pdf/Expertise_Schmidt_Soziale _Medien_Wissenschaftskommunikation_Entwurf.pdf, (letzter Zugriff am 14. September 2017). 17 Kluth/Schulz, Konvergenz und regulatorische Folgen. Gutachten im Auftrag der Rundfunkkommission der Länder , S.105, https://www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media /d74b139d80000c12483526a23a55bf89f9d971c6.pdf, (letzter Zugriff am 4. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 7 Rechtslage in Deutschland Bevor auf die Regelungsansätze in Politik und Wissenschaft eingegangen werden soll, wird im Folgenden auf die derzeit bestehende Rechtslage und deren Regulierungswirkung auf Algorithmen und die sie verwendenden Anbieter eingegangen. 3.1. Telemedienrechtliche Regularien Nach dem Telemediengesetz (TMG) sind Telemedien18 – darunter unter anderem die Suchmaschinen 19 – verpflichtet, kommerzielle Kommunikationen als solche erkennbar zu machen, sodass Suchergebnisse bei der Darstellung für den Nutzer klar von geschalteten Anzeigen zu trennen sind20. Dies sorgt für Transparenz in dem Sinne, dass für den Medienkonsument grundsätzlich erkennbar ist, welche Ergebnisse nicht aufgrund ihrer hohen Übereinstimmung mit den konkreten Suchkriterien, sondern allein aufgrund werbevertraglicher Pflichten hochrangig gelistet sind (sog. „paid inclusion“21). Allerdings gelten diese Vorgaben nur für Telemedien, sodass durch diese Regelung lediglich selektiv ein gewisses Maß an Transparenz erreicht wird. Weiterhin suggeriert § 6 Abs. 1 Nr. 1, 2 TMG eine unzutreffende Objektivität der nicht als Anzeigen gekennzeichneten Ergebnisse. Insbesondere ist nicht auszuschließen, dass der Suchanbieter durch interne Gestaltungsentscheidungen für eine faktische Besserstellung bestimmter Drittanbieter in dem Ranking der Suchergebnisse sorgt22. Solange keine Vergütung gezahlt wird, führt dies nämlich nicht zwingend zur Klassifizierung der Trefferlinks als kommerzielle Kommunikation23. Vermeintlichen Schutz vor einer auf Grundlage des Internetverhaltens personalisierten Suche und somit einer Beschränkung der Suchmaschinenneutralität gewährt augenscheinlich § 12 Abs. 1, 2 TMG, wonach der Diensteanbieter personenbezogene Daten zur Bereitstellung von Telemedien oder anderen Zwecken nur erheben und verwenden darf, soweit eine Erlaubnisnorm einschlägig ist oder der Nutzer eingewilligt hat. Eine derartige Ermächtigungsgrundlage stellt allerdings § 15 Abs. 1 TMG dar, wonach eine Erhebung und Verwendung von personenbezogenen Da- 18 Elektronische Informations- und Kommunikationsdienste, soweit sie nicht Telekommunikationsdienste nach § 3 Nr. 24 des Telekommunikationsgesetzes, die ganz in der Übertragung von Signalen über Telekommunikationsnetze bestehen, telekommunikationsgestützte Dienste nach § 3 Nr. 25 des Telekommunikationsgesetzes oder Rundfunk nach § 2 des Rundfunkstaatsvertrages sind, § 1 Abs. 1 S. 1 TMG. 19 U.a. Paal, AfP 2011, 521, 529; Danckert/Mayer, MMR 2010, 219, 220. 20 § 6 Abs. 1 Nr. 1, 2 TMG. 21 Paal, AfP 2011, 521, 530 f. 22 Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 150. 23 Micklitz/Schirmbacher, in: Spindler/Schuster Recht der elektronischen Medien, 3. Auflage 2015, TMG § 6 Rn. 39. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 8 ten erfolgen darf, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen . Da allerdings die personalisierte Suche mittlerweile integraler Bestandteil des Angebots der Suchmaschinen ist, ist der Tatbestand der Erlaubnisnorm wohl regelmäßig erfüllt24. Weitergehenden Schutz in Form einer „Opt-out-Option“ gewährt § 15 Abs. 3 TMG, der allerdings voraussetzt , dass der Diensteanbieter Nutzungsprofile bei Verwendung von Pseudonymen erstellt. Eine durch die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen wie bspw. durch Google Analytics soll allerdings nicht den Tatbestand erfüllen25. Eine Erweiterung des Anwendungsbereiches des § 15 Abs. 3 TMG würde zumindest für die Nutzung von Suchmaschinen zur Folge haben, dass der Nutzer seine Einwilligung zur personalisierten Suche widerrufen kann und somit die Möglichkeit der Wiederherstellung der Suchmaschinenneutralität in dessen Händen liegt26. 3.2. Regulierungen im Rundfunkstaatsvertrag (RStV) Eine am Wettbewerbsrecht orientierte Regulierung erfahren Anbieter von Plattformen, die Rundfunk und vergleichbare Telemedien verbreiten (inkl. Suchmaschinen27) durch § 52c Abs. 1 RStV. Dieser verpflichtet Anbieter von Plattformen, die Rundfunk und vergleichbare Telemedien verbreiten , zu gewährleisten, dass die eingesetzte Technik ein vielfältiges Angebot ermöglicht. Eine Ungleichbehandlung auf Grundlage von Algorithmen ist nach dieser Norm nur zulässig, wenn sie dennoch Meinungsvielfalt gewährleistet28. Obgleich die Regulierung insgesamt kaum durchsetzbar erscheint, gewährleistet sie dennoch eine Missbrauchskontrolle, die auf grobe Verzerrungen bei der Vielfalt des Programmangebotes reagiert29. Eine empfindliche Einschränkung wird jedoch durch die Regelung nach § 52 Abs. 1 S. 2 RStV erreicht: Die Verpflichtungen des § 52c RStV gelten nicht für Plattformen in offenen Netzen (wie dem Internet), soweit sie dort über keine marktbeherrschende Stellung verfügen. Mit Ausnahme von z. B. Google wird man eine derartige Stellung nicht ohne weiteres annehmen können, sodass der zahlenmäßige Anwendungsbereich für algorithmenbasierte Plattformen im Internet gering sein dürfte. Gleichwohl wird im konkreten Fall der Suchmaschinen schon mit dem vorgenannten Anbieter ein maßgeblicher Marktanteil erfasst. 24 Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 154. 25 Nink/Spindler, in: Spindler/Schuster Recht der elektronischen Medien, 3. Auflage 2015, TMG § 15 Rn. 11. 26 Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 155. 27 Ebenda, S. 200 f. 28 Gummer, in: Gersdorf/Paal Informations- und Medienrecht, RStV § 52c, Rn. 31. 29 Schulz, in: Hahn/Vesting, Rundfunkrecht, 3. Auflage 2012, RStV § 52c, Rn. 37. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 9 3.3. Kartellrechtliche Regulierungen Im Bereich des Kartellrechts ist eine Regulierung von Algorithmen nur unter engen Voraussetzungen möglich – insbesondere bedarf es einer marktbeherrschenden Stellung und eines Missbrauchs dieser Stellung30. Obgleich diese Regularien im Umgang mit Google31 und Facebook32 durchaus relevant sind, eignet sich das Kartellrecht grundsätzlich nicht, um umfassend das Transparenzdefizit bei der Nutzung von Algorithmen im Internet zu verringern. Interessant ist in diesem Zusammenhang auch die Beantwortung der bisher noch ungeklärten Frage, ob Informationsintermediäre als „Essential Facilities“33 zu verstehen sind34. Obgleich Web- Suchmaschinen grundsätzlich in den Anwendungsbereich fallen35, ist fraglich, ob es anderen Unternehmen aus rechtlichen oder tatsächlichen Gründen ohne die Mitbenutzung von bspw. Google nicht möglich ist, auf dem vor- oder nachgelagerten Markt als Wettbewerber tätig zu werden. Wäre dies der Fall, würden sich daraus weitergehende kartellrechtliche Regulierungen ergeben. 30 § 19 Abs. 1 GWB. 31 Dazu: Weber/Volz, WuW 2015, 356. 32 Dazu: Bischke/Brack, NZG 2016, 502. 33 Diese Rechtsfigur ist aus dem amerikanischen Recht entlehnt und über die Auslegung von Art. 102 AEUV auf Ebene des EU-Kartellrechts und in § 19 Abs. 2 Nr. 4 GWB inkorporiert. Sie setzt neben der marktbeherrschenden Stellung die Weigerung voraus, einem anderen Unternehmen den Zugang zu eigenen Netzen oder Infrastruktureinrichtungen zu gewähren, Schulz/Dankert, Die Macht der Informationsintermediäre: Erscheinungsformen , Strukturen und Regulierungsoptionen, S. 51, http://library.fes.de/pdf-files/akademie/12408.pdf, (letzter Zugriff am 18. September 2017). 34 Zur Diskussion siehe u.a. Paal, GRUR Int. 2015, 997, 1002 f.; Schulz/Dankert, Die Macht der Informationsintermediäre : Erscheinungsformen, Strukturen und Regulierungsoptionen, S. 51, http://library.fes.de/pdf-files/akademie /12408.pdf, (letzter Zugriff am 18. September 2017). 35 Fuchs/Möschel, in: Immenga/Mestmäcker (Hrsg.), Wettbewerbsrecht, 5. Aufl. 2014, Bd. 2, § 19 Rn. 326. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 10 Regelungsansätze Im Anschluss an den Überblick über die derzeitige Rechtslage in Deutschland werden nun im Folgenden eine Reihe von Lösungsvorschlägen aus Wissenschaft und Politik präsentiert. Während eine vollständige Darstellung den Umfang dieser Arbeit sprengen würde, werden jedoch die relevantesten und am intensivsten diskutierten Vorschläge im Folgenden dargestellt. 4.1. Suchmaschinenneutralität durch wettbewerbsrechtsähnliche Regulierung Das Ziel der Suchmaschinenneutralität könnte durch Festschreibung des Grundsatzes der Chancengleichheit aller Anbieter im Suchalgorithmus der Suchmaschinen erreicht werden. Allerdings gehen derartige Ansätze bisher allerdings nicht über die Zielsetzungsebene hinaus, da unter anderem noch ungeklärt ist, welche Suchparameter und Einflussnahmen auf die Suchmaschinenergebnisse grundsätzlich zuzulassen36 sind und wie diese Vorgaben als Gestaltungsparameter formuliert werden sollen37. Nach Ansicht von Hartl muss „eine Balance zwischen der […] Einbindung des Leitbilds der Chancengleichheit und einer rein wettbewerbsrechtlichen Betrachtung“38 gefunden werden. Durch Verzicht auf die Voraussetzung einer marktbeherrschenden Stellung könnte zumindest im Recht der Telemedien eine effektivere Regulierung erreicht werden. Allerdings ist bei diesem regulativen Ansatz problematisch, dass die Vorgabe eines Algorithmus bzw. Teilen davon in den Kern der Gestaltungsfreiheit des Anbieters betreffen und somit, zumindest bei Suchmaschinen, in deren Programmfreiheit eingreifen würde39. Alternativ wird ein einfachgesetzliches Verbot des Missbrauchs der Vermittlungs- und Priorisierungsfunktion diskutiert40. Dies hätte den Vorteil, dass zum einen die schwer umsetzbare Aufgabe der Schaffung eines pluralistischen Algorithmus umgangen werden könnte und zum anderen mangels allgemeiner Offenlegungsverpflichtung der Schutz des geistigen Eigentums der Anbieter gewahrt wird. Gleichzeitig wäre dieser Lösung das Problem der Durchsetzbarkeit eines entsprechenden Verbotes immanent. Hartl sieht eine mögliche Lösung in der Schaffung einer zentralen Anlaufstelle ähnlich der Kommission zur Ermittlung der Konzentration im Medienbereich (KEK)41. 36 Paal, in: BeckOK Informations- und Medienrecht, Gersdorf/Paal, AEUV Artikel 102, Rn. 72. 37 Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 199. 38 Ebenda, S. 205. 39 Ebenda, S. 200. 40 Ebenda, S. 202. 41 Ebenda, S. 204. Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 11 4.2. Transparenz durch Offenlegung und Trennung Weitergehende Transparenz kann hingegen lediglich durch Offenlegung der Kriterien erreicht werden, die für den Algorithmus Einfluss auf die Ergebnisse hat. Sofern beispielsweise das Endgerät , der Ort oder der bisherige Nutzungsverlauf das Suchergebnis beeinflussen, kann der darüber informierte Nutzer entscheiden, ob er diese Kriterien akzeptiert und den Dienst weiter nutzt, bzw. die Suchergebnisse besser einordnet42. Eine Offenlegung des Algorithmus-Quelltextes bzw. seiner Vorgehensweise wäre bei diesem Ansatz allerdings nicht zielführend. Zum einen müssen die Informationen über die Funktionsweise der eingesetzten Algorithmen für den Nutzer verständlich sein. Ohne Aufbereitung des Quelltextes bzw. der Verfahrensweise würde dies für den Nutzer keinen Mehrwert in Sachen Transparenz bedeuten43. Zudem würde die Informationsmenge und Detailtiefe der durchschnittlichen Verbraucher nicht zur Nachvollziehung motivieren . Zum anderen würde eine umfassende Offenlegungspflicht der Wahrung des Geschäftsgeheimnisses der Anbieter und dem Schutz der Online-Plattformen vor Manipulationen durch Dritte nicht gerecht werden44. Vielmehr wird es daher als zielführend erachtet, lediglich die ergebnisrelevanten Kriterien und Maximen offenzulegen, die Programmierer von Algorithmen erhalten und die steuern, was ein Bestandteil eines Algorithmus leisten soll45. Alternativ wird mit Blick auf die eben bereits angeklungene Manipulationsgefahr insbesondere der Suchmaschinen46, die wohl unzweifelhaft bereits bei der Offenlegung der dem Algorithmus zugrunde liegenden Maxime droht, vorgeschlagen, zumindest eine Verpflichtung der Intermediäre zu schaffen, eine etwaig durch politische, religiöse oder weltanschauliche Ziele beeinflusste 42 Überlegungen der Medienanstalt zur Regulierung von Intermediären, AG Intermediäre der Bund-Länder Kommission , S. 4, http://www.die-medienanstalten.de/fileadmin/Download/Positionen/Gemeinsame_Positionen /%C3%9Cberlegungen_DLM_zu_Intermedia%CC%88ren_12042016.pdf, (letzter Zugriff am 31. August 2017). 43 Schulz/Dankert sprechen von einem „Information Overload“, einer Datenmenge, die bei einer Offenlegung auch aufgrund der aufgrund der Komplexität dieser Vorgänge kaum Transparenz erzeugen kann, Schulz/Dankert, Die Macht der Informationsintermediäre: Erscheinungsformen, Strukturen und Regulierungsoptionen, S. 67, http://library.fes.de/pdf-files/akademie/12408.pdf, (letzter Zugriff am 18. September 2017). 44 Es droht ein „Wettkampf um die Entschlüsselung des Quellcodes“, um weniger relevantere Ergebnisse weiter oben im Suchergebnis anzeigen lassen zu können, Schulz/Dankert, Die Macht der Informationsintermediäre: Erscheinungsformen, Strukturen und Regulierungsoptionen, S. 67, http://library.fes.de/pdf-files/akademie /12408.pdf, (letzter Zugriff am 18. September 2017). 45 Positionspapier der Bundesrepublik Deutschland zum Regelungsumfeld für Plattformen, Online-Vermittler, Daten , Cloud-Computing und die partizipative Wirtschaft vom 22.4.2016, S. 6, https://www.bundesregierung .de/Content/DE/_Anlagen/BKM/2016/2016-04-22-positionspapier-plattformregulierung.pdf?__blob=publication File&v=2, (letzter Zugriff am 04. September 2017). 46 Es wird auch die Ansicht vertreten, dass die Manipulationsgefahr ohne größere Schwierigkeiten von den Suchmaschinenbetreibern minimiert werden könnte und daher dieses Argument lediglich ein Vorwand sei, um eine Weiterentwicklung der Algorithmen im Zuge einer weitestgehenden Transparenz zu vermeiden, Lobe, Gebt die Algorithmen frei!, http://www.faz.net/aktuell/feuilleton/medien/digitalkonzerne-geschaeftsgeheimnis-algorithmus -15072713.html, (letzter Zugriff am 14. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 12 Ergebnisdarstellung zu kennzeichnen47. Ob dies jedoch geeignet ist, dass gewünschte Maß an Transparenz herzustellen, muss allerdings, nicht zuletzt aus Gründen der Überprüfbarkeit, bezweifelt werden. Zur Erreichung eines Mindestmaßes an Transparenz wird daneben nach dem Vorbild der Suchmaschinen für andere Plattformbetreiber gefordert, zu einer eindeutigen Trennung von eigenen und gesponserten Ergebnissen zu verpflichten. Dies würde nicht nur die Transparenz fördern, sondern sicherte auch den Erhalt von Seriosität und Glaubwürdigkeit medialer Inhalte48. 4.3. Vertrauen der Nutzer durch „Algorithmen-TÜV“ Eine weitere Alternativlösung im Zusammenhang der Algorithmenoffenlegung präsentierte der Bundesminister der Justiz und für Verbraucherschutz Heiko Maas (SPD) im Jahr 2015 im Rahmen der Thematik der digitalen Grundrechte. Aus seiner Sicht sei die Einführung eines Algorithmen- TÜVs eine zielführende Möglichkeit für mehr Transparenz und Vertrauen im Internet: In Zeiten von Big Data werden aus Analysen vergangenen Verhaltens Prognosen für die Zukunft erstellt. Aber der Mensch ist mehr als sein Datenprofil und menschliches Verhalten lässt sich nicht wertneutral berechnen. Jeder Algorithmus basiert auf Annahmen, die falsch oder gar diskriminierend sein können. Wir brauchen deshalb einen Algorithmen-TÜV, der die Lauterkeit der Programmierung gewährleistet und auch sicherstellt, dass unsere Handlungs- und Entscheidungsfreiheit nicht manipuliert wird49. Neu ist diese Idee von einer staatlichen Überprüfung einer Internetdienstleistung nicht. Bei Partnerbörsen im Internet werden derartige Prüfsiegel bereits seit 2005 vergeben50. Das Ergebnis ist mehr Vertrauen der Nutzer in die Dienste des Plattformbetreibers. Anhand eines auf Testergebnissen beruhenden Gütesiegels könnten sich zum einen die Nutzer besser orientieren, zum anderen würde lauter am Markt agierenden Unternehmen die Möglichkeit gegeben, sich besser zu profilieren und von unseriösen Konkurrenten abgrenzen zu können. 47 Positionspapier der Bundesrepublik Deutschland zum Regelungsumfeld für Plattformen, Online-Vermittler, Daten , Cloud-Computing und die partizipative Wirtschaft vom 22.4.2016, S. 6, https://www.bundesregierung .de/Content/DE/_Anlagen/BKM/2016/2016-04-22-positionspapier-plattformregulierung.pdf?__blob=publication File&v=2, (letzter Zugriff am 04. September 2017). 48 Überlegungen der Medienanstalt zur Regulierung von Intermediären, AG Intermediäre der Bund-Länder Kommission , S. 4, http://www.die-medienanstalten.de/fileadmin/Download/Positionen/Gemeinsame_Positionen /%C3%9Cberlegungen_DLM_zu_Intermedia%CC%88ren_12042016.pdf, (letzter Zugriff am 31. August 2017). 49 Maas, Unsere digitalen Grundrechte, http://www.bmjv.de/SharedDocs/Interviews/DE/2015/Namensartikel /12092015_DieZeit.html, (letzter Zugriff am 18. September 2017). 50 TÜV-geprüfte Qualität und Sicherheit beim Online-Dating: FriendScout24 - Erste Online-Partnerbörse mit TÜV- Prüfsiegel, http://www.presseportal.de/pm/19470/726782, (letzter Zugriff am 18. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 13 Dabei ist die Eingriffsqualität in das geistige Eigentum der Unternehmen variabel. Denkbar wäre die Überprüfung des Algorithmus durch eine neutrale, zur Geheimhaltung verpflichtete Stelle, gegenüber der die Algorithmen-Quellcodes offengelegt werden müssten. Dabei ist ein gewisses Anforderungsprofil für die prüfende Institution notwendig: Sie muss einerseits staatsfern organisiert sein, zum anderen muss sie neben der fachlichen Kompetenz auch die behördlichen Exekutivbefugnisse zur Durchsetzung haben51. Dies könnte auch durch eine supranationale Stelle europaweit einheitlich gelöst werden52. Jedenfalls würde ein derartiges Modell eine umfassende Überprüfung gewährleisten53 und gleichzeitig ein hohes Maß an Vertrauen bei den Internetnutzern generieren . Ebenfalls vorstellbar wäre ein bloßes Testverfahren, bei welchem der Programmcode nicht offenbart werden müsste54. Gleichzeitig wären die Ergebnisse weniger zuverlässig. Eine Alternative zu dem „TÜV-Verfahren“ wäre die Kodifizierung einer Deklarationspflicht bzw. –obligation für Informationsintermediäre, wie sie von Schulz/Dankert vorgeschlagen wird55. Der Kreis der verpflichteten Intermediäre soll sich dabei nach ihrem Einfluss auf die öffentliche Meinungsbildung richten. Denkbare Inhalte der Deklaration könnten beispielsweise sein, dass keine manuelle Veränderung der Datengrundlage erfolgt, die für die Sortierung relevant ist, soweit dies nicht durch Gesetz vorgeschrieben und keine bessere Platzierungen oder Hervorhebungen durch eine ggf. kommerzielle Vereinbarung mit dem Betreiber erreicht werden können56. Ein derartiger Regelungsansatz würde nicht nur aus Sicht der Anbieter die eingriffsärmste Lösung darstellen, sondern auf den ersten Blick auch die in der Literatur geäußerten Zweifel an der tatsächlichen Überprüfbarkeit der Algorithmen57 berücksichtigen. Allerdings würde das Problem, soweit es 51 Überlegungen der Medienanstalt zur Regulierung von Intermediären, AG Intermediäre der Bund-Länder Kommission , S. 4f., http://www.die-medienanstalten.de/fileadmin/Download/Positionen/Gemeinsame_Positionen /%C3%9Cberlegungen_DLM_zu_Intermedia%CC%88ren_12042016.pdf, (letzter Zugriff am 31. August 2017). 52 Bspw. der Europäische Datenschutzrat, Leuthesser-Schnarrenberger, Verantwortung der Internet-Giganten – Algorithmen und Selbstbestimmung, in: Stiftung Datenschutz, Zukunft der informationellen Selbstbestimmung, S. 73f. 53 Kritisch zur Überprüfbarkeit von Algorithmen und deren Maximen Schulz/Dankert, Die Macht der Informationsintermediäre : Erscheinungsformen, Strukturen und Regulierungsoptionen, S. 68, http://library.fes.de/pdffiles /akademie/12408.pdf, (letzter Zugriff am 18. September 2017). 54 Michael, Heiko Maas und der Algorithmen-TÜV, https://www.freitag.de/autoren/wolfgangmichal/heiko-maasund -der-algorithmen-tuev, (letzter Zugriff am 18. September 2017). 55 Schulz/Dankert, Die Macht der Informationsintermediäre: Erscheinungsformen, Strukturen und Regulierungsoptionen , S. 74, http://library.fes.de/pdf-files/akademie/12408.pdf, (letzter Zugriff am 18. September 2017). 56 Ebenda. 57 U.a. Beining, Der Puls der Gesellschaft - Wie Daten und Algorithmen die Rahmenbedingungen für das Gemeinwohl verändern, S. 3, https://www.stiftung-nv.de/sites/default/files/datenundalgorithmen.pdf, (letzter Zugriff am 19. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 14 denn tatsächlich besteht, nicht umgangen, sondern stellt sich lediglich an anderer Stelle, nämlich im Rahmen der (behördlichen) Prüfung der tatsächlichen Umsetzung der deklarierten Vorgaben. 4.4. Nutzerautonomie durch Eingriffsmöglichkeiten der Konsumenten Unter Nutzerautonomie soll im Rahmen dieser Abhandlung verstanden werden, dass der Nutzer bei der Verwendung von algorithmenbasierten Internetdiensten seine plattformspezifischen Einstellungen jederzeit und einfach ändern kann und somit selbstbestimmt das Ergebnis seiner Anfrage festlegen kann. Dabei ist er von dem Begriff der Nutzerfreundlichkeit abzugrenzen, welcher unter anderem mit dem Ziel, Internetdienste komfortabler und besser auf die individuellen Bedürfnisse des Nutzers zuzuschneiden, zwingend voraussetzt, dass sich der Nutzer weiter den Nutzungsbedingungen des jeweiligen Anbieters unterwirft58. Die Folge ist der Verlust eines gewissen Grades der Selbstbestimmung. Es muss für jeden Nutzer die Möglichkeit bestehen, selbst zu entscheiden, welche Einstellungen er akzeptiert und welche nicht. Daher wird unter Hinweis auf das Risiko einer mitunter unbewussten , nutzerseitigen Verengung der Informationsvielfalt, die insbesondere durch nutzerunabhängige Voreinstellungen oder faktisch unumkehrbare Nutzungseinstellungen drohen, eine Regulierung im Bereich der Nutzerbedingungen gefordert. Entscheidend sei die Sicherung der Voraussetzung für einen möglichst leichten Wechsel zwischen den Anbietern von Intermediären, etwa durch Verpflichtungen zur Interoperabilität und Portabilität von nutzerbezogenen Informationen sowie die Gewährleistung möglichst großer Autonomie der Nutzer über die Personalisierung von intermediären Dienstleistungen59. 4.5. Regulierung durch Beschränkung des Anwendungsbereiches Die wohl drastischste Lösung im Umgang mit Algorithmen wäre die Eingrenzung ihres Anwendungsbereiches . So wäre denkbar, für gewisse Dienste, die von herausragender Bedeutung für den Nutzer sind, die Verwendung eines Algorithmus zu verbieten. Dies könnte vor allem auf Gebieten wie dem Abschluss von Krankenversicherungen relevant sein, in welchen risikokalkulierende Algorithmen eingesetzt werden. In Bereichen, in denen sich die Gesellschaft für vergemeinschaftete Risiken entschieden hat, dürfe Technologie diese Übereinkunft nicht untergraben 60. 58 Überlegungen der Medienanstalt zur Regulierung von Intermediären, AG Intermediäre der Bund-Länder Kommission , S. 4, http://www.die-medienanstalten.de/fileadmin/Download/Positionen/Gemeinsame_Positionen /%C3%9Cberlegungen_DLM_zu_Intermedia%CC%88ren_12042016.pdf, (letzter Zugriff am 31. August 2017). 59 Kluth/Schulz, Konvergenz und regulatorische Folgen. Gutachten im Auftrag der Rundfunkkommission der Länder , S.106, https://www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media /d74b139d80000c12483526a23a55bf89f9d971c6.pdf, (letzter Zugriff am 4. September 2017). 60 Dräger, Ein TÜV für Algorithmen, Handelsblatt vom 21.08.2017, http://www.handelsblatt.com/my/meinung /gastbeitraege/gastkommentar-zum-digitalen-wandel-ein-tuev-fuer-algorithmen/20212180.html?ticket=ST- 1931035-wHA4KdAmZk2xk24YW2wu-ap3, (letzter Zugriff am 31. August 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 15 Internationale Perspektive Obgleich es eine umfassende internationale Debatte zu der Notwendigkeit einer Regulierung von Algorithmen sowie deren möglicher Ausgestaltung gibt61, existieren bisher keine Regularien, die die Problematik der Offenlegung von Algorithmen bzw. einer Begrenzung ihrer Ausgestaltung konkret normieren. Auch der Wunsch nach einem „Internationalen Algorithmenabkommen“ wird geäußert. Ob sich allerdings ein solches tatsächlich zielführend umsetzen lässt, daran hat selbst die Autorin ihre Zweifel62. Europarechtlich gewährt die nächstes Jahr in Kraft tretende EU-Datenschutzgrundverordnung (EU-DSGVO) zunächst grundsätzlich ein Auskunftsrecht des Nutzers gegenüber algorithmennutzende Plattformbetreiber63. Hat der Nutzer Grund zur Annahme, dass bei einer Serviceanfrage eine Software seine Daten falsch bewertet hat, kann dieser Auskunft über die Gründe der Entscheidung verlangen64. Dies ist vor dem Hintergrund von mehr Transparenz bei der Nutzung von Algorithmen zwar durchaus zu begrüßen. Weiterhin sieht Art. 22 Abs. 1 EU-DSGVO vor, dass der Nutzer das Recht hat, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihm gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Allerdings soll dies unter anderem dann nicht gelten, wenn eine automatisierte Entscheidung für den Abschluss oder die Erfüllung eines Vertrags erforderlich sind oder eine ausdrückliche Einwilligung der betroffenen Person vorliegt65. 61 Siehe bspw. Kassner, Biases in algorithms: The case for and against government regulation, http://www.techrepublic .com/article/biases-in-algorithms-the-case-for-and-against-government-regulation/, (letzter Zugriff am 19. September 2017); Saurwein/Just/Latzer, Governance of algorithms: options and limitations, http://www.mediachange .ch/media/pdf/publications/GovernanceOfAlgorithms_.pdf, (letzter Zugriff am 19. September 2017); Labour calls for closer scrutiny of tech firms and their algorithms, https://www.theguardian.com/business /2016/dec/18/labour-calls-for-regulation-of-algorithms-used-by-tech-firms, (letzter Zugriff am 19. September 2017); Regulation of algorithms, https://visionspol.eu/2017/05/13/regulation-of-algorithms/, (letzter Zugriff am 19. September 2017). 62 Hofstetter, Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen, München 2016, https://books.google.de/books?id=Nj2bAw AAQBAJ&pg=PT174&lpg=PT174&dq=algorithmenabkommen &source=bl&ots=sKLbcgDmw9&sig=XZj7V0u8QFGuyuxu01Su7-49eZk&hl=de&sa=X&ved=0ahU- KEwjfpdqWgLHWAhUDK1AKHYO2AhMQ6AEIKDAA#v=onepage&q=algorithmenabkommen&f=false, (letzter Zugriff am 19. September 2017). 63 Siehe Art. 15 Abs. 1 Datenschutz Grundverordnung (DSGVO). 64 Beuth, Maas schlägt digitales Antidiskriminierungsgesetz vor, http://www.zeit.de/digital/internet/2017- 07/heiko-maas-algorithmen-regulierung-antidiskriminierungsgesetz, (letzter Zugriff am 19. September 2017). 65 Dazu Goodman/Flaxman, EU regulations on algorithmic decision making and a „right to explanation“, presented at 2016 ICML Workshop on Human Interpretability in Machine Learning, https://arxiv.org/abs/1606.08813, (letzter Zugriff am 19. September 2017). Wissenschaftliche Dienste Ausarbeitung WD 10 - 3000 - 048/17 Seite 16 Fazit Nicht nur die Verwendung von Algorithmen in Suchmaschinen und sozialen Netzen - sogenannten Informationsintermediären - sondern auch deren Nutzung als Herzstück eines Selektionsvorgangs wie bei einem Vergleichsportal schafft Raum für Intransparenz und Diskriminierung. Der Nutzer derartiger Plattformen hat daher ein gesteigertes Interesse daran, die Kriterien und Maximen zu kennen, auf denen das ausgeworfene Ergebnis basiert. Dabei steht er nach derzeitiger Rechtslage in Deutschland und aufgrund der EU-Datenschutzgrundverordnung nicht schutzlos da. Insbesondere findet das Telemediengesetz sowie das Wettbewerbsrecht in gewissen Konstellationen auf algorithmengesteuerte Plattformen Anwendung. Dennoch besteht Bedarf an weiterführenden Regelungen im Bereich der Algorithmenkontrolle, insbesondere wenn wettbewerbliche Marktmechanismen nicht zu einem angemessenen Angebot von Diensten mit hinreichend transparenten Selektionskriterien führen. Bei den gegebenen Markverhältnissen ist das derzeit offenbar der Fall. Das diskutierte Maßnahmenspektrum ist dabei breit gefächert. Neben einer mehr oder weniger umfassenden Offenbarungspflicht des Algorithmus-Quellcodes wird unter anderem von Bundesminister der Justiz und für Verbraucherschutz Heiko Maas (SPD) ein „Algorithmen-TÜV“ gefordert . Dieser würde ein Prüfsiegel darstellen, welches dem Plattformbetreiber einen lauteren Umgang mit den vom ihm verwendeten Algorithmen bescheinigt und Vertrauen beim Nutzer schaffen soll. Bei der Durchführung der Überprüfung werden viele Modelle vorgeschlagen, die sich vor allem im Umfang der Offenbarungspflicht und dem generierten Level an Transparenz unterscheiden . Die Überprüfung des Algorithmus soll dabei durch eine möglichst neutrale, zur Geheimhaltung verpflichtete Stelle geschehen, die zwar staatsfern organisiert sein soll, allerdings dennoch quasi-behördliche Exekutivbefugnisse innehaben. Neben der Herstellung von mehr Transparenz zielt ein Regelungsansatz auch auf die Abkehr von dem Modell der umfassenden Unterwerfung des Nutzers unter die Bedingungen des Dienstleisters ab. Unter dem Stichwort „Nutzerautonomie“ wird die Möglichkeit gefordert, selbst entscheiden zu können, welche Nutzungseinstellungen akzeptiert werden und welche nicht, ohne dabei der Gefahr einer nutzerseitigen Verengung der Informationsvielfalt ausgeliefert zu sein. Europarechtlich findet die nächstes Jahr in Kraft tretende EU-Datenschutzgrundverordnung in Deutschland unmittelbare Anwendung. Insbesondere der in Art. 15 EU-DSGVO normierte Auskunftsanspruch und auch das grundsätzliche Verbot einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung einer Nutzeranfrage haben grundsätzlich das Potential , für mehr Transparenz im Umgang mit Algorithmen im Internet zu sorgen. Allerdings hat diese Arbeit gezeigt, dass bei der Erreichung des Ziels, das Wissens- und Machtungleichgewicht zwischen Nutzer und Diensteanbieter aufzulösen und gleichzeitig mehr Transparenz und Nutzerautonomie zu schaffen, algorithmen-spezifische Gesetzgebung ebenfalls ein gangbarer Weg sein kann. ****