Urheber- und Medienrecht

Aktuelle Reformen des Internetrechts – Kein Ende des gesetzgeberischen Wirrwarrs

Ein Beitrag von AkadRaZ Dr. Linn-Karen Fischer

Das deutsche Internetrecht wird durch zahlreiche Reformen immer undurchsichtiger. Besonders für Video-Sharing-Plattformen tragen die jüngsten Neuerungen durch die AVMD-Richtlinie weitere Abgrenzungsschwierigkeiten in ihren Pflichtenkatalog. Einen Überblick über die aktuellen Entwicklungen gibt Linn-Karen Fischer.

Das deutsche Internetrecht: ein einziges Durcheinander?

© JJ Ying on Unsplash.com

Über 15 Jahre schien das deutsche Recht in Sachen Internet recht übersichtlich. Die relevanten Vorschriften für die relevanten Akteure in Sachen Haftung ließen sich primär der E-Commerce-Richtlinie (ECRL) aus dem Jahr 2000 bzw. der deutschen Umsetzungsnorm im Telemediengesetz (TMG) entnehmen. Personell wurden dabei u.a. Access- und Host-Provider in den Blick genommen. Mehrere Initiativen sowohl auf europäischer als auch auf deutscher Ebene führen allmählich zu einer unübersichtlichen Zerstückelung des Internetrechts.

I. ECRL und TMG

Aufgabe der Access-Provider ist es, Dritten Zugang zu einem Kommunikationsnetz, wie etwa dem Internet, zu vermitteln, Art. 12 Abs. 1 Alt. 2 ECRL, § 8 Abs. 1 S. 1 TMG. Darüber hinaus stellen sie technische Brücken dafür bereit, dass die mit dem Internet verbundenen Rechner Datenpakete empfangen sowie versenden und Dritte dementsprechend online kommunizieren können. Gem. § 8 Abs. 3 TMG zählen auch Betreiber von drahtlosen lokalen Netzwerken (WLAN) zu den Zugangsvermittlern.

Host-Provider zeichnen sich dadurch aus, dass sie Dritten Speicherplatz, sog. Webspace, zur Verfügung stellen, Art. 14 Abs. 1 ECRL, § 10 S. 1 TMG. Sie speichern Informationen auf ihren Servern, die zuvor von einem Nutzer hochgeladen wurden und halten sie für das interessierte Publikum zum Abruf bereit.

In ihrer Rolle als Intermediäre kommen sowohl Access- als auch Host-Providern gewisse Haftungsprivilegierungen zugute. Sie können grundsätzlich erst dann in die Abwehr von Rechtsverletzungen eingebunden werden, wenn sie Kenntnis von illegalen Aktivitäten erlangt haben. An den Zeitpunkt der Kenntnis werden diverse Prüfungspflichten geknüpft. Nach dem Verständnis der deutschen Rechtsprechung sollen Access-Provider angehalten werden können, dem Recht zuwiderlaufende Internetauftritte zu sperren (BGH, Urt. v. 26.11.2015 – I ZR 174/14 – Störerhaftung des Access-Providers). Die Europarechtskonformität einmal unterstellt können Host-Provider nicht nur dazu veranlasst werden, illegale Materialen unverzüglich zu entfernen, sondern sie sollen auch dafür Sorge tragen, dass es möglichst nicht zu weiteren gleichartigen Rechtsverletzungen kommt (BGH, Urt. v. 5.2.2015 – I ZR 240/12 – Kinderhochstühle im Internet III). Jegliche Pflichten sind dabei am übergeordneten Leitprinzip in Form des Verbots allgemeiner Überwachungspflichten zu messen, Art. 15 Abs. 1 ECRL, § 7 Abs. 2 TMG.

Im Gegensatz zu den Access-Providern haben sich die Host-Provider im Laufe der Zeit zu einer heterogenen Gruppe entwickelt. Vor allem das Web 2.0 hat zahlreiche interaktive Plattformen hervorgebracht, die ihre Funktion nicht auf das reine Speichern beschränken, sondern die Internetnutzer durch zahlreiche weitere Funktionen zum Konsumieren und Teilen eigener Beiträge anregen. Neben „Facebook“ und „YouTube“ kann beispielsweise auch Verkaufsplattformen wie „Amazon“ oder „eBay“ der Status eines Host-Providers anhaften. Diese technischen gesellschafts- und alltagsverändernden Entwicklungen sind und waren Anlass genug für eine Weiterentwicklung des Internetrechts.

II. NetzDG

Ohne einen europaweiten Rückhalt entschied sich der deutsche Gesetzgeber 2017, der Verbreitung von Hasskriminalität und anderen strafbaren Inhalten über die hierfür besonders anfälligen sozialen Netzwerke wirksam entgegenzutreten (BT-Drucks. 18/12356, 1). Die Europäische Kommission hatte sich zu diesem Zeitpunkt lediglich im Rahmen von nicht legislativen Publikationen (u.a. einem Verhaltenskodex) der Thematik gewidmet. Das seit Ende 2017 geltende Netzwerkdurchsetzungsgesetz (NetzDG) enthält in § 1 Abs. 1 eine nähere Bestimmung des personellen Anwendungsbereiches und mithin eine Legaldefinition der Begrifflichkeit „soziales Netzwerk“. Nach dieser Norm gilt das Gesetz „für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen.“ Auf kleinere Netzwerke, deren registrierte Nutzerzahlen unter 2 Millionen liegen, ist das NetzDG nur in abgeschwächter Form anwendbar. Soziale Netzwerke zeichnen sich per definitionem also dadurch aus, dass sie ihren Nutzern einen interaktiven Austausch mit einem ausgewählten Personenkreis oder aber mit der Öffentlichkeit ermöglichen. Gegenständlich kann es sich dabei um jedwede eigene, d.h. von einem Nutzer selbst erstellten digitalen Inhalt, oder aber jedwede Drittinhalte handeln. Mit Blick auf die Praxis wollte der Gesetzgeber insbesondere Dienste wie „Facebook“, „YouTube“ und „Twitter“ besonders in die Pflicht nehmen (BT-Drucks. 18/12356, 1). Wie der Gesetzgeber dabei selbst erkennt (BT-Drucks. 18/12356, 18), sind die Betreiber sozialer Netzwerke grundsätzlich als Host-Provider i.S.d. § 10 TMG einzuordnen. Sachlich umfasst die in § 1 Abs. 3 NetzDG niedergelegte Aufzählung relevanter Straftatbestande insbesondere hass- und gewaltverherrlichende Delikte sowie Verbrechen bzw. Vergehen im Kontext der Kinderpornografie.

An die Stellung als soziales Netzwerk knüpft das NetzDG die Verpflichtung, den Nutzern ein effizientes Verfahren zur Seite zu stellen, damit sie Beschwerden über strafbare Inhalte an den Betreiber übermitteln können, vgl. § 3 Abs. 1 S. 2 NetzDG. An die Kenntnisnahme der Beschwerde schließt sich u.a. die inhaltliche Überprüfung an. Sofern die Beschwerde ausreichend fundiert und plausibel erscheint, sollte der Netzwerkbetreiber die strafbaren Inhalte innerhalb von sieben Tagen entfernen bzw. sperren, § 3 Abs. 2 Nr. 1 und Nr. 3 NetzDG. Liegt offensichtlich rechtswidriges Material vor, beträgt die Frist für die Gegenmaßnahme lediglich 24 Stunden, § 3 Abs. 2 Nr. 2 NetzDG. Zudem verpflichtet § 2 NetzDG die Betreiber sozialer Netzwerke, Rapport über den Umgang mit Beschwerden abzulegen, sollte die Fallzahl auf über 100 im Kalenderjahr steigen.

III. AVMD-Richtlinie und Umsetzung im deutschen Recht

Als Quelle der Information und Unterhaltung nehmen Rundfunkt und Fernsehen zwar immer noch eine wichtige Rolle ein. Vor allem in der Altersgruppe der unter 30-Jährigen beeinflussen jedoch Online-Angebote, allen voran die Plattform „YouTube“, das Nutzerverhalten maßgeblich (vgl. Beisch/Schäfer, Ergebnisse der ARD/ZDF-Onlinestudie 2020). Dieser medialen Realität widmet sich die Richtlinie über audiovisuelle Mediendienste (AVMD-Richtlinie).

Die 2018 grundlegend reformierte AVMD-Richtlinie enthält erstmals Bestimmungen für sog. Video-Sharing-Plattform-Dienste. Nach der Legaldefinition in Art. 1 Abs. 1 lit. aa AVMD-Richtlinie spricht man von einer Video-Sharing-Plattform, wenn „der Hauptzweck der Dienstleistung oder eines trennbaren Teils der Dienstleistung oder eine wesentliche Funktion der Dienstleistung darin besteht, Sendungen oder nutzergenerierte Videos, für die der Video-Sharing-Plattform-Anbieter keine redaktionelle Verantwortung trägt, der Allgemeinheit über elektronische Kommunikationsnetze zur Information, Unterhaltung oder Bildung bereitzustellen.“ Dabei wird allerdings vorausgesetzt, dass der Video-Sharing-Plattform-Anbieter durch strukturelle Parameter Einfluss auf das Nutzerverhalten nimmt, indem er beispielsweise die Reihenfolge der bereitgestellten Inhalte festlegt oder an die ermittelten Präferenzen eines Nutzers anpasst.

Unter den Begriff der Video-Sharing-Plattform-Dienste lassen sich unproblematisch Geschäftsmodelle wie „YouTube“ einordnen. Aber auch soziale Netzwerke wie „Facebook“ oder „Instagram“ haben spezielle Funktionen eingerichtet, damit Nutzer Videomaterial, sog. Stories, mit ihren virtuellen Freunden teilen können, vgl. auch Erwägungsgrund Nr. 4 und Nr. 5 AVMD-Richtlinie. Sie alle können der übergeordneten Gruppe der Host-Provider zugeordnet werden.

Inhaltlich nimmt vornehmlich Art. 28b AVMD-Richtlinie die Video-Sharing-Plattform-Anbieter in die Pflicht. Sie sind angehalten, Minderjährige vor entwicklungsbeeinträchtigenden Inhalten zu schützen und ferner die Allgemeinheit von Hass- und Gewaltbotschaften sowie von terroristischen, kinderpornografischen, rassistischen oder fremdenfeindlichen Materialien abzuschirmen. Gegenständlich beziehen sich die Pflichten dabei auf Sendungen, nutzergenerierte Videos und kommerzielle Kommunikation. Für die Erreichung dieser Schutzziele wird den Mitgliedstaaten in Art. 28b Abs. 3 AVMD-Richtlinie ein Katalog an möglichen Maßnahmen nahegelegt, auf die weiter unten Bezug genommen wird. Hinsichtlich der kommerziellen Kommunikation enthält Art. 28 Abs. 2 i.V.m. Art. 9 Abs. 1 AVMD-Richtlinie spezielle Vorgaben, die zusätzlich zu den inhaltlichen Einschränkungen als solche gut erkennbar sein muss. Erstaunlicherweise unterscheidet die Vorschrift dabei zwischen Werbung, die vom Video-Sharing-Dienst selbst vermarket, verkauft oder zusammengestellt wird und Werbung, die eben nicht vom Video-Sharing-Dienst selbst vermarket, verkauft oder zusammengestellt wird. Sofern der Diensteanbieter das Werbematerial selbst zusammenstellt, ist fraglich, ob in dieser Konstellation überhaupt noch von Fremdinhalten gesprochen werden kann. Der Begriff „Zusammenstellung“ erinnert doch stark an eine redaktionelle Verantwortung für das Werbematerial.

Die AVMD-Richtlinie sollte bis September 2020 in die nationalen Rechtsordnungen integriert werden. Da der Anwendungsbereich der Richtlinie sowohl Bund- als auch Länderinteressen berührt, finden sich die deutschen Umsetzungsnormen in mehreren Rechtsakten wieder.

1. TMGÄndG

Auf Bundesebene sehen die §§ 10a, 10b TMG – als Umsetzung von Art. 28b Abs. 3 lit. d und lit. e AVMD-Richtlinie – die Einführung eines Melde- und Abhilfeverfahrens vor. Es handelt sich dabei um ein Verfahren, mittels dessen Nutzer rechtswidrige Inhalte auf dem Gebiet des Jugendschutzes sowie der Hasskriminalität dem Videosharingplattform-Anbieter – der deutsche Gesetzgeber hat sich für eine andere Schreibweise des Substantivs entschieden – unkompliziert melden können. An die Meldung schließt sich ein Prüfverfahren durch die Plattform, die nicht zuletzt den Beschwerdeführer sowie den von einer etwaigen Löschung betroffenen Nutzer über ihren Ausgang informiert. Ihnen soll Gelegenheit zur Einreichung einer Gegenvorstellung gegeben werden. Ebenso sollen die Beteiligten über die Möglichkeit eines Schlichtungsverfahrens hingewiesen werden. Originär sehen allerdings weder § 10a TMG noch § 10b TMG eine Verpflichtung zur Einrichtung des soeben beschriebenen Mechanismus vor. Vielmehr verweisen beide Normen auf Rechtsvorschriften des Bundes oder der Länder, die ihrerseits auf die Thematik der Melde- und Abhilfeverfahren Bezug nehmen. Zu den besagten Rechtsvorschriften werden beispielhaft der Medienstaatsvertrag (MStV), der Jugendmedienschutz-Staatsvertrag (JMStV) und das Jugendschutzgesetz (JuSchG) gezählt (BR-Drs. 170/20, 20 f.). Verfahren aus dem NetzDG sollen allerdings generell Vorrang genießen. Dies führt – wie am Beispiel der Regelungen zum Schutze der Kinder und Jugendlichen noch deutlich wird – zu erheblichen Abgrenzungsschwierigkeiten.

Angelehnt an Art. 28b Abs. 3 lit. a AVMD-Richtlinie sind die Videosharingplattform-Anbieter gem. § 10c TMG gehalten, in ihren Allgemeinen Geschäftsbedingungen (AGB) auf das Verbot unzulässiger audiovisueller kommerzieller Kommunikation hinzuweisen bzw. dessen Einhaltung vertraglich zu vereinbaren. Die unzulässige Kommunikation bezieht sich gegenständlich auf Tabakerzeugnisse und Heilmittel, § 10c Abs. 2 TMG.

2. MStV

Der seit Ende 2020 geltende MStV befasst sich vor allem in den §§ 97-99 mit den Video-Sharing-Diensten. Dabei haben die Länder bewusst für eine leicht abgewandelte Terminologie optiert, um die Diensteanbieter besser von anderen relevanten Personengruppen des MStV abgrenzen zu können (LT-Drs. N 18/6414, 94). Eine inhaltliche Abweichung verglichen mit den Videosharingplattform-Anbietern soll damit nicht einhergehen.

Neben der Übernahme der europäischen Vorgaben für audiovisuelle kommerzielle Kommunikation in § 98 MStV enthält § 99 MStV einen Passus, wonach die Landesmedienanstalten eine gemeinsame Stelle für die Schlichtung von Streitigkeiten anlässlich der Melde- und Abhilfeverfahren gem. §§ 10a, 10b TMG einrichten. Anscheinend soll diese Bezugnahme genügen, um eine Verpflichtung zur Vorsehung eines Melde- und Abhilfeverfahrens i.S.d. TMG annehmen zu können.

Als wenig rechtssicherheitsfördernd erweist sich zudem der explizite Hinweis in § 97 MStV, dass weitere Anforderungen nach dem V. Abschnitt unberührt bleiben. Nach dem Verständnis der Landesgesetzgeber agieren die in unseren Alltag integrierten Plattformen nicht nur als Videosharingplattform-Anbieter, sondern ihnen können gleich mehrere Status zugeordnet werden. Insbesondere könnten sie eine Funktion als Medienintermediäre i.S.d. § 2 Abs. 2 Nr. 16 MStV übernehmen, wenn sie journalistisch-redaktionelle Angebote Dritter aggregieren, selektieren und allgemein zugänglich präsentieren, ohne diese zu einem Gesamtangebot zusammenzufassen (LT-Drs. N 18/6414, 118 f.). Medienintermediäre müssen sich an gewisse Transparenz- und Nichtdiskriminierungsleitlinien der §§ 91 ff. MStV halten, um der Öffentlichkeit ein vielfältiges, pluralistisches Portfolio an Informationen anzubieten. Abgrenzungsbedürftig sind die Medienintermediäre wiederum von den Medienplattformen bzw. den rundfunkähnlichen Telemedien wie beispielsweise „Netflix“ und „Amazon Prime Video“. Da sich die einzelnen Begrifflichkeiten bereits vom Klang her nicht unerheblich ähneln, dürften Verwechslungen und Verwirrungen im Hinblick auf die Rechtsanwendung vorprogrammiert sein.

3. JMStV

Der gleichzeitig mit dem MStV abgeänderte JMStV enthält ebenfalls einen neuen Abschnitt über die besonderen Pflichten von Video-Sharing-Diensteanbietern. Ihnen wird mit § 5a JMStV nahegelegt, Systeme zur Altersverifikation bzw. Kontrollmechanismen für Eltern einzuführen. Zudem definiert § 5b JMStV, welches Videomaterial als rechtswidrig i.S.d. § 10a TMG eingestuft werden muss, nämlich hass- und gewaltverherrlichendes, kinderpornografisches sowie entwicklungsbeeinträchtigendes Videomaterial. Nach der Intention der Landesgesetzgeber löst dieser Verweis auf das TMG gleichsam die Pflicht zur Vorhaltung eines Melde- und Abhilfeverfahrens aus – auch ohne explizite Bezugnahme auf § 10b TMG (LT-Drs. N 18/6414, 124). Gemeinsam werden beide Normen des TMG zumindest von § 14 Abs. 1 JMStV in den Blick genommen. Dort heißt es, dass die zuständige Landesmedienanstalt über die Einhaltung der Bestimmungen der §§ 10a und 10b des Telemediengesetzes wacht.

Personell und sachlich überschneidet sich der Anwendungsbereich des JMStV nicht nur unwesentlich mit dem Anwendungsbereich des NetzDG. Nur zur Erinnerung: Videosharingplattform-Anbieter können gleichsam als soziale Netzwerke eingestuft werden; die Verbreitung hass- und gewaltverherrlichender sowie kinderpornografischer Inhalte soll möglichst auch nach dem NetzDG unterbunden werden. Da wiederum die §§ 10a, 10b TMG das Melde- und Abhilfeverfahren nach dem NetzDG für vorrangig erklären, laufen die Verweisungen in § 5b JMStV bzw. § 14 Abs. 1 JMStV teilweise ins Leere. Für den Diensteanbieter kann diese Überschneidung mit einem organisatorischen Aufwand verbunden sein. Theoretisch müsste er für jeden einzelnen Straftatbestand, der Hass, Gewalt und Kinderpornografie für illegal erklärt, überprüfen, ob das Delikt sowohl vom Anwendungsbereich des JMStV als auch vom NetzDG erfasst wird. Alternativ bietet sich die Einführung eine Melde- und Abhilfeverfahrens an, das sowohl den Anforderungen der §§ 10a, 10b TMG als auch des § 3 NetzDG gerecht wird.

4. JuSchG

Das ebenfalls dem Kinder- und Jugendschutz dienende JuSchG ist erst kürzlich, nämlich am 1. Mai 2021, in modifizierten Form in Kraft getreten. Es weicht insoweit von den vorgenannten Umsetzungsnormen ab, als sein Anwendungsbereich nicht auf die Gruppe der Videoplattformen beschränkt ist. Vielmehr erfasst der neu eingeführte § 24a JuSchG jegliche Diensteanbieter, die fremde Informationen für Nutzerinnen und Nutzer mit Gewinnerzielungsabsicht speichern oder bereitstellen. In Anlehnung an § 10 Abs. 1 TMG umfasst das JuSchG damit jedwede Inhalte – und nicht nur audiovisuelle Medien –, die online zirkulieren bzw. personell von jedweden kommerziell ausgerichteten Host-Providern der Öffentlichkeit sichtbar gemacht werden. Nicht berücksichtigt werden lediglich Anbieter, die sich nicht explizit an Kinder- und Jugendlich richten. Die Host-Provider sollen Schutzmaßnahmen zur Eindämmung von hass- und gewaltverherrlichenden, kinderpornografischen und entwicklungsbeeinträchtigenden Inhalten ergreifen. Auf welche Art und Weise sie dieser Verpflichtung nachkommen, ist aber zuvörderst ihnen selbst überlassen (BT-Drucks. 19/24909, 62). § 24a Abs. 2 JuGSchG enthält nur eine beispielhafte Aufzählung von Vorsorgemaßnahmen, an die sich die Host-Provider orientieren können. Darunter findet sich auch der Verweis auf Melde- und Abhilfeverfahren. Ob diese gesetzgeberische Idee dem effektivem Kinder- und Jugendschutz zuträglich ist bzw. für die Host-Provider ein rechtssicheres Modell darstellt, kann bezweifelt werden. Zudem erscheinen erneut Überschneidungen mit dem Regelungsbereich des NetzDG nicht ausgeschlossen.

5. NetzDG

Parallel zur Reform des TMG hatte der Gesetzgeber ursprünglich ebenfalls angedacht, das NetzDG an die Vorgaben der AVMD-Richtlinie anzupassen. Der im April 2020 veröffentlichte Gesetzesentwurf der Bundesregierung sieht vor, das bereits normierte Beschwerdeverfahren um ein Gegenvorstellungsverfahren zu ergänzen. Insgesamt sollen die speziell auf soziale Netzwerkbetreiber gemünzten Pflichten personell auf Videosharingplattform-Diensteanbieter ausgeweitet werden (BT-Drucks. 19/18792, 11 ff.) – wobei sich die Betreibet von Videosharingplattform-Diensten mit weniger als 2 Millionen Nutzern im Inland auf gewisse Abmilderungen berufen können, § 3e Abs. 2 NetzDG-E. Die von der Regierung eingebrachten Änderungen sind im Gesetzgebungsgefahren allerdings nicht frei von Kritik geblieben. Insbesondere der Bundesrat wies in seiner Stellungnahme darauf hin, dass die Umsetzung der AVMD-Richtlinie bereits Gegenstand mehrerer abgestimmter Reformbestrebungen auf Bundes- (TMG) sowie auf Landesebene (MStV) ist. Vor diesem Hintergrund sei eine Vereinheitlichung und zentrale Zusammenführung der Bestimmungen für Videosharingplattform-Dienste erstrebenswert (BT-Drucks. 19/19367, 2). Es scheint so, als wäre das Gesetzesvorhaben nicht zuletzt aufgrund dieser berechtigten Kritik ins Stocken geraten. Zwar ist im Monat März dieses Jahres eine Reform des NetzDG beschlossen worden: Sie bezieht sich jedoch lediglich auf die Verpflichtung sozialer Netzwerkanbieter, gewisse Informationen an das Bundeskriminalamt zu übermitteln (BGBl. I 2021 S. 445 f.).

Angesichts der Tatsache, dass ein Großteil der Videosharingplattform-Dienste – wie oben dargelegt – bereits unter die Begrifflichkeit des sozialen Netzwerkes subsumiert werden können, darf ganz generell bezweifelt werden, ob eine Anreihung unterschiedlicher, aber sich überschneidender Begrifflichkeiten in der Sache förderlich ist. Sie ist jedenfalls deshalb entbehrlich, weil der reformierte JMStV sich bereits mit hass- und gewaltverherrlichendem sowie kinderpornografischem Videomaterial beschäftigt. In jedem Fall wäre es wünschenswert, wenn nicht sogar unerlässlich, dass der Gesetzgeber eine Modernisierung des NetzDG in Abstimmung mit den bereits geltenden Normen zur Umsetzung der AVMD-Richtlinie anstrebt. Sofern der Gesetzgeber am NetzDG festhalten möchte, wäre dabei sinnvollerweise an die Einführung eines Gegenvorstellungsverfahrens zu denken.

IV. DSM-Richtlinie

Nach langem Ringen und fast dreijährigem Gesetzgebungsverfahren wurde im April 2019 die Richtlinie über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt (DSM-Richtlinie) verabschiedet. Begleitet von europaweiten Protesten gehört die Richtlinie sicherlich zu einem der umstrittensten Projekte der vergangenen Jahre. Dem Richtliniengeber war es ein Anliegen, marktstarke Plattformen, die finanziell maßgeblich davon profitieren, dass Dritte auf ihrem Server Inhalte hochladen, stärker in die Pflicht zu nehmen. Aus diesem Anlass führt Art. 2 Nr. 6 DSM-Richtlinie die Terminologie des Diensteanbieters für das Teilen von Online-Inhalten ein. Letzterer Dienstanbieter zeichnet sich nach der Definition dadurch aus, dass er eine große Menge an von Dritten hochgeladenen urheberrechtlich geschützten Inhalten speichert und öffentlich zugänglich macht, wobei er die Inhalte gleichzeitig organisiert und zum Zwecke der Gewinnerzielung bewirbt. Beispielsweise Online-Marktplätze werden vom Anwendungsbereich allerdings explizit ausgenommen. In Entsprechung zu Erwägungsgrund Nr. 62 DSM-Richtlinie sollen unter die Norm vielmehr Diensteanbieter subsumiert werden, die mit anderen Online-Inhaltediensten, wie Audio- und Video-Streamingdiensten, um dieselben Zielgruppen konkurrieren. Es ist nicht zu übersehen, dass der Richtliniengeber bei seiner Begriffsbestimmung von der Funktionsweise der Plattform „YouTube“ inspiriert wurde.

Galt in der Vergangenheit der nicht unumstrittene Grundsatz, dass Speicherungstätigkeiten bzw. das zur Verfügungstellen von Drittmaterialen nicht als Urheberrechtsverletzung gewertet werden kann, schreibt Art. 17 Abs. 1 DSM-Richtlinie nunmehr genau Gegenteiliges vor: Diensteanbieter für das Teilen von Online-Inhalten nehmen einen eigenen Akt der öffentlichen Wiedergabe vor. Dennoch sollen die Plattformen nicht ihrer gesamten Haftungsprivilegierungen verlustig gehen. Im Hinblick auf die effektive Durchsetzung von Urheberrechten kann ihnen jedoch ein erweitertes Prüfungspflichtprogramm auferlegt werden. Sie sollen sich in einem ersten Schritt bemühen, Lizenzverträge mit Werkschöpfern abzuschließen. Wenn dieses Prozedere zu keiner Legalisierung der Inhalt führt, sind die Diensteanbieter gehalten nach Kenntnisnahme von einer bestimmten Urheberrechtsverletzung, den korrespondierenden Inhalt unkenntlich zu machen und auch für die Zukunft dafür zu sorgen, dass der einmal veröffentlichte illegale Inhalt offline bleibt. Sofern der Urheber die entsprechenden Daten zur Verfügung stellt, sollten die Plattformen auch ohne Kenntnis von einem Rechtsverstoß alle ihnen zumutbaren Anstrengungen unternehmen (Stichtwort: Uplaod-Filter), damit der betroffene Inhalt erst gar nicht im Internet auftaucht, Art. 17 Abs. 4 und 5 DSM-Richtlinie. Das Verbot allgemeiner Überwachungspflichten soll aber dennoch seine Gültigkeit behalten. Für kleinere und mittlere Plattformen, deren Jahresumsatz 10 Millionen Euro nicht übersteigt, gelten gem. Art. 17 Abs. 6 DSM-Richtlinie weniger strengere Vorgaben. Um ungerechtfertigten Sperrmaßnahmen Einhalt zu gebieten, sieht schließlich Art. 17 Abs. 9 DSM-Richtlinie vor, dass den Nutzern ein Beschwerde- bzw. Rechtsbehelfsverfahren zur Seite gestellt werden muss.

Da die DSM-Richtlinie bis zum Juni 2021 in das nationale Recht integriert werden muss, befindet sich der deutsche Gesetzgebungsprozess derzeit in einer entscheidenden Phase. Nach dem am 20.5.2021 vom Bundestag beschlossenen Vorhaben sollen die europäischen Vorgaben in einem eigens dafür geschaffenen Gesetz, dem Urheberrechts-Diensteanbieter-Gesetz (UrhDaG), aufgenommen werden. Hierin widmet sich der Gesetzgeber zunächst der aus dem Richtlinientext vorgeschriebenen reaktiven und präventiven (gem. § 7 UrhDAG qualifizierte Blockierungen, gem. § 8 UrhDAG einfache Blockierungen) Schutzmechanismen. Nach den Vorstellungen der für den ursprünglichen Entwurf federführenden Bundesregierung soll dabei der verbleibende Umsetzungsspielraum derart genutzt werden, die in der Öffentlichkeit angeprangerten Upload-Filter möglichst überflüssig zu machen. Dieser Einwand wirkt gerade deshalb etwas gekünstelt, weil sich die §§ 9 ff. UrhDAG mit der Thematik beschäftigen, wie ungerechtfertigte Blockierungen im Rahmen von automatisierten Verfahren vermieden werden können. Um beispielsweise urheberrechtlich zulässige Zitate bzw. Parodien oder Karikaturen nicht über Gebühr von der Öffentlichkeit fernzuhalten, enthält § 9 UrhDAG verschiedene Kategorien, die zunächst als mutmaßlich erlaubt gelten. Die Norm stellt dabei vorwiegend auf quantitative Gesichtspunkte ab, d.h. den Umfang der Nutzung eines Werkes. Nutzer können Inhalte aber auch als legal kennzeichnen. Sofern ein Inhalt als mutmaßlich erlaubt eingestuft wird, soll der Diensteanbieter den Rechteinhaber hierüber informieren. Eine Blockierung kann dann erst erfolgen, wenn der Rechteinhaber erfolgreich ein Beschwerdeverfahren i.S.d. § 14 UrhDAG durchlaufen hat. Im Übrigen soll den Nutzern ebenfalls ein effektives Beschwerdeverfahren bereitgestellt werden, sollten sie von einfachen oder qualifizierten Blockierungen betroffen sein.

V. TCO-Verordnung

Ganz aktuell, nämlich erst im April dieses Jahres, hat sich der europäische Gesetzgeber schließlich auf die Verabschiedung einer Verordnung zur Bekämpfung der Verbreitung terroristischer Online-Inhalte (TCO-Verordnung) verständigt. Sie wird Mitte 2022 in allen Mitgliedstaaten unmittelbare Geltungskraft entfalten.

Die Verordnung nimmt insbesondere Host-Provider besonders in die Pflicht. In Abstimmung bzw. auf Anordnung der zuständigen nationalen Behörden sollen sie sich darum bemühen, angemahntes terroristisches Material schnellstmöglich, jedenfalls aber innerhalb einer Stunde nach Eingang der Anordnung zu entfernen oder zu sperren, Art. 3 TCO-Verordnung. Wird ein Host-Provider innerhalb von 12 Monaten mit zwei oder mehreren Entfernungsanordnungen konfrontiert, sollen sich gem. Art. 5 TCO-Verordnung an diese wiederholten Rechtsverstöße weitergehende spezifische Schutzmaßnahmen anschließen. In diesem Fall soll der Host-Provider auch präventiv dafür Sorge tragen, dass sein Dienst nicht zur Verbreitung terroristischer Inhalte genutzt wird. Auf welche Art und Weise der Host-Provider dieser Verpflichtung nachkommt, bleibt ihm im Wesentlichen selbst überlassen. Angeregt werden ausreichend Personal, technische Mittel, um terroristische Inhalte ausfindig zu machen, oder aber benutzerfreundliche Meldeverfahren. Auch die präventiven Pflichten der TCO-Verordnung müssen sich jedoch mit dem übergeordneten Leitprinzip des Verbots allgemeiner Überwachungspflichten i.S.d. Art. 15 Abs. 1 ECRL vereinbaren lassen.

Die Unübersichtlichkeit des geltenden Rechts lässt sich zusammenfassend am Beispiel der Plattform „YouTube“ sehr gut verdeutlichen: Sie ist Host-Provider, nicht aber im Hinblick auf potentielle Urheberrechtsverletzungen. Für diesen spezifischen Bereich wurde eine eigene Kategorie, nämlich der Anbieter für das Teilen von Online-Inhalten geschaffen. Bezüglich der Verpflichtungen zur Einrichtung eines Melde- und Abhilfeverfahrens unterfällt „YouTube“ im sachlichen Anwendungsbereich dem NetzDG, für weitere illegale Inhalte hingegen den §§ 10a, 10b TMG i.V.m. MStV, JMStV und JuSchG. Innerhalb des MStV kann die Plattform aber auch als Medienintermediär Sonderregelungen unterliegen. Der Rechtssicherheit ist diese Rechtsunklarheit sicherlich nicht zuträglich. Auch wenn die Tendenz zur Spezifizierung einen pragmatischen bzw. kompetenzrechtlichen Hintergrund aufweisen mag, so hätte sich zumindest der deutsche Gesetzgeber an einer stimmigeren Umsetzung des Europarechts versuchen können.

Melde- und Abhilfeverfahren sind in vielerlei Hinsicht vorteilhaft: Sie schützen die Rechteinhaber, indem sie auf effiziente Weise einen Rechtsverstoß beim Provider anmerken können. Ferner dienen sie aber auch dem Schutz der Meinungs- und Kommunikationsfreiheit, wenn der betroffene Nutzer Gelegenheit hat, die Stichhaltigkeit eines Sperrungshinweises im Rahmen einer Gegendarstellung zu entkräften. Klar geregelte Vorgaben im Hinblick auf die Mindestangaben, die eine Meldung enthalten muss, können den Providern zudem den Umgang mit Verdachtsmeldungen erleichtern. Wünschenswert wäre daher gewesen, die Einführung von Melde- und Abhilfeverfahren host-provider- und rechtsgebietsübergreifend vorzusehen. Da auch die ECRL nationalen Regelungen von Verfahren für die Entfernung einer Information oder die Sperrung des Zugangs zu ihr positiv gegenübersteht, Art. 14 Abs. 3 Hs. 2 ECRL, sollte sich der deutsche Gesetzgeber in diesem Punkt auf einen gewissen Umsetzungsspielraum berufen können.

Angesichts der erfolgreichen Entwicklungen von Audio- oder Streamingplattformen und ihren nicht zu verkennenden Einfluss auf das Nutzerverhalten erscheint es nur stringent, diese marktmächtigen Akteure des Internets mit verschärften Pflichten zu versehen. Es stellt sich allerdings wiederum die Frage, ob diese Verschärfung nur mit Blick auf das Urheberrecht plausibilisiert werden kann. Zumindest eine Ausweitung auf Verletzungen anderer Immaterialgüterrechte, wie etwas das Marken- oder Designrecht, – die sich deutlich einfacher feststellen lassen als etwa Verstöße gegen das Allgemeine Persönlichkeitsrecht – könnte von der Idee her in Betracht gezogen werden. Hierfür bedürfte es aber einer Rechtsänderung auf europäischer Ebene.

Dass die rechtlichen Vorgaben der digitalen Welt trotz der zahlreichen Einzelreformen immer noch nicht so recht mit den herausgebildeten Strukturen im Internet harmonieren, ist dem europäischen Gesetzgeber nicht verborgen geblieben. Mit dem im Dezember 2020 veröffentlichten Vorschlag für ein Gesetz über digitale Dienste, besser bekannt als Digital Service Act (DSA), soll insbesondere ein ausgeklügelteres Haftungsregime für Host-Provider entwickelt und damit die ECRL als Regelung abgelöst werden. Die Verordnung sieht hinsichtlich dieser Akteure eine Dreiteilung vor: es soll zwischen Hosting-Diensteanbietern (reine Speicherungstätigkeit), Online-Plattformen (Speicherungstätigkeit und nutzerfreundliches Verbreiten der Inhalte) und sehr großen Online-Plattformen (mindesten 45 Millionen Nutzer pro Monat) unterschieden werden. Aufgaben und Verantwortung steigern sich sukzessive. Zu den Grundpflichten eines jeden Host-Providers soll zukünftig gem. Artt. 14, 15 DSA die Einrichtung eines Melde- und Abhilfeverfahrens gehören. Angemahnte Inhalte müssen überprüft und betroffene Nutzer über Lösch- bzw. Sperrmaßnahmen und ihre Rechtsbehelfe hiergegen aufgeklärt werden. Online-Plattformen müssen nach dem vorgesehenen Art. 17 DSA ihren Nutzern sogar ein wirksames internes Beschwerdemanagementsystem zur Seite stellen. Allerdings gilt es zu bedenken, dass der geplante Digital Service Act die zuvor verabschiedeten und in diesem Beitrag aufgelisteten speziellen europäischen Regelungen allesamt unberührt lassen wird. Ob sich der deutsche Gesetzgeber vor diesem Hintergrund dazu veranlasst sehen sollte, strukturelle Veränderungen am Internetrecht vorzunehmen, darf bezweifelt werden.

 

image_pdfPDF

Dr. Linn-Karen Fischer ist Akademische Rätin auf Zeit am Lehrstuhl für Bürgerliches Recht und Gewerblichen Rechtsschutz von Herrn Prof. Dr. Jan Busche an der Heinrich-Heine-Universität Düsseldorf.

Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert