Big Data & Recht – Wem „gehören“ eigentlich Daten oder wie Google nun gegen SEO-Tools vorgeht

Erst kürzlich habe ich mich in dem Beitrag „Big Data & Recht – Herausforderungen für den Datenschutz und die Causa O2“ mit der datenschutzrechtlichen Seite von Big Data auseinandergesetzt. Damals war schon dieser zweite Teil zum Thema „Big Data“ geplant, der die Frage beleuchten soll, wem öffentlich im Internet zugängliche Daten eigentlich „gehören“.

Technische Möglichkeiten über automatische Suchroboter (sogenannte „Bots“) wie das  Crawling, Spidering oder Screen Scraping (vgl auch „Screen Scraping – Wann ist das Auslesen und die Veröffentlichung fremder Daten zulässig ?“ ) machen es sehr einfach, zahlreiche Daten aus dem Internet zu durchsuchen, zu speichern und dann für eigene Zwecke zu systematisieren bzw. Dritten in neu zusammengestellter Form zur Verfügung zu stellen. Der Kampf  um das Recht, entsprechende Daten auszuwerten bzw. zu verwerten, hat gerade erst begonnen.

1. Google will systematische Auswertung der Suchergebnisse verbieten

Jetzt kommt mir die „glückliche“ Fügung zugute, dass Google selbst – aktuellen  Berichten zufolge – nun gewisse technische Auswertungsmöglichkeiten der entsprechenden Suchergebnisse verbieten will. Der Fall zeigt die steigende Relevanz des Themas…

Seit vielen Jahren durchsuchen und laden verschiedene Anbieter von Suchmaschinenoptimierungswerkzeugen mit eigenen „Suchrobotern“ (sog. Crawlern) die Google Suchergebnisse herunter und analysieren diese Daten (teilweise auch als Scraped Data bezeichnet). Hieraus werden eigene Erkenntnisse gezogen bzw. auch über entsprechende SEO-Tools Kunden spezifische Auswertungsdaten verkauft (wie z.B. bei Raven in den USA, aber auch bei Sistrix oder Searchmetrics in Deutschland).

In entsprechenden Kreisen wird das agressiver werdende Verhalten von Google teilweise schon das Ende solcher SEO-Werkzeuge befürchtet. Tatsächlich heißt es in den Nutzungsbedingungen von Google:

„You specifically agree not to access (or attempt to access) any of the Services through any automated means (including use of scripts or web crawlers) and shall ensure that you comply with the instructions set out in any robots.txt file present on the Services.“

 

Doch stellt sich aus rechtlicher Sicht die Frage, ob Google mit solchen Nutzungsbedingungen tatsächlich die Verwertung öffentlich zur Verfügung gestellter Informationen einfach verbieten kann bzw. auf welcher Rechtsgrundlage und wie weitgehend Google hier Verbote aussprechen darf.

Der nachfolgende Beitrag setzt sich mit entsprechenden grundlegenden rechtlichen Fragen auseinander, die in Zeiten von Big Data weiter an Bedeutung gewinnen werden. Denn: Daten bedeuten in unserer Informationsgesellschaft Macht und die Hoheit über Big Data bedeutet mehr Macht…

2. Screen Scraping & Recht – Rechtliche Grundlagen des „Eigentums“ an Daten

Zunächst ist festzustellen, dass „Eigentum“ an Informationen aus juristischer Sicht nicht begründet werden kann und der Begriff insoweit eigentlich nicht passt. Dennoch können Informationen oder Daten können unter verschiedenen gesetzlichen Voraussetzungen vor dem Zugriff bzw. der Verwertung durch Dritte geschützt sein.

a)    Verbot in den Nutzungsbedingungen

Zahlreiche Internetportale verbieten in ihren Nutzungsbedingungen den Einsatz entsprechender Suchroboter (Webcrawler) bzw. das systematische Durchsuchen und Auswerten der zur Verfügung gestellten Daten.

Tatsächlich haben Betreiber entsprechender Webportale auf Grundlage des virtuellen Hausrechts die Berechtigung entsprechende Vorgaben für die Nutzung der Plattform zu machen. Rechtlich verbindlich wird die jeweilige Regelung aber nur, wenn der jeweilige „Scraper“ auch unter Anerkennung der Nutzungsbedingungen registriert hat.

Ist der Zugang also ansonsten nicht beschränkt bzw. auch ohne Anmeldung möglich (wie z.B. bei Google)  kommt den jeweiligen Nutzungsbedingungen ebenso wie allen weiteren einseitigen Erklärungen über von ihr gewollte Nutzungsbeschränkungen keine verbindliche Rechtswirkung für nicht registrierte Besucher der Webseite zu (vgl. Urteil des OLG Frankfurt vom 05.03.2009; Az. 6 U 221/09).

Nutzungsbedingungen nützen bzw. schaden also nicht unbedingt…

b)    Urheberrechtliche Grenzen der Verwertung von Big Data

In Deutschland sind ansonsten vor allem das Urheberrecht und das ebenfalls im Urheberrechtsgesetz (UrhG) zu verortende Datenbankrecht relevant werden.

Urheberrechtlicher Schutz wird gemäß § 2 UrhG nur angenommen, wenn ein entsprechendes schutzfähiges Werk vorliegt. Häufig wird es sich bei Big Data um Texte oder –fragmente handeln, die aber eben nur geschützt sind, wenn die notwendige Schöpfungshöhe erreicht wird. Das wir gerade bei einzelnen Fragmenten oder Datenreihen in aller Regel nicht angenommen werden können und hilft insoweit in vielen Fällen nicht weiter.

c) Datenbankrechtliche Grenzen der Verwertung von Big Data

Zentral wird es insofern darauf ankommen, ob durch den Zugriff auf fremde Datenbestände in unzulässiger Weise in das Datenbankrecht nach § 87 a ff. UrhG eingegriffen worden ist. Nach § 87b UrhG hat der Hersteller einer Datenbank das ausschließliche Recht, die Datenbank insgesamt oder einen nach Art oder Umfang wesentlichen Teil der Datenbank zu vervielfältigen, zu verbreiten und öffentlich wiederzugeben.

Zunächst ist also zu prüfen, ob überhaupt eine geschützte Datenbank im Sinne von § 87 a UrhG vorliegt. Erforderlich hierfür ist eine Datensammlung, die systematisch und methodisch angeordnet und mit einzelner Hilfe elektronischer Mittel zugänglich gemacht wird und für deren Beschaffung, Darstellung  oder Überprüfung der Daten eine wesentliche Investition erforderlich gewesen ist.

Sollte die entsprechenden Voraussetzungen vorliegen, ist es ohne Zustimmung des Datenbankherstellers verboten, einen nach Art und Umfang wesentlichen Teil der Daten zu vervielfältigen, zu verbreiten oder öffentlich wiederzugeben. Artikel 7 Absatz 1 der Europäische Datenbankrichtlinie besagt, dass wesentlicher Teil in qualitativer oder in quantitativer Hinsicht verstanden werden kann. Nur dann wenn ein entsprechend wesentlicher Teil „entnommen“ wird, ist von einem unzulässigen Eingriff in das Datenbankrecht des Inhabers auszugehen. Interessanterweise hat der Bundesgerichtshof in seiner Entscheidung „Zweite Zahnarztmeinung II“ (BGH, Urteil v. 01.12.2010, Az. I ZR 196/08) einen Anteil von unter 1/10 nicht als wesentlich angesehen. Auch in seiner Entscheidung „Automobil-Onlinebörse“ (BGH, Urteil vom 22.06.2011, Az. I ZR 159/10) hat der Bundesgerichtshof einen rechtswidrigen Eingriff abgelehnt, weil in dem entscheidenden Fall immer nur einzelne Abfragen zu dem jeweils konkreten Suchauftrag gemacht wurden, und damit weder die gesamte Datenbank als ganze kopiert, noch „wesentliche Teile“ davon betroffen waren.

Die obenstehenden Ausführungen die im Interesse einer gewissen Laienverständlichkeit etwas verkürzt dargestellt werden, zeigen bereits, dass das Thema eine gewisse Komplexität hat. Bei der Entnahme weniger Daten im Verhältnis zur Gesamtdatenbank, ist durchaus denkbar, dass der Datenbankhersteller rechtlich nicht einschreiten kann.

3. Bewertung des Verbots von Google

Nach deutschem bzw. europäischem Recht dürfte ein rechtliche Durchsetzung des oben skizzierten Verbots durch Google nicht ganz so einfach sein, wie teilweise vermutet wird. Faktisch wird Google sich als in den USA „sitzender“ Datenbankinhaber aber aller Voraussicht auch berechtigterweise auf US-amerikanisches Recht berufen. Für eine entsprechende rechtliche Bewertung gibt es sachkundigere Kollegen als einen deutschen Rechtsanwalt, weshalb ich hier keine konkreten Aussagen treffen kann.

Wenn Google allerdings seine hier vermutete Ankündigung wahr macht, bei Nichtbefolgung des Scraping Verbots auch den Zugang zur Google Adwords Schnittstelle (API) zu verweigern, sehe ich angesichts der Marktmacht von Google gewisse kartellrechtliche Bedenken.

Nachdem die rechtlichen Fragen nach deutschem Recht nicht so eindeutig sind, bleibt es spannend, die weitere Entwicklung zu beobachten.

Interessant ist das avisierte Verbot seitens Google auch im Hinblick auf die aktuelle Diskussion um das Leistungsschutzrecht, gegen das Google ja opponiert, weil man mit den eigene Services ja nur auf den Angeboten der Verlage „aufsetze“ und eigentlich durch die Verlinkung sogar eher unterstütze. Es stellt sich die Frage, ob dies bei den SEO-Tools, die die öffentlich zugänglichen Suchmaschinenergebnisse nur auswerten und zusätzliche Services anbieten nicht zumindest ähnlich ist …

4. Resumee

Big Data bietet zahlreiche neue Möglichkeiten. Vielerorts wird prognostiziert, dass entsprechenden  Aggregatoren die unterschiedliche Arten von (Medien-)inhalten und Informationen sammeln und diese bestimmten Zielgruppen in aufbereiteter Form zusammenstellen ein Stück der Zukunft im Internet gehört. Google selbst macht vor, was auch wirtschaftlich in diesem Bereich möglich ist.

Da Informationen aller Art im Internet die entscheidenden Wirtschaftsgüter sind, wird solcherlei Verarbeitung von Daten und vor allen deren Veredlung auch weiter an Bedeutung gewinnen. Bereits heute sieht man, dass Aggregatoren in vielen Bereichen als Gatekeeper fungieren, von deren (Nicht-)Vermittlung – wie z.B. Google, Reiseportale oder Preisvergleichsseiten – bereits heute schon einiges abhängt.

Die obenstehenden Ausführungen zeigen, dass es hierfür rechtliche Rahmenbedingungen gibt. Auch in diesem Bereich ist allerdings noch einiges in Entwicklung.

Nachdem wir bereits einige Geschäftsmodelle in diesem Bereich prüfen durften, sind wir gespannt, wie sich die rechtlichen Fragen um das „Eigentum“ an Daten weiter entwickeln. Die oben stehenden Ausführungen zeigen, dass sich mit ausgeklügelten Modellen auch rechtskonforme Ansätze herausarbeiten lassen.

Neben den datenschutzrechtlichen Aspekten aus dem letzten Beitrag zum Thema „Big Data & Recht“, die bei der Verwendung personenbezogener Daten berücksichtigt werden sollten, kommt es bei im Internet veröffentlichten Daten eben auch stark auf die obenstehenden Grundsätze an. Zusätzlich wird man bei der Verwendung bzw. Integration von Daten aus offenen Schnittstellen (wie z.B. der Facebook API) auch einen Blick auf die jeweiligen Regeln den Plattform (wie z.B. Richtlinien für die Facebook Plattform) haben müssen, auch um faktisch nicht ausgeschlossen zu werden.

Plattformen, die „ihre“ Daten zusätzlich zum datenbankrechtlichen Schutz absichern wollen, sollten zudem die zusammenfassenden Hinweise aus dem Beitrag „Screen Scraping – Wann ist das Auslesen und die Veröffentlichung fremder Daten zulässig ?“ berücksichtigen.

WEITERFÜHREND:

Big Data & Recht – Herausforderungen für den Datenschutz und die Causa O2

Screen Scraping – Wann ist das Auslesen und die Veröffentlichung fremder Daten zulässig ?

Gerne stehen wir bei weitergehenden Fragen oder Interesse an einem entsprechenden Inhouse Workshop telefonisch unter +49 (0) 711 860 40 025 oder via E-Mail carsten.ulbricht@menoldbezler.de zur Verfügung.

Comments

  1. Hallo Herr Ulbricht,

    interessante Zusammenfassung der rechtlichen Grundlagen! Insbesondere der Gedanke mit den kartellrechtlichen Bedenken könnte ein Ansatzpunkt für die Seite der Toolanbieter sein.

    Zwei Anmerkungen hätte ich noch: Google sperrt in seiner robots.txt-Datei die betroffenen Daten (also die Suchergebnisse) für den Zugriff durch Webcrawler. Die robots.txt-Datei ist zwar nicht direkt rechtlich bindend, hat sich aber immerhin als Standard durchgesetzt, an den sich (fast) alle Betreiber von Webcrawlern halten. Interessant ist in diesem Zusammenhang, dass sich auch die Anbieter von SEO-Tools an die robots.txt-Datei halten, soweit es um das Abrufen anderer Webseiten geht. Einzig an die robots.txt-Datei von google.com halten sie sich nicht.

    Der zweite Punkt betrifft den Schaden, der Google durch die Abrufe entsteht. Es dürfte unbestritten sein, dass die Millionen von automatisierten Suchabfragen auf Googles Seite enorme Kosten verursachen. Wie in meinem Beitrag vorgerechnet, würde ein bezahlter Zugriff auf diese Daten wohl Kosten i. H. v. mehreren Millionen Euro pro Jahr nach sich ziehen.

  2. Inzwischen ist es ja nun soweit gekommen, dass Google keinen genauen Einblick mehr in die Suchdaten ermöglicht – es sei denn man ist ein Werbepartner mit einem Mindestbudget. Aber genau da ist der Haken: Solche Daten müssen zur Verfügung stehen, um die Werbeschaltung zu ermöglichen und entsprechende Keyword Tools können darauf zugreifen und weiterhin diese Daten darstellen. Ich glaube nicht, dass wir uns je in einer Situation befinden werden, in der wir keinerlei Daten haben.

  3. Sarina says:

    Für mich als Laien ist das alles noch super kompliziert. Ist das Thema Datenbesitz und Big Data eine Sache, die von einer Agentur geklärt werden kann? Ich lese mich aktuell nur grob in das Thema SEO ein und bin über Ihren Artikel gestoßen. Habe die SEO Agentur Hamburg (https://www.seomatik.de/seo-agentur-hamburg/, ist die Ihnen bekannt?) für meine Website angefragt und möchte vorab auf keinen Fall irgendwelche rechtlichen Probleme ungeklärt haben. Können Sie mir da weiterhelfen?

Trackbacks

  1. […] Anwendungsfelder aus verschiedenen Perspektiven. Zudem enthält es praktische Empfehlungen, wie Big Data-Anwendungen nach geltendem Recht umgesetzt werden können und dabei den technischen und organisatorischen Aufwand so gering wie möglich zu […]

  2. […] Raventools gibt nach  und eine kurze rechtliche Betrachtung. […]

  3. Rechtliche Rahmenbedingungen

    Verbot in den Nutzungsbedingungen Internetportale

Speak Your Mind

*

Sicherheitsfrage *