Buchbesprechung: Daniel Hürlimann – Suchmaschinenhaftung

Suchmaschinen wie Google, Bing, Search.ch oder juristische «Schwestern» wie z.B. Lawsearch sind heute im Umgang mit dem Internet schlicht nicht mehr wegzudenken. Sie sind unerlässlich für jegliche Recherchen. Die Dissertation von Dr. iur. Daniel Hürlimann beschäftigt sich mit der Frage, ob sich nach Schweizer Recht eine zivilrechtliche Verantwortlichkeit der Betreiber von Internetsuchmaschinen aus Urheber-, Marken-, Lauterkeits-, Kartell- und Persönlichkeitsrecht erkennen lässt.

Dieser Beitrag ist als Erstpublikation bereits erschienen in: Jusletter 17. September 2012

Der inhaltliche Aufbau

Im Teil 1 seiner Dissertation befasst sich Hürlimann mit der Funktionsweise und Bedeutung von Suchmaschinen. Dabei erklärt er, welche Arten von Suchmaschinen es gibt, wozu man sie nutzen kann, wie sie funktionieren und wie wichtig sie in der heutigen Zeit geworden sind. Teil 2 widmet sich den Rechtsgrundlagen. Da er sich auf die zivilrechtliche Haftung beschränkt, klärt er die Grundlagen im allgemeinen Haftpflichtrecht, dem Immaterialgüterrecht sowie dem Wettbewerbsrecht. Im Teil 3 schliesslich kommt er zum eigentlichen Kern der Publikation, den zivilrechtlichen Haftungsfragen.

Wer die Publikation selektiv lesen möchte und schon ansatzweise versteht, wie eine Suchmaschine funktioniert, dem ist der Fokus auf Teil 3 empfohlen. Die Hauptthemen dieses Teils bilden die Fragen der Haftung für eigenes Verhalten der Suchmaschinenbetreiberin, der Haftung für in der Trefferliste verlinkte Inhalte und der Haftung für in der Trefferliste eingeblendete Werbung Dritter.

Ausgewählte Resultate

Um nicht nur Fragen zu stellen, sondern auch einige Antworten zu geben, werden nachfolgend einige Resultate der Analyse von Hürlimann kurz zusammengefasst bzw. auszugsweise zitiert:

  • Die Datei robots.txt ist ein einfaches Textfile, das in jeder Webseite im Stammverzeichnis abgelegt werden kann. Mit ihr kann der Webseite-Betreiber auf einfache Art und Weise Suchmaschinen Anweisungen geben. So können z.B. einzelne Seiten oder Dateien vom Indexieren ausgeschlossen werden. Zur Frage, ob und wieweit Suchmaschinenbetreiberinnen den Robots Exclusion Standard einzuhalten und damit die Datei Robots.txt zu beachten haben, nimmt Hürlimann eine klare Haltung ein. Sie muss beachtet und befolgt werden. (Z.B. Daniel Hürlimann, Suchmaschinenhaftung, Bern 2012, S. 68 ff., S. 155.)
  • Zur Frage, was ein Webseite-Betreiber machen kann, wenn er möchte, dass eine via Suchmaschine auffindbare Webseite dort nicht mehr zu finden ist, schreibt er: «[Ein Webseite-Betreiber kann] die konkludente Einwilligung [zur Aufnahme in den Index und zur Verlinkung] nur widerrufen, indem er entweder die Inhalte löscht bzw. unter einer neuen und nicht verlinkten URL abspeichert oder indem er die Erfassung mittels Robots Exclusion Protocol verhindert. Somit sind Suchmaschinenbetreiber nur dann verpflichtet, nicht mehr verlinkte Webseiten aus ihrem Index zu entfernen, wenn dies explizit über das Robots Exclusion Protocol erfolgt.» (Hürlimann, S. 75.)
  • Suchmaschinen zeigen häufig bereits auf ihrer Trefferliste Textauszüge der gefundenen Webseiten (sog. Snippets) und herabskalierte Vorschaubilder der Webseite als Ganzes oder einzelner Grafiken (sog. Thumbnails) an. Was gilt, wenn diese Inhalte urheberrechtlich geschützt sind? Hürlimann: «Urheberrechtlich geschützte Texte und Bilder dürfen auch ohne Einwilligung als Snippets bzw. Thumbnails angezeigt werden, weil sie als Hinweise dienen und damit von der Schrankenbestimmung von Art. 25 URG erfasst sind.» (Hürlimann, S. 156)
  • Zur Frage, was gilt, wenn eine Webseite Inhalte enthält, an denen jemand anderes Rechte hat und diese dadurch verletzt werden, schreibt er: «Für verlinkte Inhalte haften Suchmaschinenbetreiber erst bei Nichtentfernung trotz eines Hinweises auf eindeutige Rechtsverletzung.» Andernorts: «Abzulehnen ist eine Pflicht des Suchmaschinenbetreibers zur selbständigen Recherche nach Webseiten, welche z.B. bestimmte Texte, Bilder, Musik oder Videos enthalten. Denn damit würde eine Filterpflicht statuiert, die ohne menschliches Zutun nicht umsetzbar wäre, ohne dass auch zahlreiche unbedenkliche Webseiten erfasst würden. Dies wiederum hätte dieselben Konsequenzen wie eine Verpflichtung zur präventiven Prüfung aller erfassten Inhalte, namentlich die rechtliche Unzulässigkeit des Weiterbetriebs von Suchmaschinen. Aus diesem Grund ist festzuhalten, dass sich Hinweise an Suchmaschinenbetreiber auf rechtswidrige Verlinkungen innerhalb der Suchergebnisse immer auf konkrete Webseiten beziehen müssen.» (Hürlimann, S. 156 und S. 115.)

Eine Würdigung

Die Lektüre von Hürlimanns Publikation ist ein Muss für Juristinnen und Juristen, die sich auf Informatikrecht, Immaterialgüterrecht, Wettbewerbsrecht oder Haftungsfragen spezialisiert haben. Ebenso ist sie es für all jene, die sich für juristische Fragen im Online-Bereich interessieren.

Ein kleiner Wermutstropfen ist, dass bei der Beschreibung der Funktionsweise von Suchmaschinen keine erklärenden, grafischen Darstellungen oder Bildschirmfotos zum Einsatz kommen. Leider sind aber juristische Publikationen ganz generell zu wenig illustriert. Und aus Verlagsoptik sind Grafiken erfahrungsgemäss etwas «unpraktisch», weil sie in der Herstellung des Buchs viel Aufwand generieren. Das lohnt sich nur bei Büchern, die gut verkauft werden, wozu Dissertationen sicherlich nicht zählen.

Erfreulich ist wiederum Hürlimanns Schreibstil. Sachlich, strukturiert und ohne Schlenker geht er jede Frage an. Innert wenigen Sätzen kommt er zum Punkt. Das macht die Lektüre einfach und leicht verdaulich.

Bibliografisches

Die Publikation ist im Stämpfli-Verlag erschienen in der Reihe «Schriften zum Medien- und Immaterialgüterrecht» (herausgegeben von Prof. Manfred Rehbinder und Prof. Reto M. Hilty):

Daniel Hürlimann, Suchmaschinenhaftung
Zivilrechtliche Verantwortlichkeit der Betreiber von Internetsuchmaschinen aus Urheber-, Marken- Lauterkeits-, Kartell- und Persönlichkeitsrecht, Stämpfli Verlag AG, Bern 2012, 202 Seiten, CHF 74, ISBN: 978-3727218934 (Online-Bestellung / Inhaltsverzeichnis).


Transparenzhinweis: Bis Oktober 2010 war Nils Güggi Verlagsleiter der Weblaw AG und Dr. Daniel Hürlimann war einer seiner Mitarbeitenden im Verlagsteam als Projektleiter von Jusletter und später Leiter der Richterzeitung.

2 Kommentare

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s