Bundesgericht vs. Google und andere Suchmaschinen

Foto: Schweizerisches Bundesgericht

Letzte Woche stellte ich fest, dass das Schweizerische Bundesgericht Google und anderen Suchmaschinen verbietet, Bundes­gerichts­entscheide zu indexieren. Inzwischen hat Dr. Paul Tschümperlin als Generalsekretär des Bundesgerichts meine Anfrage in dieser Angelegenheit freundlicherweise beantwortet.

Gemäss dieser Antwort hat das Bundesgericht seine öffentlichen Urteils­datenbanken an das Unternehmen Eurospider ausgelagert und dafür ein Service Level Agreement (SLA) abgeschlossen, das bestimmte Antwortzeiten für den Zugriff auf die bundesgerichtliche Rechtsprechung garantiert. Eurospider veröffentlicht unter anderem auch die iPad-App LEXspider zum Zugriff auf die Systematische Sammlung des Bundesrechts (SR), die Rechtsprechung des Bundesgerichts und das Bundesblatt.

Mitte 2012 stellte Eurospider fest, dass die Urteilsdatenbanken durch Crawler von verschiedenen Dritten so stark belastet wurden, dass eine Beeinträchtigung der Antwortzeiten für den Zugriff erfolgte. In der Folge vereinbarte das Bundesgericht mit Eurospider, «die Möglichkeit zu einem gezielten und kontrollierten Crawlen zu implementieren.»

Aus diesem Grund wurde Google und anderen Suchmaschinen mittels Anweisungen in den Metaelementen der einzelnen Seiten sowie via robots.txt-Datei das Indexieren von Bundesgerichtsentscheiden faktisch untersagt. Google und andere Suchmaschinen verweisen deshalb bei Suchanfragen nach dem Inhalt von Bundesgerichtsentscheiden nicht auf die offizielle Website des Bundesgerichts, sondern auf Dritte wie beispielsweise PolyReg und Prof. Tschentscher (Universität Bern), deren Crawler anscheinend die Anweisungen an Suchmaschinen ignorieren und deshalb die gesamte bundesgerichtliche Rechtsprechung erfassen.

Das Bundesgericht bestätigt in seiner Antwort immerhin, dass zumindest in Bezug auf die bundesgerichtlichen Leitentscheide (BGE) das Aussperren von Suchmaschinen keinen Sinn ergibt. Man habe die entsprechende Sperre daher bereits entfernt. Im Bezug auf die übrige Rechtsprechung allerdings ist das Bundesgericht nicht bereit, das Indexieren der Rechtsprechung durch Suchmaschinen zu erlauben (mit Hervorhebung und Verlinkung durch den Autor):

«Für die Datenbank ‹weitere Urteile ab 2000› ist dagegen auch die allgemeine Publikationspolitik des Bundesgerichts zu berücksichtigen. Diese Datenbank dient rein der Transparenz. Der Bürger soll bei Bedarf jedes Urteil auf der Homepage des Bundesgerichts aufrufen und die Rechtsprechung des höchsten Gerichtes einzelfallbezogen nachlesen können. Nichts soll verheimlicht werden. Hingegen ist diese Datenbank nicht für Recherchen gedacht. Es ist sinnlos und schadet einer effizienten Rechtsanwendung, wenn das Bundesgericht die Öffentlichkeit mit Abertausenden von repetitiven Urteilen überschwemmt. Nach der Rechtsprechung des Bundesgerichts sind einzig die in der amtlichen Sammlung BGE veröffentlichten Urteile (sowie bestimmte Urteile aus einschlägigen Fachzeitschriften) unter dem Titel der anwaltlichen Sorgfaltspflicht massgebend. Die damit verbundene Publikationsstrategie wird nun unterstützt, wenn wir in Zukunft die Indexierung der Leitenscheide BGE zulassen, jene der Datenbank ‹weiterer Urteile ab 2000› dagegen nicht […]»

In diesem Zusammenhang verweist das Bundesgericht ergänzend auf eine Veröffentlichung von Dr. Tschümperlin über «Die Publikation gerichtlicher Entscheide» (PDF).

Im Ergebnis hat sich die Situation verbessert, bleibt aber unbefriedigend: Das Bundesgericht kann nun zwar zu Recht festhalten, dass Suchmaschinen grundsätzlich nicht ausgeschlossen werden, wenn sie gewisse Regeln einhalten. Aber Google und andere Suchmaschinen, die Anweisungen («Regeln») in robots.txt-Dateien und in Metaelementen beachten, können weiterhin nicht alle Bundesgerichtsentscheide erfassen. Die Rechtsprechung jenseits der Leitentscheide (BGE) ist für solche Suchmaschinen immer noch nicht zugänglich.

Wer alle Bundesgerichtsentscheide ohne Nutzung der offiziellen Suchfunktion durchsuchen möchte – beispielsweise weil diese als nicht mehr zeitgemäss empfunden wird, teilweise kostenpflichtig ist und die Bedürfnisse von mobilen Benutzern nicht berücksichtigt –, muss zwingend auf Dritte wie Polyreg ausweichen, die Anweisungen für Suchmaschinen ignorieren. Solche Dritte werden durch das Bundesgericht mittels der Einschränkungen für Google und andere Suchmaschinen indirekt gefördert, denn Polyreg und andere Dritte profitieren davon, dass etablierte Suchmaschinen die Rechtsprechung des Bundesgerichts nur unvollständig erfassen dürfen.

Persönliches Fazit

Ich bedauere, dass das Bundesgericht nicht bereit ist, seine gesamte Rechtsprechung im Sinn von Transparenz und Gerichtsöffentlichkeit ohne Einschränkungen für den Zugriff durch Bürger und Dritte wie Suchmaschinen zu veröffentlichen:

Für interessierte Bürger und die übrige Öffentlichkeit sollte der Zugriff auf die gesamte Rechtsprechung kostenlos sein – heute ist die so genannte Expertensuche nur kostenpflichtig über einen Drittanbieter zugänglich – und eine zeitgemässe Suchfunktion sollte alle Bundesgerichtsentscheide erschliessen.

Für Dritte wie Suchmaschinen sollte die Rechtsprechung in maschinenlesbarer Form über eine offene Schnittstelle (Application Programming Interface, API) im Rahmen von E-Government und Open Government Data zu angemessenen Bedingungen erschossenen werden.

Siehe auch: «Transparenzbegriff entbehrt nicht einer gewissen Komik» in der Neuen Zürcher Zeitungen (NZZ) mit Stellungnahmen von Digitaler Allmend und Open Knowledge Foundation (Opendata.ch).

Bild: Wikimedia Commons / Roland Zumbühl, CC BY-SA 3.0 (nicht portiert)-Lizenz.

3 Kommentare

  1. Soviel ich weiss könnte man in den Google Webmastertools auch einfach die Crawl-Frequenz reduzieren…

    Zudem sind bestimmt nicht jene Crawler das Problem welche sich an robots.txt halten, sondern die, die das nicht tun.

    1. @Danilo:

      «Soviel ich weiss könnte man in den Google Webmastertools auch einfach die Crawl-Frequenz reduzieren…»

      Richtig … aber gibt es wirklich Websites, die halbwegs kompetent gehostet werden und durch die Zugriffe des Google Crawlers überfordert sind?

      «Zudem sind bestimmt nicht jene Crawler das Problem welche sich an robots.txt halten, sondern die, die das nicht tun.»

      Genau … das Bundesgericht ermöglicht Suchmaschinen wie Google keinen vollständigen Zugriff auf die Rechtsprechung und fördert damit Dritte, die diese Rechtsprechung anbieten können, weil sie sich nicht an die «Spielregeln» halten. Auch aus diesem Grund ist die Publikationspolitik des Bundesgerichts für mich nicht nachvollziehbar und ich hoffe deshalb, dass das Bundesgericht zu einem späteren Zeitpunkt zu einer anderen Beurteilung gelangt.

  2. Sehr geehrter Herr Steiger. Vielen Dank für ihre oben stehende, ausführliche Zusammenfassung. Wie sieht diese Problematik aktuell aus? Existiert mittlerweile eine API?

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Felder mit * sind Pflichtfelder.