Verlage - Google - Bots - Snippets

Dez 06 2012

Leistungsschutzrecht: Herr Keese gibt Käse von sich

Kategorie Internet-Zeugs


Ich erlaube mir mal, aus dem Interview des Herrn Christoph Keese (seines Zeichens “Springer-Lobbyist”) auf horizont.net zu zitieren:

Auf die Frage:

Für uns ist die Krux an der Diskussion um das Leistungsschutzrecht: Wieso sperren die Verlage die Snippets für Google nicht einfach schon jetzt?

Antwortet der gute Mann scheinbar fachkundig mit:

Wie sollen wir die denn sperren? Jetzt sagen Sie: mit Robots.txt. Und was geschieht dann? Man wird bei jeder Suchmaschine und jedem Aggregator unsichtbar. An oder Aus für alle und alles – das ist die einzige Wahl, die einem Robots.txt lässt. Diese Technologie stammt aus der Steinzeit des Webs. Sie ist hoffnungslos veraltet und in keiner Weise mehr zukunftstauglich. Darauf haben die Verlage schon vor einem halben Jahrzehnt hingewiesen. Sie haben dafür geworben, dass maschinenlesbare Rechte-Sprachen entwickelt werden, die differenzierte Nutzungsbedingungen ausdrücken. Warum soll ein Verlag nicht sagen dürfen, für wen und in welchen Auszügen ein Text für welchen Preis gewerblich kopierbar oder nicht kopierbar sein soll? Google ist eine Art Taliban und wehrt sich gegen jede Art von Fortschritt.

Im Internet gibt es einen auf diese Antwort sehr gut passenden Ausspruch: Wenn man keine Ahnung hat, einfach mal die Fresse halten! Oder jemanden fragen, der sich mit “diesem Internet” auskennt. Und weil ich so ein herzensguter Mensch bin, gibt es hier kostenlos eine kleine Anleitung, wie man mit solch einer steinzeitlichen Technik wie der “robots.txt” und “Snippets” all die Dinge, die sich der Springer-Verlag wünscht, ohne so schmutzige Dinge wie das sogenannte Leistungsschutzrecht hinbekommt:

Die Suchmaschinen sammeln ihre Informationen mit sogenannten Bots ein. Jeder Suchmaschinen-Bot (sogar jeder Suchmaschinen-Dienst wie z.B. Google-News) hat einen eigenen Namen. Somit kann man jedem Bot sehr wohl differenziert mitteilen, wer sich welche Informationen anschauen darf, und wer welche nicht. Vom Komplettausschluss eines (oder aller) Bots bis hin zum Sperren ganz bestimmter Bereiche einer Seite ist alles möglich. Und das Tolle: Hierfür braucht man kein Informatik-Studium. Es reicht eine simple auch für nicht-Experten leicht zu erstellende Textdatei mit dem Namen “robots.txt” im Hauptverzeichnis der Seite. Was man damit alles anstellen kann, kann man im sogenannten “Robots Exclusion Standard” nachlesen. Und das Verblüffende: alle seriösen Bots halten sich automatisch daran. Ich nenne das nicht Steinzeit, sondern verdammt effizient und innovativ.

Doch – wenn man sich die Argumente der Verlage anschaut, geht es ja im Grunde gar nicht um die Einträge in der Suchmaschine. Man moniert, dass die Suchmaschinen mit den kleinen Anreißern zu den verlinkten Artikeln, ohne dafür zu bezahlen, Inhalte abgreifen. Ein in meinen Augen zweifelhaftes Argument, worüber sich sicherlich streiten lässt. Fakt ist aber auch, dass man mit den bereits existierenden technischen Mitteln der Meta-Tags den Suchmaschinen mitteilen kann, dass sie die Anzeige der sogenannten Snippets unterbinden sollen:

<meta name=”googlebot” content=”nosnippet”>

Schwippduwupp verschwinden die ach so kostbaren Inhalte der Verlage aus den Suchlistings von Google. Gut – dann würden vermutlich auch weniger Suchende Klicken und die tollen Werbebanner der Verlage zu Gesicht bekommen – aber ganz so kompliziert und mehrdimensional wollen wir ja gar nicht erst denken.

Fazit: Technisch haben die Verlage alles in ihrer Hand, um ihre (vermeintlichen) Wünsche ohne das Leistungsschutzrecht durchzusetzen. Das bringt einen abschließend zu der Frage: Geht es den Verlagen womöglich gar nicht um die außerhalb ihrer Seiten angezeigten Inhalte, sondern vielleicht doch nur um den schnöden Mammon? Na klar – genau so ist es! Die brauchen neue Einnahmequellen und da kommt das pöse Google genau richtig. Als ob die armen Verlage mit den vielen Besuchern, die von Google kommen, so überhaupt gar kein Geld verdienen würden. Ob Google sich durch solche miesen Machenschaften in die Suppe spucken lässt, halte ich für äußerst fraglich. Wenn ich Google wäre, würde ich die jetzt so laut aufheulenden Verlage einfach mal aus dem Index werfen. Oder noch besser: Den sprichwörtlichen Spieß umkehren und für den für die sogenannten “Content Provider” aktuell noch kostenlosen Service “Google News” Geld von allen Verlagen verlangen, die dort erscheinen wollen. ;-)

Keine Kommentare bisher

Einen Kommentar hinterlassen


Spammen zwecklos!
Lediglich zum Zwecke der Linkverbreitung abgegebene Kommentare werden kommentarlos gelöscht!