Video: Zate feat. Ced - Deine Fehler (Dezember 2024)
Um meine Nachrichten zu erhalten, scanne ich häufig Google News. Dabei werden Artikel aus der ganzen Welt basierend auf den vom "Roboter" ermittelten Trends zusammengefasst. Es geht nur darum, was im Trend liegt. In der Regel werden aktuelle Nachrichten übersehen und wichtige Kommentare, wie z. B. meine Kolumne, ignoriert. Stattdessen scheint es vorzuziehen, auf tote Links zuzugreifen - womit ich das Wall Street Journal meine, für dessen Lesen ein Abonnement erforderlich ist.
Heute ist ein typisches Beispiel. Es gab eine aktuelle Nachricht von CES über das Dish Network, das ein Angebot zum Kauf von Clearwire abgegeben hatte. Anstatt jedoch über kostenlose und lesbare Websites auf eine der verwandten Geschichten zu verlinken, entscheidet Google, dass die Top-Story aus dem Wall Street Journal stammen sollte .
In der Vergangenheit hatte Google eine Vereinbarung getroffen, die es den Nutzern ermöglichte, zumindest den ersten Absatz oder sogar den gesamten Artikel zu lesen, bevor sie von der Paywall blockiert wurden. Dies gilt nicht mehr, es sei denn, Sie kennen einen Bypass-Trick (siehe unten). Jetzt stößt du auf die Paywall und bist fertig. Ich nehme an, die tatsächlichen Abonnenten kommen daran vorbei, aber ich frage mich, wie die Google-Bots daran kommen, die Geschichte überhaupt zu finden. Zahlt Google? Das bezweifle ich. Es muss also eine Art Hintertür für die Google-Bots geben, oder?
Dies ist ein Schwindel, der den Google-Nutzern einen schlechten Dienst leistet. Google macht sich all diese Mühe, um Leute zu besiegen, die versuchen, das System zu spielen, aber es lässt das Wall Street Journal diesen Trick ziehen? Dies ist im Wesentlichen ein bezahlter Betrag für Abonnements im Wall Street Journal . Ist es das, was Google will? Bekommt Google einen Schnitt?
Es kann nicht so schwer für Google sein, diesen Ärger einfach zu beheben. Es würde eine Minute dauern - fünf Spitzen. Ist das zu viel Arbeit?
Wenn in einem Unternehmen eine Paywall integriert ist, sollte Google die Site überhaupt nicht durchsuchen. Die Bots sollten wissen, dass es eine Paywall gibt, und einfach die Suche vermeiden. Und ja, ich hätte gerne eine Erklärung, wie genau die Bots eine Site durchsuchen können, die von einer Paywall blockiert wird. Es ist ein Mysterium.
Eine Paywall sollte genau das gleiche sein wie eine "robots.txt", die dem Crawler-Bot sagt, er solle verschwinden. Aber etwas ist faul an der WSJ- Google-Beziehung. Der einfachste Weg, alle Bots zu töten, ist ein Meta-Tag in der robots.txt-Datei. .
Der WSJ blockiert stattdessen gezielt bestimmte Unterverzeichnisse, aber anscheinend nicht alle. Und noch seltsamer: Wenn Sie eine Google News-Suche nach genau demselben Artikel durchführen, anstatt einfach auf den Link in der Übersicht zu klicken, erhalten Sie den Artikel über einen anderen Mechanismus.
Ich fordere die technischeren Leser heraus, herauszufinden, was mit diesen beiden vor sich geht, indem ich die vom WSJ verwendete Datei robots.txt untersuche. Ein öffentliches Dokument finden Sie hier.
In jedem Fall verfügen Standorte aus finanziellen Gründen über Paywalls. Wenn sie Spiele mit ihren Inhalten spielen möchten, ist das eine Sache, aber es sollte aus den Suchergebnissen auf die gleiche Weise verbannt werden, wie Google versucht, Leute zu vereiteln, die versuchen, das System zu spielen. Google wird einen unglücklichen Blogger mit einem Schlag für etwas skizzenhaftes Verhalten verbieten. Wie wäre es mit größeren Websites genauso umzugehen?
Sie können John C. Dvorak auf Twitter @therealdvorak folgen.
Mehr John C. Dvorak:
Gehen Sie mit John C. Dvorak vom Thema ab.
ALLE FOTOS IN DER GALERIE ANZEIGEN