Hjem udtalelser Google, rett dine fejl! | john c. dvorak

Google, rett dine fejl! | john c. dvorak

Video: Skriveopgaver i Google Classroom: ret dine fejl (Oktober 2024)

Video: Skriveopgaver i Google Classroom: ret dine fejl (Oktober 2024)
Anonim

VIS ALLE BILLEDER I GALLERI

For at få mine nyheder scanner jeg ofte Google Nyheder, der samler artikler fra hele verden baseret på, hvad "roboten" har bestemt, at der er en tendens. Det handler om hvad der er trend. Det går generelt glip af nyheder og ignorerer fuldstændigt vigtige kommentarer, som min spalte. I stedet ser det ud til at foretrække at gå til døde links - som jeg mener Wall Street Journal , som kræver et abonnement for at læse.

I dag er et eksempel. Der var en nyhedshistorie fra CES om, at parabol-netværket afgav et bud på at købe Clearwire. Men i stedet for at linke til nogen af ​​de relaterede historier ved gratis og læsbare websteder, beslutter Google, at den øverste historie skal komme fra Wall Street Journal .

Tidligere havde Google en slags aftale, der gjorde det muligt for brugere i det mindste at læse hovedafsnittet, eller endda hele artiklen, før de blev blokeret af betalingsmuren. Medmindre du kender et bypass-trick (diskuteret nedenfor), gælder dette ikke længere. Nu løber du ind i betalingsmuren, og du er færdig. Jeg formoder, at faktiske abonnenter kommer forbi dette, men jeg spekulerer på, hvordan Google-bots klarer sig for at finde historien i første omgang. Betaler Google? Det tvivler jeg på. Så der skal være en slags bagdør til Google-bots, ikke?

Dette er falske og gør en bjørnetjeneste for Google-brugerne. Google gennemgår alle disse problemer med at besejre folk, der prøver at spille systemet, men det lader Wall Street Journal trække dette stunt? Dette er hovedsagelig en betalt for abonnement på Wall Street Journal . Er det hvad Google ønsker? Får Google en nedskæring?

Det kan ikke være så svært for Google blot at løse denne irritation. Det ville tage et minut - fem toppe. Er det for meget arbejde?

Hvis et firma har en paywall indbygget i sin tjeneste, skal Google overhovedet ikke søge på webstedet. Botterne skal vide, at der er en paywall og simpelthen undgå søgningen. Og ja, jeg vil gerne have en forklaring på, hvordan botterne nøjagtigt kan søge på et websted, der er blokeret af en betalingsmur. Det er et mysterium.

En paywall skal være nøjagtigt den samme som en "robots.txt", der fortæller crawler-bot at gå væk. Men noget er fishy ved WSJ- Google-forholdet. Den nemmeste måde at dræbe alle bots på er et metatag i robots.txt-filen, således: .

VIS ALLE BILLEDER I GALLERI

WSJ blokerer i stedet specifikt visse undermapper, men tilsyneladende ikke alle. Og uhyggelig, hvis du foretager en Google News-søgning efter nøjagtig den samme artikel, snarere end blot at klikke på linket i oversigten, får du artiklen gennem en anden mekanisme.

Jeg udfordrer de mere tekniske læsere derude til at finde ud af, hvad der foregår med disse to ved at undersøge robots.txt-filen, der er ansat af WSJ . Et offentligt dokument er tilgængeligt her.

Uanset hvad der er tilfældet, har websteder paywalls af økonomiske grunde. Hvis de vil spille spil med deres indhold, er det en ting, men det skal forbydes fra søgeresultater på samme måde som Google forsøger at forhindre folk, der prøver at spille systemet. Google vil forbyde en ulykkelig blogger ved dråben af ​​en hat for en vis skitseret opførsel. Hvad med at håndtere større websteder på samme måde?


Du kan følge John C. Dvorak på Twitter @therealdvorak.

Mere John C. Dvorak:

Gå off-topic med John C. Dvorak.

VIS ALLE BILLEDER I GALLERI

Google, rett dine fejl! | john c. dvorak