Google Sitemap Generator: Strategi & Taktik

1/14/2009

Här har vi något nytt från Google: Google Sitemap Generator - Beta (code.google.com). Verktyget skiljer sig från allt liknande jag läst om men konceptet ser ut att stämma helt med hur jag uppfattat Google:s strategi.

Jag har inte tittat på verktyget eller koden i detalj men det handlar om direkt integration med din plattform på servern:

"Google Sitemap Generator is a tool installed on your web server to generate the Sitemaps automatically. Unlike many other third party Sitemap generation tools, Google Sitemap Generator takes a different approach: it will monitor your web server traffic, and detect updates to your website automatically."
Från: Welcome to Google Sitemap Generator (Beta)

Hur ser Google på sitemap idag?

Mitt intryck de senaste (kanske sex) månaderna är att Google övergivet en del tidigare idéer. Där fanns koncept som var verkligt eleganta men som jag och säkert få andra verkligen började använda. För oss verkliga och seriösa publicister måste värdet vara konkret för att vi ska kunna prioritera införande.

För sitemap ligger knappast ambitionen idag högre än att i första hand att detektera nytt innehåll. Därefter redan detekterat innehåll som ändrats och i sista hand gammalt innehåll man inte känner till. Allt annat tror jag i praktiken är borta. Bakom det kan man spekulera att prestanda- och optimeringsfrågor som man kan tänka sig blir tydliga när en IT-miljö positivt samspelar i tillväxt med datat som miljön ska bevaka och där tillväxt av data kräver tillväxt av IT-miljön. Man vill helt enkelt gå ifrån att onödigt behöva spindla sajter.

Hur ser det ut på medellång sikt?

Prioritetsnivån tror jag kan förändras på kort eller medellång sikt. Jag vill inte alls utesluta att det i praktiken viktigaste kan bli att trovärdigt detektera innehåll som ändrats. Kanske i kombination med att kunna välja ut sajter där det är stor betydelse att göra en djupare analys av nytt innehåll redan från början.

Sådana förändringar kan spegla tillväxt av olika typer av spamangrepp och hur bra Google kan detektera dem i övrigt.

Vilken strategi har Google för framtiden?

I det här segmentet uppfattar jag att viktigast för Google är att få in trovärdiga uppgifter om webbtrafiken direkt från publicisten:

  • Det kan visa om en kvalitetsindikator för en sajt är falsk.
  • Det gör det lätt att upptäcka olika typer av innehålls-spam.

Det här är ett tänk (för åtminstone första och andra punkten) man ser i all ny integration mellan publicist och Google, liksom surfare och Google. Ett par av de mest välkända exemplen är: Google Analytics och Google toolbar.

Statistiken kanske för ett stort annonsnätverk också går att översätta till ökade intäkter? Det är jag mer dock mer osäker på och mitt intryck är att Google nog redan har all statistik de behöver här. Det är ju vad de prioriterat huvudsakligen de senaste åren (och mycket lite på oss publicister).

Vad är speciellt med Google Sitemap Generator?

Konceptet bakom Google Sitmemap Generator är tydligt och stämmer exakt med hur jag uppfattat deras strategi och det är nästan helt vad jag skulle gissat på. Tänket låter jag dom bäst förklara själva (stil som är kursiv och fet är editering jag gjort för att peka ut sådant jag tror är viktigt):

The previous generation of Sitemap generators created Sitemaps by crawling websites, so they did not necessarily improve on the coverage provided by search engine crawlers. In contrast, Google Sitemap Generator monitors your web server traffic and detects updates to your site whenever a user accesses a new page. The main features of Google Sitemap Generator are:
  • Creation of Sitemaps based on web server traffic, web server logs and web server files.
  • Efficient generation of Web Sitemaps used by many search engines, and of Google-specific feeds for Mobile, Code Search, and Blog Search.
  • Easy configuration. Once you’ve completed the initial configuration, no further administration is needed. But if you do want to tweak the settings, you can use a web-based administration console.
  • Easy filtering of URLs, based on URL patterns.
  • Automatic calculation of certain metadata, such as modified time and change frequency.
  • Automatic submission of Sitemaps for Web search.
  • Google previously released sitemapgen, a Python-based tool, to Sourceforge. In comparison to sitemapgen, Google Sitemap Generator is a next-generation tool that relies on web server filtering rather than crawling, provides enhanced features, and supports more formats.

Google Sitemap Generator: Den viktigaste målsättningen

Viktigt för Google tror jag är att bemöta spam. Det handlar tror jag till stor del för Google att få möjlighet föratt kunna använda aggresiv filtrering utan att det nödvändigtvis behöver drabba seriösa webbplatser vilket av vad jag sett alltid blivit fallet idag. Får dessa problem kan Google gå ut med rådet att de använda en grupp verktyg för att lämna ut trafik. Genom det kan de (förhoppningsvis) direkt upptäcka falska-träffar på spam. Det här är inte nödvändigtvis något de gör idag men bör vara något de vill ha möjlighet till i framtiden.

På samma sätt är det viktigt för inte bara publicisten utan även Google att angrepp mot webbplatser detekteras. Väldigt mycket av det Google ger värde på till sina användare får de genom att lita på vissa webbplatser. Korrumperas dessa via angrepp (oavsett om det är spam eller något mer avancerat) drabbar det Google. Samtidigt genom att Google litar på webbplatser bedömer jag att detta också uppmuntrat till angrepp mot just dessa. Att möta det genom att få ut URL-filtrering m.m. direkt hos publicisterna via ett tänk man själv kontrollerar kan vara oerhört effektivt. Därmed flyttar man också över stora delar av beräkningsbelastningen för att detektera spam till publicisten (var det förresten inte Google som hade patenterat en serverhall-lösning som byggde på en plattform i havet? För kylningen).

I samband med detta hoppas jag att Google tydligt förvarnar mot ev. mer aggresiv filtrering som kan drabba oss seriösa publicister om man inte överlämnar data till Google på ett givet sätt. Särskilt om det är något som krävs om man redan använder Google Analytics.

Det som saknas: Var finns enkelheten?

Det enda som förvånar mig är att man inte integrerat det här mycket tydligt med Webmaster central och/eller samtidigt med Google Analytics redan från start. Jag menar på det allvarligaste att:

För oberoende publicister är redan idag antalet verktyg m.m. man behöver använda för stort. Konsolidering måste ske. Allt extra kostar i kvalitet.

Innan Google kan göra något sådant krävs givetvis att man har alla "komponenter" man behöver. Kring sådant är ju deras strategi från vad jag sett varit att publicera det så att alla som vill kan integrera det. Idag tror jag därför att det här primärt är riktat mot:

  • Open-source-projekt. T.ex. runt olika webbservrar.
  • Stora bloggnätverk. Jfr Wordpress.com för ett av världens största.
  • Produkttillverkare. Kanske Sun iPlanet?
  • Google. Deras egna lösningar. Det här och allt annat måste in under en enkel och bra lösning.

Samtidigt är enkelhet en faktor som nu snabbt blir avgörande för alla aktörer på nätet: surfare, publicister, sociala media, sökmotorer, produktleverantörer m.fl. Här måste man vara försiktig så att man inte tröttar ut den seriösa publiken. De slutar att lyssna och filtrerar bort dig om du kommer ut med en massa som de saknar konkret nytta av. Jag såg detta inte tidigare än Google (hoppas jag men när jag såg det här verktyget blev jag tveksam om det stämmer) men det förvånar mig att de inte såg trenden långt innan och redan nu hade hunnit reagera tydligt.

0 kommentarer

Kommentera