"Our goal is simple: to give people the most relevant answers to their queries as quickly as possible. This requires constant tuning of our algorithms, as new content—both good and bad—comes online all the time."
Così Amit Singhal e Matt Cutts, sul blog di Google. Lo scopo è quello di fornire le risposte più rilevanti alle ricerche, e il più velocemente possibile. E questo richiede un affinamento continuo degli algoritmi.
Di solito, continuano, i nostri aggiornamenti sono così lievi che solo alcuni se ne accorgono. Ma negli ultimi giorni sono state fatte modifiche consistenti, soprattutto al sistema di ranking, e si pensa che queste modifiche possano avere un impatto su quasi il 12 % delle ricerche.
L'aggiornamento riguarda, in pratica, i collegamenti a siti di bassa qualità che occupano una posizione alta in classifica, che copiano i loro contenuti dagli altri siti o che non hanno utilità per gli utenti: le fabbriche di contenuti, il cui intento è solo quello di generare una gran mole di visite. Ma, allo stesso tempo,
" it will provide better rankings for high-quality sites—sites with original content and information such as research, in-depth reports, thoughtful analysis and so on."
L'algoritmo cercherà di impedire ai siti scadenti di salire la classifica e, nello stesso tempo, di favorire invece l'ascesa dei siti che hanno contenuti originali, analisi, ricerche approfondite, rapporti dettagliati, in poche parole contenuti di qualità. Bello a dirsi ma non facile a farsi.
Alla Google sanno che rimandare a pagine con contenuti di qualità offre il miglior ritorno commerciale, li chiamano "wonderful website around the world" con una leggera enfasi, ma come dargli torto? Quindi, per mantenere una rete in salute, occorre premiare questi famosi siti di qualità.
Già. Ma come si fa?
Tempo fa Google ha lanciato un'estensione per Chrome chiamata Personal Blocklist, con la quale l'utente segnala un sito da bloccare quando esegue una ricerca, perchè con contenuti, come si dice, sub par, cioè di bassa qualità o non inerenti. Evidentemente Google spera di ottenere da questo feedback negativo una classifica dei siti maggiormente bloccati dagli utenti, che poi sono quelli considerabili come siti di bassa qualità che copiano i contenuti o che non forniscono informazioni utili. Ora, affermano che il nuovo algoritmo non si basa sulle classifiche di questa estensione ma che comunque hanno trovato una notevole coincidenza tra quello che riportava il loro nuovo algoritmo e quello che segnalavano gli utenti nella loro Personal Blocklist: l'84 % di concordanza. Se il dato è vero è quasi stupefacente. La considerano insomma una conferma alla bontà del loro lavoro.
Come sperano di riuscirci, se il giudizio sulla qualità è, nonostante tutto, spesso soggettivo? Probabilmente la loro lotta è focalizzata, per ora, sulle fabbriche di contenuti, le quali non producono mai articoli originali ma li copiano sempre. Ci dovrebbe essere quindi una differenza temporale tra due siti che presentano lo stesso identico contenuto, uno originale e uno copiato. Forse è su quel lasso di tempo che si gioca la classificazione tra i buoni e i cattivi. E forse, nonostante lo neghino, un confronto con il Personal Blocklist, utile strumento umano sulla qualità dei siti.
Per ora questo nuovo algoritmo di ricerca verrà lanciato solo negli Stati Uniti e, mano a mano, verrà distribuito negli altri paesi. La direzione sembra quella giusta ma per vederne i risultati dalle nostre parti occorrerà aspettare ancora un po'.
Nessun commento:
Posta un commento
Come si dice, i commenti sono benvenuti, possibilmente senza sproloqui e senza insultare nessuno e senza fare marketing. Puoi mettere un link, non a siti di spam o phishing, o pubblicitari, o cose simili, ma non deve essere un collegamento attivo, altrimenti il commento verrà rimosso. Grazie.