Ecco l’algoritmo di Google

- Letture: 1.986

Avete mai pensato cosa succederebbe se l’algoritmo del più famoso motore di ricerca, come Google, fosse scoperto cosa accadrebbe?

A ipotizzare il famoso algoritmo ci ha pensato Randfish, proprietario ed operatore di seomoz.org.

Algoritmo di Google

Randfish confidando nella sua esperienza nel campo dell’ottimizzazione per i motori di ricerca, ha provato a scrivere una formula che riassuma tutti i fattori che potrebbero essere presenti nell’algoritmo di Google.

Ecco la forumula:

PunteggioGoogle = (Utilizzo delle parole chiave * 0.3) + (Importanza del dominio * 0.25) + (Link in ingresso * 0.25) + (Dati degli utenti * 0.1) + (Qualità del contenuto * 0.1) + (Spinte manuali) – (Penalizzazioni automatiche & manuali)

Fattori nell’utilizzo delle parole chiave (Keywords):

  • Parole chiave nel tag del titolo
  • Parole chiave nei tag degli header
  • Parole chiave nel testo del documento
  • Parole chiave nei link interni che puntano alla pagina
  • Parole chiave nel nome di dominio e/o nell’indirizzo della pagina (URL)

Importanza del dominio:

  • Storia della registrazione
  • Età del dominio
  • Importanza dei link che puntano al dominio
  • Rilevanza del dominio sull’argomento basata sui link in entrata ed in uscita
  • Utilizzo storico & pattern dei link verso il dominio

Punteggio dei link in entrata:

  • Età dei link
  • Qualità dei domini che mandano il link
  • Qualità delle pagine che mandano il link
  • Testo dei link
  • Valutazione della quantità/peso dei link (Pagerank o sue variazioni)
  • Rilevanza sull’argomento delle pagine/siti che mandano i link

Dati degli utenti:

  • Storia della percentuale dei click (CTR) sulla pagina nei risultati dei motori di ricerca
  • Tempo speso dagli utenti sulla pagina
  • Numero di ricerche per URL/nome del dominio
  • Storia delle visite/utilizzo dell’URL/nome del dominio degli utenti che Google può monitorare (toolbar, wifi, analytics, ecc.)

Punteggio della qualità del contenuto:

  • Potenzialmente dato a mano per le ricerche e per le pagine più popolari
  • Fornite da valutatori interni di Google (vedi Henk)
  • Algoritmi automatizzati per valutare il testo (qualità, leggibilità, ecc.)

Fonte [magnificaweb]

Stratega, Docente, Speaker con più di 12 anni di esperienza in strategie creative multicanale. Oggi sono Partner & Chief Innovation Officer di ThinkingHat, Innovation Studio specializzato in tecnologie emergenti per aziende e brand audaci.

6 Commenti

  1. bè quali sono i criteri che usano gli spider per indicizzare i siti non sono certo un mistero… cosa succederebbe se si scorprisse la “formula” esatta?? un bel niente….

  2. @Julius. Interessante previsione, però ce ne sono tante in giro :(
    @edo. Fossi io a scoprire l’algoritmo ranking di google, sicuramente mi rivenderei meglio! ;)

  3. Francesco

    ragazzi forse scoprire l’algoritmo è un pò dificile (diciamo un pò) ma non si riesce a dedurre neanche in che linguaggio di programmazione sia scritto?

  4. Beh, il linguaggio non è l’importante, una formula matematica la implementi con qualsiasi linguaggio! Cmq ragazzi noto che sempre di più Google decide troppe cose e sà altrettante troppe cose, se vi piace l’opensource ma anche se non vi piace date una occhiata al progetto BeeSeek, è qualcosa di innovativo nel campo della ricerca!

  5. Grazie jiulis anche se sei stato riduttivo… dal mio punto di vista l’algoritmo è assai più complesso per un emplice fattore..varia troppo spesso! E’ per questo difficile da decifrare cambiano spesso piccole variabili che come possiamo notare fano muovere la serp.. con siti che appaiono per un giorno solo e poi via.. oppure siti che prima cerano poi…! credo che una costanza sul lavoro di sponsorizzazione del sito sia molto importante, fermare la “pubblicità” anche per poco comporta una perdita enorme.. Il commento non sarà eccezionale ma è l’una di notte e ho appena finito di lavorare NOTTE a tutti

  6. Anche se si conoscesse il vero algoritmo cambierebbe poco.. I seo cercherebbero di posizionarsi sempre meglio.. etc.. ma le serp cambierebbero di poco, se non per l’aumentare di spam secondo me.
    Reverse engineering lo fanno tutti i giorni su google… i punti da te elencati sono i fattori piu importanti del posizionamento, ma per chi non è del campo, non sono molto chiari, anzi :P
    C’è aggiungere che poi google non è solo algoritmi, ma anche quality rater, quindi ci sono anche esseri umani che controllano le serp ed i siti web.

    Io piu che conoscere l’algoritmo preferirei conoscere i dati di accesso al db di google e magari modificare qualcosa a manina LOL

Commenti