giovedì 11 novembre 2010

Parametri del SEO, seconda parte

Sì, è passato un po’ di tempo dal mio ultimo post in quanto durante la stagione estiva preferisco passare tempo nella natura, camminando e guidando la bici, che davanti al monitor. L’estate è già da parecchio passata ed è ora di tornare a lavorare. La prima puntata era a marzo e proprio in quel periodo sono accadute le cose nuove, di enorme importanza per noi webmaster. Google ha introdotto Cocaina. Si hai letto bene, la nuova versione non si chiama Caffeina, come vogliono farci credere, e ho le prove inconfutabili a proposito. I ranking che da, rispetto a quei precedenti, può essere prodotto soltanto da un’entità fortemente drogata: non si capisce una mazza come funziona. O almeno è stato così all’inizio, uno shock generalizzato per gli addetti al settore, ma adesso i webmaster cominciano piano, piano a capire le nuove regole e ad adattarsi a loro. I cambiamenti introdotti sono notevoli ed in molti casi ci vorrà un bel po’ di tempo e di lavoro per tornare sulle posizioni precedenti, ma questo è Internet, molto dinamico, tanti cambiamenti, oggi ci sei e domani non ti trovo più da nessuna parte. Ma torniamo al tema in oggetto.

Spesso la seconda parte di un film o di un libro ha lo stesso titolo come il primo ma con l’aggiunta della parola “revange”, cioè “vendetta”. Perciò, il titolo potrebbe essere Parametri del SEO, la vendetta delle SE. In effetti, negli anni a venire gli algoritmi diventavano sempre più complicati che soltanto pochi riuscivano di venire a capo. Ma la svolta epocale è stata l’introduzione dei backlink come parametro. Replicare un sito è facile, ma avere gli stessi collegamenti esterni è molto più difficile, specialmente se il tizio che vogliamo riprodurre ha una propria rete dei siti da dove si linka; certamente non darà un collegamento alla concorrenza.

Con la nascita di backlink è nato anche il mercato dei collegamenti. Io ti pago e tu inserisci un collegamento verso il mio sito su una tua pagina web. Il risultato di questo era che i forti, penso a quelli con una solida base finanziaria, sono diventati ancora più forti e quelli deboli, ma spesso pieni di entusiasmo e con ottimi contenuti, sono quasi spariti dalle prime pagine con i risultati. Anche Google si è accorto dell’accaduto e ha introdotto delle nuove regole che tutto sommato non hanno cambiato molto il concetto; è difficile essere sicuri che un link sia stato venduto, cioè comprato. Pertanto Internet rispecchia benissimo la società di oggi, puro capitalismo – soldi guadagnano soldi. Niente disperazione, ci sono tante eccezioni a questa regola.

Uno dei risultati di back link è anche il pagerank, largamente analizzato su queste pagine, che ultimamente è diventato meno importante di una volta, ma diversamente da molti webmaster che lo ritengono morto (l’argomento a loro favore è il fatto che non è stato aggiornato da più di mezz’anno), io penso che sia ancora uno dei parametri che entrano in gioco.

Tornando sulle parole utilizzate per linkare il nostro sito, Cocaina ha introdotto una novità. In pratica sono stati penalizzati i siti troppo ottimizzati per i motori di ricerca. Una di queste ottimizzazione è considerata anche troppa uniformità nella parola chiave presente negli ancor tag che ci linkano. Pertanto, secondo le ultime conoscenze del settore, occorre diversificare questa keyword. Se per esempio la nostra keyword principale è “annunci online”, bisognerebbe diluire la sua presenze su circa 70% dei casi e per il restante 30% utilizzare le parole alternative, come per esempio “migliori annunci online”, “annunci compra e vendi” e simile.

Ci sono ovviamente anche altri termini di raffronto, dicono più di cento, che Google considera, molti dai quali poco conosciuti, ma li vediamo nella puntata successiva.

lunedì 1 marzo 2010

Parametri del SEO, prima parte

In questo articolo, ed alcuni successivi, affronterò il problema dei parametri che influiscono il piazzamento, principalmente in Google. Conoscere questi parametri e poterli misurare in qualche modo dà un grande vantaggio in quanto permette di ottimizzare il proprio lavoro ed ottenere un buon risultato finale. Ma prima di passare al sodo permettetemi una parentesi dove racconterò un po’ come avevo affrontato io e come si affrontava in generale questo problema nell’era di pietra di Internet.

Alla fine degli anni 90, cioè nel secolo scorso, quando ho cominciato anche io ad accedere ad Internet con un lentissimo modem di 16K, aveva già capito quanto è importante piazzarsi bene nei motori di ricerca per avere un traffico di qualità, cioè i visitatori che cliccano i banner e ordinano la merce o i servizi che si offrivano. A qui tempi, insieme con AltaVista, il motore internazionale più usato e popolare era Infoseek. Mi sono dato da fare a capire come funziona e ho passato ore e ore confrontando i vari siti presenti sulle prime pagine dei risultati cercando di scoprire il meccanismo che regola che starà davanti nella classifica e chi dietro. Allora le SE non prendevano in considerazione i backlink ed il lavoro consisteva nell’analizzare il contenuto delle pagine e per questo era abbastanza semplice arrivare all’algoritmo usato. Sono riuscito nel mio intento e ho scoperto proprio la formula matematica che assegna il punteggio alla pagina e che si basava sulla presenza della keyword nel titolo, nel testo e nei link. Mi bastava prendere il primo classificato, analizzare il codice HTML e riuscivo a produrre la pagina che si piazzava meglio, cioè davanti al primo: il risultato, il mio sito diventava il primo piazzato.

I miei primi siti e i primi soldini provenivano dalla sponsorizzazione dell’industria per gli adulti. Essere il primo nella classifica per la parola “porno” voleva dire qualche migliaia di dollari al mese ed io ci riuscivo spesso. Pensavo già di lasciare il mio lavoro e dedicarmi a tempo pieno al mestiere di webmaster, ma anche gli altri sono riusciti a scoprire le regole e dopo qualche mese la battaglia era feroce e si lavorava in continuazione per vincere sui concorrenti. Dopo, anche i responsabili di Infoseek si sono accorti che le cose non vanno bene ed hanno iniziato a cambiare l’algoritmo molto spesso, complicandolo sempre di più. Hanno introdotto i limiti per la densità della parola chiave: se la parola chiave superava diciamo 7% del totalità delle parole del testo, la stessa andava penalizzata. Per poter piazzarsi bene bisognava scrivere i testi sempre più lunghi ed i file diventavano sempre più grandi, qualche centinai di kilobyte. E non andava più bene la ripetizione infinita delle parole (mi sono fatto anche un generatore di parole che me le ripeteva tante volte quante ne richiedevo) che si ricorderanno tutti che navigavano in quegli anni. Anche oggi si trovano delle pagini simili e vuol dire che alcuni webmaster non si sono proprio aggiornati in tutti questi anni, oppure sono presenti ancora i file vecchi, mai rielaborati.

Lo stesso discorso potrei ripetere anche per Arianna, il più famoso motore italiano di quel epoca. Mi ricordo anche oggi come si calcolava il punteggio di una pagina: numero delle parole della keyword nel titolo moltiplicato per 10 più numero delle parole che si trovavano direttamente nel testo della pagina. Visto la complessità delle procedure di oggi, fa davvero ridere, ma tutte le cose hanno un periodo di infanzia.