venerdì 29 aprile 2016

Pagerank non visibile

L'introduzione del concetto del Pagerank come misura della popolarità di un sito è stato uno dei punti cardine nella storia della ricerca online. Fino ad allora bastava copiare un sito che si trovava in cima dei risultati ed era fatta. Ma con l'istituzione del Pagerank il concetto è cambiato notevolmente: era praticamente impossibile avere gli stessi link che aveva il sito copiato. All'inizio dell'epoca nelle prime pagine della ricerca si potevano trovare soltanto i siti con un Pagerank molto elevato (almeno un 3, ma spesso anche un 6, in dipendenza dal valore commerciale delle parole ricercate): in effetti, tra i numerosi parametri che influenzavano la classifica, il PR era uno dei più importanti. E si sono dati tutti da fare a procurarsi un numero maggiore dei link e qui comincia il problema del quale la soluzione è l'ultima trovata di Google; non mostrare più questo dato.

Il concetto del mister G era semplice: più buono è il tuo sito più gente ti linkerà, in modo spontaneo. Ma chi mi linka spontaneamente? E' una possibilità molto incerta è non  posso permettermi di basare i miei affari su un fatto così aleatorio. Pertanto si è cominciato a spammare i blog con i commenti che sempre avevano all'interno un collegamento, per caso, e quelli più facoltosi hanno iniziato a comprare i link. L'idea originaria ha iniziato a perdere il senso in quanto i webmaster hanno iniziato ad influenzare il SERP. Google ha reagito con le penalizzazioni, dove riusciva a capire che si trattava dei comportamenti scorretti, ma alla fine la soluzione finale era un peso sempre minore di questo parametro. Ultimamente il Pagerank influenzava molto poco le classifiche ed i risultati delle ricerche sono diventati peggiori. Di questo gli utenti si lamento da anni.

Ed è per questo che il valore di Pagerank scompare dalla vista. Da qualche settimana Toolbar funziona come prima, ma mostra un PR 0 per tutti i siti. Google ha annunciato ufficialmente che il Pagerank esiste ancora e fa ancora parte dei parametri che influenzano le posizioni nel SERP, ma che semplicemente non è più visibile. In altre parole, gli utenti non sanno quali sono i siti con un PR alto o basso. Con passare del tempo si perderanno anche le tracce storiche dei valori, anche se sarà sempre possibile intuire il valore di un sito. E da questo punto, probabilmente tra un paio di mesi Google inizierà ad aumentare l'importanza del Pagerank nella graduatoria sperando di recuperare la qualità di ricerca e la fiducia, ormai un po' persa, dei propri utenti.

E cosa faranno i webmaster? Non è semplice supporre quello che succederà, ma io ho un'idea a proposito. Tutti coloro che, come me, credono nella rivalorizzazione del grado di pagina, riapriranno la caccia ai link, ancora più spietata rispetto al passato. Questa caccia è calata notevolmente negli ultimi 2-3 anni e molti si sono concentrati sul lavoro interno alle proprie pagine. Ma adesso si tornerà alla raccolta dei collegamenti molto più intensa; per il fatto che non si conosce il valore che si ottiene sarà necessario procurarsi più grande numero possibile dei link. La quantità diventerà più importante della qualità per la semplice ragione che quest'ultima è diventata sconosciuta. E ci saranno i tentativi di ricostruire il valore con il quale Google opera, simulando i calcoli che portano ad esso.  Per poter eseguire queste simulazione occorrerà avere i dati sui milioni di siti ed eseguire le elaborazione che dureranno dei giorni. Chi riuscirà a raggiungere questo scopo, sicuramente non regalerà i risultati delle ricerche. Cercherà di farsi pagare molto bene per gli sforzi compiuti ed i mezzi impegnati. E alla fine se ne approfitteranno i soliti noti, quelli con il portafoglio pieno.

venerdì 30 ottobre 2015

Soluzione cellulare

Da più di dieci anni che faccio da webmaster; l'anno prossimo addirittura saranno venti. Mi sento un po' esaurito e svogliato. Quello che per un lungo periodo mi teneva in barca sono i soldi; guadagnarli più possibile. Era lo scopo del lavoro, anche se c'erano molti effetti collaterali piacevoli, come per esempio essere il primo nei motori di ricerca. Era una grande soddisfazione perché mi confermava la mia bravura, oppure fortuna, e dopo portava comunque verso il guadagno. Messo in scrigno un gruzzolo, sono arrivati i tempi duri, tantissima concorrenza, più giovane e per questo probabilmente più creativa e stimolata. E con la scusa di aver già raggiunto una certa meta prefissata, in quanto già appagato, ho trovato la scusa per rilassarmi, per lavorare di meno, per trascurare le indagini sui fenomeni legati a questa professione. Perché il sapere è tutto e io ultimamente utilizzo la base di qualche anno fa, senza aggiornamenti sulle nuove tendenze e regole.

Nel primavere passata mi è arrivata un'e-mail dal signore G che mi informa che un mio certo sito non è ottimizzato per i telefoni di nuova generazione. Avendo sentito anche la notizia che in Italia, da poco, il numero delle persone che navigano dagli smartphone ha superato quello degli utenti sui PC i notebook, ho concluso che dovrei muovermi in questa direzione e che questo potrebbe essere il modo per migliorare la redditività. Mi è stato consigliato anche l'indirizzo https://developers.google.com/speed/pagespeed/insights/ per la verifica delle pagine. Basta inserire l'URL della pagina che si vuole verificare e Google analizza tutti gli aspetti importanti per un utente con un telefonino di ultima generazione. Alla fine dà un voto all'esperienza utente che va da 1 a 100. Se il voto è alto, da 85 a 100 compare il colore verde. Se si va da 70 a 85 siamo in area gialla, cioè attenzione. Se il voto è ancora più basso spunta un rosso preoccupante. Nel caso del giallo e del rosso, Google abbatte il punteggio del sito e lo arretra nei risultati della ricerca per coloro che usano il loro App sui telefoni mobili.

E le mie pagine erano tutte nella zona rossa. Male, molto male. Visto che le mie posizioni anche nella ricerca standard, quella per i PC, non erano molto buone, qui praticamente significava che nessuno che usa un cellulare non può trovare il mio sito. Di questo fatto non me ne fregava gran che, specialmente perché io non possiedo e non ho mai avuto un cellulare. Ma iniziavo a capire che bisogna estendere la presenza anche su questo campo. E così mi sono dato da fare. C'è una riga chiave nella testata del codice delle pagine:

<meta name="viewport" content="width=device-width, initial-scale=1.0">

Con questa si dice al cellulare di rappresentare la pagina in modo migliore possibile per la schermata dello stesso, usando la piena larghezza dell'apparecchio, mantenendo la scala 1:1. Sembra un po' tutto contradditorio e ho messo un bel po' di tempo ad arrivarci, sperimentando le varie soluzioni. In alte parole, con il commando soprastante si dice a stringere tutto in una finestra, diminuendo la scala soltanto a proporzione della larghezza dello schermo. Se si ha un testo puro, oppure le tabelle non fissate come larghezze ed una grandezza dei caratteri sufficiente per essere visibile quando si diminuisce il testo, va bene tutto. Ma questo non è quasi mai il caso. Se avete una pagina fissa con la larghezza superiore a quella del cellulare, una parte rimane fuori schermo e vi beccate un voto semaforico giallo o rosso. Altro problema sono le immagini e video che avendo la larghezza fissa, non rientrano nel viewport.

Alla fine della storia, ho sistemato tre siti. Per tutti ho applicato le tabelle variabili, fissando il rapporto tra le varie colonne come percentuali, non pixel. Per le foto e video ho dovuto inserire il codice javascript per variare la larghezza in funzione allo schermo dove sono rappresentate. Qui ho avuto delle grande difficoltà. Sono riuscito trovare velocemente il codice che mi serviva e quello funzionava su Chrome, ma non su Internet Explorer 8, quello vecchio che uso ancora proprio per la compatibilità verso basso. Persi due, tre giorni, per puro caso ho trovato la soluzione: all'inizio della pagina occorre inserire e così funziona su entrambi i browser. Tantissima fatica, ma il risultato non si è visto, penso per pura colpa mia: semplicemente mancano le altre ottimizzazioni per Google.

giovedì 9 ottobre 2014

Verificare i fatti

In rete si trova un'abbondanza delle informazioni, un po' su tutto ed in particolare su quello che serve ai webmaster; la cosa più importante come far salire il proprio sito in classifica locale o mondiale. Ma molte indicazioni legate a questo campo sono non verificate, di dubbio valore. Spesso a qualcuno viene idea di interpretare certi fatti in modo suo e visto che quello può essere molto bravo a spiegare il proprio pensiero, l'ipotesi diventa una verità, anche se in effetti non lo è. La miglior cosa è eseguire le verifiche da soli, ove possibile, e basarsi sul proprio lavoro. E così mi sono dato da fare per trovare dei riscontri che riguardano la questione dei collegamenti "cattivi".

Un mio sito dedicato al mercato del gioco d'azzardo, indirizzato verso un certo paese, relativamente piccolo, da anni era il padrone indiscusso nel SERP: il primo posto per quasi tutte le parole chiavi significanti. Questo grazie anche al fatto che l'area in questione non era molto interessante e non portava guadagni elevati, cioè la concorrenza quasi inesistente. Ma viste le problematiche legate alla legislatura dei molti singoli paesi che hanno regolamentato il mercato, gli introiti ultimamente scendevano notevolmente e così anche quegli stati più piccoli cominciavano ad essere interessanti, sia ai gestori, che ai webmaster. Il primo segno ho avuto nel luglio del 2013; sono sceso al secondo posto. La caduta è continuata nel tempo e sono arrivato verso il fondo della prima pagina. I giocatori che sono entrati in partita sono molto più potenti di me e per questo dovevo tirare fuori un poco di creatività.

Ho individuato uno dei siti che si trovava davanti a me e ho deciso di metterli un po' di link supposti indesiderati, cioè provenienti dai siti che si rivolgono agli adulti, prevalentemente maschi; spero di essermi spiegato. All'inizio 6 collegamenti, 12 e alla fine 24, cioè tutti quelli che erano a mia disposizione e che potevo sfruttare. Sono rimasto molto sorpreso con l'effetto provocato: la mia meta, già dopo i primi 6 link è salita dal terzo al primo posto. Pensavo: forse occorre raggiungere una certa percentuale dei collegamenti cattivi. Anche quelli di Google hanno un po' di cuore e mica ti penalizzano per uno o due cose brutte. Per questo che ho continuato ad aggiungere i link, ma il risultato non era cambiato.

Visto che oggi in pratica non ci sono i mezzi che indicano quanti back link possiede un sito, ho provato con uno più basso in classifica. Si è ripetuta la stessa cosa: la mia vittima è salita al secondo posto. Ma come è possibile? E se forse i siti di questo tipo, cioè per adulti, sono messi nello stesso cestino con quelli che si occupano di giochi d'azzardo e in effetti linkati tra di loro vanno bene? Dovevo provare con un'altra categoria e ho scelto quella dei servizi finanziari. Riutilizzati i collegamenti precedentemente impiegati e l'esito si è visto velocemente: il perseguitato è semplicemente scomparso dalle pagine del più usato motore di ricerca. Perciò il concetto dei bad links è valido, ma occorre considerare l'appartenenza dei siti che si linkano per capire se questo andrà considerato.

Qualcuno avrà già fatto l'ipotesi che alla fine ho usato i 24 collegamenti per il mio sito e che sono attualmente al piedistallo. Sbagliato! Mi è passata quest'idea in test decine di volte, ma non avevo coraggio di provare. E se ho trascurato qualche parametro che quelli con cui ho provato avevano ed io no? Può darsi che il ragionamento sulla percentuale dei collegamenti non buoni è corretta e quelli che cercavo di fregare hanno molti link in più rispetto al mio tesoro. Tante domande, poche risposte ed una certezza: il mio sito porta ancora qualche soldino anche in quella posizione non piacevole. Sbagliare porterebbe via quel piccolo profitto, uno degli ultimi rimasti dopo gli anni di gloria. La paura, niente altro.

sabato 5 aprile 2014

Webmaster

La calma piatta per quanto riguarda le novità relative al mio lavoro di webmaster. Pertanto vi racconto una storiella, strettamente in tema di questo blog. Eccola qui!

Un webmaster di successo, diventato molto ricco negli anni di duro lavoro, ha deciso di prendersi un anno sabatico e fare il giro del mondo su uno yacht di lusso preso in noleggio per questa occasione. Ovviamente gli affari, tutti i sui siti con gli sponsor che gli pagavano profumatamente per avere il traffico che lui riusciva a generare, non si potevano lasciare senza sorveglianza e pertanto si è portato con se anche i computer e per le zone isolate in mezzo oceano, dove non poteva collegarsi ad Internet, si è procurato anche un telefono satellitare di ultima generazione che garantiva la connessione in una qualsiasi parte del mondo. Costava tanto, sia il telefono che la connessione, ma i soldi per lui non erano un problema.

Partito dalla costa occidentale degli Stati Uniti verso ovest, dopo due mesi di viaggio lento, molto piacevole e rilassante, il suo umore è diventato euforico quando ha visto che il posizionamento dei suoi siti sui principali motori di ricerca è migliorato grazie alle sue ultime azioni svolte proprio da qui. Sentiva una nuova energia spirituale e la sua creatività diventava ancora più notevole. Si trovava nel mezzo dell'Oceano Pacifico quando è arrivata una tempesta tropicale che ha ribaltato il suo natante. Quando ha capito che lo yacht non riuscirà a resistere all'uragano, si è messo velocemente addosso il giubbotto di salvataggio, di quelli autogonfiabili, ed era l'ultima azione della quale si ricordava quando si è svegliato su una spiaggia di sabbia bianca, lavata dalle lunghe onde del mare. Non ci ha messo molto per scoprire che si trovava su un'isola sperduta nell'oceano.

Ha vissuto sull'isola lottando contro la fame, il clima, di notte freddo e di giorno caldissimo, ma sempre con la speranza che qualcuno finalmente riuscirà a scoprirlo e salvarlo. Dopo sei mesi la speranza diventava sempre più debole, la disperazione spesso prendeva il sopravvento e lui aveva capito che quello stato di cose si sarebbe prolungato ancora per molto tempo. Così ha deciso di costruire una capanna dove avrebbe vissuto a tempo indeterminato, garantendosi un minimo di protezione contro gli eventi metereologici. Una mattina, svegliatosi nella sua umilissima dimora, ha trovato davanti a se una bellissima donna, bionda ed abbronzatissima.

La donna gli ha spiegato che anche lei era una naufraga e che viveva dall'altra parte dell'isola. Ci hanno messo 2 ore per raggiungere la capanna che lei aveva costruito. Ma che capanna! Non fatta dai rami e dalle foglie di palma come la sua, ma costruita con i profili metallici e rivestita con panelli di plastica. E dentro c'era di tutto: un frigo, una cucina a gas, un tavolo con le sedie e tutti gli attrezzi di cucina. Nella camera da letto c'era un vero letto con il materasso, un armadio e dietro la baracca c'era anche un generatore diesel che produceva l'energia elettrica. Le ha spiegato che è riuscita a recuperare tutte queste cose dalla nave sulla quale si trovava e che era affondata quasi due anni prima.

Lui, meravigliato di questo miracolo improvviso, si è lavato (si c'era anche l'acqua a sufficienza per farsi una doccia), ha mangiato il cibo dalla ricca scorta della donna e si è fatto una dormitina sull'amaca sotto la palma. Quando si è svegliato, la donna stava davanti a lui, completamente svestita e gli disse:
- Adesso avrai quello che sognavi nei sei mesi passati da solo su quest'isola.
Lui, tutto eccitato:
- Ma dai – non ci credo! Hai anche una connessione a Internet?

venerdì 4 ottobre 2013

Ingiusto

L’estate è passata e stanno arrivando i giorni più corti e freddi. Per molti sarà l’ora per tornare a lavorare duramente per recuperare il tempo perso sotto l’ombrellone in spiaggia oppure sui sentieri e sulle cime delle montagne. Mica tanto perso, noterà più che giustamente qualcuno. In effetti si lavora per potersi permettere di divertirsi e non lavorare; un po’ contradditorio come concetto e come la nostra vita. Io ho fatto due vacanze da due settimane separate: un viaggio esotico ed un riposo al mare. Ma ho lavorato anche per il resto del periodo estivo, cercando comunque di diminuire l’intensità e l’impegno; gli accumulatori devono essere ogni tanto riempiti, se no, non si va da nessuna parte.

Tornando dal mare nell’ultima metà di agosto, che ho trascorso senza computer accanto, ho trovato una brutta sorpresa: due domini da dove prendevo tantissimi collegamenti sono stati chiusi, o meglio dire non rinnovati dal parte dei proprietari. Una centinaia di link in meno che bisognerebbe recuperare non è una notizia allegra, ma succede abbastanza spesso. Come nella vita reale, nemmeno su Internet si possono trovare i punti fissi e sicuri. Calma e pazienza, poteva andare anche peggio. Esaminate le mie posizioni nei motori di ricerca non ho trovato tante novità; ho una montagna delle pagine penalizzate e in questa occasione vi voglio parlare di questo, cioè almeno in questo modo entrare in polemica con Google.

Secondo il mio punto di vista, comunamente accettato anche dagli altri, il webmaster ha la piena responsabilità per quanto riguarda il suo sito, il contenuto dello stesso e i collegamenti esterni presenti su di esso. Se qualcosa di questo non è a posto secondo i parametri impostati e considerati è più che giusto che Google applichi le penalità e così diminuisce l’esposizione del sito nella SERP. Questo è un chiaro segnale al webmaster che deve lavorare onestamente e per la beneficenza, almeno indiretta (quella personale non la possiamo negare), della comunità informatica.

Da tempo ci sono delle voci che Google sanziona anche per gli link esterni non buoni, quelli che linkano il sito che stiamo considerando. Non volevo sentire queste chiacchiere (per me erano questo) in quanto non ritenevo possibile che una società di questo livello mondiale possa fare una mossa di genere, profondamente ingiusta. Ma visto che le cose andavano veramente storte ho deciso di scegliere 2 siti mal posizionati, dove non potevo perdere niente, e eliminare quelli che consideravo i collegamenti cattivi. Sembrerebbe che la cosa sta in piedi, cioè i miei piazzamenti sono migliorati qualche settimana dopo l’azione intrapresa. E’ quasi una conferma (potrebbe essere anche qualche altra ragione per questo miglioramento che ho ottenuto) che il signor G. penalizza i link malvagi. Qui si potrebbe aprire un’ampia discussione sulla definizione degli stessi, ma lasciamo perdere.

Per avere una prova definitiva adesso dovrei fare quello per cui considero questa pratica ingiusta ed inaccettabile: linkare con questi brutti collegamenti qualche sito ben posizionato e vedere se va giù nella classifica. Anche si sono molto ostile a questa pratica, penso che prima o poi mi verrà voglia di provare. Ma non sarebbe più giusto semplicemente non considerare i link brutti, anziché penalizzare i siti per questo aprendo in questo modo un largo fronte di guerra tra i webmaster dove a volte conviene di più cercare di fregare gli altri che lavorare per migliorare se stessi?

mercoledì 10 aprile 2013

Delusioni continuano

Grazie alle mie attività su Internet, più quelle pregresse che attuali, non sento molto questa crisi economica che dilaga nell’Europa e nel mondo. Mi sono procurato un appartamento tutto mio, la macchina è vecchia ma serve bene ed un gruzzolo è a parte. Recentemente gli introiti sono diminuiti, ma gocciola ancora un po’ grazie al lavoro che ho svolto negli anni passati. Non sono per niente scontento e le problematiche recenti che incontrano i miei siti le prendo con filosofia. Continuo a lavorare, anche perché questo mi fa piacere (mi ritengo fortunato per questo), senza pensare troppo allo scopo finale di tutto ciò, cioè i soldi.

Una delle mie attività che continua senza interruzione e la ricerca dei backlink nuovi, dai domini non usati fino ad ora. Due giorni fa ho trovato un’ottima messo di guadagnare un centinai di collegamenti con un certo valore, cioè con il pagerank che vale qualcosina. Continuo ad avere l’idea fissa che i backlink insieme con il pagerank ritorneranno prima o poi ad avere un’importanza maggiore rispetto ad oggi; in effetti mi sembra l’unico modo veramente sostenibile per distinguere i siti tra di loro. Gli accorgimenti che sta mettendo in pista Google da un annetto mi sembrano poco incisivi e non migliorano i risultati della ricerca.

L’ultimo di quelli che ho saputo recentemente sono le penalità che si infliggono ai siti che nella parte superiore dello schermo hanno dei banner pubblicitari. Da alcuni mie studi risulterebbe che a volte applica le sanzioni anche dove si trova un’immagine di testa un po’ più imponente. La scusa per fare questo sono le presumibili lamentele della clientela alla quale non piace dover scorrere lo schermo per arrivare al argomento che interessa. Ma il fatto è che a volte dove non devi trascinare giù la barra di scorrimento non c’è la sostanza desiderato, e al contrario, dove devi fare questo piccolo sforzo fisico, trovi quello che è del tuo interesse. Si stanno confondendo, mi pare, certe cose come la comodità di navigazione e la sostanza espressa.

Non riuscendo ad arrivare ai visitatori provenienti dai motori di ricerca, i migliori, cerco di farli venire dalle altre sorgenti. Una è quella dei miei siti che non promuovono gli sponsor e non hanno alcun tipo di pubblicità economica, ma un po’ di visitatori c’è l’hanno ed anche qualche piazzamento decente nel SERP. E’ chiarissimo che sono propensi anche cento volte di meno ad acquistare qualche servizio che non stanno cercando e che può essere ritenuto del tutto occasionale come offerta, ma comunque possono far guadagnare qualcosa: un mattone sopra un altro e ci si arriva alla casa.

L’altro modo che utilizzo è cercare di risultare più verso alto nelle varie top liste delle quali mi servo. Mando qualche click manualmente, usando a volte anche i proxy. Un’operazione un po’ discutibile e non del tutto ortodossa, ma nessuno di noi è proprio un fiorellino. Tutto in attesa che quel signore finalmente decida che i miei siti sono buoni abbastanza per essere presentati in prima pagina ai ricercatori delle rete e permettermi di tenere relativamente alto il tenore della mia vita.

giovedì 22 novembre 2012

Densità delle parole usate per collegamenti

All’inizio del mese di Novembre l’soggetto della nostra smisurata l’attenzione, cioè Google, si ha dato da fare ed ha rivisto i pagerank e ci ha fatto vedere i nuovi valori. Sono andato piuttosto bene: 16 siti con PR5. Sono un genio! Nell’ultimo lasso di tempo lavoravo faticosamente creando i nuovi collegamenti e l’esito è risultato positivo, almeno per quanto riguarda questo criterio. Purtroppo, ed è successo lo stesso anche ad Agosto quest’anno, il mio posizionamento non rispecchiava questo buon andamento, anzi. Ma penso finalmente di aver capito dove è la rogna per un bel po’ dei miei siti.

Tutti gli interventi intrapresi ultimamente non hanno dato una certezza sulla loro bontà perché le acque non si smovevano e io non riuscivo a convogliare tanto desiderato traffico dai motori di ricerca. Continuavo con le prove, verifiche e controlli, ma anche con la ricerca nei forum. E penso di aver capito finalmente dove si trova la causa dei miei guai. Per dire la verità il concetto lo conoscevo già, ma mi mancavano i parametri.

Con l’aggiornamento di Panda (comincio a odiare ‘sto animale, piccolo, brutto e pigro) dell’Aprile 2012, Google ha introdotto le penalizzazioni per i siti troppo ottimizzati. Esiste l’ottimizzazione interna e quella esterna allo stesso sito. Quella interna si riferisce prevalentemente alla concentrazione delle keyword sulla pagina, mentre quella esterna è vista come la densità delle parole chiavi con le quali è linkata la pagina in questione. Immagino che il concetto è il seguente:
  • Diciamo che il limita accettato è del 4%; se si va oltre scatta subito una penalizzazione. Google divide l’effettiva percentuale con il limite e così ottiene il coefficiente dell’ottimizzazione interna. Il massimo è 1.
  • Su tette le parole chiavi con le quali è linkato il sito si trova la percentuale. Supponendo che tutti i link usano una keyword sola, si arriva al 100%. Dividendo con il limite fisico, cioè il 100%, si ottiene in questo caso un fattore di ottimizzazione esterna par a 1. Sembrerebbe che superando il valore di 0,5 (cioè il 50% - prima consideravo il 70%) scatta una punizione automatica relativa a questa voce sola.

Inoltre, quando si moltiplicano o sommano questi due valori si ottiene un numero unitario della pagina. Se questo numero supera un certo limite, del quale non ho la più pallida idea, scatta la punizione e la pagina arretra nel piazzamento. Il mio problemino sono backlinks e sto cercando di diluire la densità degli stessi.

A volte uno non è proprio sicuro se gli è stata inflitta una pena, oppure gli altri hanno operato meglio e per questo si trovano davanti. Un aiuto per comprendere la situazione è consultare il sito googleminusgoogle.com, dalla quale l’esistenza ho scoperto da poco. E’ un ramo di Google che non applica Panda. Se la il vostro sito qui fosse molto più avanzato nella classifica rispetto a Google stesso, potete essere quasi certi che siete penalizzati.

lunedì 21 maggio 2012

Aggiornamenti continui

Nella mia elucubrazione mentale precedente vi ho descritto i miei problemi con un mio sito mal visto da Google. Sono passati 6 mesi da quando ho messo a disposizione dei miei visitatori un freeware, arricchendo il contenuto ed il servizio offerto, sperando in questo modo di migliorare l’immagine del sito negli occhi degli ispettori, ma per adesso nessun miglioramento. In effetti non ho un modo di capire se qualcuno ha controllato il contenuto e di forzare una verifica. Nel frattempo anche un altro mio sito ha subito un peggioramento: da un’abituale seconda o terza posizione in prima pagina dei risultati di ricerca, sono sceso prima al quinto e dopo al sesto posto. Con questo cambiamento sono corso giù da quasi 1000 visitatori provenienti da Google a giorno a circa 300: pessimo e molto scoraggiante. Mi sono messo ancora a studiare e una delle indicazioni principali che ho trovato è di avere un sito dinamico, che cambia spesso i contenuti e che si aggiorna in continuazione.

Ma io non sono un webmaster di professione e stare dietro quotidianamente a questo lavoro non mi va per la pigrizia e anche per la mancanza del tempo libero. Ho riflettuto bene sul problema cercando una soluzione leggere, per me e mi è venuta. Sulla pagina iniziale del sito ho inserito un SSI (server side included) al quale ho associato un programmino in Perl che quotidianamente mi cambia un paragrafo della pagina. Ho impostato un file di testo dove ogni riga è un capoverso e quando trovo un po’ di voglia arricchisco questo file in modo di avere un contenuto più ricco e meno ripetitivo. In questo modo, il foglio dell’inizio è tutti giorni diverso, anche se il contenuto si ripete dopo un po’ perché per adesso ho preparato soltanto 9 sezioni. Questo ha anche un altro scopo, di far visitare la mia pagina più spesso dal robot e di avere nel cache del Google sempre la pagina molto fresca.

Ho introdotto questa novità da una ventina di giorni e per ora non c’è una conseguenza concreta e sto per fare un'altra modifica. Me ne sono accorto anche che la distribuzione delle mie parole chiavi non è sempre uniforme nel testo, cioè un po’ all’inizio, alla metà e alla fine del contenuto, come consigliato dai maggior esperti del settore. Pertanto mi tocca un bel lavoro per ovviare a questo difetto. Ultimamente ho trovato anche un’altra informazione che potrebbe essere preziosa. Un po’ di anni fa un minimo di testo necessario per essere ben visti era di circa 200 parole. Questa quantità nel frattempo è aumentata e io cerco di tenere i miei contenuti a circa 500, anche 600 parole. Ma alcune fonti sostengono che la cifra giusta è diventata 900 voci, o addirittura 1200.

Personalmente mi sembra una forzatura in quanto la quantità spesso va a scapito della qualità. Perdersi nei meandri linguistici per dire che il bianco e l’opposto del nero è inutile, ma se il signor cercatore lo vuole, o meglio, se si presume che ha questi desideri, i cercherò di accontentarlo. Anche questo presuppone un bel po’ di lavoro e tempo impiegato, pertanto ci scelgo due tre siti e ci provo per verificare l’effettiva utilità di questo parametro. Si vede anche da questo post che sto forzando il linguaggio per allungalo; un po’ di allenamento per il compito più generale che mi aspetta.

Qui da noi, in Italia, stanno succedendo delle cose brutte: l’altro ieri è successo un attentato in una scuola mentre ieri c’era il terremoto in Emilia. Le cose bruttissime che ha volte ti fanno perdere la voglia di fare, di andare avanti, di innovare. Ti chiedi a cosa serve tutto ‘sto duro lavoro se domani il mondo si può capovolgere e finire sulla tua testa. Dopo passano tre, quattro giorni e si inizia a tornare nella normalità, o forse meglio chiamarla la monotonia. Un continuo combattimento con una cosa virtuale, che non esiste fisicamente, che è soltanto un codice, due miseri byte che stai cercando di capire e scoprire.

mercoledì 18 gennaio 2012

Sito inutile

Da anni che faccio il webmaster, ma non ho mai fatto degli investimenti in questo affare. Uniche spese che ho sono due hosting provider ed i miei molteplici domini. Avrei sicuramente il costo del computer stesso con il collegamento ad Internet anche senza fare questo mestiere. Mai comprato i link, che molti fanno, mai investito in una compagna SEO, oppure una promozionale. Ma due anni fa mi sono stati offerti 50 euro da Google AdWord per provare il loro programma di pubblicità. Visto che era un’offerta ho deciso di provare, di allargare i miei orizzonti. Una volta iscrittomi nel programma mi hanno chiesto di aggiungere i miei 5 euro e ho fatto questo piccolo sacrificio.

Ho inserito nella campagna di promozione il mio sito Forex e ho seguito i risultati. Niente! Nulla! Ho avuto un po’ di visitatori, un po’ dai vari siti che usano AdSense e prestano il loro spazio alla pubblicità e un po’ direttamente da Google, ma il risultato finanziario era nullo. Pensavo di poter investire, non so, 1000 euro e ricevere 1500, cioè avere un capitale con interessi, ma questa prova è stata del tutto negativa. L’anno scorso, tornato dalle ferie ho trovato un'altra promozione di Google che mi regalava 100 euro e senza alcuna aggiunta da parte mia. Visto che è del tutto gratuito, sarebbe stupido non riprovare. Ma questa volta ho scelto una tattica diversa: non pubblicizzavo il mio sito, ma direttamente il mio sponsor. Ho inserito il mio codice promozionale direttamente in AdWord e mi sono messo a seguire il risultato. Molto speranzoso, devo dire, perché l’idea mi sembrava molto buona. Perché far passare un potenziale cliente per il mio sito se può andare direttamente dallo sponsor.

Le statistiche che metta a disposizione il mio sponsor sono abbastanza dettagliate e riesco a vedere da dove proviene il traffico. Ed i visitatori sono venuti e tutto combaciava molto bene con le statistiche che mi forniva AdWord: si sa che noi affiliati siamo un po’ increduli sulla correttezza di quelli che ci pagano e di quelli che paghiamo noi per certi servizi, ma in questo caso tutto perfetto. Tranne la cosa principale: investiti 100 euro, che meno male non erano miei, guadagnati 0 centesimi. Ho sentito che c’è gente che riesce a guadagnare in questo modo, ma a me è andata proprio male. Perché la cosa non funziona, almeno con i servizi che promuovo io, oppure ho commesso degli errori per la mia ignoranza. Ma ho acquisito una nuova esperienza, anzi due.

Mentre la campagna era in corso, ho avuto una comunicazione da parte dello staff di AdWord che si riferiva al mio sito, che era presente nel account da due anni fa, ma era inattivo nella campagna attuale. Semplicemente mi hanno detto che il mio sito era inutile, perché non dava informazioni utili ai visitatori e avevo soltanto pochi sponsor, cioè il visitatore non aveva molta scelta dove iscriversi per commerciare con le valute. Mi hanno dato anche un indirizzo con due esempi di utilità/inutilità dei due siti simili.

Brutta faccenda confermata anche dal fatto che un mesetto prima il mio sito è uscito dalla prima pagina dei risultati di ricerca e finito sulla quarta. Non sapevo cosa fare, come renderlo “utile” dal punto di vista del signor G. Ovviamente il verificatore umano non ha sfogliato bene le pagine ed esaminato dettagliatamente il contenuto, perché ci sono delle cose che non si trovano altrove. Avevo bisogno di qualcosa visibile, che faccia rendere conto all’ ”ispettore” a prima vista che c’è qualcosa che è valido ed originale per un internauta. Ci ho messo un po’ di tempo per arrivarci: ho creato un software Forex gratis che segue il trend delle valute e che i visitatori possono scaricare gratuitamente. Ci ho messo due settimane di lavoro e spero che questo lavoro sia pagato in termine di utilità. Non mi resta che aspettare i futuri sviluppi.

mercoledì 14 settembre 2011

Elementi HTML e testo

Visto che il pagerank ultimamente conta molto meno rispetto ad una volta, nel periodo passato tra due post mi sono concentrato sugli altri aspetti importanti per collocamento nei motori di ricerca. L’ultimo aggiornamento è stato fatto alla fine del Luglio di quest’anno e io in qual periodo stavo in ferie; due bellissime settimane in Africa che mi sono permesso grazie ai soldi guadagnati con Internet. Tornato a casa ho trovato una lettera elettronica di un amico che mi avvisava dell’accaduto, cioè che Googhi si ha dato da fare. Un veloce sfogliata dei miei siti mi ha dato un grande piacere, i nuovi pagerank erano sostanzialmente migliori rispetto a quelli precedenti. Sono arrivata addirittura ad avere 4 siti con il PR5. Ma visto che lo scopo finale non è il pagerank, sono andato a verificare le mie posizioni nei risultati di ricerca. Ma che delusione: la maggior parte dei siti ha perso molte posizioni, andando in alcuni casi dalla prima alla quinta pagina.

Passati alcuni giorni mi sono accorto che quasi tutti i pagerank sono tornati ai vecchi valori. Ho dovuto dire ciao, ciao a tutti e 4 PR5. Ma che c…. sta succedendo? Forse quelli nei forum hanno avuto qualche illuminazione, hanno capito qualcosa che io non riesco a vedere. Ma niente anche di là. In effetti, anche nei forum ho trovato un’atmosfera cupa, gelida, di disperazione perché nessuno capisce niente, oppure non vogliono rivelare le informazioni utili. Centinaia di ipotesi su come procedere, cosa fare, ma nessuna certezza, nessuna conferma sui fatti esistenti che un approccio sia meglio dell’altro. Alla fine mi sono rimasto me stesso e mi sono dato da fare, confrontando i primi posti per le varie parole chiavi, cercando di scoprire degli elementi, delle modalità da introdurre per potenziare i miei siti. Senza andare a spiegarvi come e perché, ecco i due accorgimenti che sto applicando attualmente, sperando di vedere un esito positivo.

Mi sono ricordato un colloquio di un po’ di tempo fa con un conoscente che insisteva sull’importanza dei vari elementi HTML presenti nella pagina. In effetti, analizzando alcune pagine ben piazzate, mi sembra di aver avuto una certa conferma di questo. Pertanto cerco di introdurre i nuovi html tag nelle mie pagine, come per esempio CITE, UL, EMBED e così via, cercando di avere delle pagine più ricche come codifica. Questo per me significa anche più complicate, che personalmente non mi piace perché ritengo che la bellezza è nella semplicità, ma devo cercare di adattarmi alla situazione se voglio fare qualche altro bel viaggio.

Per quanto riguarda il testo contenuto della pagina, con lo solito accorgimento di avere una certa presenza della parola chiave, cerco di ripetere meno possibile altre parole, ricco rendo molto ai sinonimi, avendo in questo modo una ricchezza linguistica maggiore. Mi ricordo che alla scuola la professoressa dell’italiano diceva sempre di evitare di ripetere le stesse parole. Mi sono fatto un piccolo programma che fa un conteggio delle parole all’interno del testo e mi sono accorto che in alcuni casi avevo delle parole ripetute, che non c’entravano niente con le mie keyword, e delle quale la densità nel testo si avvicinava a quella delle parole chiavi. Pertanto, come nella finanza, occorre diversificare gli elementi di codifica, le parole presenti nel testo ed i contenuti del sito. Buon lavoro a tutti.

mercoledì 23 marzo 2011

Le ultime Googleate

Vado matto per le nuove invenzioni linguistiche e sono stato molto contento quando mi è arrivata l’idea per il titolo. Ma qualcun altro ha già avuto quest’illuminazione? Facile verificare con il signore che fa le ate. E’ la risulta che sono stati tanti prima di me di avere ‘sta ispirazione, ma me la tengo comunque in quanto, giuro, è il prodotto originale del mio cervello. In questi giorni siamo più o meno a un anno dal grande rinnovo che Google è apportato nel suo algoritmo e si possono tirare le somme del risultato ottenuto. Si sono due aspetti principali da considerare, il punto di vista di noi webmaster che stiamo cercando di piazzare i nostri capolavori nella prima pagina e l’esperienza dei comuni navigatori che semplicemente cercano per procurarsi qualche informazione, necessaria per il loro lavoro, oppure divertimento. I webmaster hanno digerito i mutamenti e si sono adottati alle nuove regole. Per alcuni è andata bene, ma molti ancora oggi non sono riusciti i livelli di successo che avevano ieri e purtroppo quello che scrive è tra loro.

Ma per i surfer è andata ancora peggio. Un rivista americana specializzata nel tema delle ricerche su Internet ha pubblicato un’indagine svolta tra i comuni utenti della rete e tra quelli che lo fanno in modo professionale ed il risultato è stato catastrofico. Google non risulta più il migliore motore di ricerca e la qualità degli esiti di ricerca offerti sono peggiorati rispetto al periodo precaffeina, come hanno denominato la nuova variante introdotta anno scorso. Per controllare questa notizia mi sono messo anche io a fare qualche indagine è sono davvero deluso con quello che Google forniva. Cercando “forex online” su un motore nazionale, dai primi 10 siti elencati, quattro non davano alcuna informazione utile. Addirittura, al primo posto c’era un post di un forum di una sola frase, cioè senza contenuto e con un pagerank 0. Molto sorprendente. Anche la dirigenza di Google se ne accorta di quello che sta succedendo ed avendo paura di perdere la clientela, ricordiamo ci che in ballo ci sono tantissimi soldi, hanno annunciato che stanno rivedendo profondamente l’algoritmo e che nel più breve tempo possibile cercheranno di migliorarlo e di dare agli utenti finali un buon prodotto.

Per gli addetti ai lavori di tutto il mondo si prospetta un nuovo lavoro, prima di tutto di capire le modifiche che saranno introdotte e dopo di applicare le opportune mosse per raggiungere l’obbiettivo di essere presenti nella prima pagina. Si enunciano tante notti insonne, molta caffeina per tenerci svegli e le nuove frustrazioni vedendo il proprio sito scivolare 10 – 20 pagine indietro. Ma questo è Internet e bisogna adattarsi. Uno dei modi di riuscire in qualche modo indenne da queste faccende è di fare i vari siti in modo diverso, applicando anche una politica di backlink diversificata, in modo di avere i vari profili e sperare che uno di questi è già ben ottimizzato per i cambiamenti che arriveranno.

giovedì 11 novembre 2010

Parametri del SEO, seconda parte

Sì, è passato un po’ di tempo dal mio ultimo post in quanto durante la stagione estiva preferisco passare tempo nella natura, camminando e guidando la bici, che davanti al monitor. L’estate è già da parecchio passata ed è ora di tornare a lavorare. La prima puntata era a marzo e proprio in quel periodo sono accadute le cose nuove, di enorme importanza per noi webmaster. Google ha introdotto Cocaina. Si hai letto bene, la nuova versione non si chiama Caffeina, come vogliono farci credere, e ho le prove inconfutabili a proposito. I ranking che da, rispetto a quei precedenti, può essere prodotto soltanto da un’entità fortemente drogata: non si capisce una mazza come funziona. O almeno è stato così all’inizio, uno shock generalizzato per gli addetti al settore, ma adesso i webmaster cominciano piano, piano a capire le nuove regole e ad adattarsi a loro. I cambiamenti introdotti sono notevoli ed in molti casi ci vorrà un bel po’ di tempo e di lavoro per tornare sulle posizioni precedenti, ma questo è Internet, molto dinamico, tanti cambiamenti, oggi ci sei e domani non ti trovo più da nessuna parte. Ma torniamo al tema in oggetto.

Spesso la seconda parte di un film o di un libro ha lo stesso titolo come il primo ma con l’aggiunta della parola “revange”, cioè “vendetta”. Perciò, il titolo potrebbe essere Parametri del SEO, la vendetta delle SE. In effetti, negli anni a venire gli algoritmi diventavano sempre più complicati che soltanto pochi riuscivano di venire a capo. Ma la svolta epocale è stata l’introduzione dei backlink come parametro. Replicare un sito è facile, ma avere gli stessi collegamenti esterni è molto più difficile, specialmente se il tizio che vogliamo riprodurre ha una propria rete dei siti da dove si linka; certamente non darà un collegamento alla concorrenza.

Con la nascita di backlink è nato anche il mercato dei collegamenti. Io ti pago e tu inserisci un collegamento verso il mio sito su una tua pagina web. Il risultato di questo era che i forti, penso a quelli con una solida base finanziaria, sono diventati ancora più forti e quelli deboli, ma spesso pieni di entusiasmo e con ottimi contenuti, sono quasi spariti dalle prime pagine con i risultati. Anche Google si è accorto dell’accaduto e ha introdotto delle nuove regole che tutto sommato non hanno cambiato molto il concetto; è difficile essere sicuri che un link sia stato venduto, cioè comprato. Pertanto Internet rispecchia benissimo la società di oggi, puro capitalismo – soldi guadagnano soldi. Niente disperazione, ci sono tante eccezioni a questa regola.

Uno dei risultati di back link è anche il pagerank, largamente analizzato su queste pagine, che ultimamente è diventato meno importante di una volta, ma diversamente da molti webmaster che lo ritengono morto (l’argomento a loro favore è il fatto che non è stato aggiornato da più di mezz’anno), io penso che sia ancora uno dei parametri che entrano in gioco.

Tornando sulle parole utilizzate per linkare il nostro sito, Cocaina ha introdotto una novità. In pratica sono stati penalizzati i siti troppo ottimizzati per i motori di ricerca. Una di queste ottimizzazione è considerata anche troppa uniformità nella parola chiave presente negli ancor tag che ci linkano. Pertanto, secondo le ultime conoscenze del settore, occorre diversificare questa keyword. Se per esempio la nostra keyword principale è “annunci online”, bisognerebbe diluire la sua presenze su circa 70% dei casi e per il restante 30% utilizzare le parole alternative, come per esempio “migliori annunci online”, “annunci compra e vendi” e simile.

Ci sono ovviamente anche altri termini di raffronto, dicono più di cento, che Google considera, molti dai quali poco conosciuti, ma li vediamo nella puntata successiva.

lunedì 1 marzo 2010

Parametri del SEO, prima parte

In questo articolo, ed alcuni successivi, affronterò il problema dei parametri che influiscono il piazzamento, principalmente in Google. Conoscere questi parametri e poterli misurare in qualche modo dà un grande vantaggio in quanto permette di ottimizzare il proprio lavoro ed ottenere un buon risultato finale. Ma prima di passare al sodo permettetemi una parentesi dove racconterò un po’ come avevo affrontato io e come si affrontava in generale questo problema nell’era di pietra di Internet.

Alla fine degli anni 90, cioè nel secolo scorso, quando ho cominciato anche io ad accedere ad Internet con un lentissimo modem di 16K, aveva già capito quanto è importante piazzarsi bene nei motori di ricerca per avere un traffico di qualità, cioè i visitatori che cliccano i banner e ordinano la merce o i servizi che si offrivano. A qui tempi, insieme con AltaVista, il motore internazionale più usato e popolare era Infoseek. Mi sono dato da fare a capire come funziona e ho passato ore e ore confrontando i vari siti presenti sulle prime pagine dei risultati cercando di scoprire il meccanismo che regola che starà davanti nella classifica e chi dietro. Allora le SE non prendevano in considerazione i backlink ed il lavoro consisteva nell’analizzare il contenuto delle pagine e per questo era abbastanza semplice arrivare all’algoritmo usato. Sono riuscito nel mio intento e ho scoperto proprio la formula matematica che assegna il punteggio alla pagina e che si basava sulla presenza della keyword nel titolo, nel testo e nei link. Mi bastava prendere il primo classificato, analizzare il codice HTML e riuscivo a produrre la pagina che si piazzava meglio, cioè davanti al primo: il risultato, il mio sito diventava il primo piazzato.

I miei primi siti e i primi soldini provenivano dalla sponsorizzazione dell’industria per gli adulti. Essere il primo nella classifica per la parola “porno” voleva dire qualche migliaia di dollari al mese ed io ci riuscivo spesso. Pensavo già di lasciare il mio lavoro e dedicarmi a tempo pieno al mestiere di webmaster, ma anche gli altri sono riusciti a scoprire le regole e dopo qualche mese la battaglia era feroce e si lavorava in continuazione per vincere sui concorrenti. Dopo, anche i responsabili di Infoseek si sono accorti che le cose non vanno bene ed hanno iniziato a cambiare l’algoritmo molto spesso, complicandolo sempre di più. Hanno introdotto i limiti per la densità della parola chiave: se la parola chiave superava diciamo 7% del totalità delle parole del testo, la stessa andava penalizzata. Per poter piazzarsi bene bisognava scrivere i testi sempre più lunghi ed i file diventavano sempre più grandi, qualche centinai di kilobyte. E non andava più bene la ripetizione infinita delle parole (mi sono fatto anche un generatore di parole che me le ripeteva tante volte quante ne richiedevo) che si ricorderanno tutti che navigavano in quegli anni. Anche oggi si trovano delle pagini simili e vuol dire che alcuni webmaster non si sono proprio aggiornati in tutti questi anni, oppure sono presenti ancora i file vecchi, mai rielaborati.

Lo stesso discorso potrei ripetere anche per Arianna, il più famoso motore italiano di quel epoca. Mi ricordo anche oggi come si calcolava il punteggio di una pagina: numero delle parole della keyword nel titolo moltiplicato per 10 più numero delle parole che si trovavano direttamente nel testo della pagina. Visto la complessità delle procedure di oggi, fa davvero ridere, ma tutte le cose hanno un periodo di infanzia.

venerdì 9 ottobre 2009

Scolpire il PageRank

In inglese di dice “PageRank Sculpting”, cioè tradotto letteralmente in italiano sarebbe scolpire il pagerank. Ma come si fa a scolpire una cosa di genere? In effetti non si scolpisce, cioè modella proprio il pagerank, ma la sua distribuzione all’interno di un sito. Tutti noi che abbiamo uno o più siti ci rendiamo conto che alcune pagine del sito sono più importanti delle altre e ci piacerebbe tanto che alcune si trovino anche tra i risultati della ricerca, non soltanto la nostra home page. Non so a che è natta questa idea di modellare il sito, ma il concetto è questo: la pagine importanti me la faccio valere di più e delle altre me ne frego in quanto non hanno nessuna importanze per i motori di ricerca. L’idea è passare più pagerank alle pagine importanti e toglierlo da quelle insignificanti: si tratta di una ridistribuzione del pagerank. E come si fa?

La procedura tecnica è molto semplice ad accessibile a tutti i webmaster. Il punto chiave è utilizzo del tag “nofolow”. Le pagine che si vogliono trascurare si linkano dalle altre pagine utilizzando il detto tag. In questo modo i link interni non passano pagerank a quelle pagine meno importanti, e il pagerank a disposizione si distribuisce su quelle più importanti, dove non è strato usato il tag. Semplice da applicare e sembra anche utile in certi casi. Ma è vero questo concetto? Secondo me no!

Chi conosce bene la formula sa che la pagina che linka altre pagine distribuisce il proprio pagerank, diminuito per un fattore di smorzamento, alla altre pagine in funzione della quantità del numero dei link. Più link ci sono sulla pagina, passa meno del valore di pagerank alle pagine che linka. L’ideatori di questa tecnica di sono confusi e si sono detti: inserendo in alcuni link il tag nofollow, questi non saranno presi in considerazione per la distribuzione di pagerank e qui c’è errore. Si utilizza il numero dei link perché da questo dipende la probabilità che uno dei link sulla pagina sia cliccato da uno visitatore. Ma il visitatore non vede se ad un link è stato associato un tag e non cambia niente nelle sue intenzioni.

Mia conclusione è che questa tecnica non soltanto che non aiuta il sito, ma lo danneggia, anche fortemente in quanto le pagine linkate con nofolow perdono pagerank del tutto e quelle altre non acquistano di più uin primo momento, ma anche lo perdono perché non ricevono più niente da quelle meno importanti che sono rimaste senza la valutazione. A coloro che non sono convinti del mio ragionamento e che in ogni caso avrebbero provare questa tecnica posso dire che la stessa è riconosciuta come legittima direttamente dai rappresentanti di Goolge. Se le vostre conclusioni sono diverse dalle mie, fattemi sapere come e perché.

martedì 23 giugno 2009

Come ottenere un buon piazzamento in Google

Definiamo prima cosa si intende per un buon piazzamento sui motori di ricerca. Quello perfetto è la prima posizione in assoluto, ma per buono senz'altro si può intendere trovarsi sulla prima pagina dei risultati di ricerca. Trovando si sulla seconda, o al massimo terza pagina, ci porterà qualche visitatore, ma in numero insufficiente per mandare in modo soddisfacente il nostro ipotetico piccolo affare che facciamo con il nostro sito, supponendo che abbiamo uno o più sponsor che stiamo pubblicizzando e che ci pagano per click o per il prodotto venduto. Perché, ricordiamoci un'altra volta, i visitatori arrivati da Google sono i migliori, quelli che cercano quello che offriamo e quelli che sono anche propensi di spendere qualche soldino online, via Internet.

Come si evince dagli articoli presenti su questo blog, il segreto per l'ottenimento di una buona posizione in Google, ma anche negli altri motori di ricerca, è concettualmente abbastanza semplice: bisogna avere un buon Page Rank e tanti backlink verso il proprio sito. Entrambi si ottengono semplicemente registrando il sito nelle directory, nelle top liste e facendo gli scambi dei link con gli altri webmaster interessati ad avanzare nelle classifiche. Il concetto è veramente semplice, ma la parte pratica non lo è altrettanto. Per esempio, molte directory sono specializzate in certi temi e non accettano i siti con i contenuti non appartenenti ad un certo oggetto. Ci sono anche tanti webmaster selettivi che non vogliono scambiare con certi tipi dei siti.

La soluzione è crearsi una piccola network dei siti propri, dedicati ai vari temi. Dal mio punto di vista qui bisogna stare un po’ attenti a fare le cose che alla fin fine ci interessano e delle quali ne sappiamo qualcosa. Una volta fatti tanti siti diventa anche pesante mantenerli e se non ci appassionano almeno un po’, diventa una pressione psicologica pesante. Non è necessario per ogni sito che si fa registrare il proprio dominio. Ci sono molti hosting gratis che mettono a disposizione spazio web senza riempirlo successivamente con i loro odiosi banner. La parte del network possono tranquillamente fare anche i blog messi gratuitamente a disposizione da blogspot, msn e così via. Quello che è importante e diversificare nei contenuti e nei temi.

Così questi siti possono essere registrati anche nei posti dove altri nostri siti non sono accettati. E una volta ottenuto un Page Rank, ma anche prima, dall’inizio (dipende dai gusti e dalle tattiche del webmaster) su questi siti compaiono link verso i nostri siti che ci portano qualche soldino. In questo modo riusciamo a convogliare in modo indiretto i link dai siti che normalmente non avremo mai. La formazione di un network di una decina di siti, cioè una cosa gestibile da una persona con un accettabile impiego di tempo, è sicuramente una soluzione vincente, ma necessità di qualche anno di lavoro. Disponendo già da una rete dei siti nostri, un domani con l’apertura di un nuovo sito, abbiamo subito a disposizione una serie dei link nostri che possiamo gestire indipendentemente dagli altri e che ci aiutano a risalire velocemente nelle classifiche.

Riguardante le ultime novità relative agli aggiornamenti del ToolBar Page Rank di Google, possiamo dire che l’ultima attesa tra due aggiornamenti è stata minore di due mese. In effetti l’ultimo aggiornamento è stato fatto il 27 Maggio, circa un mese fa rispetto a questo articolo, mentre quello precedente risale al 2 Aprile.