venerdì 29 aprile 2016

Pagerank non visibile

L'introduzione del concetto del Pagerank come misura della popolarità di un sito è stato uno dei punti cardine nella storia della ricerca online. Fino ad allora bastava copiare un sito che si trovava in cima dei risultati ed era fatta. Ma con l'istituzione del Pagerank il concetto è cambiato notevolmente: era praticamente impossibile avere gli stessi link che aveva il sito copiato. All'inizio dell'epoca nelle prime pagine della ricerca si potevano trovare soltanto i siti con un Pagerank molto elevato (almeno un 3, ma spesso anche un 6, in dipendenza dal valore commerciale delle parole ricercate): in effetti, tra i numerosi parametri che influenzavano la classifica, il PR era uno dei più importanti. E si sono dati tutti da fare a procurarsi un numero maggiore dei link e qui comincia il problema del quale la soluzione è l'ultima trovata di Google; non mostrare più questo dato.

Il concetto del mister G era semplice: più buono è il tuo sito più gente ti linkerà, in modo spontaneo. Ma chi mi linka spontaneamente? E' una possibilità molto incerta è non  posso permettermi di basare i miei affari su un fatto così aleatorio. Pertanto si è cominciato a spammare i blog con i commenti che sempre avevano all'interno un collegamento, per caso, e quelli più facoltosi hanno iniziato a comprare i link. L'idea originaria ha iniziato a perdere il senso in quanto i webmaster hanno iniziato ad influenzare il SERP. Google ha reagito con le penalizzazioni, dove riusciva a capire che si trattava dei comportamenti scorretti, ma alla fine la soluzione finale era un peso sempre minore di questo parametro. Ultimamente il Pagerank influenzava molto poco le classifiche ed i risultati delle ricerche sono diventati peggiori. Di questo gli utenti si lamento da anni.

Ed è per questo che il valore di Pagerank scompare dalla vista. Da qualche settimana Toolbar funziona come prima, ma mostra un PR 0 per tutti i siti. Google ha annunciato ufficialmente che il Pagerank esiste ancora e fa ancora parte dei parametri che influenzano le posizioni nel SERP, ma che semplicemente non è più visibile. In altre parole, gli utenti non sanno quali sono i siti con un PR alto o basso. Con passare del tempo si perderanno anche le tracce storiche dei valori, anche se sarà sempre possibile intuire il valore di un sito. E da questo punto, probabilmente tra un paio di mesi Google inizierà ad aumentare l'importanza del Pagerank nella graduatoria sperando di recuperare la qualità di ricerca e la fiducia, ormai un po' persa, dei propri utenti.

E cosa faranno i webmaster? Non è semplice supporre quello che succederà, ma io ho un'idea a proposito. Tutti coloro che, come me, credono nella rivalorizzazione del grado di pagina, riapriranno la caccia ai link, ancora più spietata rispetto al passato. Questa caccia è calata notevolmente negli ultimi 2-3 anni e molti si sono concentrati sul lavoro interno alle proprie pagine. Ma adesso si tornerà alla raccolta dei collegamenti molto più intensa; per il fatto che non si conosce il valore che si ottiene sarà necessario procurarsi più grande numero possibile dei link. La quantità diventerà più importante della qualità per la semplice ragione che quest'ultima è diventata sconosciuta. E ci saranno i tentativi di ricostruire il valore con il quale Google opera, simulando i calcoli che portano ad esso.  Per poter eseguire queste simulazione occorrerà avere i dati sui milioni di siti ed eseguire le elaborazione che dureranno dei giorni. Chi riuscirà a raggiungere questo scopo, sicuramente non regalerà i risultati delle ricerche. Cercherà di farsi pagare molto bene per gli sforzi compiuti ed i mezzi impegnati. E alla fine se ne approfitteranno i soliti noti, quelli con il portafoglio pieno.

venerdì 30 ottobre 2015

Soluzione cellulare

Da più di dieci anni che faccio da webmaster; l'anno prossimo addirittura saranno venti. Mi sento un po' esaurito e svogliato. Quello che per un lungo periodo mi teneva in barca sono i soldi; guadagnarli più possibile. Era lo scopo del lavoro, anche se c'erano molti effetti collaterali piacevoli, come per esempio essere il primo nei motori di ricerca. Era una grande soddisfazione perché mi confermava la mia bravura, oppure fortuna, e dopo portava comunque verso il guadagno. Messo in scrigno un gruzzolo, sono arrivati i tempi duri, tantissima concorrenza, più giovane e per questo probabilmente più creativa e stimolata. E con la scusa di aver già raggiunto una certa meta prefissata, in quanto già appagato, ho trovato la scusa per rilassarmi, per lavorare di meno, per trascurare le indagini sui fenomeni legati a questa professione. Perché il sapere è tutto e io ultimamente utilizzo la base di qualche anno fa, senza aggiornamenti sulle nuove tendenze e regole.

Nel primavere passata mi è arrivata un'e-mail dal signore G che mi informa che un mio certo sito non è ottimizzato per i telefoni di nuova generazione. Avendo sentito anche la notizia che in Italia, da poco, il numero delle persone che navigano dagli smartphone ha superato quello degli utenti sui PC i notebook, ho concluso che dovrei muovermi in questa direzione e che questo potrebbe essere il modo per migliorare la redditività. Mi è stato consigliato anche l'indirizzo https://developers.google.com/speed/pagespeed/insights/ per la verifica delle pagine. Basta inserire l'URL della pagina che si vuole verificare e Google analizza tutti gli aspetti importanti per un utente con un telefonino di ultima generazione. Alla fine dà un voto all'esperienza utente che va da 1 a 100. Se il voto è alto, da 85 a 100 compare il colore verde. Se si va da 70 a 85 siamo in area gialla, cioè attenzione. Se il voto è ancora più basso spunta un rosso preoccupante. Nel caso del giallo e del rosso, Google abbatte il punteggio del sito e lo arretra nei risultati della ricerca per coloro che usano il loro App sui telefoni mobili.

E le mie pagine erano tutte nella zona rossa. Male, molto male. Visto che le mie posizioni anche nella ricerca standard, quella per i PC, non erano molto buone, qui praticamente significava che nessuno che usa un cellulare non può trovare il mio sito. Di questo fatto non me ne fregava gran che, specialmente perché io non possiedo e non ho mai avuto un cellulare. Ma iniziavo a capire che bisogna estendere la presenza anche su questo campo. E così mi sono dato da fare. C'è una riga chiave nella testata del codice delle pagine:

<meta name="viewport" content="width=device-width, initial-scale=1.0">

Con questa si dice al cellulare di rappresentare la pagina in modo migliore possibile per la schermata dello stesso, usando la piena larghezza dell'apparecchio, mantenendo la scala 1:1. Sembra un po' tutto contradditorio e ho messo un bel po' di tempo ad arrivarci, sperimentando le varie soluzioni. In alte parole, con il commando soprastante si dice a stringere tutto in una finestra, diminuendo la scala soltanto a proporzione della larghezza dello schermo. Se si ha un testo puro, oppure le tabelle non fissate come larghezze ed una grandezza dei caratteri sufficiente per essere visibile quando si diminuisce il testo, va bene tutto. Ma questo non è quasi mai il caso. Se avete una pagina fissa con la larghezza superiore a quella del cellulare, una parte rimane fuori schermo e vi beccate un voto semaforico giallo o rosso. Altro problema sono le immagini e video che avendo la larghezza fissa, non rientrano nel viewport.

Alla fine della storia, ho sistemato tre siti. Per tutti ho applicato le tabelle variabili, fissando il rapporto tra le varie colonne come percentuali, non pixel. Per le foto e video ho dovuto inserire il codice javascript per variare la larghezza in funzione allo schermo dove sono rappresentate. Qui ho avuto delle grande difficoltà. Sono riuscito trovare velocemente il codice che mi serviva e quello funzionava su Chrome, ma non su Internet Explorer 8, quello vecchio che uso ancora proprio per la compatibilità verso basso. Persi due, tre giorni, per puro caso ho trovato la soluzione: all'inizio della pagina occorre inserire e così funziona su entrambi i browser. Tantissima fatica, ma il risultato non si è visto, penso per pura colpa mia: semplicemente mancano le altre ottimizzazioni per Google.

giovedì 9 ottobre 2014

Verificare i fatti

In rete si trova un'abbondanza delle informazioni, un po' su tutto ed in particolare su quello che serve ai webmaster; la cosa più importante come far salire il proprio sito in classifica locale o mondiale. Ma molte indicazioni legate a questo campo sono non verificate, di dubbio valore. Spesso a qualcuno viene idea di interpretare certi fatti in modo suo e visto che quello può essere molto bravo a spiegare il proprio pensiero, l'ipotesi diventa una verità, anche se in effetti non lo è. La miglior cosa è eseguire le verifiche da soli, ove possibile, e basarsi sul proprio lavoro. E così mi sono dato da fare per trovare dei riscontri che riguardano la questione dei collegamenti "cattivi".

Un mio sito dedicato al mercato del gioco d'azzardo, indirizzato verso un certo paese, relativamente piccolo, da anni era il padrone indiscusso nel SERP: il primo posto per quasi tutte le parole chiavi significanti. Questo grazie anche al fatto che l'area in questione non era molto interessante e non portava guadagni elevati, cioè la concorrenza quasi inesistente. Ma viste le problematiche legate alla legislatura dei molti singoli paesi che hanno regolamentato il mercato, gli introiti ultimamente scendevano notevolmente e così anche quegli stati più piccoli cominciavano ad essere interessanti, sia ai gestori, che ai webmaster. Il primo segno ho avuto nel luglio del 2013; sono sceso al secondo posto. La caduta è continuata nel tempo e sono arrivato verso il fondo della prima pagina. I giocatori che sono entrati in partita sono molto più potenti di me e per questo dovevo tirare fuori un poco di creatività.

Ho individuato uno dei siti che si trovava davanti a me e ho deciso di metterli un po' di link supposti indesiderati, cioè provenienti dai siti che si rivolgono agli adulti, prevalentemente maschi; spero di essermi spiegato. All'inizio 6 collegamenti, 12 e alla fine 24, cioè tutti quelli che erano a mia disposizione e che potevo sfruttare. Sono rimasto molto sorpreso con l'effetto provocato: la mia meta, già dopo i primi 6 link è salita dal terzo al primo posto. Pensavo: forse occorre raggiungere una certa percentuale dei collegamenti cattivi. Anche quelli di Google hanno un po' di cuore e mica ti penalizzano per uno o due cose brutte. Per questo che ho continuato ad aggiungere i link, ma il risultato non era cambiato.

Visto che oggi in pratica non ci sono i mezzi che indicano quanti back link possiede un sito, ho provato con uno più basso in classifica. Si è ripetuta la stessa cosa: la mia vittima è salita al secondo posto. Ma come è possibile? E se forse i siti di questo tipo, cioè per adulti, sono messi nello stesso cestino con quelli che si occupano di giochi d'azzardo e in effetti linkati tra di loro vanno bene? Dovevo provare con un'altra categoria e ho scelto quella dei servizi finanziari. Riutilizzati i collegamenti precedentemente impiegati e l'esito si è visto velocemente: il perseguitato è semplicemente scomparso dalle pagine del più usato motore di ricerca. Perciò il concetto dei bad links è valido, ma occorre considerare l'appartenenza dei siti che si linkano per capire se questo andrà considerato.

Qualcuno avrà già fatto l'ipotesi che alla fine ho usato i 24 collegamenti per il mio sito e che sono attualmente al piedistallo. Sbagliato! Mi è passata quest'idea in test decine di volte, ma non avevo coraggio di provare. E se ho trascurato qualche parametro che quelli con cui ho provato avevano ed io no? Può darsi che il ragionamento sulla percentuale dei collegamenti non buoni è corretta e quelli che cercavo di fregare hanno molti link in più rispetto al mio tesoro. Tante domande, poche risposte ed una certezza: il mio sito porta ancora qualche soldino anche in quella posizione non piacevole. Sbagliare porterebbe via quel piccolo profitto, uno degli ultimi rimasti dopo gli anni di gloria. La paura, niente altro.

sabato 5 aprile 2014

Webmaster

La calma piatta per quanto riguarda le novità relative al mio lavoro di webmaster. Pertanto vi racconto una storiella, strettamente in tema di questo blog. Eccola qui!

Un webmaster di successo, diventato molto ricco negli anni di duro lavoro, ha deciso di prendersi un anno sabatico e fare il giro del mondo su uno yacht di lusso preso in noleggio per questa occasione. Ovviamente gli affari, tutti i sui siti con gli sponsor che gli pagavano profumatamente per avere il traffico che lui riusciva a generare, non si potevano lasciare senza sorveglianza e pertanto si è portato con se anche i computer e per le zone isolate in mezzo oceano, dove non poteva collegarsi ad Internet, si è procurato anche un telefono satellitare di ultima generazione che garantiva la connessione in una qualsiasi parte del mondo. Costava tanto, sia il telefono che la connessione, ma i soldi per lui non erano un problema.

Partito dalla costa occidentale degli Stati Uniti verso ovest, dopo due mesi di viaggio lento, molto piacevole e rilassante, il suo umore è diventato euforico quando ha visto che il posizionamento dei suoi siti sui principali motori di ricerca è migliorato grazie alle sue ultime azioni svolte proprio da qui. Sentiva una nuova energia spirituale e la sua creatività diventava ancora più notevole. Si trovava nel mezzo dell'Oceano Pacifico quando è arrivata una tempesta tropicale che ha ribaltato il suo natante. Quando ha capito che lo yacht non riuscirà a resistere all'uragano, si è messo velocemente addosso il giubbotto di salvataggio, di quelli autogonfiabili, ed era l'ultima azione della quale si ricordava quando si è svegliato su una spiaggia di sabbia bianca, lavata dalle lunghe onde del mare. Non ci ha messo molto per scoprire che si trovava su un'isola sperduta nell'oceano.

Ha vissuto sull'isola lottando contro la fame, il clima, di notte freddo e di giorno caldissimo, ma sempre con la speranza che qualcuno finalmente riuscirà a scoprirlo e salvarlo. Dopo sei mesi la speranza diventava sempre più debole, la disperazione spesso prendeva il sopravvento e lui aveva capito che quello stato di cose si sarebbe prolungato ancora per molto tempo. Così ha deciso di costruire una capanna dove avrebbe vissuto a tempo indeterminato, garantendosi un minimo di protezione contro gli eventi metereologici. Una mattina, svegliatosi nella sua umilissima dimora, ha trovato davanti a se una bellissima donna, bionda ed abbronzatissima.

La donna gli ha spiegato che anche lei era una naufraga e che viveva dall'altra parte dell'isola. Ci hanno messo 2 ore per raggiungere la capanna che lei aveva costruito. Ma che capanna! Non fatta dai rami e dalle foglie di palma come la sua, ma costruita con i profili metallici e rivestita con panelli di plastica. E dentro c'era di tutto: un frigo, una cucina a gas, un tavolo con le sedie e tutti gli attrezzi di cucina. Nella camera da letto c'era un vero letto con il materasso, un armadio e dietro la baracca c'era anche un generatore diesel che produceva l'energia elettrica. Le ha spiegato che è riuscita a recuperare tutte queste cose dalla nave sulla quale si trovava e che era affondata quasi due anni prima.

Lui, meravigliato di questo miracolo improvviso, si è lavato (si c'era anche l'acqua a sufficienza per farsi una doccia), ha mangiato il cibo dalla ricca scorta della donna e si è fatto una dormitina sull'amaca sotto la palma. Quando si è svegliato, la donna stava davanti a lui, completamente svestita e gli disse:
- Adesso avrai quello che sognavi nei sei mesi passati da solo su quest'isola.
Lui, tutto eccitato:
- Ma dai – non ci credo! Hai anche una connessione a Internet?

venerdì 4 ottobre 2013

Ingiusto

L’estate è passata e stanno arrivando i giorni più corti e freddi. Per molti sarà l’ora per tornare a lavorare duramente per recuperare il tempo perso sotto l’ombrellone in spiaggia oppure sui sentieri e sulle cime delle montagne. Mica tanto perso, noterà più che giustamente qualcuno. In effetti si lavora per potersi permettere di divertirsi e non lavorare; un po’ contradditorio come concetto e come la nostra vita. Io ho fatto due vacanze da due settimane separate: un viaggio esotico ed un riposo al mare. Ma ho lavorato anche per il resto del periodo estivo, cercando comunque di diminuire l’intensità e l’impegno; gli accumulatori devono essere ogni tanto riempiti, se no, non si va da nessuna parte.

Tornando dal mare nell’ultima metà di agosto, che ho trascorso senza computer accanto, ho trovato una brutta sorpresa: due domini da dove prendevo tantissimi collegamenti sono stati chiusi, o meglio dire non rinnovati dal parte dei proprietari. Una centinaia di link in meno che bisognerebbe recuperare non è una notizia allegra, ma succede abbastanza spesso. Come nella vita reale, nemmeno su Internet si possono trovare i punti fissi e sicuri. Calma e pazienza, poteva andare anche peggio. Esaminate le mie posizioni nei motori di ricerca non ho trovato tante novità; ho una montagna delle pagine penalizzate e in questa occasione vi voglio parlare di questo, cioè almeno in questo modo entrare in polemica con Google.

Secondo il mio punto di vista, comunamente accettato anche dagli altri, il webmaster ha la piena responsabilità per quanto riguarda il suo sito, il contenuto dello stesso e i collegamenti esterni presenti su di esso. Se qualcosa di questo non è a posto secondo i parametri impostati e considerati è più che giusto che Google applichi le penalità e così diminuisce l’esposizione del sito nella SERP. Questo è un chiaro segnale al webmaster che deve lavorare onestamente e per la beneficenza, almeno indiretta (quella personale non la possiamo negare), della comunità informatica.

Da tempo ci sono delle voci che Google sanziona anche per gli link esterni non buoni, quelli che linkano il sito che stiamo considerando. Non volevo sentire queste chiacchiere (per me erano questo) in quanto non ritenevo possibile che una società di questo livello mondiale possa fare una mossa di genere, profondamente ingiusta. Ma visto che le cose andavano veramente storte ho deciso di scegliere 2 siti mal posizionati, dove non potevo perdere niente, e eliminare quelli che consideravo i collegamenti cattivi. Sembrerebbe che la cosa sta in piedi, cioè i miei piazzamenti sono migliorati qualche settimana dopo l’azione intrapresa. E’ quasi una conferma (potrebbe essere anche qualche altra ragione per questo miglioramento che ho ottenuto) che il signor G. penalizza i link malvagi. Qui si potrebbe aprire un’ampia discussione sulla definizione degli stessi, ma lasciamo perdere.

Per avere una prova definitiva adesso dovrei fare quello per cui considero questa pratica ingiusta ed inaccettabile: linkare con questi brutti collegamenti qualche sito ben posizionato e vedere se va giù nella classifica. Anche si sono molto ostile a questa pratica, penso che prima o poi mi verrà voglia di provare. Ma non sarebbe più giusto semplicemente non considerare i link brutti, anziché penalizzare i siti per questo aprendo in questo modo un largo fronte di guerra tra i webmaster dove a volte conviene di più cercare di fregare gli altri che lavorare per migliorare se stessi?

mercoledì 10 aprile 2013

Delusioni continuano

Grazie alle mie attività su Internet, più quelle pregresse che attuali, non sento molto questa crisi economica che dilaga nell’Europa e nel mondo. Mi sono procurato un appartamento tutto mio, la macchina è vecchia ma serve bene ed un gruzzolo è a parte. Recentemente gli introiti sono diminuiti, ma gocciola ancora un po’ grazie al lavoro che ho svolto negli anni passati. Non sono per niente scontento e le problematiche recenti che incontrano i miei siti le prendo con filosofia. Continuo a lavorare, anche perché questo mi fa piacere (mi ritengo fortunato per questo), senza pensare troppo allo scopo finale di tutto ciò, cioè i soldi.

Una delle mie attività che continua senza interruzione e la ricerca dei backlink nuovi, dai domini non usati fino ad ora. Due giorni fa ho trovato un’ottima messo di guadagnare un centinai di collegamenti con un certo valore, cioè con il pagerank che vale qualcosina. Continuo ad avere l’idea fissa che i backlink insieme con il pagerank ritorneranno prima o poi ad avere un’importanza maggiore rispetto ad oggi; in effetti mi sembra l’unico modo veramente sostenibile per distinguere i siti tra di loro. Gli accorgimenti che sta mettendo in pista Google da un annetto mi sembrano poco incisivi e non migliorano i risultati della ricerca.

L’ultimo di quelli che ho saputo recentemente sono le penalità che si infliggono ai siti che nella parte superiore dello schermo hanno dei banner pubblicitari. Da alcuni mie studi risulterebbe che a volte applica le sanzioni anche dove si trova un’immagine di testa un po’ più imponente. La scusa per fare questo sono le presumibili lamentele della clientela alla quale non piace dover scorrere lo schermo per arrivare al argomento che interessa. Ma il fatto è che a volte dove non devi trascinare giù la barra di scorrimento non c’è la sostanza desiderato, e al contrario, dove devi fare questo piccolo sforzo fisico, trovi quello che è del tuo interesse. Si stanno confondendo, mi pare, certe cose come la comodità di navigazione e la sostanza espressa.

Non riuscendo ad arrivare ai visitatori provenienti dai motori di ricerca, i migliori, cerco di farli venire dalle altre sorgenti. Una è quella dei miei siti che non promuovono gli sponsor e non hanno alcun tipo di pubblicità economica, ma un po’ di visitatori c’è l’hanno ed anche qualche piazzamento decente nel SERP. E’ chiarissimo che sono propensi anche cento volte di meno ad acquistare qualche servizio che non stanno cercando e che può essere ritenuto del tutto occasionale come offerta, ma comunque possono far guadagnare qualcosa: un mattone sopra un altro e ci si arriva alla casa.

L’altro modo che utilizzo è cercare di risultare più verso alto nelle varie top liste delle quali mi servo. Mando qualche click manualmente, usando a volte anche i proxy. Un’operazione un po’ discutibile e non del tutto ortodossa, ma nessuno di noi è proprio un fiorellino. Tutto in attesa che quel signore finalmente decida che i miei siti sono buoni abbastanza per essere presentati in prima pagina ai ricercatori delle rete e permettermi di tenere relativamente alto il tenore della mia vita.

giovedì 22 novembre 2012

Densità delle parole usate per collegamenti

All’inizio del mese di Novembre l’soggetto della nostra smisurata l’attenzione, cioè Google, si ha dato da fare ed ha rivisto i pagerank e ci ha fatto vedere i nuovi valori. Sono andato piuttosto bene: 16 siti con PR5. Sono un genio! Nell’ultimo lasso di tempo lavoravo faticosamente creando i nuovi collegamenti e l’esito è risultato positivo, almeno per quanto riguarda questo criterio. Purtroppo, ed è successo lo stesso anche ad Agosto quest’anno, il mio posizionamento non rispecchiava questo buon andamento, anzi. Ma penso finalmente di aver capito dove è la rogna per un bel po’ dei miei siti.

Tutti gli interventi intrapresi ultimamente non hanno dato una certezza sulla loro bontà perché le acque non si smovevano e io non riuscivo a convogliare tanto desiderato traffico dai motori di ricerca. Continuavo con le prove, verifiche e controlli, ma anche con la ricerca nei forum. E penso di aver capito finalmente dove si trova la causa dei miei guai. Per dire la verità il concetto lo conoscevo già, ma mi mancavano i parametri.

Con l’aggiornamento di Panda (comincio a odiare ‘sto animale, piccolo, brutto e pigro) dell’Aprile 2012, Google ha introdotto le penalizzazioni per i siti troppo ottimizzati. Esiste l’ottimizzazione interna e quella esterna allo stesso sito. Quella interna si riferisce prevalentemente alla concentrazione delle keyword sulla pagina, mentre quella esterna è vista come la densità delle parole chiavi con le quali è linkata la pagina in questione. Immagino che il concetto è il seguente:
  • Diciamo che il limita accettato è del 4%; se si va oltre scatta subito una penalizzazione. Google divide l’effettiva percentuale con il limite e così ottiene il coefficiente dell’ottimizzazione interna. Il massimo è 1.
  • Su tette le parole chiavi con le quali è linkato il sito si trova la percentuale. Supponendo che tutti i link usano una keyword sola, si arriva al 100%. Dividendo con il limite fisico, cioè il 100%, si ottiene in questo caso un fattore di ottimizzazione esterna par a 1. Sembrerebbe che superando il valore di 0,5 (cioè il 50% - prima consideravo il 70%) scatta una punizione automatica relativa a questa voce sola.

Inoltre, quando si moltiplicano o sommano questi due valori si ottiene un numero unitario della pagina. Se questo numero supera un certo limite, del quale non ho la più pallida idea, scatta la punizione e la pagina arretra nel piazzamento. Il mio problemino sono backlinks e sto cercando di diluire la densità degli stessi.

A volte uno non è proprio sicuro se gli è stata inflitta una pena, oppure gli altri hanno operato meglio e per questo si trovano davanti. Un aiuto per comprendere la situazione è consultare il sito googleminusgoogle.com, dalla quale l’esistenza ho scoperto da poco. E’ un ramo di Google che non applica Panda. Se la il vostro sito qui fosse molto più avanzato nella classifica rispetto a Google stesso, potete essere quasi certi che siete penalizzati.