giovedì 22 novembre 2012

Densità delle parole usate per collegamenti

All’inizio del mese di Novembre l’soggetto della nostra smisurata l’attenzione, cioè Google, si ha dato da fare ed ha rivisto i pagerank e ci ha fatto vedere i nuovi valori. Sono andato piuttosto bene: 16 siti con PR5. Sono un genio! Nell’ultimo lasso di tempo lavoravo faticosamente creando i nuovi collegamenti e l’esito è risultato positivo, almeno per quanto riguarda questo criterio. Purtroppo, ed è successo lo stesso anche ad Agosto quest’anno, il mio posizionamento non rispecchiava questo buon andamento, anzi. Ma penso finalmente di aver capito dove è la rogna per un bel po’ dei miei siti.

Tutti gli interventi intrapresi ultimamente non hanno dato una certezza sulla loro bontà perché le acque non si smovevano e io non riuscivo a convogliare tanto desiderato traffico dai motori di ricerca. Continuavo con le prove, verifiche e controlli, ma anche con la ricerca nei forum. E penso di aver capito finalmente dove si trova la causa dei miei guai. Per dire la verità il concetto lo conoscevo già, ma mi mancavano i parametri.

Con l’aggiornamento di Panda (comincio a odiare ‘sto animale, piccolo, brutto e pigro) dell’Aprile 2012, Google ha introdotto le penalizzazioni per i siti troppo ottimizzati. Esiste l’ottimizzazione interna e quella esterna allo stesso sito. Quella interna si riferisce prevalentemente alla concentrazione delle keyword sulla pagina, mentre quella esterna è vista come la densità delle parole chiavi con le quali è linkata la pagina in questione. Immagino che il concetto è il seguente:
  • Diciamo che il limita accettato è del 4%; se si va oltre scatta subito una penalizzazione. Google divide l’effettiva percentuale con il limite e così ottiene il coefficiente dell’ottimizzazione interna. Il massimo è 1.
  • Su tette le parole chiavi con le quali è linkato il sito si trova la percentuale. Supponendo che tutti i link usano una keyword sola, si arriva al 100%. Dividendo con il limite fisico, cioè il 100%, si ottiene in questo caso un fattore di ottimizzazione esterna par a 1. Sembrerebbe che superando il valore di 0,5 (cioè il 50% - prima consideravo il 70%) scatta una punizione automatica relativa a questa voce sola.

Inoltre, quando si moltiplicano o sommano questi due valori si ottiene un numero unitario della pagina. Se questo numero supera un certo limite, del quale non ho la più pallida idea, scatta la punizione e la pagina arretra nel piazzamento. Il mio problemino sono backlinks e sto cercando di diluire la densità degli stessi.

A volte uno non è proprio sicuro se gli è stata inflitta una pena, oppure gli altri hanno operato meglio e per questo si trovano davanti. Un aiuto per comprendere la situazione è consultare il sito googleminusgoogle.com, dalla quale l’esistenza ho scoperto da poco. E’ un ramo di Google che non applica Panda. Se la il vostro sito qui fosse molto più avanzato nella classifica rispetto a Google stesso, potete essere quasi certi che siete penalizzati.

lunedì 21 maggio 2012

Aggiornamenti continui

Nella mia elucubrazione mentale precedente vi ho descritto i miei problemi con un mio sito mal visto da Google. Sono passati 6 mesi da quando ho messo a disposizione dei miei visitatori un freeware, arricchendo il contenuto ed il servizio offerto, sperando in questo modo di migliorare l’immagine del sito negli occhi degli ispettori, ma per adesso nessun miglioramento. In effetti non ho un modo di capire se qualcuno ha controllato il contenuto e di forzare una verifica. Nel frattempo anche un altro mio sito ha subito un peggioramento: da un’abituale seconda o terza posizione in prima pagina dei risultati di ricerca, sono sceso prima al quinto e dopo al sesto posto. Con questo cambiamento sono corso giù da quasi 1000 visitatori provenienti da Google a giorno a circa 300: pessimo e molto scoraggiante. Mi sono messo ancora a studiare e una delle indicazioni principali che ho trovato è di avere un sito dinamico, che cambia spesso i contenuti e che si aggiorna in continuazione.

Ma io non sono un webmaster di professione e stare dietro quotidianamente a questo lavoro non mi va per la pigrizia e anche per la mancanza del tempo libero. Ho riflettuto bene sul problema cercando una soluzione leggere, per me e mi è venuta. Sulla pagina iniziale del sito ho inserito un SSI (server side included) al quale ho associato un programmino in Perl che quotidianamente mi cambia un paragrafo della pagina. Ho impostato un file di testo dove ogni riga è un capoverso e quando trovo un po’ di voglia arricchisco questo file in modo di avere un contenuto più ricco e meno ripetitivo. In questo modo, il foglio dell’inizio è tutti giorni diverso, anche se il contenuto si ripete dopo un po’ perché per adesso ho preparato soltanto 9 sezioni. Questo ha anche un altro scopo, di far visitare la mia pagina più spesso dal robot e di avere nel cache del Google sempre la pagina molto fresca.

Ho introdotto questa novità da una ventina di giorni e per ora non c’è una conseguenza concreta e sto per fare un'altra modifica. Me ne sono accorto anche che la distribuzione delle mie parole chiavi non è sempre uniforme nel testo, cioè un po’ all’inizio, alla metà e alla fine del contenuto, come consigliato dai maggior esperti del settore. Pertanto mi tocca un bel lavoro per ovviare a questo difetto. Ultimamente ho trovato anche un’altra informazione che potrebbe essere preziosa. Un po’ di anni fa un minimo di testo necessario per essere ben visti era di circa 200 parole. Questa quantità nel frattempo è aumentata e io cerco di tenere i miei contenuti a circa 500, anche 600 parole. Ma alcune fonti sostengono che la cifra giusta è diventata 900 voci, o addirittura 1200.

Personalmente mi sembra una forzatura in quanto la quantità spesso va a scapito della qualità. Perdersi nei meandri linguistici per dire che il bianco e l’opposto del nero è inutile, ma se il signor cercatore lo vuole, o meglio, se si presume che ha questi desideri, i cercherò di accontentarlo. Anche questo presuppone un bel po’ di lavoro e tempo impiegato, pertanto ci scelgo due tre siti e ci provo per verificare l’effettiva utilità di questo parametro. Si vede anche da questo post che sto forzando il linguaggio per allungalo; un po’ di allenamento per il compito più generale che mi aspetta.

Qui da noi, in Italia, stanno succedendo delle cose brutte: l’altro ieri è successo un attentato in una scuola mentre ieri c’era il terremoto in Emilia. Le cose bruttissime che ha volte ti fanno perdere la voglia di fare, di andare avanti, di innovare. Ti chiedi a cosa serve tutto ‘sto duro lavoro se domani il mondo si può capovolgere e finire sulla tua testa. Dopo passano tre, quattro giorni e si inizia a tornare nella normalità, o forse meglio chiamarla la monotonia. Un continuo combattimento con una cosa virtuale, che non esiste fisicamente, che è soltanto un codice, due miseri byte che stai cercando di capire e scoprire.