Dopo essere stato a guardare (nemmeno poi tanto), l’evoluzione della SEO in questi ultimi 3 mesi, credo sia arrivato il momento di fare chiarezza su quello che sta’ accadendo, dando modo a qualcuno di condividere o replicare alla mia piccola teoria sul mondo del posizionamento, di Panda, Penguin e tutto lo zoo di Google.
La considerazione che sta’ alla base di tutto, secondo il mio modestissimo parere, è che bisogna lavorare onestamente per far crescere un sito web. “Il lavoro e la qualità pagano sempre…” direbbe qualcuno.
Non posso smentire quanto appena affermato, ma è pur vero che con la grandissima competitività che c’è su internet, con siti web che spuntano come funghi ogni giorno, si rischia veramente di rimanere indietro, o quantomeno di abbandonare il proprio progetto prima ancora che sbocci perché i tempi per emergere possono essere veramente lunghi.
Detto questo, a rigor di logica, torniamo a Google ed a come, con Panda e Penguin, l’algoritmo sia stato “stravolto” da qualche tempo a questa parte.
Fare SEO nel 2012 significa essere attenti a non sbagliare
Quando ho cominciato a fare SEO ed a documentarmi su come fosse possibile manipolare i risultati di Google, le pratiche più interessanti per l’intero ambiente SEO erano senza ombra di dubbio l’ottimizzazione on-site e la link building.
A distanza di quasi un decennio vedo che la situazione non è poi tanto cambiata, anche se Google, come abbiamo detto all’inizio, modifica continuamente il proprio algoritmo e si evolve per dare risposte sempre migliori agli utenti che effettuano ricerche sul colosso di Mountain View.
La SEO è cambiata, ma non in negativo, come molti pensano e sostengono in presa pubblica. Fare SEO nel 2012 significa stare attenti a più fattori, badare alla qualità di tutto ed evitare di sbagliare.
I fattori di ranking per Google sono cambiati
Secondo un’analisi di searchmetrics i fattori di ranking per Google Italia sono stati letteralmente stravolti dai fattori sociali. Il grafico in basso mostra chiaramente come Facebook e Twitter siano entrati nella top10 in maniera sicuramente importante. Le considerazioni da fare sarebbero tantissime, ma da alcuni test fatti personalmente, posso sicuramente affermare la veridicità di questa infografica: molti siti web che si basano su traffico proveniente esclusivamente dai social si posizionano in maniera eccellente!
Le condivisioni di Facebook (Facebook shares) sono il fattore di ranking più importante per i nuovi algoritmi di valutazione di Google. Il numero di backlinks in entrata ha sempre un grande peso e gli altri fattori continuano ad evolversi per rendere il tutto sempre più naturale e difficile da manipolare per un SEO.
La qualità di un sito web è il punto di partenza e… di arrivo!
Chi si accinge a fare SEO per i propri siti web o per conto di terzi deve assolutamente attaccare un post-it sul monitor del proprio pc con su scritto: “La qualità è sinonimo di successo!”
Dico questo perché, per quanto mi riguarda, non credo si possa costruire un progetto ambizioso senza metterci lavoro, serietà/professionalità ed essere preparati sull’argomento che si propone al proprio pubblico.
Chi pensa di potere far decollare un sito web facendo solamente SEO si dovrà ricredere col tempo: non bastano 1000 condivisioni, un centinaio di backlinks spam e 500 tweets verso una pagina web per farla salire in alto nelle serps, se poi l’utente non trova quello che veramente stava cercando. Il tempo è galantuomo.
Vietato sbagliare: inferno e purgatorio sono dietro l’angolo
Inutile affermare il contrario, quando si sbaglia qualcosa Google si incavola alla grande. Per chi viola le norme sulla qualità per i siti web, la penalizzazione è dietro l’angolo. Non bisogna, però, sempre dare la colpa al panda e al pinguino.
Sovraottimizzare un sito ripetendo dappertutto la keyword che si vuole posizionare o prendere link in entrata a destra e a manca senza fare distinzioni (magari usando anche sempre lo stesso anchor text), non è una mossa intelligente. I filtri sono stati rafforzati e scattano abbastanza in fretta.
Una volta scesi nel limbo, la risalita (qualora riuscissimo a rimetterci in regola) non è istantanea e può richiedere diverso tempo.
I casi di interventi algoritmici da analizzare sarebbero tantissimi, ma ci soffermeremo solamente su quelli più gettonati, che abbiamo citato ad inizio articolo a proposito dei fatidici updates di Google: Google Panda e Google Penguin.
Google Panda: l’algoritmo che filtra i furbetti
Amo definirlo così, anche se spesso trovo delle serp davvero spazzatura. Google ha ancora tanto da lavorare, ma almeno molte tecniche scorrette sono state completamente spazzate via; c’è ancora chi, a distanza di tempo dal lancio del primo Panda si lamenta perché il proprio sito web pare essere penalizzato da questo algoritmo.
Quello che mi sento di dire è di non fermarsi mai davanti a nulla e di provare a cambiare, chiedere pareri online e mettersi nei panni di un utente che arriva sul sito in questione dopo aver digitato una query: quello che si trova nella pagina è quello che ci si aspettava, in maniera intuitiva e non ingannevole?
- Se la risposta è “si”, allora chiedete ancora online e provate a domandarvi perché Google dovrebbe penalizzare il vostro sito se è tutto apparentemente ok. A meno di clamorosi errori, qualcosa che non quadra c’è sempre.
- Se la risposta è “forse”, cercate di migliorare tutto quello che non vi convince fingendo di essere un utente.
- Se la risposta è “no”, bhè cominciate a lavorare seriamente per mettere tutto a posto e farvi riapprezzare dal nostro caro zio Google.
Se proprio non sapete da dove cominciare per analizzare in questo modo il vostro sito, non c’è niente di meglio che consultare una fonte ufficiale e studiare bene ogni singola parola che gli ingegneri di Google hanno formulato per dare indicazioni ai webmasters.
Google Penguin e gli alerts preparati per “chi ha la coscienza sporca…”
Ditemi la verità… chi di voi, tra quelli che hanno ricevuto il fatidico alert che fa’ riferimento a Google Penguin, non si è messo una mano sulla coscienza per cercare di capire dove si è sbagliato nella creazione di una buona link popularity?
Io sono uno di quelli e, a distanza di qualche mese, devo ammettere di aver fatto una vera cavolata nel far rimuovere tutti i links “non proprio di qualità” che avevo conquistato, nel tempo, sui siti web incriminati. Come per magia, infatti, i siti sono crollati ulteriormente. Morale? Sono stato un perfetto imbecille, perché è una cosa logica sprofondare negli abissi se si eliminano i link in ingresso. Bisogna fare attenzione!
Anche voi siete caduti nella “rete di Google”?
Bhè, a tutto c’è rimedio, ma ormai la sciocchezza (a mio modo di vedere) è stata fatta e bisogna correre ai ripari subito, senza però farsi prendere dal panico e dall’odio verso il motore di ricerca.
Procediamo con ordine.
Gli alerts di Google, per quanto “personali” possano essere (perché inviati ad ognuno sul proprio account di Strumenti per Webmaster), sono stati sempre molto generici. Lo stesso Matt Cutts, quando è stato chiamato in causa sui problemi che stava causando il nuovo algoritmo, si è espresso a riguarda cercando di non sbilanciarsi mai troppo.
Il buon Matt, in più di una battuta, sostiene che gli alerts ricevuti in Strumenti per Webmaster sono semplicemente “potenziali campanelli d’allarme”. In pratica, secondo il suo punto di vista, ricevere il fatidico messaggio non significa per forza che si è in presenza di una situazione drammatica da dover correggere assolutamente. Bisogna solamente stare attenti, analizzare per bene tutti i propri link in entrata e intervenire con la rimozione, qualora ci fossero link sospetti e non di qualità.
Bella storia…
Secondo il mio punto di vista (magari pecco un po’ di presunzione, ma concedetemelo) Google ha voluto fare un po’ di pulizia (e magari anche uno studio profondo) sulla link popularity dei siti web. Gli algoritmi diventano sempre più intelligenti, ma hanno bisogno di continui cambiamenti e chi meglio di chi compra link innaturali può indicare a Google quali sono e che caratteristiche in comune hanno questi link?
La possibilità di questo mio ragionamento la si riesce a leggere anche nell’intervista di Matt Cutts a SearchEngineLand, tradotta nei passaggi più importanti da Marco Quadrella per il Seoblog di Giorgiotave.
Non bisogna vedere Penguin come un algoritmo in grado di dare adito, in qualche modo, alla tanto acclamata Negative SEO: è impossibile che un sito web possa riuscire ad abbattere un concorrente semplicemente facendogli arrivare link con la stessa anchor text dall’oggi al domani.
Sarebbe troppo facile, stupido e la darebbe vinta ancora di più a chi ha un gruzzoletto da parte da poter investire. Ma non per far crescere il proprio sito web e quindi aumentare la qualità del web (e di Google), semplicemente perché i potenti del web riuscirebbero ad avere un monopolio incredibile comprando links dappertutto per affondare la concorrenza. Su… lo vedo troppo come uno scenario apocalittico!
La cosa più intelligente da fare, secondo me, è focalizzarsi sulla creazione/ri-fondazione di una link popularity di qualità. E’ come se ci trovassimo di fronte ad una bilancia: da una parte ci sono i link “cattivi”, quelli che non piacciono a Google. Dall’altra troviamo i link “buoni”, quelli a tema, naturali e che piacciono tanto al nostro amato Google.
Se, per un motivo o per un altro, la bilancia pende dalla parte sbagliata, bisogna cominciare a studiare una buona strategia per farla pendere dal lato opposto.
Ovviamente, come è naturale che sia, ricevere 20/50/100 links in entrata, anche tra i migliori al mondo, diventa rischioso e le possibilità di risalire dal fondo sono veramente basse. In pratica si rischia di fare un casotto non indifferente e perdere tempo, denaro e tutto ciò che di buono si è fatto (o perlomeno di è cercato di fare) durante tutta la vita del sito web.
Dopo tanto parlare, vediamo insieme cosa fare e cosa non fare!
Le cose da fare sono tante, sia in caso di penalizzazioni, sia se si sta per lanciare un nuovo progetto:
- Focalizzarsi per bene sulla propria nicchia, senza andare troppo oltre (meglio tematizzare al massimo, per non confondere gli spiders);
- Curare i contenuti ed arricchirli di tutto quello che può essere utile all’utente;
- Essere presenti sui social: inutile negarlo, bisogna evolversi come si evolve il web. Il ranking del proprio sito potrebbe beneficiarne e la gente, che nei social networks ci vive praticamente, deve sapervi riconoscere ed apprezzare proprio perché ci siete ed offrite prodotti/contenuti di qualità;
- Rendere il proprio sito web intuitivo e graficamente piacevole: lasciate perdere tutti quei fronzoli grafici che si usavano un tempo. Il web è cambiato, si è evoluto; i banner che luccicano e le scritte lampeggianti non vanno più di moda, bisogna cambiare. Siate più minimalisti: una grafica semplice, pulita e con un logo originale vanno più che bene;
- Create una buona link popularity: Google da’ molta fiducia ai siti trust, quelli che veramente contano in un settore o nella vostra nicchia di riferimento. Cercate di prendere link da questi siti, in qualsiasi modo; si dice che più un link in entrata è difficile da ricevere, più quel link avrà valore nel proprio settore di riferimento. Non posso che essere d’accordo;
- Curate il vostro sito come se fosse un figlio: monitoratelo, dategli cibo (contenuti) di qualità, non fategli frequentare gente poco raccomandabile (occhio a chi linkate!), fatelo socializzare, rendetelo creativo, ha bisogno di fare la differenza per poter emergere tra i propri simili. Curatene l’aspetto fisico (usabilità e tempi di caricamento) ed insegnategli che i soldi, nella vita (quando si avvia un qualsiasi progetto online) sono l’ultima cosa al quale guardare. Se si studia con costanza, ci si applica con coerenza e si gode di quel pizzico di fantasia ed intuito, anche quelli arriveranno!
E adesso veniamo alla lista della Negative SEO che, per come la intendo io, è una sottospecie di autolesionismo della SEO. Ci sarebbe tanto da dire, ma limitiamoci a formulare questa semplice lista in funzione della creazione di una corretta link popularity.
I links da evitare, secondo il mio parere, sono:
- Quelli presenti nei post di article marketing fatto in maniera massiva (esempio: invio a 300 siti di article marketing lo stesso articolo, con lo stesso link in uscita, nella stessa posizione e con lo stesso anchor text);
- Links provenienti da siti creati appositamente per quello scopo (esempio: creare un blog su blogger, scriverci un articolo solamente per inserire un link in uscita verso il proprio sito web non è una pratica intelligente);
- Site-wide/footer Links: semplicemente i links presenti in sidebar o nel footer;
- Links acquistati o scambiati: non fate inutile giochetti del tipo A linka B, B linka C e C linka A, queste cose andavano di moda 10 anni fa!
- Directories: valgono pochissimo o nulla, meglio evitare. Alcune, poi, inseriscono di tutto e quel link potrebbe ritrovarsi “cattivi vicini”;
- Links da siti di social bookmarking o da aggregatori di notizie: anche qui stesso discorso, il gioco non vale la candela. Si usano per prendere un po’ di traffico, ma sono troppo dispersivi; i link in entrata potrebbero far pendere la bilancia dal lato sbagliato;
- Links presenti come spam in forum e o profili: non c’è niente di male nell’inserire il proprio sito in firma, ma non bisogna esagerare! Google potrebbe considerarli come spam ed accendere qualche campanello d’allarme;
- Links presenti in commenti spam: non è una bella cosa spammare il proprio sito in giro per il web. Un conto è proporre risorse utili commentando articoli e suggerendo spunti costruttivi, un altro, diametralmente opposto, è usare software automatici per inserire migliaia di links verso il proprio sito web. Google questo lo sa’ … e il nofollow presente di default nei commenti dei blog non è sempre un arma a doppio taglio. O forse si;
- Ultimo, ma non per importanza, sono i link exact match, ovvero tutti quei links che non sembrano naturali. Quelli, ad esempio, inseriti in guest post non utili a nessuno, con il solo scopo di argomentare qualche riga per prendere un link in entrata.
Se siete arrivati fino alla fine avete davvero un bel coraggio! J
Tutto quello che sta’ accadendo nel mondo dei motori di ricerca, di Google in particolare e del posizionamento, meriterebbe centinaia di pagine di questo blog. Ma ci fermiamo a questo “riassunto”, anche perché spero di avervi lasciato qualcosa di interessante o, quantomeno, spero di aver chiarito qualche punto che meritava di essere affrontato in maniera un poco più approfondita.
La morale della storia?
Siate sereni, non ingannate gli utenti, fate le cose per bene sia on-site che off-site e… per qualsiasi cosa andateci con i piedi di piombo!
Google è un’azienda, con tantissimi dipendenti. Deve badare al proprio fatturato e gli ingegneri farebbero e direbbero qualsiasi cosa pur di portare a casa il proprio scopo. Per cui… pesate le parole meticolosamente e lavorate con passione: non saranno di certo un panda o un pinguino a distruggere i vostri sogni.
Non credete?
Pasquale Scarpati – SEO Specialist e Blogger
Come fa Facebook ad essere un indicatore importante se le informazioni dietro il login non sono accessibili ai bot? In che senso verrebbero conteggiati shares e comment? Solo utilizzando l’HTTP_REFERRER del traffico in ingresso?
Ciao Luca, le informazioni che Google può prendere da Facebook, teoricamente, dovrebbero essere poche. Ma sappiamo tutti che il googlebot diventa sempre più intelligente e le poche informazioni che può prendere gli bastano ed avanzano, secondo me, per farsi un’idea di valutazione della risorsa in questione. Le informazioni che si ricevono, poi, usando ad esempio uno strumento come questo -> http://www.emetello.com/facebook-share-counter/ non sono poi così banali.
Tu cosa ne pensi? Che idea ti sei fatto a proposito?