Lo que es bueno para el usuario, lo es para Google. Es así de fácil. Google siempre intenta mostrar en el SERP o página de resultados del buscador los enlaces o sitios web de mayor calidad. Por contra, penaliza aquellos sitios web que tratan de mejorar su posición mediante la compra o el intercambio de enlaces, blogs creados expresamente para posicionar una web, comentarios spam, anchor text o texto de enlace no naturales…
¿Cómo sabe Google todo eso?
Google utiliza algoritmos con el fin de ofrecer a sus usuarios los mejores resultados. Un algoritmo es un programa informático diseñado para que Google sepa qué es lo que está buscando el usuario. Los algoritmos envían señales como pueden ser, por ejemplo, los términos que se utilizan en la página web, las actualizaciones de contenido o el PageRank.
Google va comunicando las actualizaciones significativas de algoritmo que realiza a lo largo del año. La última actualización importante del Penguin, desde su lanzamiento en 2012, la hizo el pasado mes de octubre con la aplicación de la versión 3.0.
Pero el pingüino no es el único animal que rastrea la web. También hay que tener cuidado con el Panda. El primero se fija en la calidad de los enlaces, mientras que el segundo repara en los contenidos. Sanciona los contenidos duplicados y la copia de contenidos. A Google le gustan contenidos originales y de calidad y sin que estén sobrecargados de palabras clave.
El mejor consejo es apelar al sentido común. Lo que está claro es que hay que seguir muy de cerca los pasos de Google para ascender en el ranking.
Ejemplos de penalizaciones que han sido noticia.
-Expedia: fue penalizada perdiendo el 25% de visibilidad en el buscador por el uso excesivo de palabras clave en los textos ancla.
-Forbes: por vender links.
–Overstock: por intentar añadir links ofreciendo descuentos a estudiantes.
-JCP: por la compra-venta de enlaces.
-D&B Credibility: por intentar adquirir enlaces de forma no natural.