!-- Facebook Conversion Code for Registros - 556198887806211 1 -->

Home » 2018 » octubre » 08

Daily Archives: 8 octubre, 2018

Google Panda contra los contenidos de baja calidad. Como la serie de Dibujos animados Kunfú Panda, la versión de Google convate a los malos, "contenidos".

Ya hemos hablado en anteriores artículos, sobre los algoritmos de forma genérica. Sobre algoritmos de Google, que se encargan de penalizar nuestro sitio web.
En el artículo de hoy vamos a hablar sobre Google Panda.

 

Google Panda

¿Qué hace Google Panda?

Google Panda es otro de los algoritmos que Google utiliza para clasificar los resultados de búsqueda. Este en concreto, trata de combatir las páginas con contenido de poca calidad. Cuando hablamos sobre el contenido de calidad, estamos hablando sobre diferentes aspectos, como no duplicar contenido, crear contenido lo suficientemente extenso para que éste pueda dar respuesta al usuario, cantidad de anuncios excesiva en el portal, etc.

La copia de contenido en sí mismo, puede posicionar, hay pruebas que lo demuestran, no va a posicionarse como si creas contenido único, y si te pasas, entonces es cuando te llegan las penalizaciones. Generalmente, quienes más cuidado deben tener, son páginas con poco contenido y que se repiten mucho, páginas de ecommerce que suben productos y las descripciones de los productos son copiadas, o webs de contenido automático.

La Historia de Google Panda

Aquí os dejamos parte de las actualizaciones más importantes de este algoritmo:

  • 24/02/2011 – Panda 1.0. Se lanza por primera vez el algoritmo de Google Panda para consultas en inglés en EEUU afectando a un 11,8% de las consultas
  • 11/04/2011 – Panda 2.0. Lanzamiento de la segunda versión de Google Panda para el resto de países de idioma inglés.
  • 12/08/2011 Se despliega de forma definitiva Google Panda a nivel mundial, con un gran impacto en las consultas de búsquedas.
  • 19/10/2011 – Panda 3.0. Se lanza la nueva versión de Panda afectando al 2% de las consultas
  • 27/09/2012. Esta actualización tiene un gran impacto, ya que sucede al mismo tiempo que la actualización para los dominios de concordancia exacta.
  • 14/03/2013 Oficialmente, Matt Cutts anuncia la última actualización de Google Panda y la inclusión del algoritmo en el núcleo del algoritmo de Google, pero esto no será así, ya que a futuro aparecen nuevas actualizaciones.
  • 18/07/2013. Tras negar la actualización el propio Google, al final se desmiente y confirman que realmente si hubo actualización en el algoritmo.
  • 20/05/2014 – Panda 4.0. Matt Cutts presenta la nueva versión de Google Panda, actuando en tiempo real. Afecta a un gran porcentaje de los resultados de búsqueda en todo el mundo.
    25/09/2014 – Panda 4.1. Esta versión del algoritmo se despliega días antes del anuncio oficial del lanzamiento. Afecta entre un 3% y un 5% de las consultas.
    17/07/2015 – Panda 4.2.
    El lanzamiento de esta nueva versión, es un cambio lento que “tardará meses en completarse”, según Jhon Mueller, aunque no explica el motivo. Parece que este despliegue se alarga hasta finales de noviembre de ese mismo año 2015.

Google Panda y su lucha contra los malos contenidos.

Este es un proceso lento y muy estratégico, ya que debemos conocer las páginas que están posicionando y cuáles no. En función de cuál sea el motivo expuesto arriba, la estrategia puede variar. Si es por los anuncios, cosa que será bastante evidente, sólo tienes que reducirlos de forma drástica o insertarlos de manera que des prioridad al usuario antes que al dinero. Dejando de lado la parte de los anuncios y centrándonos en la parte del contenido, lo principal es detectar qué páginas tienen contenido duplicado y/o poco contenido.

Si sabemos o sospechamos que el problema reside en el segundo punto, debemos realizar una serie de pasos y valoraciones para actuar.

Detectar duplicidad de contenido

Para detectar esto podemos usar herramientas como Safecont o Siteliner ya que son las más recomendadas. Según la cantidad de urls, puede que sea necesario pagar para utilizar una versión más amplia de urls rastreables.
Ambas herramientas os darán datos de los contenidos duplicados y páginas de poca calidad de contenido, aunque personalmente, prefiero Safecont ya que se especializa bastante en ello y ofrece más datos que la segunda, además de poder sincronizar la herramienta con Google Analytics entre otras funciones. Puede resultar algo más compleja de usar que la segunda, pero vale la pena dedicarle ese tiempo.

…más valoraraciones

Una vez hemos identificado todos estos contenidos duplicados y de baja calidad, hay que hacer valoración sobre qué vamos a realizar con ellos, para ello, necesitaremos:

  • Conocer los backlinks que apuntan a dichas páginas
  • La fuerza de esa página a nivel de enlazado interno
  • Las impresiones y clics a través de Google
  • Sesiones totales a través de distintas fuentes de tráfico
  • Los leads o conversiones que tienen cada una de las páginas detectadas.

Una vez tengamos todos estos datos agrupados, podemos trabajar con ellos. A parte de esto, necesitaremos obtener el tráfico de la web por secciones, para conocer las visitas y conversiones gracias a la captación de visitas de estas.

Acciones en función de los datos

Una vez tenemos todos los datos, es necesario detectar ante qué tipo de web nos encontramos para definir secciones dentro de nuestro sitio en base a un tipo de arquitectura web, indexación, cambio del enlazado interno, etc.

Arquitectura web

Según nuestro tipo de arquitectura, puede que nos interese llevar el tráfico más a una sección de la web que a otra, ya que nos aporta más conversiones, tiene mayor tendencia o posibilidades de crecimiento seo.

Indexación de páginas

Una vez están definidas las secciones, debemos decidir si se van a indexar todas, o hay alguna sección que no es necesario que indexemos. La decisión se debe tomar con cuidado y se toma en función de si las páginas, pueden posicionar por keywords relevantes que atraigan a usuarios interesados en convertir, sin canibalizar a otras keywords. Esto se hace principalmente, para centrarnos en crear contenidos en las secciones más importantes de la web, ya que modificar todo el contenido para sitios muy grandes, puede ser una locura.

En caso de querer indexar todo, deberemos de decidir qué contenidos son más prioritarios y cuáles nos pueden atraer mayor volumen de crecimiento, ya sea a nivel de visitas o de tráfico orgánico, es por esto mismo que necesitamos los datos de todas las urls de poca calidad o con contenido duplicado. Una vez asignada esta prioridad, empezaremos a trabajar el contenido por secciones, observando siempre la evolución de la web. Algo con lo que tenéis que ir con mucho cuidado es con la desindexación, no es recomendable desindexar páginas con enlaces o que tiene tráfico orgánico. También es recomendable que si una página la queremos desindexar y tiene mucha fuerza a nivel de url, es recomendable revisar y modificar el enlazado interno de nuestro site, para reforzar las páginas que queremos posicionar y más tráfico nos pueden aportar.

Como ya hemos visto, Google Panda es un algoritmo que afecta a la calidad del contenido y quienes más cuidado deben tener son aquellos sites que abusan de los anuncios, ecommerce y webs con contenidos automatizados. No es difícil salir, el problema reside en el trabajo que conlleva, ya que requiere redacción de contenidos y esto es un procedo largo y tedioso. Es por ello que si empiezas un proyecto y por alguna de aquellas necesitas crear contenidos automatizados, ten un plan de cambio de contenidos de forma manual a lo largo del tiempo y da prioridad a las páginas que mejor te funcionen.

 

CTOUCH

 

Calendario de pubicaciones.

octubre 2018
L M X J V S D
« Sep   Nov »
1234567
891011121314
15161718192021
22232425262728
293031  

Aquí También

EMAIL
Facebook51k
Facebook
Google+7k
Google+
https://www.tomatrending.com/blog/2018/10/08">
Pinterest
Instagram27k

Bloguers

bloguers_rc1
Translate »
Social media & sharing icons powered by UltimatelySocial

Enjoy this blog? Please spread the word :)