Home » Posts tagged 'Buscadores'

Tag Archives: Buscadores

Posiciona tu web en Bing. Existe vida más allá de Google

Porque hay vida más allá de Google, Posiciona tu web en Bing.  Lo primero que tienes que plantearte es: ¿Merece la pena? por una razón de peso, si eres una empresa local y tu público objetivo está ubicado en España, Google acapara el 98% del  mercado, pero, si tus Productos, Servicios o Contenidos son globales, te dejas una cuota de mercado muy jugosa,  fuera del plato. Por ejemplo en  EEUU,  el escenario es diferente,  Bing obtiene el 20% del mercado y Yahoo alrededor de un 12%.

Posiciona tu web en Bing.

Existe vida más allá de Google.

Técnicamente hablando, la manera de posicionar en Bing con respecto a Google no difiere demasiado.

 Como todo, depende, de los objetivos, características y estrategia de cada proyecto. Pero debemos tener en cuenta que Yahoo y Microsoft han unido sus fuerzas para hacer de Bing un competidor para Google, lo que puede contribuir a que en los próximos años las entradas a páginas web a través de este buscador crezcan considerablemente. Por ello, ignorar por completo Bing puede ser un error.

Del mismo modo que, Google,  tiene unas consideraciones para conseguir un eficaz  posicionamiento natural, Bing resulta ser prácticamente un calco de Google, pero por si las moscas, los recalco:

  • Los títulos deben tener al menos 65 caracteres incluido los espacios, ser descriptivos, precisos y contener la palabra clave.
  • Importante el SEO off Page, es decir, la presencia de nuestra página  en otras importantes,  de tratados, contenidos o productos/servicios, similares al nuestro.
  • Con el administrador de web, no olvides enviar un sitemap, cuando publiques o modifiques un post, para acelerar el proceso de indexación.
  • Las keywords  vitales, como no podia ser de otra forma.
  • Los 150 caracteres de la metadescripción,  únicas y definitorias, para cada entrada.
  • Java Script, no es bien interpretado por Bing, por tanto, los flash, te penalizarán, en relación a otra página, con el mismo contenido, que no los use.
  • Al margen del valor de tus publicaciones, decisión de tu audiencia, Bing, quiere artículos de al menos, 350 caracteres.
  • Clásicos entre  los penalizables, enlaces ocultos y colores confusos con el fondo.
  • Utilizar botones sociales fomentando así la máxima difusión de las publicaciones.
  • Por penoso que pueda parecer, la antigüedad, es un grado, en esto no podemos intervenir.
  • La última consideración, Bing da prioridad a dominios propios, es decir,  el típico blog creado bajo un subdominio, no resulta muy eficaz.
Sopesar si merece la pena, tener presencia en todos sitios, llámense, buscadores, redes sociales, comunidades virtuales, resulta toda una controversia, entre el deseo de llegar muy lejos y las fuerzas o recursos disponibles,  ser cabeza de ratón o cola de león. Si piensas que este post es interesante o puede ayudar a alguien, no dudes en compartirlo, es fácil y gratuito. 

Joaquín Aguilar.

La búsqueda mental del usuario. Comportamiento lógico del usuario en su búsqueda.

Para seleccionar unos buenos parámetros de búsqueda, tenemos que conocer La búsqueda mental del usuario, antes de llegar a escribir una sola letra en la barra del buscador, lo que es los mismo: Comportamiento del usuario en una búsqueda.

 

 

La búsqueda mental del usuario.

Comportamiento del usuario en una búsqueda.

Dejarse llevar al terreno del que busca, resulta tremendamente empático, ya que con toda seguridad tu mismo has estado en la piel del que quiere encontrar, recordar la actitud del usuario en su aventura de búsqueda, nos demuestra el enorme valor publicitario, se producen actos de mercadotecnia, como la segmentación, pero de manera natural, sin tener haber leído ni una sola línea de técnicas de ventas, debido a que su intención es, encontrar lo que busca.

Un usuario en su afán de búsqueda, está haciendo una declaración de intenciones, superando cualquier otro estudio, medición o aplicación, hablamos de la  necesidad puntual e inmediata del potencial consumidor, no en la transformación empírica estudiada desde un  perfil.

En la foto donde aparece un potencial comprador, tras la pantalla de un ordenador, sin iniciar sesión, no hay criterios sociodemográficos o económicos, ni target, edad, sexo, ni localización, tan sólo una idea en su mente «Hoteles baratos en Chipiona» en cualesquiera de los casos el objetivo es encontrar una oportunidad de ocio adecuada a las necesidades e intereses. Lo importante es que el usuario quiere resolver esa necesidad en ese justo momento. Y quiere resolver su necesidad a un clic de distancia.
El momento de la búsqueda es la más positiva por parte del usuario, resulta ser el maná de todo anunciante, los estudios indican que, cerca del 53% de los usuarios hace clic en el primer resultado, en torno al 68% en la primera página. Un visitante que ha hecho clic en un resultado de búsqueda cuya keyword hemos elegido por considerar una relevancia a fin con  nuestros productos/servicios/contenidos,  y por la que hemos decidido pagar, será una visita que pase de 6 a 8 minutos en nuestra página  debido a que en el momento de la búsqueda, nuestro servicio pone en bandeja de plata , la presentación de aquello que el anhela.

Consideremos un par de ejemplos:

Un usuario está buscando un vuelo on line, espera ver un anuncio cuyo contenido sea similar a los términos siguientes:

  1. «Su vuelo de forma rápida y sencilla»
  2. «Reserva directa en web»
  3. «Desde 30€ Reserve ¡ya!»

En su disposición mental, urgente e inmediata, sobre todo si está realizando una búsqueda comparativa, sabe que cualquier anuncio de este tipo le llevará a una landing  page,  con un formulario de contacto, donde  introducirá sus datos para realizar el proceso de elección, destino, personas, ida, vuelta, etc. De donde en un proceso, fácil rápido y sencillo, saldrá con un billete a las vacaciones esperadas durante todo el año.

De la misma forma, si lo que estaba buscado era, un Master universitario, estará preparado para un proceso mucho más dilatado, incluso de una interlocución a medio largo plazo. Por ello espera encontrarse mensajes relativos al prestigio del centro, la confianza del mismo, opiniones relativas al producto que va a conseguir, liderazgo, mejora del perfil profesional y comodidad on line, semipresencial o flexibilidad horaria en caso de ser presencial.

El usuario, en esta ocasión  espera  información en la landing page que contenga información sobre el centro, proceso de admisión,  referencias de alumnos, información sobre valoración del Master, información sobre el proceso de  matriculación, además de sesiones informativas.
Ambos resultados  pueden partir del  término de búsqueda “on line”, sin embargo vemos claramente, lo que espera ver el usuario a un lado y al otro de un anuncio con un apéndice común «on line»   y un resultado totalmente diferente en cada uno de los casos.

Hacer coincidir,  lo que un humano quiere,  con lo que un robot nos ofrece, es muy fácil, sólo hay que fijarse en la velocidad con la que aparecen los resultados, el misterio consiste en desvelar, ¿cómo aparecer a la cabeza de esos, cientos, miles, en ocasiones millones de resultados? Si te apetece, continuaremos desojando la margarita.

 

CTOUCH

 

 

Joaquín Aguilar.

Google Panda contra los contenidos de baja calidad. Como la serie de Dibujos animados Kunfú Panda, la versión de Google convate a los malos, "contenidos".

Ya hemos hablado en anteriores artículos, sobre los algoritmos de forma genérica. Sobre algoritmos de Google, que se encargan de penalizar nuestro sitio web.
En el artículo de hoy vamos a hablar sobre Google Panda.

 

Google Panda

¿Qué hace Google Panda?

Google Panda es otro de los algoritmos que Google utiliza para clasificar los resultados de búsqueda. Este en concreto, trata de combatir las páginas con contenido de poca calidad. Cuando hablamos sobre el contenido de calidad, estamos hablando sobre diferentes aspectos, como no duplicar contenido, crear contenido lo suficientemente extenso para que éste pueda dar respuesta al usuario, cantidad de anuncios excesiva en el portal, etc.

La copia de contenido en sí mismo, puede posicionar, hay pruebas que lo demuestran, no va a posicionarse como si creas contenido único, y si te pasas, entonces es cuando te llegan las penalizaciones. Generalmente, quienes más cuidado deben tener, son páginas con poco contenido y que se repiten mucho, páginas de ecommerce que suben productos y las descripciones de los productos son copiadas, o webs de contenido automático.

La Historia de Google Panda

Aquí os dejamos parte de las actualizaciones más importantes de este algoritmo:

  • 24/02/2011 – Panda 1.0. Se lanza por primera vez el algoritmo de Google Panda para consultas en inglés en EEUU afectando a un 11,8% de las consultas
  • 11/04/2011 – Panda 2.0. Lanzamiento de la segunda versión de Google Panda para el resto de países de idioma inglés.
  • 12/08/2011 Se despliega de forma definitiva Google Panda a nivel mundial, con un gran impacto en las consultas de búsquedas.
  • 19/10/2011 – Panda 3.0. Se lanza la nueva versión de Panda afectando al 2% de las consultas
  • 27/09/2012. Esta actualización tiene un gran impacto, ya que sucede al mismo tiempo que la actualización para los dominios de concordancia exacta.
  • 14/03/2013 Oficialmente, Matt Cutts anuncia la última actualización de Google Panda y la inclusión del algoritmo en el núcleo del algoritmo de Google, pero esto no será así, ya que a futuro aparecen nuevas actualizaciones.
  • 18/07/2013. Tras negar la actualización el propio Google, al final se desmiente y confirman que realmente si hubo actualización en el algoritmo.
  • 20/05/2014 – Panda 4.0. Matt Cutts presenta la nueva versión de Google Panda, actuando en tiempo real. Afecta a un gran porcentaje de los resultados de búsqueda en todo el mundo.
    25/09/2014 – Panda 4.1. Esta versión del algoritmo se despliega días antes del anuncio oficial del lanzamiento. Afecta entre un 3% y un 5% de las consultas.
    17/07/2015 – Panda 4.2.
    El lanzamiento de esta nueva versión, es un cambio lento que “tardará meses en completarse”, según Jhon Mueller, aunque no explica el motivo. Parece que este despliegue se alarga hasta finales de noviembre de ese mismo año 2015.

Google Panda y su lucha contra los malos contenidos.

Este es un proceso lento y muy estratégico, ya que debemos conocer las páginas que están posicionando y cuáles no. En función de cuál sea el motivo expuesto arriba, la estrategia puede variar. Si es por los anuncios, cosa que será bastante evidente, sólo tienes que reducirlos de forma drástica o insertarlos de manera que des prioridad al usuario antes que al dinero. Dejando de lado la parte de los anuncios y centrándonos en la parte del contenido, lo principal es detectar qué páginas tienen contenido duplicado y/o poco contenido.

Si sabemos o sospechamos que el problema reside en el segundo punto, debemos realizar una serie de pasos y valoraciones para actuar.

Detectar duplicidad de contenido

Para detectar esto podemos usar herramientas como Safecont o Siteliner ya que son las más recomendadas. Según la cantidad de urls, puede que sea necesario pagar para utilizar una versión más amplia de urls rastreables.
Ambas herramientas os darán datos de los contenidos duplicados y páginas de poca calidad de contenido, aunque personalmente, prefiero Safecont ya que se especializa bastante en ello y ofrece más datos que la segunda, además de poder sincronizar la herramienta con Google Analytics entre otras funciones. Puede resultar algo más compleja de usar que la segunda, pero vale la pena dedicarle ese tiempo.

…más valoraraciones

Una vez hemos identificado todos estos contenidos duplicados y de baja calidad, hay que hacer valoración sobre qué vamos a realizar con ellos, para ello, necesitaremos:

  • Conocer los backlinks que apuntan a dichas páginas
  • La fuerza de esa página a nivel de enlazado interno
  • Las impresiones y clics a través de Google
  • Sesiones totales a través de distintas fuentes de tráfico
  • Los leads o conversiones que tienen cada una de las páginas detectadas.

Una vez tengamos todos estos datos agrupados, podemos trabajar con ellos. A parte de esto, necesitaremos obtener el tráfico de la web por secciones, para conocer las visitas y conversiones gracias a la captación de visitas de estas.

Acciones en función de los datos

Una vez tenemos todos los datos, es necesario detectar ante qué tipo de web nos encontramos para definir secciones dentro de nuestro sitio en base a un tipo de arquitectura web, indexación, cambio del enlazado interno, etc.

Arquitectura web

Según nuestro tipo de arquitectura, puede que nos interese llevar el tráfico más a una sección de la web que a otra, ya que nos aporta más conversiones, tiene mayor tendencia o posibilidades de crecimiento seo.

Indexación de páginas

Una vez están definidas las secciones, debemos decidir si se van a indexar todas, o hay alguna sección que no es necesario que indexemos. La decisión se debe tomar con cuidado y se toma en función de si las páginas, pueden posicionar por keywords relevantes que atraigan a usuarios interesados en convertir, sin canibalizar a otras keywords. Esto se hace principalmente, para centrarnos en crear contenidos en las secciones más importantes de la web, ya que modificar todo el contenido para sitios muy grandes, puede ser una locura.

En caso de querer indexar todo, deberemos de decidir qué contenidos son más prioritarios y cuáles nos pueden atraer mayor volumen de crecimiento, ya sea a nivel de visitas o de tráfico orgánico, es por esto mismo que necesitamos los datos de todas las urls de poca calidad o con contenido duplicado. Una vez asignada esta prioridad, empezaremos a trabajar el contenido por secciones, observando siempre la evolución de la web. Algo con lo que tenéis que ir con mucho cuidado es con la desindexación, no es recomendable desindexar páginas con enlaces o que tiene tráfico orgánico. También es recomendable que si una página la queremos desindexar y tiene mucha fuerza a nivel de url, es recomendable revisar y modificar el enlazado interno de nuestro site, para reforzar las páginas que queremos posicionar y más tráfico nos pueden aportar.

Como ya hemos visto, Google Panda es un algoritmo que afecta a la calidad del contenido y quienes más cuidado deben tener son aquellos sites que abusan de los anuncios, ecommerce y webs con contenidos automatizados. No es difícil salir, el problema reside en el trabajo que conlleva, ya que requiere redacción de contenidos y esto es un procedo largo y tedioso. Es por ello que si empiezas un proyecto y por alguna de aquellas necesitas crear contenidos automatizados, ten un plan de cambio de contenidos de forma manual a lo largo del tiempo y da prioridad a las páginas que mejor te funcionen.

 

CTOUCH

 

El algoritmo de Google. El Alma del buscador más utilizado de planeta.

Algunos se dedican a detectar vulnerabilidades en el algoritmo para utilizarlas en su propio beneficio, mientras que otros trabajan de forma dura para ofrecer una respuesta al usuario e ir en paralelo a la ideología que nos quiere imponer este buscador. Pero realmente, ¿sabemos qué es el algoritmo de Google? ¿cómo funciona? ¿cómo podemos identificar que un algoritmo nos afectó en nuestro sitio web? Todo esto y más en este artículo.

¿Qué es el algoritmo de Google?

Un algoritmo es una fórmula matemática, y en el caso del algoritmo de Google, no es un único algoritmo, son varios algoritmos de los cuáles se compone actualmente, de tal forma, que lo ha llevado a convertirse en algo monstruoso y bastante difícil de controlar, incluso de forma interna para la propia empresa, normalmente, los nuevos algoritmos lanzados o los grandes cambios en ellos, pueden afectar a un gran número de webs, y se anuncian con antelación y suelen llevar el nombre de algún animal, como hummingbird, pigeon, panda, penguin, etc…

 

formula pagerank

La imagen mostrada es el algoritmo inicial del PageRank, el sistema con el que Google valoraba las páginas y que además hacía público el resultado de cada página. Los resultados iban del 0 al 10, y a mayor pagerank, mejor era tu página. La fórmula inicial de la imagen, estaba compuesta por:

  • PR(u): es el pagerank resultante de la página u.
  • d: es un factor que influye directamente en que un usuario continué navegando dentro de la misma web pulsando un
  • link. Tiene un valor entre 0 y 1.
  • PR(v): es el pagerank de cada una de las páginas v que enlazan a u.
  • N(v): son todos los enlaces salientes de v a cualquier página.

Actualmente, el pagerank quedó obsoleto y esta formula no será tan sencilla como antiguamente, pero puede ser útil para tener un punto de partida y conocer la fuerza de nuestras páginas con la formula inicial.

Tipos de algoritmo

Existen varios tipos de actualizaciones en los algoritmos de Google, cada uno con su respectivo nombre, aquellos de los cuáles tenemos información y aquellos que se producen de la noche a la mañana sin previo aviso.

Updates del algoritmo fantasmas. Los algoritmo fantasma o sin nombre, son aquellos que se producen un día concreto sin previo aviso y no se asigna a ningún algoritmo de algún tipo específico con nombre, desde Google se excusan con que los algoritmos son bastante delicados y realizan una media de cambios de dos veces al día (lo cuál en teoría es cierto). A pesar de ello, muchas veces han dicho que no han realizado ningún cambio para meses más tarde desmentirlo.

Cambios oficiales del algoritmo

Son aquellas actualizaciones del algoritmo que están previamente anunciadas, o que las revelan después de aplicarlas,  para que nos vayamos adaptando a las nuevas medidas antes de estrellarnos. Algo que mucha gente recordará fue la aparición del famoso Penguin, donde varias empresas bastante fuertes, vieron cómo sus negocios caían en picado sin saber exactamente qué hacer o cómo actuar. Suele pasar ante cambios grandes.

¿Cómo funcionan los algoritmos de Google?

Los algoritmos de Google, lo que pretenden es ofrecer la mejor respuesta a la intención de búsqueda del usuario, es decir, yo estoy buscando servicios de SEO y utilizo la keyword “post patrocinados“. Al realizar esta búsqueda, Google ha procesado la información que nosotros solicitamos y la interpreta para devolvernos miles o millones de resultados, en función de la prioridad y la relevancia de estos. En los primeros puestos (sin contar los anuncios), lo que muestra es la definición y dónde conseguir este tipo de enlaces, Google entiende, que los usuarios para esta búsqueda genérica, quiere una palabra cleve y dónde encontrarla.

A continuación, muestra otro tipo de artículos hablando sobre los posts patrocinados, algo más variados y al final de la primera página, volvemos a ver resultados similares a los primeros. También podemos encontrar los anuncios de Adwords que en un gran número de búsquedas nos aparecerán.

Como conclusión, el último algoritmo de 2018 el último gran cambio es el mobile first index, donde a partir de ahora, se dará prioridad al crear una web en móvil antes que en PC. Esto significa que el rastreador que más pasará por nuestra web, será el bot para versiones móviles, la frecuencia de rastreo que veremos y el crawl budget se verá influido por este.

 

CTOUCH 

La red de búsqueda y la red de contenidos. Funcionamiento de la red de búsqueda frente a la red de contenidos.

La red de búsqueda y  la red de contenidos.  La flexibilidad en las publicaciones viaja de la mano del formato de enlaces patrocinados, desde el propio dashboard de usuario de las herramientas de publicación de anuncios, se puede añadir como opción la capacidad de publicar anuncios además de en la pantalla de resultados del buscador, en redes de contenido asociadas.

 

La red de busqueda y la red de contenidos.

Las redes de contenidos incluyen cualquier soporte de publicación

Entendemos por redes de contenido aquellas que,  como concepto general,  incluyen cualquier soporte de publicación de anuncios como:  periódicos, blogs, páginas personales, páginas específicas, mensajes de correo, etc.

Como hemos mencionado con publicaciones  anteriores, la vinculación entre el anuncio y el usuario viene dada por el término de búsqueda o la combinación de palabras clave. En el supuesto de una página web de contenidos, un artículo o un blog, no existe esta vinculación de manera inmediata y directa puesto que no hay acción de búsqueda por parte del usuario. En este caso, el primer paso consiste en determinar, por parte del sistema de publicación de anuncios, de qué está hablando este contenido, este artículo, este post de un blog, este e-mail, etc.

El sistema detectará los contenidos más destacados de forma autónoma

Analizando el contenido, las palabras, la manera de escribirlas, destacarlas y repetirlas, el sistema será capaz de determinar que dentro de un artículo en el blog de Tomatrending, sobre las últimas actualizaciones más interesantes de Windows 10, una palabra clave relevante es, actualización.  Es decir, de forma autónoma el sistema detectará los contenidos más destacados de la web donde se incluyen, y asignará los anuncios más relevantes para ese contenido.

Acertar con el reparto de red de búsqueda y red de contenidos

Con ello, todos los anunciantes que cuentan con esta keyword dentro de sus campañas podrían ver cómo su anuncio resulta elegido para aparecer en la zona de enlaces patrocinados anunciando productos y servicios para esta comunidad. Este sistema de vinculación entre el contenido de las páginas y la elección de los anuncios relevantes para este contenido se llama publicidad contextual, o Adsense en el caso de Google.

Sistemas como Google, Yahoo y Miva, permiten realizar la publicación de estos anuncios. Como en todo plan de medios, tendremos que tener en cuenta la cobertura tanto de red de búsqueda como de red de contenidos de cada uno de ellos para elegir cómo repartiremos nuestro presupuesto.

Aunque no resulte muy complejo entender las diferencias entrañadas, en las dos modalidades, si puede resultar muy productivo y ventajoso, dominar estos términos para adecuar las campañas, siempre dependientes del interés instantáneo del usuario que busca.

 

Booking.com

Joaquín Aguilar.

El Marketing en motores de búsqueda. ¿Cómo trabaja un buscador?

Por ir seccionando en pequeños trozos las principales herramientas para el marketing online, esta publicación tratará:  El Marketing en motores de búsqueda. Usar los «buscadores» de forma habitual, de ninguna manera exige saber cómo trabajan, qué comportamientos tienen y cuales son sus usos, más allá de encontrar el billete de avión o el hotel más barato. Los buscadores son aplicaciones que nos permiten encontrar sitios y contenidos por los que mostramos interés, ahora bien, mal asunto quedarse sólo con esto cuando pretendemos  usarlos para «ser encontrados»   Un  Search Engine,  en inglés, Motor de búsqueda en castellano,  son  aplicaciones disponibles en Internet para cualquier usuario, que nos facilitan, nuestra navegación y  permiten localizar aquello que nos interesa de una forma rápida e intuitiva.  Por tanto,  parece lógico estar  interesados por su mecanismo de búsqueda, si necesitamos exponernos eficazmente en ellos.

 

El Marketing en motores de búsqueda.

¿Cómo trabaja un buscador?

La primera consideración importante es saber que los buscadores son robots, programados
por personas, creados para almacenar los contenidos de la red,  accesible a cualquier usuario del mundo, necesitado de mencionados datos,  independientemente de donde se sitúe la fuente y desde donde quiera acceder a ella el usuario.

Para poder trabajar en un buen posicionamiento, es imprescindible conocer la lógica utilizada por estos robots. El primer factor a tener en cuenta es que los buscadores, resuelven problemas con contenido de primera generación. Este medio de comunicación tiene como base en el texto como vehículo de la información complementado con alguna imagen estática, por el momento, ya que la fórmula multimodal, texto, imagen, audio y video, avanza a todo tren. Las mejoras introducidas están provocando rápidos e intensos cambios en los hábitos de uso del medio, lo que afecta de manera muy significativa a las aplicaciones más usadas en Internet, los buscadores. Estas mejoras se han incorporado a los siguientes casos:

  1. Los dispositivos de acceso (Tablets y teléfonos móviles).
  2. Las aplicaciones que sustentan y distribuyen las aplicaciones (navegadores
    y sistemas operativos) .
  3. Principalmente en la velocidad de acceso a través de diversos tipos de banda
    ancha para usuarios.

Pero estas aplicaciones no fueron concebidas para tratar información en soporte multimodal sino para organizar y ayudar al usuario a encontrar texto relacionado con el tema de su interés y, por lo tanto, estos robots son básicamente gigantescos indexadores de documentos de texto. Al final, un buscador no hace otra cosa que recorrer todos los documentos que encuentra en la red (páginas web), los lee, los analiza y, en base a unos algoritmos, los clasifica y los indexa según dos criterios básicos: la popularidad y la relevancia.

Cuando un usuario hace una búsqueda, el robot le devuelve una relación de páginas web (documentos en la filosofía de trabajo de estas aplicaciones) que están relacionadas con
las palabras introducidas como criterio de búsqueda por el usuario (keywords) ordenadas de tal forma que, supuestamente según los algoritmos del robot, aparecen en las primeras posiciones aquellas que más probabilidades tienen de ser del interés del usuario.

Comprender el sentido básico de los dos conceptos antes mencionados es imprescindible para poder gestionar nuestra comunicación a través de los buscadores, ya que son la clave principal para dominar esta importante herramienta de comunicación on-line.

Actualmente está surgiendo una primera generación de buscadores de imágenes, que están por demostrar su verdadera valía y que revolucionarán el mercado.  Atendiendo a los resultados de la encuesta anual del Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información, parece que no hay muchas dudas. Los usuarios utilizan los buscadores para decidir y adquirir los artículos y servicios que desean consumir.

Trataremos de desglosar diferentes conceptos, estrategias y tácticas relacionadas con el Marketing en buscadores. Así, es habitual tener en la cabeza diferentes palabras y nomenclaturas conformando una sopa de letras muchas veces poco comprensible, siendo habitual asistir a reuniones en las que se habla de SEO/ASO, SEM, CPCs, pujas, Landing pages, keywords, conversión, CTR, Page Rank, AdWords, AdSense, Spider, BOTS, etc., con algunos presentes asintiendo levemente con la cabeza demostrando conocimiento e interés.
Empecemos por el principio, para hacer Marketing en buscadores, necesitamos a alguien que busque: el usuario.


*Todos los productos Hostinet contienen un cupón descuento directo, cortesía de Tomatrending.com.

Joaquín Aguilar.

Calendario de pubicaciones.

septiembre 2019
L M X J V S D
« Jul    
 1
2345678
9101112131415
16171819202122
23242526272829
30  

Últimas Noticias

Aquí También

Facebook51k
Facebook
Pinterest18k
Instagram27k

Bloguers

bloguers_rc1
Translate »
Social Share Buttons and Icons powered by Ultimatelysocial
error

Enjoy this blog? Please spread the word :)