APRENDE ONLINE

Compártelo

viernes, 30 de septiembre de 2011

Pasos previos al SEO, el plan de marketing online.

El plan de marketing online.

Cuando una empresa decide lanzarse a trazar una campaña de posicionamiento en buscadores, muy usualmente (sobre todo en el caso de Pymes) se omite la creación de un plan de marketing online.

Un proyecto de posicionamiento en buscadores (SEO) debe ser parte de un plan de marketing online, que englobe todas las estrategias a utilizar para rentabilizar y monetizar un proyecto web.


El plan de marketing,  requisito previo al SEO.

Un proyecto web, con su plan de negocio y sus inversiones en las distintas áreas del proyecto, debe contar con un apartado dedicado a la promoción y publicidad, donde  una parte de la inversión  estará dedicada a la parte online, la cual debe estar orquestada por su plan de marketing correspondiente.

Quizás suponga una mayor inversión en esfuerzo y tiempo, pero puedo asegurar en base a mi experiencia, que los resultados se hacen ver. El lanzarse directamente al SEO centrándose solo en el, puede ser un error, ya que existen más de una docena de acciones que podemos realizar para nuestro plan de marketing online.

Aquí va una lista con algunas de ellas:
  • Posicionamiento en buscadores
  • Campañas de pago por clic en buscadores
  • Campañas de banners en sitios webs relevantes del sector
  • Permission marketing
  • Social media marketing

Más posts sobre posicionamiento en buscadores:



viernes, 23 de septiembre de 2011

Que es y para que sirve el archivo robots.txt

El archivo robots.txt - utilidades

Cuando profundizamos en el mundo del SEO, observamos cómo nos van surgiendo nuevos términos y nuevas utilidades que a primera vista nos cuesta entender. El caso del archivo robots.txt, es muy frecuente, muchas personas saben que es importante y quieren modificarlo para mejorar una cosa más en su estrategia de SEO onsite/onserver.

El robot lo que hace, es indicar a los buscadores que páginas no desea que indexe y por ello es importante en materia de seguridad y de posicionamiento, esto es debido a que descarga de recursos el sistema y hace el servidor algo mas rápido.


El robot txt es un archivo muy útil para SEO, tenlo muy en cuenta.

Su estructura es muy sencilla, se indica un buscador y a continuación, las limitaciones de páginas o directorio, donde no debe revisar ni indexar el contenido. La primera línea del bloque será User-agent: nombre_del_buscador

User-agent: *

El uso de * significa cualquier buscador, es decir, se aplica a todos ellos. Un ejemplo para el caso de una tienda online en la cual queramos, restringir el acceso de los buscadores a elementos privados sería el siguiente:

User-agent: *
Disallow: /temp/
Disallow: /~administrador/
Disallow: /carrito/

Con las líneas anteriores evitamos que el buscador indexe las páginas de los directorios /temp, /~administrador y /carrito.

Para un uso más avanzado de los robots os aconsejo echar primero un vistazo a los recursos para webmasters deGoogle, Webmaster tolos, posee un apartado en el cual podemos generar nuestro propio robot. Lo encontrarás en información del sitio – acceso a rastreadores – generar archivo robot.txt.

Más posts sobre posicionamiento en buscadores:


miércoles, 14 de septiembre de 2011

Guía para elegir servicio de posicionamiento web

Guía para elegir un servicio de posicionamiento web


Hoy en días cada vez son más las empresas pequeñas y medianas, que se hacen eco de la rentabilidad de una campaña de posicionamiento en buscadores. Por ello también son más las empresas que ofrecen estos servicios, muchas de ellas de manera fraudulenta.

Por ello os dejo esta miniguía, para que tu campaña de posicionamiento en buscadores sea rentable para ti, y no solo para quién te la está llevando a cabo. Veamos algunas de las señales inequívocas de fraude que debes conocer:

En primer lugar Google no tiene representantes con trato preferencial, por lo tanto si contactan contigo afirmando ser de Google o tener algún tipo de acuerdo con ellos, directamente desconfía.

Encontrar un servicio de posicionamiento, usa el sentido común.

Lo que si existe es el socio certificado de Google, esto otorga un sello que acredita que el profesional o la empresa en cuestión, ha superado los exámenes necesarios que demuestran su conocimiento en cuanto desarrollo de campañas de pago por clic (También existe para analytics).

En segundo lugar, el profesional debe estimar la mejor estrategia y palabras clave en consecuencia, para lo cual habrá que realizar modificaciones en la web. Esto supone un coste está claro, pero es necesario para que la campaña tenga los mejores resultados.

Por ello las tarifas o “packs” según el número de palabras clave o cadenas de búsqueda, son más que dudosas. El hecho es que cada página web del sitio no se puede trabajar para más de cuatro palabras clave y tener los mejores resultados. 

Por último me gustaría recalcar que “no hay duros a real”, por ello una campaña de SEO de 20 o 30 euros al mes es más que poco confiable. Desconfía de aquellos servicios de posicionamiento con un suelo inferior a los 150 euros mensuales (piensa que requiere del trabajo de un grupo de varias personas, todos los días de la semana atendiendo tu proyecto).

Más información sobre posicionamiento en buscadores:


miércoles, 7 de septiembre de 2011

ESFUERZOS SEO QUE NO FUNCIONAN

Este post es de hace ya mas de un año, ni me acuerdo si lo escribí yo entero o fue algún compañero, pero para que veáis que lo de Google Panda no es nuevo, aquí tenéis que hace ya mucho que las directrices, de aquello que es adecuado están establecidas y que los caminos fáciles no existen en SEO.

Hace unos días estuve revisando los resultados de la aplicación de las medidas estándar de SEO (optimización para motores de búsqueda) que había aplicado a un proyecto de blog. La evaluación parcial me permitió llegar a algunas conclusiones que quiero compartir. Además, añado algunas actividades que no empleo, pero que observo con mayor o menor frecuencia en la blogósfera, y que no sólo no funcionan, sino que además pueden causar una penalización de los buscadores.

1. Dar de alta el blog en 1000+ buscadores no ayuda a mejorar el tráfico.

Después de ingresar el blog (sitio) en una lista extensa de buscadores, no obtuve ni una sola búsqueda que no llegara de Google, Yahoo, MSN, Technorati o Ask. Ello se debe a que apenas una docena de buscadores abarcan más del 99% del mercado.

Conclusión:

No más altas en buscadores que nadie usa.

2. Aparecer en listados de 1000+ directorios no necesariamente incrementa los enlaces entrantes y el tráfico.

Después de revisar los enlaces entrantes al sitio me pude dar cuenta de que son poquísimos los enlaces que llegan y que provengan de los directorios. Naturalmente, los hay directorios muy útiles que generan tráfico y enlaces, pero la mayoría ya ha sido marcado por Google.

Conclusión:

No invertir tiempo o dinero en listados de directorios irrelevantes y desconocidos.

3. El intercambio de enlaces no siempre es efectivo.

Si se intercambia enlaces con una bitácora muy traficada y de alta autoridad, se va a obtener como resultado un excedente de tráfico interesante, pero ninguno de los sitios obtiene mucho valor de enlace entrante, debido a que los buscadores ahora desechan los enlaces de doble vía. Por otro lado, no faltan los que quieren obtener un enlace de una vía y después de un par de semanas borran el enlace a tu bitácora.

Conclusión:

Intercambiar enlaces sólo por el objetivo de conseguir visitas por referencia desde otra bitácora.

4. Manipular las etiquetas META no funciona con los grandes buscadores.

No importa cuanto se manipule para colocar los keywords "comerciales" de forma artificial, actualmente es más importante el contenido y los enlaces relevantes con el texto adecuado.

Conclusión:

Colocar sólo los keywords básicos de la bitácora o no hacerlo en absoluto.

5. Sobrecargar de keywords las entradas solo las hace más aburridas de leer.

Este error es frecuente y casi todos hemos caído en ello; se trata de la típica entrada corta en la que se repite la misma frase o palabras hasta 10 veces. Actualmente, es incluso mejor utilizar sinónimos de las frases o palabras en los keywords.

Conclusión:

Escribir las entradas de forma natural, sin ajustar la densidad de los keywords. O hacerlo de forma que sea legible y sin exagerar, para no dar la impresión de ser spam.

6. Invertir dinero en software para autogenerar artículos.

El típico software que re-escribe artículos de forma automática, cambiando algunos términos en el texto de un artículo de calidad, con el fin de que sea aceptado en los directorios de artículos. El resultado es simplemente desastrozo, la redacción llega a parecerse a la de un niño de primaria y sería difícil que el moderador del directorio lo acepte.

Conclusión:

Descartar la generación automática de contenido, no se puede reemplazar la originalidad y la creatividad. Enviar a los directorios de artículos, solo las mejores entradas que hayamos creado.

7. Utilizar software para autogenerar comentarios (SPAM).

Es cada vez más común el encontrar comentarios como "Hola, que interesante tu artículo", acompañados de un enlace a una bitácora (o sitio) desconocido y que sólo pretende ganar un enlace. Aclaro que no me molesta que alguien deje ese tipo de comentarios en mi bitácora, lo molesto es cuando se encuentra exactamente el mismo texto de comentario en varias entradas y en cientos de blogs, que en ocasiones ni siquiera están relacionados. La mala noticia para los spammers es que no duran mucho en ser reconocidos y por lo general, los mismos propietarios de las bitácoras terminan por eliminarlos y marcarlos.

Conclusión:

El Spam no favorece a nadie, pero, el dejar comentarios relevantes en las bitácoras del nicho sí que ayuda a incrementar los enlaces entrantes y enriquece la conversación en el blog donde se comenta.

8. Comprar software que promete poner el sitio en horas en primer lugar en los SERPs es perder el dinero.

Actualmente se han vuelto a poner de moda las ofertas de altos SERPs en sólo horas. Esto carece de sentido, básicamente porque hay keywords muy competitivos, que para alcanzar la primera página de resultados puede tomar meses de esfuerzo. Además, casi nadie conoce a ciencia cierta de que manera se coloca una página como resultado de una búsqueda, siempre se va a tratar de un tema de ensayo y error.

Conclusión:

Invertir el dinero en diseño, publicidad o hosting en lugar de botarlo en software u ofertas de origen dudoso.

9. Comprar plugins que ofrecen aumentar el número de enlaces sin esfuerzo y automaticamente.

Quizá en el mundo de los blogs, hay pocas cosas que se automaticen tan mal como el link baiting. Es un error el comprar plugins que claman a los cuatro vientos que insertan enlaces hacia la página desde 1000+ sitios de enlace social. Para empezar, yo ofrezco uno gratuito que genera un enlace en Del.icio.us, pero con la intención de generar visitas directas o poder buscar en Del.icio.us alguna entrada que no recuerdo donde está.

Conclusión:

No invertir dinero en plugins de generación de enlaces a sitios de Enlace Social, por lo general, se consiguen gratuitos y de cualquier manera no contribuyen a incrementar la posición en los SERPs.

10. Pagar a foristas y bloggers para que hagan Buzz del Blog en otros blogs y foros.

Esta práctica se está haciendo popular en la blogósfera de habla inglesa, pero no hay duda que pronto va a extenderse en nuestra versión de habla hispana. Consiste en pagar a otras personas para que escriban en otros sitios (como foros y bitácoras) con el enlace al sitio. En inicio, es casi indetectable, pero al final es contraproducente porque las personas por ganar dinero de forma fácil, dejan los clásicos comentarios irrelevantes de menos de cien caracteres, con lo cual la reputación de la bitácora puede caer. Aunque es una técnica que bien administrada puede generar enlaces válidos a corto plazo, también tiene el riesgo de potencialmente destruir la credibilidad del blog.

Conclusión:

En lugar de pagar para que otros comenten a nombre del blog, es preferible escribir entradas muy valiosas que generen enlaces de forma espontánea desde otras bitácoras y foros.



Autor del contenido