|
|
Puesta en antecedentes. Es común en muchos foros y blogs que los enlaces que pueda generar un usuario al escribir una entrada sean publicados por defecto con el atributo rel=”nofollow” dentro de
Para quien no lo sepa, esto hace que los buscadores no sigan ese enlace, aunque el usuario sí pueda pulsar en él e ir a la página a que se vincula. Se utiliza para que los enlaces a páginas web con menos PageRank que el foro donde ha sido publicado no hagan que el propio foro baje de PageRank. Quien dice foro dice blog o cualquier otro sitio, aunque predomina en comunidades virtuales.
Aparte de lo normal que no se puede olvidar nunca: (meta tags bien optimizadas, con herramientas gratuitas como SubmitExpress.com, título que contenga la frase clave que buscamos, todas las imágenes tienen que tener etiqueta ALT, todos los enlaces con la etiqueta TITLE (el equivalente a ALT pero con enlaces textuales)), hemos de seguir las siguientes instrucciones. Como complemento al mapa del sitio que nosotros hemos hecho manualmente, hay que crear uno automático en formato XML para ayudar a Google a indexarlo mejor. Esto se puede hacer desde algunos sitios web que lo generan de forma gratuita pero suelen limitarse a 500 links y luego hay que pagar. Yo aconsejo el SiteMapbuilder.NET, que es gratuito e indexa ilimitados links. Una vez generado el archivo, hay que cerciorarse de que se llame sitemap.xml y hay que subirlo a la raíz del sitio (normalmente /public_html/). Hay que colocar una archivo en la raíz del sitio que se llame robots.txt y le diga a los buscadores qué pueden y qué no pueden indexar. En nuestro caso, haremos que indexen todo (aunque si el sitio web tiene panel administrativo podría quitarse esa sección, etc.). Para ello usaremos la herramienta gratuita de MCANERIN.com. Si bien a veces no se puede negar que es difícil cumplir los estándares, no está de más cumplirlos porque Google lo tiene en cuenta. Resulta Muy sencillo por ejemplo cumplir con XHTML 1.0 Transitional; no tiene más secreto que desarrollar el sitio web como uno siempre lo hace, y subirlo a Internet. Una vez en Internet (porque en local no se pueden hacer comprobaciones) se valida en http://validator.w3.org/ y se comprueban los fallos, que normalmente serán bastantes. Y luego consiste en sentarse pacientemente a leer los errores, que normalmente son irrelevantes, e ir corrigiéndolos. Hemos hecho que los buscadores sólo se fijen en nuestro enlace que va a la frase clave, y el resto de enlaces son reconocidos por el mapa del sitio tanto visual, como XML, además de ayudarle con el archivo robots.txt (Esto anula el riesgo anteriormente mencionado y, aunque sube de nivel en los buscadores la frase clave, el resto bajan, obviamente). Si tenemos paciencia y lo hemos hecho bien todo, nuestro sitio debería empezar a subir posiciones en Google y demás buscadores en pocas semanas. Hay infinidad de técnicas SEO que se pueden aplicar, aquí sólo me he hecho eco de una novedad que se puede añadir al habitual repertorio.Nofollow
Quien hizo la ley hizo la trampa
Es lo ques suele pasar, siempre ha sido así. La herramienta que han utilizado los buscadores para hacer que algunos sitios no se posicionen, han hecho que otros sí puedan hacerlo. Tras pasar algún tiempo reciclándome en técnicas SEO y menesteres similares, he encontrado un peculiar hallazgo, que por ahora no he conseguido leer publicado en ninguna parte, ni siquiera en inglés. Es por ello que me aventuro a darlo como primicia, pero no aseguro su funcionamiento en todos los buscadores. As far a I know… Por lo que yo sé… sirve para posicionar solamente una frase clave en los buscadores, además lo deja todo bien ordenado para Google, pero cuando en el título de esta entrada digo arriesgado, lo digo porque puede hacer que no se posicione por ningún otro término al anular muchos enlaces, aunque como más adelante explicaré, eso puede no ser siempre así.
Consiste en utilizar rel=”nofollow” en todos los enlaces de la web excepto en cuatro:
Medidas complementarias imprescindibles
Mapa del sitio en XML
Uso de robots.txt
Cumplir estándares (XHTML, CSS…)
Corolario
|
Bio: Raúl Avilés actualmente trabaja como diseñador freelance en su empresa de diseño web iSens Technologies. Escribe artículos y publicaciones en varios sitio web especializados tan a menudo como tiene algo nuevo que contar y que interese a la gente. Estudia Ingeniería superior de Telecomunicaciones en la Universidad Miguel Hernández (Alicante) y como también le gustan los idiomas está estudiando alemán (aparte del valenciano e inglés que se presuponen). Raul Avilés es el desarrollador de la tienda online www.soler-bags.com y la mantiene y gestiona para la empresa alicantina Soler Bags Company. También publica sus artículos en su blog: http://www.isens.es/blog Y la web de su empresa de diseño web es http://www.isens.es |
Si no está de acuerdo con algo o quiere añadir más información al respecto puede incluirla añadiendo un comentario.
¿Te sientes capacitado para escribir un artículo como este? ¿Te gustaría colaborar escribiendo artículos en WebEstilo? Háznoslo saber !!