image
Inicio » Weblog » Joaquin's Weblog

Método para que Google no indexe páginas de error

08.02.2008
Categoría: — Joaquin @

A veces puede pasar que que hay un error en tu página, pero es un error momentáneo, ya sea porque has reiniciado el servidor o porque hay una sobre carga.

En estos casos es muy desagradable que el robot de Google pase por tu página en ese momneto y te indexe el error, de manera que tu información real no se almacena en el índice de Google perdiendo una cantidad importante de visitas.

Para evitar esto, puede personalizar la página de error para enviar una cabera “503  Servicio momentanemente no disponible”. Hacer esto esmuy sencillo, por ejemplo, para PHP se hace de la siguiente forma:

<?php
ob_start();
header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Status: 503 Service Temporarily Unavailable');
header('Retry-After: 3600');
header('X-Powered-By:');
?><!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
<html><head>
<title>503 Service Temporarily Unavailable</title>
</head><body>
<h1>Service Temporarily Unavailable</h1>
<p>The server is temporarily unable to service your
request due to maintenance downtime or capacity
problems. Please try again later.</p>
</body></html>

Os dejo el enlace original en donde se explica en profundidad el envío de la cabecera 503.


Google hace cloaking???

12.03.2005
Categoría: — Joaquin @

De ser cierto lo que acabo de leer en webmasterworld.com, el propio Google estaría haciendo cloaking en sus páginas webs.

¿Qué es cloaking? Resumiéndolo mucho, hacer una página web que proporciona diferente contenido al buscador que a los usuarios.

Esta técnica de optimización de posicionamiento, está fuertemente penalizada por Google ya que perjudica al usuario.

Actualizado: La noticia se ha confirmado. Google estaba haciendo cloaking.

Si buscabas “traffic estimator” en Google podías ver una página cuyo título estaba lleno de keywords que hacían referencia a traffic estimator pero que si accedías a esa página web con un navegador normal veías un título completamente distinto.

Ahora Google ya ha retirado dicha página, supongo que alguien dentro de Google habrá recibido una buena bronca.


Por qué MSN no rastrea todo mi web

25.02.2005
Categoría: — Joaquin @

Una de las ventajas de internet es que la gente comparte su trabajo y la información que averigua con los demás.
Entre esa gente hay afortunadamente muchos webmasters, entre ellos gente que se dedica con minuciosidad a analizar los logs de sus webs.

Una serie de webmasters han analizado el comportamiento de “MSNBot” que es el robot de Microsoft emplea para inderax las páginas que utiliza su recientemente publicado buscador.

Estos se han dado cuenta de que no indexaban todas las páginas de su sitio, preocupados por este comportamiento han estado investigando y preguntando a MS sobre esto.

Una de las principales razones por las que MSBot no indexa todas las páginas es por URL demasiado compleja, parece ser según información de MS que MSNBot se asusta si ve URL con más de 5 o 6 parámetro ya que piensa que puede estar siendo engañado y metiéndose en una espiral atrapa bots.

Otras de las razones es que no indexa muy profundamente, si la página sólo se puede acceder a través de navegar por 7 u 8 niveles, es muy posible que el robot de MS no la indexe, por eso ellos recomiendan que tengas un mapa del web, para facilitar el rastreo al robot.

Más información en el blog de MSN Search.








Comparte



Última modificación:31 de Agosto de 2017. Spain - Espa�a.
© 1998-2004 por . Todos los derechos reservados.