Gracias a esos archivos, se descubrieron algunas cosas sobre Google.
- el robot de Google que efectuaba estas labores de comprobación para eliminar páginas web en realidad estaba instalado sobre la ruta ‘/apps/bin/robots_unittest’ del servidor,
- este robot seguÃa unos patrones de rastreo contenidos en el directorio ‘/home/google/googlebot/’,
- se almacenaban datos de rastreo en ‘/apps/smallcrawl-data’,
- la longitud máxima permitida en las URLs (al menos, de las que se querÃan eliminar con este método) era de 511 caracteres,
- la aplicación estaba desarrollada con Java, y utilizando las antiguas clases de conexión con mySQL ‘MM.MySQL‘, además de otras creadas por los ingenieros de Google
- la clave del administrador de esta Base de Datos era tan sencilla como ‘k00k00′ (como hemos dicho, restricciones de uso remoto impedÃan conectar desde servidores externos)
Con todo esto queremos decir, no que vayas y aproveches la vulnerabilidad de Google, sino que todos los sitios webs pueden tener fallas de seguridad, que cualquier software o web puede ser vulnerable pero no por ello tenemos que andar con miedo, sino en alerta permanente 😉
VÃa – Dirson – AlexSEO