Aclaración 22/2/09: Parece que han corregido el problema y ahora el directorio de enlaces ya es accesible para los robots.

haciendo intercambio de enlaces me he encontrado con estos señores :

www.serviXXXXXweb.es/enlaces/intercambio-de-enlaces.php (quita las XXXXX para ir al sitio en cuestion) me niego a darles un backlink ni que sea con nofollow

Haces el intercambio y todo correcto hasta que pasas a la verificación. Huy en cache google no tiene nada. huy el robots.txt tiene «Disallow: /enlaces»

Sorprendido les pregunto por el tema y tienen el morro de contestar:

En relación a su inquietud, le comentamos que esta regla forma parte de nuestra política de intercambio de enlaces. Puede encontrarla en nuestra politica publica de intercambios:
www.serviXXXXXweb.es/enlaces/politica-de-intercambios.php (quita las XXXXX para ir al sitio en cuestion)
En el apartado de CALIDAD E INDEXACION DE LOS ENLACES, viene definido
explicitamente:
«Para una completa seguridad de que Serviweb y los enlaces ubicados en Serviweb no son sancionados como directorio de enlaces se bloqueará la indexación desde el archivo robots.»

Vamos, que para evitar que los enlaces tengan poco valor directamente que no tengan ninguno XD

Y me proponen alternativas que por supuesto paso ni de considerar.

Yo por ahora estoy verificando que todos los links intercambiados acaben saliendo en la cache de Google pero no puedo verificarlos eternamente y por ello estoy desarrollando una herramienta para hacerlo.

¿que le pedirían a esa herramienta?
Por ahora almacena mis links salientes y su respectivos reciprocos (aunque esten en otra web)
verifica que el link esté en la web reciproca y que salga en la página de cache de esa web reciproca.
marca los que no salen

Esto es Black seo o caradura?