Es un error que me estaba pasando hoy y he conseguido solucionar.
Parece ser que Google guarda una copia del robots.txt. Si en desarrollo lo teníais como Ajustes > Disuadir… (Disallow: / ), esto es lo que sigue bloqueando el acceso al sitemap.xml (y a toda indexación) aunque lo hayáis actualizado.
Así que la solución es comprobarlo y pedir que lo actualice: https://www.google.com/webmasters/tools/robots-testing-tool
Está bien limpiar toda caché y regenerar los enlaces permanentes, pero el problema está en la caché de Google.
A mi también me parece absurdo que se deba a la terminación del dominio .top (en mi caso un .com). Si se soluciona añadiendo una / al final de la url quizás sea porque refresca su caché.