В результате каких-то действий часто требуется пересканировать сайт. Для новичков это часто становится серьезной проблемой, если речь идет о десятках тысяч страниц или более. Некоторые даже пытаются удалить сайт через консоль гугла, что в корне неверно и базируется на неточном переводе пункта меню. Удаление в консоли просто прячет указанное из выдачи, но не удаляет ничего и никакого рескана не вызывает само по себе.
У GoogleBot есть интересная особенность. Он очень любит новые страницы, но пересканировать просто так страницы не любит. Я пользуюсь этим и, когда мне понадобилось сделать рескан этого форума, просто создал карту сайта (sitemap) с новыми ЧПУ-ссылками, которые указывали на страницы, редиректящие кодом 301 на старые с соответствующими темами. Заодно получил некоторый профит, поскольку ЧПУ поисковики любят.
Сожрал с дикой скоростью. Подчеркну, это были нетипичные для сайта URI.