Что делать, если Googlebot не может получить доступ к сайту?

 Официальный представитель Google Джон Мюллер сделал важное заявление, касающееся работы краулера поисковой системы.Многих вебмастеров волнует вопрос: если сайт неисправен или заблокирован, может ли поисковый робот Google получить к нему доступ?По словам Мюллера, сильно беспокоиться в таких случаях не стоит. После того как запрет на сканирование краулером будет снят, URL-ы страниц сразу же появятся в индексе Google. При этом не имеет значения, был ли запрет связан с неисправностями на стороне хостера или обусловлен случайной блокировкой сканирования содержания сайта вебмастером. «Как правило, если Googlebot не получал доступ к сайту незначительное время, сканирование происходит довольно быстро и ссылки на страницы ресурса снова появляются в выдаче. Если же повреждение было более длительным и существенным, то на восстановление URL-ов в выдаче уйдет несколько больше времени – это связано с изменениями в поисковых алгоритмах, которые могли произойти, пока сайт был недоступен для сканирования. Так что всегда полезно еще раз перепроверить ваш ресурс на наличие других нарушений», – рассказал представитель Google.

Статьи по теме:

Amazon является владельцем ряда "неприличных" веб-адресов Новый троян может разорить владельца заражённого Android устройства OnionShare: безопасный файлообмен через Tor В Роскомнадзоре вместо блога Навального видят котенка В российском сегменте интернета могут ужесточить фильтрацию контента Coca-Cola добавила эмоций в URL Вредоносное программное обеспечение атакует пользователей iPhone Google ежесекундно получает восемь запросов на удаление пиратских ссылок Google включит в поисковые результаты данные об источнике информации Google накрыла волна запросов на удаление ссылок на пиратский контент. Ежеминутно компания получает 1500 таких требований.