Что делать, если Googlebot не может получить доступ к сайту?

 Официальный представитель Google Джон Мюллер сделал важное заявление, касающееся работы краулера поисковой системы.Многих вебмастеров волнует вопрос: если сайт неисправен или заблокирован, может ли поисковый робот Google получить к нему доступ?По словам Мюллера, сильно беспокоиться в таких случаях не стоит. После того как запрет на сканирование краулером будет снят, URL-ы страниц сразу же появятся в индексе Google. При этом не имеет значения, был ли запрет связан с неисправностями на стороне хостера или обусловлен случайной блокировкой сканирования содержания сайта вебмастером. «Как правило, если Googlebot не получал доступ к сайту незначительное время, сканирование происходит довольно быстро и ссылки на страницы ресурса снова появляются в выдаче. Если же повреждение было более длительным и существенным, то на восстановление URL-ов в выдаче уйдет несколько больше времени – это связано с изменениями в поисковых алгоритмах, которые могли произойти, пока сайт был недоступен для сканирования. Так что всегда полезно еще раз перепроверить ваш ресурс на наличие других нарушений», – рассказал представитель Google.

Статьи по теме:

«Республика» предлагает молодым людям читать книги в виде URL-линков Coca-Cola добавила эмоций в URL McAfee получила сертификат ФСТЭК на средство проверки входящего и исходящего веб-трафика Web Gateway Google убрала более 170 тысяч ссылок по “праву быть забытым” Ростелеком фильтрует трафик по URL, но не через DPI — правда ли дело в экономии? Интернет вырос на треть за минувший год Пензенские депутаты предлагают закрывать сайты с пропагандой наркотиков по URL-адресу Каждый третий из числа самых популярных вебсайтов – в группе риска Число банковских троянов за девять месяцев 2013 г. утроилось Google выпустил Редактор AdWords 11.1