Мэтт Каттс попросил вебмастеров не закрывать для Googlebot страницы на Javascript

В очередном обучающем видео от Google, опубликованном на этой неделе, главный инженер и руководитель команды Google по борьбе с поисковым спамом Мэтт Каттс (Matt Cutts) ответил на вопрос о том, насколько эффективно алгоритмы крупнейшего в мире поисковика умеют обрабатывать веб-страницы, построенные на Ajax (асинхронном Javascript).

«Отвечая на ваш вопрос, сосредоточусь на вопросах распознавания Javascript: Google постоянно совершенствуется в данном аспекте. К примеру, если вы закроете объекты Javascript или CSS файлом robots.txt или директивой Disallow, то поисковый робот Google не сможет просканировать страницы.

Доступ к сканированию страниц, построенных на Javascript, позволяет Google не только совершенствоваться в обработке таких страниц, но и получать расширенные сведения о конкретной странице на сайте. Вот почему я бы порекомендовал вебмастерам проверить подобные элементы и страницы на наличие запретов для Googlebot сканировать страницы и веб-приложения, построенные с использованием Javascript, CSS  и др. И, в случае обнаружения, убрать эти запреты», - разъяснил Мэтт Каттс.



Рубрика: Информация » SEO новости   |   Автор: Журналист   |   Просмотры: 1985
Информация

Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.