Джон Мюллер об обработке копий URL в файлах Sitemap.xml

Джон Мюллер об обработке копий URL в файлах Sitemap.xml

От автора: дублирование URL в нескольких файлах Sitemap не вызовет проблем сканирования и индексации контента. Об этом Джон Мюллер рассказал во время дискуссии в Reddit.

Один из вебмастеров спросил представителя Google, может ли использование нескольких файлов Sitemap и дублирование в них URL страниц привести к некорректному сканированию контента сайта. Джон Мюллер пояснил, что это никак не отразится на качестве анализа и индексации содержимого площадки.

GoogleBot собирает все адреса, перечисленные в файлах Sitemap.xml, и обрабатывает их в виде единого списка. При этом главное, чтобы у дубликатов URL веб-страниц совпадали даты последнего изменения.

Источник: https://www.reddit.com

JavaScript. Быстрый старт

Изучите основы JavaScript на практическом примере по созданию веб-приложения

Узнать подробнее

ReactJS: основы

Изучите основы ReactJS и создайте ваше первое приложение на ReactJS

Смотреть

Метки:

Похожие статьи:

Комментарии Вконтакте:

Комментарии Facebook:

Добавить комментарий