Google не рекомендует использовать robots.txt для блокировки URL с параметрами

Google не рекомендует использовать robots.txt для блокировки URL с параметрами

Google настоятельно не рекомендует использовать robots.txt для блокировки индексации URL с параметрами. Об этом заявил сотрудник поиска Джон Мюллер, отвечая на вопрос одного из вебмастеров в Twitter. По словам Мюллера, если используется такой способ блокировки, то Google не может каноникализировать...

Google: ранжирование файла robots.txt или Sitemap – это плохой знак для сайта

Google: ранжирование файла robots.txt или Sitemap – это плохой знак для сайта

На днях сотрудники Google Гэри Илш и Джон Мюллер опубликовали несколько твитов на тему индексации файлов robots.txt и Sitemap. Обсуждение начал Гэри Илш, который заявил, что файл robots.txt может индексироваться и ранжироваться в результатах поиска Google. По его словам, «c...

Search Console начал оповещать о прекращении поддержки noindex в robots.txt

Search Console начал оповещать о прекращении поддержки noindex в robots.txt

Google начал рассылать через Search Console оповещения тем вебмастерам, которые добавили директиву noindex в robots.txt. В них говорится, что эти записи должны быть удалены, поскольку 1 сентября поддержка noindex в этом файле будет полностью прекращена. «Google обнаружил, что файл robots.txt...

Google опубликовал список всех изменений в спецификации robots.txt

Google опубликовал список всех изменений в спецификации robots.txt

В рамках работы по переводу Robots Exclusion Protocol (REP) в разряд официальных интернет-стандартов Google обновил свою документацию по robots.txt. Все изменения перечислены в новом разделе «What changed» на странице Robots.txt Specifications. В их числе значатся следующие: Удалён раздел «Язык требований»;...

Google может полностью убрать поддержку директивы noindex в robots.txt

Google может полностью убрать поддержку директивы noindex в robots.txt

Google уже многие годы говорит вебмастерам, что не поддерживает директиву noindex в файле robots.txt. Однако некоторые SEO-специалисты по-прежнему её используют. Поэтому в компании задумались над тем, чтобы полностью отказаться от этой директивы и сделать так, чтобы она не работала. Об...

Экспресс-аудит сайта: чек-лист для регулярного мониторинга

Экспресс-аудит сайта: чек-лист для регулярного мониторинга

«Да я этот проект уже год веду! Все, что можно уже в нем сделал. Все в нем знаю!» – такими заявлениями любят бросаться SEO-специалисты, особенно начинающие. В действительности же у любого специалиста со временем взгляд на проект замыливается, да так,...

dubli-stranic-na-sajte

Убрать дубли страниц сайта на Joomla и WordPress. Плагины против дублей JL No Doubles и All in One Seo Pack

Плагин JL No Doubles позволяет с помощью 301 редиректа сократить количество дублирующихся материалов на вашем сайте, при этом вы сможете передать ссылочный вес от дублей к правильным страницам с точки зрения Joomla. JL No Doubles — это форк плагина Shnodoubles от Hekima,...

Authorization
*
*
Войти с помощью: 
Registration
*
*
*
Войти с помощью: 

four × one =

Password generation