• Создаем правильный robots txt. Роботы яндекса. Запретить к индексации все файлы кроме одного

    Это текстовый файл (документ в формате.txt), содержащий четкие инструкции для индексации конкретного сайта. Файл указывает поисковиками, какие страницы веб-ресурса необходимо проиндексировать, а какие запретить к индексации.

    Казалось бы, зачем запрещать индексировать какое-то содержимое сайта? Пусть поисковый робот индексирует все без разбору, руководствуясь принципом: чем больше страниц, тем лучше! Но это не так.

    Далеко не весь контент, из которого состоит сайт, нужен поисковым роботам. Есть системные файлы, есть дубликаты страниц, есть рубрики ключевых слов и много чего еще есть, что вовсе не обязательно индексировать. В противном случае не исключена следующая ситуация.

    Поисковый робот, придя к вам на сайт, первым долгом пытается отыскать пресловутый robots.txt. Если этот файл им не обнаружен или обнаружен, но при этом он составлен неправильно (без необходимых запретов), «посланник» поисковой системы начинает изучать сайт по своему собственному усмотрению.

    В процессе такого изучения он индексирует все подряд и далеко не факт, что начинает он с тех страниц, которые нужно вводить в поиск в первую очередь (новые статьи, обзоры, фотоотчеты и т.д.). Естественно, что в таком случае индексация нового сайта может несколько затянуться.

    Дабы избежать такой незавидной участи, веб-мастеру необходимо вовремя позаботиться о создании правильного файла robots.txt.

    «User-agent:» – основная директива robots.txt

    На практике в robots.txt с помощью специальных терминов прописываются директивы (команды), главной среди которых можно считать директиву «User-agent: ». Последняя используется для конкретизации поискового робота, которому в дальнейшем будут даваться те или иные указания. Например:

    • User-agent: Googlebot – все команды, которые последуют после этой базовой директивы, будет касаться исключительно поисковой системы Google (ее индексирующего робота);
    • User-agent: Yandex – адресат в данном случае отечественный поисковик Яндекс.

    В файле robots.txt можно обратиться ко всем остальным поисковым системам вместе взятым. Команда в этом случае будет выглядеть так: User-agent: * . Под специальным символом «*» принято понимать «любой текст». В нашем случае – любые другие, кроме Яндекса, поисковики. Гугл, кстати, тоже воспринимает данную директиву на свой счет, если не обращаться лично к нему.

    Команда «Disallow:» – запрет индексации в robots.txt

    После основной директивы «User-agent:», обращенной к поисковым системам, могут следовать конкретные команды. В их числе самой распространенной можно считать директиву «Disallow: ». При помощи этой команды поисковому роботу можно запретить индексировать веб-ресурс целиком или какую-то его часть. Все зависит от того, какое расширение будет у данной директивы. Рассмотрим примеры:

    User-agent: Yandex Disallow: /

    Такого рода запись в файле robots.txt означает, что поисковому роботу Яндекса вообще не позволено индексировать данный сайт, так как запрещающий знак «/» стоит в гордом одиночестве и не сопровождается какими-то уточнениями.

    User-agent: Yandex Disallow: /wp-admin

    Как видно, на этот раз уточнения имеются и касаются они системной папки wp-admin в . То есть индексирующий робот посредством данной команды (прописанному в ней пути) откажется от индексации всей этой папки.

    User-agent: Yandex Disallow: /wp-content/themes

    Такое указание роботу Яндекса предполагает его допуск в большую категорию «wp-content », в которой он может индексировать все содержимое, кроме «themes ».

    Исследуем «запретные» возможности текстового документа robots.txt дальше:

    User-agent: Yandex Disallow: /index$

    В данной команде, как следует из примера, используется еще один специальный знак «$». Его применение подсказывает роботу, что нельзя индексировать те страницы, в ссылках которых имеется последовательность букв «index ». При этом индексировать отдельный файл сайта с аналогичным названием «index.php » роботу не запрещено. Таким образом, символ «$» применяется в случае, когда необходим избирательный подход к запрету индексации.

    Также в файле robots.txt можно запретить индексацию отдельных страниц ресурса, в которых встречаются те или иные символы. Выглядеть это может так:

    User-agent: Yandex Disallow: *&*

    Эта команда приказывает поисковому роботу Яндекса не индексировать все те страницы веб-сайта, в URL-адресах которых встречается символ «&». Причем этот знак в ссылке должен стоять между любыми другими символами. Однако может быть и другая ситуация:

    User-agent: Yandex Disallow: *&

    Тут запрет индексации касается всех тех страниц, ссылки которых заканчиваются на «&».

    Если с запретом индексации системных файлов сайта вопросов быть не должно, то по поводу запрета индексировать отдельные страницы ресурса такие могут возникнуть. Мол, зачем это нужно в принципе? Соображений на сей счет у опытного веб-мастера может быть много, но главное из них – необходимость избавиться в поиске от дубликатов страниц. С помощью команды «Disallow:» и группы специальных символов, рассмотренных выше, бороться с «нежелательными» страницами можно довольно просто.

    Команда «Allow:» – разрешение индексации в robots.txt

    Антиподом предыдущей директивы можно считать команду «Allow: ». При помощи тех же самых уточняющих элементов, но используя данную команду в файле robots.txt можно разрешить индексирующему роботу вносить нужные вам элементы сайта в поисковую базу. В подтверждение – очередной пример:

    User-agent: Yandex Allow: /wp-admin

    По какой-то причине веб-мастер передумал и внес соответствующие корректировки в robots.txt. Как следствие, отныне содержимое папки wp-admin официально разрешено к индексации Яндексом.

    Несмотря на то, что команда «Allow:» существует, на практике она используется не так уж и часто. По большому счету в ней нет надобности, поскольку она применяется автоматически. Владельцу сайта достаточно воспользоваться директивой «Disallow:», запретив к индексации то или иное его содержимое. После этого весь остальной контент ресурса, который не запрещен в файле robots.txt, воспринимается поисковым роботом как такой, который индексировать можно и нужно. Все как в юриспруденции: «Все, что не запрещено законом, – разрешено».

    Директивы «Host:» и «Sitemap:»

    Завершают обзор важных директив в robots.txt команды «Host: » и «Sitemap: ». Что касается первой, то она предназначается исключительно для Яндекса, указывая ему, какое зеркало сайта (с www или без) считать основным. На примере сайт это может выглядеть следующим образом:

    User-agent: Yandex Host: сайт

    User-agent: Yandex Host: www.сайт

    Использование этой команды также позволяет избегать ненужного дублирования содержимого сайта.

    В свою очередь директива «Sitemap: » указывает индексирующему роботу правильный путь к так называемой Карте сайта – файлам sitemap.xml и sitemap.xml.gz (в случае с CMS WordPress). Гипотетический пример может быть следующим:

    User-agent: * Sitemap: http://сайт/sitemap.xml Sitemap: http://сайт/sitemap.xml.gz

    Прописывание данной команды в файле robots.txt поможет поисковому роботу быстрее проиндексировать Карту сайта. Это, в свою очередь, также ускорит процесс попадания страниц веб-ресурса в поисковую выдачу.

    Файл robots.txt готов – что дальше?

    Предположим, что вы, как начинающий веб-мастер, овладели всем массивом информации, который мы привели выше. Что делать после? Создавать текстовый документ robots.txt с учетом особенностей вашего сайта. Для этого необходимо:

    • воспользоваться текстовым редактором (например, Notepad) для составления нужного вам robots.txt;
    • проверить корректность созданного документа, например, посредством данного сервиса Яндекса ;
    • при помощи FTP-клиента закачать готовый файл в корневую папку своего сайта (в ситуации с WordPress речь обычно идет о системной папке Public_html).

    Да, чуть не забыли. Начинающему веб-мастеру, вне всякого сомнения, прежде чем экспериментировать самому, захочется сперва посмотреть на готовые примеры данного файла в исполнении других. Нет ничего проще. Для этого в адресной строке браузера достаточно ввести site.ru/robots.txt . Вместо «site.ru» – название интересующего вас ресурса. Только и всего.

    Удачных экспериментов и спасибо, что читали!

    Подробная инструкция о том, как создать файл robots.txt для сайта. Robots.txt является одним из самых необходимых аспектов полноценной поисковой оптимизации сайта. Соблюдая условия грамотного использования этого файла, можно достичь определенного положительного эффекта на сайт. Возможно указание разнообразных инструкций для большинства PS. Которые указывают поисковому боту необходимые ограничения или разрешения на сканирование страниц, каталогов или разделов сайта.

    Содержание статьи:

    Файл Robots.txt — основное определение

    Robots.txt — имеет определенные стандарты исключений для поисковых агентов (ботов), который был принят в январе 1944 года. Правилам этого файла добровольно следуют самые распространенные PS. Файл может состоять из одного или нескольких правил, каждое из которых блокирует или разрешает поисковому роботу доступ к определенным путям на сайте.

    По умолчанию этого файла нет на сайте — что дает всем PS полное разрешение на индексирование всего содержимого сайта. Такое разрешение может привести к попаданию в индекс поисковиков важных технических страниц сайта, которых там быть не должно.

    Для чего нужен Robots.txt на сайте — его влияние на продвижение в поисковиках

    Robots.txt — это наиважнейший фактор поисковой оптимизации сайта. Благодаря правильно прописанному набору правил для поисковых ботов, можно достичь определенного повышения ранжирования сайта в поиске. Что дают такие инструкции:

    1. Заперты на индексирование определенных страниц, разделов, каталогов сайта.
    2. Исключение страниц не содержащих полезного контента.
    3. Исключение дублей страниц и прочее.

    Для большинства сайтов, такие ограничения на индексирование просто необходимы для небольших полностраничных необязательны. Тем не менее определенные директивы, необходимо добавлять каждому сайту. К примеру запреты на индексацию:

    1. Страниц регистрации, входа в админку, восстановления пароля.
    2. Технических каталогов.
    3. Rss — ленты сайта.
    4. Replytocom и прочего.

    Как создать правильный Robors.txt самостоятельно

    Затруднений при создании файла Robots.txt не может возникнуть даже у начинающих. Достаточно следовать определенной последовательности действий:

    1. Robots.txt — текстовый документ и создается любым доступным текстовым редактором.
    2. Расширение файла должно быть обязательно.txt.
    3. Название обязательно robots.
    4. На одном сайте, разрешен только один такой файл.
    5. Размещается только в корневом каталоге сайта.

    Вам необходимо воспользоваться обыкновенным текстовым редактором (блокнотом как альтернативой). Создаем документ формата.txt и названием robots. Затем сохраняем и переносим этот документ с помощью FTP клиента в корневой каталог сайта. Это основные действия которые необходимо выполнить.

    Создание Robots.txt с помощью онлайн сервисов

    Этот метод самый простой и быстрый, подойдет тем кто боится самостоятельно создавать Robots.txt или просто ленится. Сервисов предлагающих создание этого файла огромное множество. Но стоит учитывать некоторые нюансы касательно этого способа. К примеру:

    1. Необходимо заранее учесть, что именно Вы желаете запретить, либо разрешить агенту.
    2. Необходима обязательная проверка готового файла перед загрузкой его на сайт.
    3. Будьте внимательны, ведь некорректно созданный файл Robots.txt online, приведет к плачевной ситуации. Таким образом в поиск могут попасть, технические и прочие страницы сайта, которых там быть в априори не должно.

    Все таки, лучше потратить время и усилия для создания корректного пользовательского роботса. Таким образом можно воссоздать четко обоснованную структуру запретов и разрешений соответствующую вашему сайту.

    Редактирование и правильный синтаксис файла Robots.txt

    После успешно созданного Robots.txt, его можно спокойно редактировать и изменять как Вам будет угодно. При этом следует учесть некоторые правила и грамотный синтаксис. По прошествии некоторого времени вы неоднократно будете изменять этот файл. Но не забывайте, после проведения работ по редактированию, Вам необходимо будет выгрузить этот файл на сайт. Тем самым обновив его содержимое для поисковых роботов.

    Написать Robots.txt очень просто, причина этому достаточно простая структура оформления данного файла. Главное при написании правил, использовать строго определенный синтаксис. Данным правилам добровольно следуют, практически все основные ПС. Вот список некоторых правил, для избежания большинства ошибок в файле Robots.txt:

    1. В одной строке не должно быть более одной указанной директивы.
    2. Каждое правило начинается с новой строки.
    3. Исключен пробел в начале строки.
    4. Допустимы комментарии после символа #.
    5. Пустой Роботс будет считаться как полное разрешение на индексацию.
    6. Название этого файла возможно только в допустимом формате «robots».
    7. Размер файла не должен превышать 32кб.
    8. В директивах Allow и Disallow допустимо только одно правило. Пустое значение после Allow: или Disallow: равносильны полному разрешению.
    9. Все правила должны быть прописаны в нижнем регистре.
    10. Файл должен быть доступен всегда.
    11. Пустая строка после указанных правил, указывает на полное окончание правил директивы User-agent.
    12. Желательно прописывать правила, каждой ПС по отдельности.
    13. Если правило это директория сайта, то обязательно ставьте слеш (/) перед ее началом.
    14. Кавычек в строке или в правиле быть не должно.
    15. Необходимо учитывать строгую структуру правил, соответствующую Вашему сайту не более.
    16. Robots.txt должен быть минималистичен и четко отображать передаваемый смысл.

    Грамотная настройка файла Robots.txt — правильное написание команд

    Чтобы получить позитивный результат при использовании роботс, необходимо правильно его настроить. Всем основным командам данного файла с инструкциями, следуют самые масштабные поисковые системы Google and Yandex. Остальные PS могут игнорировать некоторые инструкции. Как сделать robots.txt наиболее отзывчивым большинству поисковиков? Здесь необходимо понимание основных правил работы с этим файлом о которых говорилось выше.
    Рассмотрим основные команды:

    User-Agent: * — инструкции будут касаться абсолютно всех ps ботов. Также возможно указание определенных поисковых систем по отдельности к примеру: User-Agent: GoogleBot и User-Agent: YandexBot. Таким образом корректно обозначаются правила для важных ПС.

    Disallow: — полностью запрещает обход и индексацию (страницы, каталога или файлов).

    Allow: — полностью разрешает обход и индексацию (страницы, каталога или файлов).

    Clean-param: — нужен для исключения страниц сайта с динамическим контентом. Благодаря этому правилу можно избавиться от дублей контента на сайте.

    Crawl-delay: — правило указывает интервал времени п-ботам для выгрузки документов с сайта. Позволяет значительно уменьшить нагрузки на сервер. К примеру: «Crawl-delay: 5» — скажет п-роботу, что скачивание документов с сайта возможно не чаще 1-го раза в 5 секунд.

    Host: ваш_сайт.ru — отвечает за главное зеркало сайта. В этой директиве необходимо прописать приоритетную версию сайта.

    Sitemap: http://ваш_сайт.ru/sitemap.xml — как Вы могли догадаться данная директива подсказывает п-боту о наличие Sitemap на сайте.

    # — позволяет оставлять комментарии. Комментировать можно, только после знака решетки. Размещать ее можно как в новой строке, так и продолжением директивы. Все эти варианты будут игнорироваться ботами при проходе инструкций.

    Примеры Robots.txs для всех основных систем управления контентом (CMS)

    Чтобы скопировать инструкции, Вам необходимо нажать на кнопку с подсказкой.

    WordPress (WP)

    User-Agent: *

    Allow: /wp-content/uploads/

    Disallow: /wp-login.php

    Disallow: /wp-register.php

    Disallow: /xmlrpc.php

    Disallow: /template.html

    Disallow: /wp-admin

    Disallow: /wp-includes

    Disallow: /wp-content

    Disallow: /category

    Disallow: /archive

    Disallow: */trackback/

    Disallow: */feed/

    Disallow: */comments/

    Disallow: /?feed=

    Host: site.ru
    »


    HostCMS

    User-agent: *

    Disallow: captcha.php

    Disallow: download_file.php

    Host: site.ru
    Sitemap: http://site.ru/sitemap.xml

    Joomla

    User-agent: *

    Disallow: /administrator/

    Disallow: /cache/

    Disallow: /components/

    Disallow: /images/

    Disallow: /includes/

    Disallow: /installation/

    Disallow: /language/

    Disallow: /libraries/

    Disallow: /media/

    Disallow: /modules/

    Disallow: /plugins/

    Disallow: /templates/

    Disallow: /xmlrpc/

    Host: site.ru
    Sitemap: http://site.ru/sitemap.xml

    Joomla 3

    User-agent: *

    Disallow: /administrator/

    Disallow: /cache/

    Disallow: /includes/

    Disallow: /installation/

    Disallow: /language/

    Disallow: /libraries/

    Disallow: /media/

    Disallow: /modules/

    Disallow: /plugins/

    Disallow: /templates/

    Disallow: /xmlrpc/

    MODx Evo

    User-agent: *

    Disallow: /assets/cache/

    Disallow: /assets/docs/

    Disallow: /assets/export/

    Disallow: /assets/import/

    Disallow: /assets/modules/

    Disallow: /assets/plugins/

    Disallow: /assets/snippets/

    Disallow: /install/

    Disallow: /manager/

    Disallow: /index.php

    Host: vash_sait.ru (или www.vash_sait.ru)
    Sitemap: http://путь к вашей карте XML формата

    NetCat

    User-Agent: *

    Disallow: /install/

    Disallow: /links/

    Disallow: /netcat/

    Disallow: /netcat_files/

    Disallow: /*.swf

    Host: vash_sait.ru (или www.vash_sait.ru)
    Sitemap: http://путь к вашей карте XML формата

    MODx

    User-agent: *

    Disallow: /assets/cache/

    Disallow: /assets/docs/

    Disallow: /assets/export/

    Disallow: /assets/import/

    Disallow: /assets/modules/

    Disallow: /assets/plugins/

    Disallow: /assets/snippets/

    Disallow: /install/

    Disallow: /manager/

    Host: site.ru
    Sitemap: http://site.ru/sitemap.xml

    OpenCart

    User-agent: *

    Disallow: /*route=account/

    Disallow: /*route=affiliate/

    Disallow: /*route=checkout/

    Disallow: /*route=product/search

    Disallow: /index.php?route=product/product*&manufacturer_id=

    Disallow: /admin

    Disallow: /catalog

    Disallow: /download

    Disallow: /export

    Disallow: /system

    Disallow: /*?sort=

    Disallow: /*&sort=

    Disallow: /*?order=

    Disallow: /*&order=

    Disallow: /*?limit=

    Disallow: /*&limit=

    Disallow: /*?filter_name=

    Disallow: /*&filter_name=

    Disallow: /*?filter_sub_category=

    Disallow: /*&filter_sub_category=

    Disallow: /*?filter_description=

    Disallow: /*&filter_description=

    Disallow: /*?tracking=

    Disallow: /*&tracking=

    Disallow: /*?page=

    Disallow: /*&page=

    Disallow: /wishlist

    Disallow: /login

    Disallow: /index.php?route=product/manufacturer

    Disallow: /index.php?route=product/compare

    Disallow: /index.php?route=product/category

    Host: vash_sait.ru (или www.vash_sait.ru)

    UMI

    User-Agent: *

    Disallow: /emarket/addToCompare

    Disallow: /emarket/basket

    Disallow: /go_out.php

    Disallow: /images

    Disallow: /images/lizing

    Disallow: /images/ntc

    Disallow: /files

    Disallow: /users

    Disallow: /admin

    Disallow: /search

    Disallow: /install-temp

    Disallow: /install-static

    Disallow: /install-libs

    Host: vash_sait.ru (или www.vash_sait.ru)
    Sitemap: http://путь к вашей карте XML формата

    Amiro.CMS

    User-agent: *

    Disallow: /admin

    Disallow: /_admin/

    Disallow: /members

    Disallow: /search

    Disallow: /subscribe

    Disallow: /users

    Disallow: /*offset=0

    Disallow: /*forum_ext=

    Disallow: /*_print_version=

    Disallow: /*action=export_rss

    Disallow: /*action=search

    Disallow: /*action=view_posts

    Disallow: /*display_form=

    Host: site.ru
    Sitemap: http://site.ru/sitemap.xm

    Bitrix

    User-agent: *

    Disallow: /*index.php$

    Disallow: /bitrix/

    Disallow: /auth/

    Disallow: /personal/

    Disallow: /upload/

    Disallow: /search/

    Disallow: /*/search/

    Disallow: /*/slide_show/

    Disallow: /*/gallery/*order=*

    Disallow: /*?print=

    Disallow: /*&print=

    Disallow: /*register=

    Disallow: /*forgot_password=

    Disallow: /*change_password=

    Disallow: /*login=

    Disallow: /*logout=

    Disallow: /*auth=

    Disallow: /*?action=

    Disallow: /*action=ADD_TO_COMPARE_LIST

    Disallow: /*action=DELETE_FROM_COMPARE_LIST

    Disallow: /*action=ADD2BASKET

    Disallow: /*action=BUY

    Disallow: /*bitrix_*=

    Disallow: /*backurl=*

    Disallow: /*BACKURL=*

    Disallow: /*back_url=*

    Disallow: /*BACK_URL=*

    Disallow: /*back_url_admin=*

    Disallow: /*print_course=Y

    Disallow: /*COURSE_ID=

    Disallow: /*?COURSE_ID=

    Disallow: /*?PAGEN

    Disallow: /*PAGEN_1=

    Disallow: /*PAGEN_2=

    Disallow: /*PAGEN_3=

    Disallow: /*PAGEN_4=

    Disallow: /*PAGEN_5=

    Disallow: /*PAGEN_6=

    Disallow: /*PAGEN_7=

    Disallow: /*PAGE_NAME=search

    Disallow: /*PAGE_NAME=user_post

    Disallow: /*PAGE_NAME=detail_slide_show

    Disallow: /*SHOWALL

    Disallow: /*show_all=

    Host: vash_sait.ru (или www.vash_sait.ru)
    Sitemap: http://путь к вашей карте XML формата

    Drupal

    User-agent: *

    Disallow: /database/

    Disallow: /includes/

    Disallow: /misc/

    Disallow: /modules/

    Disallow: /sites/

    Disallow: /themes/

    Disallow: /scripts/

    Disallow: /updates/

    Disallow: /profiles/

    Disallow: /profile

    Disallow: /profile/*

    Disallow: /xmlrpc.php

    Disallow: /cron.php

    Disallow: /update.php

    Disallow: /install.php

    Disallow: /index.php

    Disallow: /admin/

    Disallow: /comment/reply/

    Disallow: /contact/

    Disallow: /logout/

    Disallow: /search/

    Disallow: /user/register/

    Disallow: /user/password/

    Disallow: *register*

    Disallow: *login*

    Disallow: /top-rated-

    Disallow: /messages/

    Disallow: /book/export/

    Disallow: /user2userpoints/

    Disallow: /myuserpoints/

    Disallow: /tagadelic/

    Disallow: /referral/

    Disallow: /aggregator/

    Disallow: /files/pin/

    Disallow: /your-votes

    Disallow: /comments/recent

    Disallow: /*/edit/

    Disallow: /*/delete/

    Disallow: /*/export/html/

    Disallow: /taxonomy/term/*/0$

    Disallow: /*/edit$

    Disallow: /*/outline$

    Disallow: /*/revisions$

    Disallow: /*/contact$

    Disallow: /*downloadpipe

    Disallow: /node$

    Disallow: /node/*/track$

    Disallow: /*?page=0

    Disallow: /*section

    Disallow: /*order

    Disallow: /*?sort*

    Disallow: /*&sort*

    Disallow: /*votesupdown

    Disallow: /*calendar

    Disallow: /*index.php

    Host: vash_sait.ru (или www.vash_sait.ru)
    Sitemap: http://путь к вашей карте XML формата

    Как проверить Robots.txt с помощью Google или Yandex

    Как не странно для проверки этого файла необходимы только панели вебмастера Google или Yandex. Что в свою очередь значительно облегчает поиск ошибок.

    Вебмастер Google — выбираем в левом меню «Сканирование» и затем вкладку «Инструмент проверки файла Robots.txt». Затем в нижней строке появившегося окна допишите название файла. Затем нажмите на «Проверить» и посмотрите как бот гугла видит Ваш роботс.

    Вебмастер Yandex — в левом меню выбираем «Инструменты» и «Анализ Robots.txt». После этого в появившимся окне просто нажмите на кнопку «Проверить».

    Стоит отметить, что онлайн валидаторов для проверки этого файла очень много. Я рассказал о самых доступных, которые находятся всегда под рукой.

    Заключение

    Написать один идеальный robots для всех сайтов невозможно. Причина этому сами сайты, некоторые из которых сделаны руками, а другие расположены на различных CMS. У абсолютно всех сайтов различная структура каталогов и прочего. Поэтому каждый Вебмастер просто обязан создать свой уникальный набор правил для п-ботов. Такой файл будет отвечать Вашим приоритетам и не позволит попасть в поиск конфиденциальной информации. Благодаря этому в индексе будет находиться качественный контент без лишнего мусора.

    • Читайте статьи по этой теме:

    Роботы-краулеры Яндекса и Google посещают страницы сайта, оценивают содержимое, добавляют новые ресурсы и информацию о страницах в индексную базу поисковика. Боты посещают страницы регулярно, чтобы переносить в базу обновления контента, отмечать появление новых ссылок и их доступность.

    Зачем нужно сканирование:

    1. Собрать данные для построения индекса - информацию о новых страницах и обновлениях на старых.
    2. Сравнить URL в индексе и в списке для сканирования.
    3. Убрать из очереди дублирующиеся URL, чтобы не скачивать их дважды.

    Боты смотрят не все страницы сайта. Количество ограничено краулинговым бюджетом , который складывается из количества URL, которое может просканировать бот-краулер. Бюджета на объемный сайт может не хватить. Есть риск, что краулинговый бюджет уйдет на сканирование неважных или «мусорных» страниц, а чтобы такого не произошло, веб-мастеры направляют краулеров с помощью файла robots.txt .

    Боты переходят на сайт и находят в корневом каталоге файл robots.txt, анализируют доступ к страницам и переходят к карте сайта - , чтобы сократить время сканирования, не обращаясь к закрытым ссылкам. После изучения файла боты идут на главную страницу и оттуда переходят в глубину сайта.

    Какие страницы краулер просканирует быстрее:

    1. Находятся ближе к главной.
      Чем меньше кликов с главной ведет до страницы, тем она важнее и тем вероятнее ее посетит краулер. Количество переходов от главной до текущей страницы называется (DFI).
    2. Имеют много ссылок.
      Если многие ссылаются на страницу, значит она полезная и имеет хорошую репутацию. Нормальным считается около 11-20 ссылок на страницу, перелинковка между своими материалами тоже считается.
    3. Быстро загружаются.
      Проверьте скорость загрузки если она медленная - и .

    Все посещения ботов-краулеров не фиксируют такие инструменты, как Google Analytics, но поведение ботов можно отследить в лог-файлах. Некоторые SEO-проблемы крупных сайтов можно решить с помощью который также поможет увидеть проблемы со ссылками и распределение краулингового бюджета.

    Robots.txt для Яндекса и Google

    Веб-мастеры могут управлять поведением ботов-краулеров на сайте с помощью файла robots.txt. Robots.txt - это текстовый файл для роботов поисковых систем с указаниями по индексированию. В нем написано какие страницы и файлы на сайте нельзя сканировать, что позволяет ботам уменьшить количество запросов к серверу и не тратить время на неинформативные, одинаковые и неважные страницы.

    В robots.txt можно открыть или закрыть доступ ко всем файлам или отдельно прописать, какие файлы можно сканировать, а какие нет.

    Требования к robots.txt:

    • файл называется "robots.txt ", название написано только строчными буквами, "Robots.TXT" и другие вариации не поддерживаются;
    • располагается только в корневом каталоге - https://site.com/robots.txt, в подкаталоге быть не может;
    • на сайте в единственном экземпляре;
    • имеет формат.txt;
    • весит до 32 КБ;
    • в ответ на запрос отдает HTTP-код со ;
    • каждый префикс URL на отдельной строке;
    • содержит только латиницу.

    Если домен на кириллице, для robots.txt переведите все кириллические ссылки в Punycode с помощью любого Punycode-конвертера: "сайт.рф" - "xn--80aswg.xn--p1ai".

    Robots.txt действует для HTTP, HTTPS и FTP, имеет кодировку UTF-8 или ASCII и направлен только в отношении хоста, протокола и номера порта, где находится.

    Его можно добавлять к адресам с субдоменами - http://web.site.com/robots.txt или нестандартными портами - http://site.com:8181/robots.txt. Если у сайта несколько поддоменов, поместите файл в корневой каталог каждого из них.

    Как исключить страницы из индексации с помощью robots.txt

    В файле robots.txt можно запретить ботам индексацию некоторого контента.

    User-agent: * Disallow: /about/

    Запись формата "Disallow: /about" без закрывающего "/" запретит доступ и к разделу http://site.com/about/, к файлу http://site.com/about.php и к другим ссылкам, которые начинаются с "/about".

    Если нужно запретить доступ к нескольким разделам или папкам, для каждого нужна отдельная строка с Disallow:

    User-agent: * Disallow: /about Disallow: /info Disallow: /album1

    Allow

    Директива определяет те пути, которые доступны для указанных поисковых ботов. По сути, это Disallow-наоборот - директива, разрешающая сканирование. Для роботов действует правило: что не запрещено, то разрешено, но иногда нужно разрешить доступ к какому-то файлу и закрыть остальную информацию.

    Разрешено сканировать все, что начинается с "/catalog", а все остальное запрещено:

    User-agent: * Allow: /catalog Disallow: /

    Сканировать файл "photo.html" разрешено, а всю остальную информацию в каталоге /album1/ запрещено:

    User-agent: * Allow: /album1/photo.html Disallow: /album1/

    Заблокировать доступ к каталогам "site.com/catalog1/" и "site.com/catalog2/" но разрешить к "catalog2/subcatalog1/":

    User-agent: * Disallow: /catalog1/ Disallow: /catalog2/ Allow: /catalog2/subcatalog1/

    Бывает, что для страницы оказываются справедливыми несколько правил. Тогда робот будет отсортирует список от меньшего к большему по длине префикса URL и будет следовать последнему правилу в списке.

    Директивы, которые распознают боты Яндекса:

    Clean-param

    Некоторые страницы дублируются с разными GET-параметрами или UTM-метками, которые не влияют на содержимое. К примеру, если в каталоге товаров использовали сортировку или разные id.

    Чтобы отследить, с какого ресурса делали запрос страницы с книгой book_id=123, используют ref:

    "www.site. com/some_dir/get_book.pl?ref=site_1& book_id=123"
    "www.site. com/some_dir/get_book.pl?ref=site_2& book_id=123"
    "www.site. com/some_dir/get_book.pl?ref=site_3& book_id=123"

    Страница с книгой одна и та же, содержимое не меняется. Чтобы бот не сканировал все варианты таких страниц с разными параметрами, используют правило Clean-param:

    User-agent: Yandex Disallow: Clean-param: ref/some_dir/get_book.pl

    Робот Яндекса сведет все адреса страницы к одному виду:

    "www.example. com/some_dir/get_book.pl? book_id=123"

    Для адресов вида:
    "www.example2. com/index.php? page=1&sid=2564126ebdec301c607e5df"
    "www.example2. com/index.php? page=1&sid=974017dcd170d6c4a5d76ae"

    robots.txt будет содержать:

    User-agent: Yandex Disallow: Clean-param: sid/index.php

    Для адресов вида

    "www.example1. com/forum/showthread.php? s=681498b9648949605&t=8243"
    "www.example1. com/forum/showthread.php? s=1e71c4427317a117a&t=8243"

    robots.txt будет содержать:

    User-agent: Yandex Disallow: Clean-param: s/forum/showthread.php

    Если переходных параметров несколько:
    "www.example1.com/forum_old/showthread.php?s=681498605&t=8243&ref=1311"
    "www.example1.com/forum_new/showthread.php?s=1e71c417a&t=8243&ref=9896"

    robots.txt будет содержать:

    User-agent: Yandex Disallow: Clean-param: s&ref/forum*/showthread.php


    Host

    Правило показывает, какое зеркало учитывать при индексации. URL нужно писать без "http://" и без закрывающего слэша "/".

    User-agent: Yandex Disallow: /about Host: www.site.com

    Сейчас эту директиву уже не используют , если в ваших robots.txt она есть, можно удалять. Вместо нее нужно на всех не главных зеркалах сайта поставить 301 редирект.

    Crawl-delay

    Раньше частая загрузка страниц нагружала сервер, поэтому для ботов устанавливали Crawl-delay - время ожидания робота в секундах между загрузками. Эту директиву можно не использовать, мощным серверам она не требуется.

    Время ожидания - 4 секунды:

    User-agent: * Allow: /album1 Disallow: / Crawl-delay: 4

    Только латиница

    Неправильно:

    User-agent: Yandex Disallow: /каталог

    Правильно:

    User-agent: Yandex Disallow: /xn--/-8sbam6aiv3a

    Пример robots.txt

    Запись означает, что правило справедливо для всех роботов: запрещено сканировать ссылки из корзины, из встроенного поиска и админки, карта сайта находится по ссылке http://site.com/ sitemap, ref не меняет содержание страницы get_book:

    User-agent: * Disallow: /bin/ Disallow: /search/ Disallow: /admin/ Sitemap: http://site.com/sitemap Clean-param: ref/some_dir/get_book.pl

    Инструменты для составления и проверки robots.txt

    Составить robots.txt бесплатно поможет , он позволит закрыть или открыть весь сайт для ботов, указать путь к карте сайта, настроить ограничение на посещение страниц, закрыть доступ некоторым роботам и установить задержку:


    Графы инструмента для заполнения

    Для проверки файла robots.txt на ошибки у поисковиков есть собственные инструменты:

    Инструмент проверки файла robots.txt от Google позволит проверить, как бот видит конкретный URL. В поле нужно ввести проверяемый URL, а инструмент покажет, доступна ли ссылка.

    Инструмент проверки от Яндекса покажет, правильно ли заполнен файл. Нужно указать сайт, для которого создан robots.txt, и перенести его содержимое в поле.

    Файл robots.txt не подходит для блокировки доступа к приватным файлам, но направляет краулеров к карте сайта и дает рекомендации для быстрого сканирования важных материалов ресурса.

    Правильная настройка файла robots.txt позволит исключить возможные проблемы, возникающие при индексации.

    В частности, у владельца сайта имеется возможность ограничить индексирование служебных и личных разделов ресурса. Как создать файл и настроить его под разные поисковые системы, а также популярные CMS — поговорим в этой публикации.

    Для чего нужен файл robots.txt

    Как не трудно догадаться, этот файл содержит инструкции, предназначенные для поисковых ботов. Размещается он обязательно в корневой директории, благодаря чему индексацию страницы боты начнут именно с чтения условий, изложенных в robots.txt.

    Таким образом, файл указывает поисковым роботам, какие директории сайта разрешены для индексирования, и какие этому процессу не подлежат.

    Учитывая, что на процесс ранжирования наличие файла не влияет, много сайтов не содержат robots.txt. Но это не совсем верный путь. Рассмотрим преимущества robots.txt, которые он дает ресурсу.

    Можно запретить индексирование ресурса целиком или частично, ограничить круг поисковых роботов, которые будут иметь право на проведение индексирования. Можно вовсе оградить ресурс от этого процесса (например, при создании или реконструкции сайта).

    Кроме того, файл роботс ограничивает доступ на ресурс всевозможных спам-роботов, цель которых — сканирование сайта на наличие электронных адресов, которые потом будут использоваться для рассылки спама. Не будем останавливаться на том, к чему это может привести — и так понятно.

    От индексирования можно скрыть разделы сайта, предназначенные не для поисковых машин, а для определенного круга пользователей, разделы, содержащие приватную и прочую подобную информацию.

    Как создать правильный robots.txt

    Правильный robots легко написать вручную, не прибегая к помощи различных конструкторов. Процесс сводится к прописыванию нужных директив в обычном файле блокнота, который потом нужно сохранить под названием «robots» и закачать в корневую директорию собственного ресурса. Для одного сайта нужен один такой файл. В нем можно прописать инструкции для поисковых ботов всех нужных поисковых систем. То есть, делать отдельный файл под каждый поисковик не понадобится.

    Что нужно прописывать в файле? Обязательно употребление двух директив: User-agent и Disallow. Первая определяет, какому боту адресовано данное послание, вторая показывает, какую страницу или директорию ресурса запрещено индексировать.

    Чтобы задать одинаковые правила для всех ботов, можно в директиве User-agent вместо названия прописать символ «звездочку».
    Файл robots.txt в таком случае будет выглядеть таким образом:

    Кстати, разработчики Гугл неоднократно напоминали веб-мастерам, что файл robots.txt не должен превышать по размерам 500 Кб. Это непременно приведет к ошибкам при индексации. Если создавать файл вручную, то «достичь» такого размера, конечно, нереально. Но вот некоторые CMS, автоматически формирующие содержание robots.txt, могут значительно его «утяжелить».

    Простое создание файла для любого поисковика

    Если страшно наделать ошибок при написании файла (или просто лень этим заниматься), можно поручить создание нужных директив конструктору. Он прост, как дважды два, но небольшое объяснение по работе с ним все же приведем.

    В первом поле прописывается адрес ресурса. Только после этого пользователю представится возможность выбрать поисковую систему, для которой устанавливаются данные правила (можно последовательно выбрать несколько поисковиков). Далее нужно указать папки и файлы, доступ к которым будет запрещен, прописать адрес зеркала сайта, указать расположение карты ресурса.

    По мере заполнения полей в нижнем поле будут прописываться нужные директории. Все, что нужно в итоге — скопировать их в txt-файл и присвоить ему название robots.

    Как проверить эффективность файла robots.txt

    Для того, чтобы проанализировать действие файла в Яндексе, следует перейти на соответствующую страницу в разделе Яндекс.Вебмастер. В диалоговом окне следует указать имя сайта и нажать кнопку «загрузить».

    Система проанализирует файл robots.txt и укажет, будет ли поисковый робот обходить страницы, запрещенные к индексации. Если возникли проблемы, директивы можно отредактировать и проверить прямо в диалоговом окне, после чего скопировать отредактированный текст и вставить в свой файл robots.txt в корневом каталоге.

    Аналогичную услугу предоставляет сервис «Инструменты для веб-мастеров» от поисковика Google

    Создание robots.txt для WordPress , Joomla и Ucoz

    Различные CMS, получившие широкую популярность на наших просторах, предлагают пользователям свои версии файлов robots.txt (или же не имеют их вовсе). Зачастую эти файлы либо чересчур универсальны и не учитывают особенностей ресурса пользователя, либо имеют ряд существенных недостатков.

    Можно пытаться внести изменения в них вручную (что при недостатке знаний не очень-то эффективно), а можно воспользоваться опытом более профессиональных коллег. Как говорится, все уже сделано до нас. Например, robots.txt для WordPress может выглядеть таким образом:


    Строку www.site.ru, само собой, следует заменить на адрес сайта пользователя.

    Одним из этапов оптимизации сайта для поисковиков является составление файла robots.txt. С помощью данного файла можно запрещать некоторым или всем поисковым роботам индексировать ваш сайт или его определенные части, не предназначенные для индексации. В частности можно запретить индескирование дублирующегося контента такого как версии страниц для печати.

    Поисковые роботы перед началом индексации всегда обращаются к файлу robots.txt в корневом каталоге вашего сайта, например, http://site.ru/robots.txt, чтобы знать какие разделы сайта роботу индексировать запрещено. Но даже если вы не собираетесь ничего запрещать, то данный файл все равно рекомендуется создать.

    Как видно по расширению robots.txt – это текстовый файл. Для создания или редактирования данного файла лучше использовать самые простые текстовые редакторы наподобие Блокнот (Notepad). robots.txt должен быть размещен в корневом каталоге сайта и имеет собственный формат, который мы рассмотрим ниже.

    Формат файла robots.txt

    Файл robots.txt должен состоять как минимум из двух обязательных записей. Первой идет директива User-agent указывающая, какой поисковый робот должен следовать идущим дальше инструкциям. Значением может быть имя робота (googlebot, Yandex, StackRambler) или символ * в случае если вы обращаетесь сразу ко всем роботам. Например:

    User-agent: googlebot

    Название робота вы можете найти на сайте соответствующего поисковика. Дальше должна идти одна или несколько директив Disallow. Эти директивы сообщают роботу, какие файлы и папки индексировать запрещено. Например, следующие строки запрещают роботам индексировать файл feedback.php и каталог cgi-bin:

    Disallow: /feedback.php Disallow: /cgi-bin/

    Также можно использовать только начальные символы файлов или папок. Строка Disallow: /forum запрещает индексирование всех файлов и папок в корне сайта, имя которых начинается на forum, например, файл http://site.ru/forum.php и папку http://site.ru/forum/ со всем ее содержимым. Если Disallow будет пустым, то это значит, что робот может индексировать все страницы. Если значением Disallow будет символ /, то это значит что весь сайт индексировать запрещено.

    Для каждого поля User-agent должно присутствовать хотя бы одно поле Disallow. То-есть, если вы не собираетесь ничего запрещать для индексации, то файл robots.txt должен содержать следующие записи:

    User-agent: * Disallow:

    Дополнительные директивы

    Кроме регулярных выражений Яндекс и Google разрешают использование директивы Allow, которая является противоположностью Disallow, то-есть указывает какие страницы можно индексировать. В следующем примере Яндексу запрещено индексировать все, кроме адресов страниц начинающихся с /articles:

    User-agent: Yandex Allow: /articles Disallow: /

    В данном примере директиву Allow нужно прописывать перед Disallow, иначе Яндекс поймет это как полный запрет индексации сайта. Пустая директива Allow также полностью запрещает индексирование сайта:

    User-agent: Yandex Allow:

    равнозначно

    User-agent: Yandex Disallow: /

    Нестандартные директивы нужно указывать только для тех поисковиков, которые их поддерживают. В противном случае робот не понимающий данную запись может неправильно обработать ее или весь файл robots.txt. Более подробно о дополнительных директивах и вообще о понимании команд файла robots.txt отдельным роботом можно узнать на сайте соответствующей поисковой системы.

    Регулярные выражения в robots.txt

    Большинство поисковых систем учитывают только явно указанные имена файлов и папок, но есть и более продвинутые поисковики. Робот Google и робот Яндекса поддерживают использование простых регулярных выражений в robots.txt, что значительно уменьшает количество работы для вебмастеров. Например, следующие команды запрещают роботу Google индексировать все файлы с расширением.pdf:

    User-agent: googlebot Disallow: *.pdf$

    В приведенном примере символ * – это любая последовательность символов, а $ указывает на окончание ссылки.

    User-agent: Yandex Allow: /articles/*.html$ Disallow: /

    Приведенные выше директивы разрешают Яндексу индексировать только находящиеся в папке /articles/ файлы с расширением ".html". Все остальное запрещено для индексации.

    Карта сайта

    В файле robots.txt можно указывать расположение XML-карты сайта:

    User-agent: googlebot Disallow: Sitemap: http://site.ru/sitemap.xml

    Если у вас очень большое количество страниц на сайте и вам пришлось разбить карту сайта на части, то в файле robots.txt нужно указывать все части карты:

    User-agent: Yandex Disallow: Sitemap: http://mysite.ru/my_sitemaps1.xml Sitemap: http://mysite.ru/my_sitemaps2.xml

    Зеркала сайта

    Как вы знаете обычно один и тот же сайт может быть доступен по двум адресам: как с www, так и без него. Для поискового робота site.ru и www.site.ru это разные сайты, но с одинаковым содержимым. Они называются зеркалами.

    Из-за того что на страницы сайта есть ссылки как с www так и без, то вес страниц может разделиться между www.site.ru и site.ru. Чтобы этого не происходило поисковику нужно указать главное зеркало сайта. В результате "склеивания" весь вес будет принадлежать одному главному зеркалу и сайт сможет занять более высокую позицию в поисковой выдаче.

    Указать основное зеркало для Яндекса можно прямо в файле robots.txt с помощью директивы Host:

    User-agent: Yandex Disallow: /feedback.php Disallow: /cgi-bin/ Host: www.site.ru

    После склейки зеркалу www.site.ru будет принадлежать весь вес и он будет занимать более высокую позицию в поисковой выдаче. А site.ru поисковик вообще не будет индексировать.

    Для остальных поисковиков выбором главного зеркала является серверный постоянный редирект (код 301) с дополнительных зеркал на основное. Делается это с помощью файла.htaccess и модуля mod_rewrite. Для этого ложим в корень сайта файл.htaccess и пишем туда следующее:

    RewriteEngine On Options +FollowSymlinks RewriteBase / RewriteCond %{HTTP_HOST} ^site.ru$ RewriteRule ^(.*)$ http://www.site.ru/$1

    В результате все запросы с site.ru будут идти на www.site.ru, то-есть site.ru/page1.php будет перенаправляться на www.site.ru/page1.php.

    Метод с редиректом будет работать для всех поисковых систем и браузеров, но все же рекомендуется добавлять для Яндекса директиву Host в файл robots.txt.

    Комментарии в robots.txt

    В файл robots.txt также можно добавлять комментарии – они начинаются с символа # и заканчиваются переводом строки. Комментарии желательно писать в отдельной строке, а лучше вообще их не использовать.

    Пример использования комментариев:

    User-agent: StackRambler Disallow: /garbage/ # ничего полезного в этой папке нет Disallow: /doc.xhtml # и на этой странице тоже # и все комментарии в этом файле также бесполезны

    Примеры файлов robots.txt

    1. Разрешаем всем роботам индексировать все документы сайта:

    User-agent: * Disallow:
    User-agent: * Disallow: /

    3. Запрещаем роботу поисковика Google индексировать файл feedback.php и содержимое каталога cgi-bin:

    User-agent: googlebot Disallow: /cgi-bin/ Disallow: /feedback.php

    4. Разрешаем всем роботам индексировать весь сайт, а роботу поисковика Яндекс запрещаем индексировать файл feedback.php и содержимое каталога cgi-bin:

    User-agent: Yandex Disallow: /cgi-bin/ Disallow: /feedback.php Host: www.site.ru User-agent: * Disallow:

    5. Разрешаем всем роботам индексировать весь сайт, а роботу Яндекса разрешаем индексировать только предназначенную для него часть сайта:

    User-agent: Yandex Allow: /yandex Disallow: / Host: www.site.ru User-agent: * Disallow:

    Пустые строки разделяют ограничения для разных роботов. Каждый блок ограничений должен начинаться со строки с полем User-Agent, указывающей робота, к которому относятся данные правила индексации сайта.

    Часто встречающиеся ошибки

    Нужно обязательно учитывать, что пустая строка в файле robots.txt представляет собой разделитель двух записей для разных роботов. Также нельзя указывать несколько директив в одной строке. Запрещая индексацию файла веб-мастера часто пропускают / перед названием файла.

    Не нужно прописывать в robots.txt запрет на индексирование сайта для различных программ, которые предназначены для полного скачивания сайта, например, TeleportPro. Ни "программы-качалки", ни браузеры никогда не смотрят в этот файл и не выполняют прописанных там инструкций. Он предназначен исключительно для поисковых систем. Не стоит также блокировать в robots.txt админку вашего сайта, ведь если на нее нигде нет ссылки, то и индекироваться она не будет. Вы всего лишь раскроете расположение админки людям, которые не должны о ней знать. Также стоит помнить, что слишком большой robots.txt может быть проигнорирован поисковой системой. Если у вас слишком много страниц не предназначенных для индексации, то лучше их просто удалить с сайта или перенести в отдельную директорию и запретить индексирование данной директории.

    Проверка файла robots.txt на наличие ошибок

    Обязательно проверьте как понимает ваш файл robots поисковиковые системы. Для проверки Google вы можете воспользоваться Инструментами Google для веб-мастеров. Если вы хотите узнать как ваш файл robots.txt понимает Яндекс, то можете воспользоваться сервисом Яндекс.Вебмастер. Это позволит вовремя исправить допущенные ошибки. Также на страницах данных сервисов вы сможете найти рекомендации по составлению файла robots.txt и много другой полезной информации.

    Копирование статьи запрещено.