Как Предотвратить Двойное Содержание с Эффективным Использованием Роботов. txt и Роботы Признак Меты

Двойное содержание - одна из проблем, с которыми мы регулярно производим впечатление части услуг оптимизации поисковой машины, которые мы предлагаем. Если поисковые машины решают, что Ваш участок содержит подобное содержание, это может привести к штрафам и даже исключению из поисковых машин. К счастью это - проблема, которая легко исправлена.

Ваше первичное оружие выбора против двойного содержания может быть найдено в пределах " Исключение Робота Protocol" который был теперь принят всеми главными поисковыми машинами.

Есть два способа управлять, как пауки поисковой машины вносят Ваш участок в указатель.

1. Файл Исключения Робота или " роботы. txt" и

2. Роботы <Мета> Признак

Файл Исключения Роботов (Роботы. txt)
Это - простой текстовый файл, который может быть создан в Блокноте. После того, как созданный Вы должны загрузить файл в справочник корня Вашего вебсайта e. г. www. yourwebsite. com/robots. txt. Прежде, чем паук поисковой машины вносит Ваш вебсайт в указатель, они ищут этот файл, который говорит им точно, как внести содержание Вашего участка в указатель.

Использование роботов. файл txt больше всего подходит для статических участков html или для исключения определенных файлов в динамических участках. Если большинство Вашего участка динамически создано, тогда рассматривают использование Признака Роботов.

Создание Ваших роботов. файл txt

Пример 1 Сценарий
Если Вы хотели сделать. файл txt, применимый ко всем паукам поисковой машины и, делает весь участок доступным для того, чтобы внести в указатель. Роботы. файл txt был бы похож на это:

Пользователь-агент: *
Отвергните:

Объяснение

Пример 2 Сценария
Если Вы хотели сделать. файл txt, применимый ко всем паукам поисковой машины и мешать паукам внести часто задаваемые вопросы в указатель, cgi-мусорное-ведро справочники изображений и определенная страница, названная часто задаваемыми вопросами. html, содержавшийся в пределах справочника корня, роботов. файл txt был бы похож на это:

Пользователь-агент: *
Отвергните: / часто задаваемые вопросы /
Отвергните:/cgi-bin /
Отвергните: / изображения /
Отвергните: / часто задаваемые вопросы. html

Объяснение
Использование звездочки с " User-agent" средства это роботы. файл txt относится ко всем паукам поисковой машины. Предотвращение доступа к справочникам достигнуто, называя их, и на определенную страницу ссылаются непосредственно. Названные файлы & справочники не будут теперь внесены в указатель никакими пауками поисковой машины.

Пример 3 Сценария
Если Вы хотели сделать. файл txt, применимый к пауку Google, googlebot и, мешает этому внести часто задаваемые вопросы в указатель, cgi-мусорное-ведро, справочники изображений и определенную страницу html, названную часто задаваемыми вопросами. html, содержавшийся в пределах справочника корня, роботов. файл txt был бы похож на это:

Пользователь-агент: googlebot
Отвергните: / часто задаваемые вопросы /
Отвергните:/cgi-bin /
Отвергните: / изображения /
Отвергните: / часто задаваемые вопросы. html

Объяснение

Называя специфического паука поиска в " User-agent" Вы препятствуете тому, чтобы это внесло содержание в указатель, которое Вы определяете. Предотвращение доступа к справочникам достигнуто, просто называя их, и на определенную страницу ссылаются непосредственно. Названные файлы & справочники не будут внесены в указатель Google.

Это - все, что есть к этому!

Как упомянуто ранее роботы. файл txt может быть трудным осуществить в случае динамических участков, и в этом случае это вероятно необходимо, чтобы использовать комбинацию роботов. txt и признак роботов.

Признак Роботов
Этот альтернативный способ сказать поисковым машинам, что сделать с содержанием участка появляется в секции веб-страницы. Простой пример был бы следующим образом;

В этом примере мы говорим всем поисковым машинам не вносить страницу в указатель или следовать за любой из связей, содержавшихся в пределах страницы.

В этом втором примере я не хочу, чтобы Google припрятал страницу про запас, потому что участок содержит время чувствительная информация. Это может быть достигнуто просто, добавляя " noarchive" директива.

Что могло быть более простым!

Хотя есть другие способы препятствовать тому, чтобы двойное содержание появилось в Поисковых машинах, это является самым простым осуществить, и все вебсайты должны управлять любым роботы. файл txt и или Робот помечает комбинацию.