Как Предотвратить Двойное Содержание с Эффективным Использованием Роботов. txt и Роботы Признак Меты
Двойное содержание - одна из проблем, с которыми мы регулярно производим впечатление части услуг оптимизации поисковой машины, которые мы предлагаем. Если поисковые машины решают, что Ваш участок содержит подобное содержание, это может привести к штрафам и даже исключению из поисковых машин. К счастью это - проблема, которая легко исправлена.
Ваше первичное оружие выбора против двойного содержания может быть найдено в пределах " Исключение Робота Protocol" который был теперь принят всеми главными поисковыми машинами.
Есть два способа управлять, как пауки поисковой машины вносят Ваш участок в указатель.
1. Файл Исключения Робота или " роботы. txt" и
2. Роботы <Мета> Признак
Файл Исключения Роботов (Роботы. txt)
Это - простой текстовый файл, который может быть создан в Блокноте. После того, как созданный Вы должны загрузить файл в справочник корня Вашего вебсайта e. г. www. yourwebsite. com/robots. txt. Прежде, чем паук поисковой машины вносит Ваш вебсайт в указатель, они ищут этот файл, который говорит им точно, как внести содержание Вашего участка в указатель.
Использование роботов. файл txt больше всего подходит для статических участков html или для исключения определенных файлов в динамических участках. Если большинство Вашего участка динамически создано, тогда рассматривают использование Признака Роботов.
Создание Ваших роботов. файл txt
Пример 1 Сценарий
Если Вы хотели сделать. файл txt, применимый ко всем паукам поисковой машины и, делает весь участок доступным для того, чтобы внести в указатель. Роботы. файл txt был бы похож на это:
Пользователь-агент: *
Отвергните:
Объяснение
Пример 2 Сценария
Если Вы хотели сделать. файл txt, применимый ко всем паукам поисковой машины и мешать паукам внести часто задаваемые вопросы в указатель, cgi-мусорное-ведро справочники изображений и определенная страница, названная часто задаваемыми вопросами. html, содержавшийся в пределах справочника корня, роботов. файл txt был бы похож на это:
Пользователь-агент: *
Отвергните: / часто задаваемые вопросы /
Отвергните:/cgi-bin /
Отвергните: / изображения /
Отвергните: / часто задаваемые вопросы. html
Объяснение
Использование звездочки с " User-agent" средства это роботы. файл txt относится ко всем паукам поисковой машины. Предотвращение доступа к справочникам достигнуто, называя их, и на определенную страницу ссылаются непосредственно. Названные файлы & справочники не будут теперь внесены в указатель никакими пауками поисковой машины.
Пример 3 Сценария
Если Вы хотели сделать. файл txt, применимый к пауку Google, googlebot и, мешает этому внести часто задаваемые вопросы в указатель, cgi-мусорное-ведро, справочники изображений и определенную страницу html, названную часто задаваемыми вопросами. html, содержавшийся в пределах справочника корня, роботов. файл txt был бы похож на это:
Пользователь-агент: googlebot
Отвергните: / часто задаваемые вопросы /
Отвергните:/cgi-bin /
Отвергните: / изображения /
Отвергните: / часто задаваемые вопросы. html
Объяснение
Называя специфического паука поиска в " User-agent" Вы препятствуете тому, чтобы это внесло содержание в указатель, которое Вы определяете. Предотвращение доступа к справочникам достигнуто, просто называя их, и на определенную страницу ссылаются непосредственно. Названные файлы & справочники не будут внесены в указатель Google.
Это - все, что есть к этому!
Как упомянуто ранее роботы. файл txt может быть трудным осуществить в случае динамических участков, и в этом случае это вероятно необходимо, чтобы использовать комбинацию роботов. txt и признак роботов.
Признак Роботов
Этот альтернативный способ сказать поисковым машинам, что сделать с содержанием участка появляется в секции веб-страницы. Простой пример был бы следующим образом;
В этом примере мы говорим всем поисковым машинам не вносить страницу в указатель или следовать за любой из связей, содержавшихся в пределах страницы.
В этом втором примере я не хочу, чтобы Google припрятал страницу про запас, потому что участок содержит время чувствительная информация. Это может быть достигнуто просто, добавляя " noarchive" директива.
Что могло быть более простым!
Хотя есть другие способы препятствовать тому, чтобы двойное содержание появилось в Поисковых машинах, это является самым простым осуществить, и все вебсайты должны управлять любым роботы. файл txt и или Робот помечает комбинацию.