ПредишенСледващото

Поздрави, приятели. Нека днес ние изготвяне на правилния файл robots.txt за блога WordPress. Роботи файл е ключов елемент от вътрешната оптимизация на уеб сайт, тъй като действа като проводник за насочване на търсачките посещават вашия сайт.

Да направим правилния файл за WordPress

Самото име на файла robots.txt ни казва, че той е предназначен за роботи, а не хората. В статия за това как работят търсачките. Описах алгоритъм на работата си, ако не се чете, аз препоръчвам да прочетете.

Защо се нуждаете от този файл

Представете си, че вашият сайт - тази къща. Във всяка къща има различни офиси, като котелно помещение, килер, изба, в някои от стаите има скрити кътчета (SAFE). Всички тези тайни космически гости виждат, не е необходимо, те са предназначени само за домакините.

Примери за тези области на услуги са - Admin сайт, дизайн папка теми, скриптове и т.н.

Интернет търсачките просто да се губят в най-различни страници и не разбират - че трябва да се показва в резултатите от търсенето. Затварянето на някои области, и отвори друг, ние ще дадем еднозначен препоръка роботи за правилното индексиране на вашия сайт. и да намерят тези страници ще бъдат, че ние замислена за потребителите.

Ако не разполагате с конфигуриран правилно файла robots.txt, когато има 2 възможности:

1. Издаването получава каша на различни страници със съмнително значение и ниско уникалност.

2. Търсачката мисли, вашият сайт е пълен с овесена каша и налага санкции върху него, отстраняване на проблема от целия сайт или части от него.

Той има няколко функции, ще ги кажа в движение.

Принципът на работа на роботи файл

File Работата е само на 3 елемента:

  • Избор на уеб робот
  • Забраната за индексиране на секции
  • Резолюция индексиране секции

1. За да определите робот търсене

Използвайте директивата за потребителския агент предписва име на робот, за които ще се прилагат следните правила за това. Той се използва тук, в следния формат:

Според най-новите изисквания на търсачките, трябва да се отвори достъп до стиловете и скриптове. За тази цел, 12, 13 и 14 линии предписват разрешение за индексиране на папка с мястото на шаблон, плъгини и Java скриптове.

След това отивам 2 блока, даващи право на достъп до папката със снимки на роботи YandexImages и Googlebot-Image. Вие не можете да ги изберете поотделно, както и резолюцията на папката със снимки директива да се движат над 15 реда, който всички роботи имат достъп до изображения на сайта.

Ако не използвате всичко-в-едно Seo-Pack, щях да добавя правило, архивите на затваряне (Disallow: * / 20) и етикети (Disallow: * / етикет).

При използване за търсене в сайта, задвижвани от WordPress стандарт, трябва да предостави на Директивата за страницата за търсене (Забрани :? * S =). И това е по-добре да се регулира търсенето на сайта Yandex. както това е направено в блога си.

Обърнете внимание на правилата 2:

1. Всички насоки за робот, отиват направо, без да прескочите линии.

2. Блокове за различни роботи непременно разделени с празен ред.

В края на краищата има директива, която не бяхме по-рано се счита - е домакин и карта на сайта. И двете от тези директиви, наречени Intersection (може да се изкара от блоковете).

Водещ - показва основната огледало ресурс. Вие определено трябва да се посочи кой домейн е в центъра на вашия сайт - с или без WWW WWW. Ако сайтът има повече огледала, в техните файлове също трябва да се регистрират най-важното. Тази директива разбира само Yandex.

Карта на сайта - Тази директива, която предвижда по пътя към XML карта на сайта си. Разберете го и Google и Yandex.

Допълнения и грешки

1. Някои уеб администратори отделен блок за Yandex, напълно дублира общата директива и добавяне на хост. На пръв поглед, в противен случай Yandex не мога да разбера. Това е твърде много. Моят robots.txt файл търсене на двигателя известни от дълго време и той е напълно ориентирана, напълно отговаря на всички поръчки.

2. Възможно ли е да се замени няколко реда, започващи с WP директива Disallow: / wp-, че не съм направил това, защото ме е страх - изведнъж имам една статия започва с WP, ако сте сигурни, че вашият блог не съдържа такава смело съкращавайте код.

3. За да се индексират повторно файла robots.txt не се предава веднага, така че си промени търсачи може да забележите, само след няколко месеца.

4. Google препоръчва на свободен достъп до своите файлове ботове теми и скриптове сайта, плашещи уебмастъри евентуални санкции за неспазване на това правило. Аз проведоха експеримент, който оценява колко да повлияе на това търсене позицията на сайта в търсене - подробностите и резултатите от експеримента тук.

Правилно Файл robots.txt за WordPress е почти бланкетни документ и неговата форма е еднаква за 99% от проектите, създадени на този двигател. Максимумът, който се изисква за уебмастъри - това е да се направи потребителски настройки на шаблона.

Други полезни статии в блога:

  • Да направим правилния файл за WordPress
    Всичко в едно SEO Pack - правилната настройка функция SEO Plugin за WordPress
  • Да направим правилния файл за WordPress
    Yandex търсене: Защо ви е необходимо и как да инсталирате?
  • Да направим правилния файл за WordPress
    DDoS атака - какво е това? Как да намерите източници и за защита на сайта от DDoS?
  • Да направим правилния файл за WordPress
    Hyper Cache - настройка и използване на приставката за кеш страници в WordPress
  • Да направим правилния файл за WordPress
    Как да напишете статия за искал Yandex?
  • Да направим правилния файл за WordPress
    Как да изтриете завинаги Replytocom в WordPress? Да се ​​отървем от дублиращи се страници

Животът не стои на едно място, публикацията е написана много отдавна.
Но това са дреболии. Осъществено роботи са в пълно съответствие с правилата и да не бъде подвеждаща всеки, който внимателно чете назначаването на всички редове.
Ако обърнете внимание на различията, ще видите, че те не са от съществено значение:
- Аз се отстраняват отделните правила за kartinochnyh ботове Yandex и Google и ги комбинира с обща единица за всички роботи - най-доброто аз не знам, нали, и така и така.
- за искане за скорошно на Google, има достъп до папки, теми и скриптове, са били докладвани няма промяна в местата за индексиране и на мястото, така че аз не знам дали да ги препоръча на откриването на всички.
- Стоя табу правила за някои роботи не принадлежат Yandex или Google. Открих, че ми сайт, който посещават, не е необходимо, като максимумът, че това се отразява - натоварването на отново хостинг, правилата не са задължителни и без да се налага да ги пуснат, аз не препоръчвам.

След няколко месеца може да се промени нещо друго, например, ще има някои досадни бот, който аз искам да се отърва от или в моя сайт, за да добавите папка, която не искам да се покаже на търсачките - това не означава, че ще трябва да се добавят свързаните с тяхното произнася за всички сайтове в интернет.

Имам всички 16 линии + две блог URL = 18. Купих си умен приставка и той генерира роботи и много скрити, без излишни движения. Аз просто добавя няколко колони, които са в процес на моя nofollov и noindeks. Но те по някаква причина - след индексирани Яша. Твърде дълго ... експеримент, докато не се каже, и след това да ти кажа.

Бързо пари в Интернет

Тук печелят блогъри

Най-новите статии в блога

Свързани статии

Подкрепете проекта - споделете линка, благодаря!