ПредишенСледващото

За щастие, има няколко методи и техники за преодоляване на двойки съдържание:

  • таг мета Nofollow
  • таг мета Noindex
  • Nofollow атрибут
  • директивата роботи
  • канонически маркер
  • използването на цитати

Занимаваме се с всеки поотделно.

Tags мета Noindex и Nofollow

Това са етикети, принадлежат към раздел и поставени съответно в header.php

Ясно е, че повечето блогъри искат техните членове попадат в индекса, но това не възникват двойки, така че тази конфигурация е оптимална за архивни страници

С тези тагове, ние можем да персонализирате най-добрият начин за борба с дублирано съдържание автоматично. За да направите необходимите условия в header.php. според която на страницата ще бъде разрешено или забранено на индексация, и че тези правила се прилагат за всички уеб роботите.

И ако искаме да забраните индексирането отделно взета офис? Има много плъгини за тази цел, но всичко се прави със собствените си ръце много по-лесно. Добавяне на секция Темата шаблонен файл header.php

Когато 77 - ID на избрания запис.

Разбира се, няма нищо лошо в това да бъде индексирана с допълнителни страници на сайта си, лошо - ако те съдържат напълно уникално съдържание (по отношение на вашия сайт). Но ако тези страници се генерират свои собствени откъси от текста от записите на цитати, те могат да бъдат индексирани, тази малка промяна на състоянието

По своя преценка и въз основа на концепцията за един сайт може да се добавя или премахва от индекса следващите страници

Пълен списък и описание тагове могат да бъдат намерени тук

Този код генерира и добавя раздел препратка към канонична страница. Търсачката нея и тя индекс вижда, а всички останали се, че линк към него - не.

Nofollow атрибут

Друга възможност да се забрани индексирането ненужно съдържание - за да използвате атрибута спорен nofolou връзки.

Но, както споменахме по-горе, не е 100% метод за индексиране забрани тези страници, така че за максимален ефект, трябва да се комбинират по различни начини - Изключване на индексирането на мета тагове за глава, остави етикет nofolou връзките на тази страница, както и на директивите за индексиране забраняват роботи

директиви на robots.txt

Същността на това е да се информират търсачката паяци, които могат и не могат да правят онлайн. Повечето бели роботи, като Google и Yandex, да ги вземе под внимание, както и разнообразие от спам ботове и парсъри - пренебрегват.

Имайте предвид, че страниците, които са забранени за посещение и индексиране роботи, все още абсорбират позоваване на тегло. Ето защо, когато погрешно организация и се свържете отново сайта може да загуби много сок връзка, която се губи и не се взема предвид.

В допълнение, ако посетите страницата за бота е забранено, това не означава, че тя не е търсене бот да посетите, вероятно от любопитство - това, което е там, за да се забрани. И понякога се оказва в индекса - но само с едно показване на URL на страницата, без да показват откъси съдържание.

Нека разгледаме един пример за оптимални конфигурационните директиви роботи за предотвратяване на индексиране на ненужни страници. За да направите това, трябва да се реша на файлове и папки структура WordPress на.

Тези две линии, ние забраняват индексиране на URL, който започва с wp- и всеки URL, съдържащ .php в края. По този начин, всички папки и системни файлове не трябва да се индексират

Освен това, ние не искаме търсачките да индексират на следващите страници:

Това можем да се произнесе тук е толкова прост начин

Ако ние комбинираме всички заедно, можете да получите такова съдържание robots.txt

Както можете да видите, като се използва директивата Disallow да изключите индексирането, като посочва в пълна степен или частта от него, така че по същия начин можете да добавите тагове или колона в забраната. Но, независимо от забраната, че понякога е необходимо да се даде възможност за индексиране на определени страници, например, ако ние забрани индексирането на цялата директория, но искам да се реши един от файловете, които се съдържат в него.

По този начин, поредицата търсене робот сортиране правила ще изпълни последния подходящи за състоянието.

Мощен инструмент за създаване и тестване правила роботи е в уебмастър панел Google. както и панел за уеб администратори Yandex.

Създаден правила трябва да се проверяват за коректност, за да не обърка нещата секции и забраняват индексира всичко наред.

Крайният докосване е да добавите директива обяснявайки, че правилата трябва да се прилагат от всички търсачки

Ако искаме да се създаде специфичен набор от само една от търсачките, тогава ние го дам

И до попадение е включването на препратка към Роботи saytmap карта на сайта, съдържащ линкове към всички страници на вашия сайт и ви помага да го правилно индексирани

За да се генерира автоматично този файл, можете да използвате приставката Google XML Sitemaps. Този файл също е голям и се възприема от Yandex, така че винаги трябва да се създава за всеки сайт.

В резултат на това, правилното robots.txt ще се огледам, така че

Това е напълно функционален код, подходящ за повечето сайтове. Но не забравяйте, да го вземат предвид само ще големите търсене ботове.

Но трябва да се обърне повече внимание на следното - компетентният организирането на постоянни връзки записи. За да цитирате код WordPress, помня.

Ето защо, много по-добре да се започне влизането URL с числово поле, като годината на запис или ID. Ето защо, ако на малките и рядко посещаваните места тя може да бъде пренебрегната, за планиране на създаването на голям сайт, след това е необходимо да се мисли за добър URL структура.

И вместо опции

по-добро използване на опции

Но в този случай е необходимо да бъдете внимателни при определяне на роботи, защото директива тип Disallow: / * 20 може да изключи индексирането от всички записи, които започват с числото на годината.

Canonical тагове мета

Пускане на всяка от страниците в раздел мета тагове

ние изрично казват, където имаме дублиране на съдържанието, а когато оригинала.

В WordPress канонически маркер изпълнява същата функция, което показва коя страница трябва да бъдат индексирани.

Въпреки това, той трябва да се разбира, че за търсачките е по-скоро препоръка, че те трябва да изпълняват, но може да се случи и с различен резултат, ако алгоритмите вземат под внимание други фактори.

Използването Запис Цитати

Друг ефективен метод за предотвратяване на дублирано съдържание е да се използват кавички вместо цялото съдържание на записи за всички архивни страници, тагове и т.н. По този начин те не са идентични копия на един запис.

За да подмените изхода на пълното съдържание на запис в шаблон, направете следните редакции

Свързани статии

Подкрепете проекта - споделете линка, благодаря!