ПредишенСледващото

Малцина могат да се похвалят с сайт, независимо от търсачките. Повечето уеб ресурси живеят само чрез органичен трафик - и това е добре!

Ако искате да създадете на сайта си нормалния поток на хора от търсачките, трябва да отговарят на всички изисквания на търсачките за правилното индексиране.

Ако пренебрегнете нуждите на търсачките, особено Google и Яндекс, детската площадка никога няма да нормалната позиция по въпроса, което означава, че няма да бъде в състояние да печелят онлайн.

Какво е в файла robots.txt

За да разберете как трябва да конфигурирате този файл специално за вашия уеб сайт, трябва да се научите как да използвате неговите команди и дешифрира файла robots.txt на други хора. Като цяло, файлът се състои от набор от оператори и техните значения.

Когато пишете roborts.txt, ще трябва да се отнася към определена търсачка, където можете насърчаване на ресурса. Можете да направите това е с помощта на оператор потребителския агент. Ако няма да се промени стандартната файла robots.txt, операторът в близост до потребителския агент ще бъде звездичка. Тя представлява един отворен достъп за всички известни търсачки. Но вие можете да премахнете звездата и посочи конкретни имена на уеб роботите:

Да не се обезсърчават от броя на съществуващите роботи. Не е нужно да се предпише инструкциите за всяка съществуваща паяк. Това трябва да се прави само в специални случаи, ако имате някакъв уникален проект, където, например, имате нужда само индексни изображения. Като цяло, роботи са много добре се възприемат като цяло отбора, защото не се изисква индивидуален подход към търсачките. С изключение на Yandex, която има своя собствена представа за операторите файла robots.txt.

Може би имате възниква един въпрос: защо имаме нужда от позволи на оператора, ако има забрани? Фактът, че понякога е необходимо да се даде възможност за индексирането на единици ресурси, които се намират в секции, достъпът до който е затворен за търсачките. Това е, което е необходимо да позволи на оператора.

Благодарение на оператора да бъде домакин можете да зададете основната огледалото. Но това е по-добре да не се прави това с помощта на файл robots.txt и да укажете пътя към основния сайт в SEO настройки чрез администраторския панел на Joomla. След два екземпляра URL адреса на страницата като цяло вреди на неговото индексиране. Ако сте използвали и пренасочване на URL от настройките на Joomla и хоста, посочен в robots.txt - добре, така че дори и по-добре.

карта на сайта оператор ще роботи как да стигнете до картата на сайта. Ако все още нямате такъв, не забравяйте да вземете своето сътворение. Това е друг важен фактор в класирането, което може значително да се подобри ефективността на вашия сайт. Това, че разбирате значението на това, е да се отбележи, че една карта на сайта има същото значение, както robots.txt.

Clean-Парам оператор е отговорен за забраната за индексиране динамични връзки. Пример за такава връзка може да се търси в рамките на даден сайт, когато приложен към редовен URL наставки различна заявка за търсене. Посочете оператора в robots.txt файла си линия - това е добро решение.

Как да се създаде за определено robots.txt Joomla сайт

За най-ефективно роботи да индексира страниците на сайта си, трябва да пиша правилните файлови роботи. По-добре е да се активира веднага chelovekoponyatnye връзки като CNC robots.txt конфигурация е малко по-различна. Активирайте връзки NC или свързана със сигурността, може да бъде в администратор Joomla. След активиране на този режим, ще трябва да подаде за роботи, за да се регистрират двама оператори не позволяват, че ще забрани индексирането index.php * и index2.php *. Но ако не сте включили chelovekoponyatnye връзки, които не се вместват тези команди.

Как да се създаде за Joomla
Joomla Yandex карта

Свързани статии

Подкрепете проекта - споделете линка, благодаря!