Сео дело не легкое, чтобы его постигнуть, нужно перерыть тонный страниц и сообщений на сайтах и форумах. Человеческий мозг работает таким образом, что запоминает только ту информацию, которая понятна и хорошо структурирована. Если пытаться запомнить сложные формулировки то из этого ничего хорошего не получиться, информация ненадолго попадет в «короткую память» и выветриться. Чтобы хорошо усваивать информацию ее нужно разбивать на осмысленные блоки и усваивать. Что-то меня потянуло на психологию восприятия, к чему бы это 🙂
Содержание
Охота на дубли
Я уже упоминал, что Google запустил новый метод индексации страниц, и Яндекс теперь его догоняет. Я в этом еще больше убедился, после того как Яша почти две недели отказывался кушать новые страницы, так как велись какие-то разработки. Слава Богу сегодня был хороший апдейт и изголодавшийся Яндекс скушал все что должен был.
Алгоритм индексации становится все более интеллектуальным, я это заметил по тому что с моих сателлитов в сапе потихоньку начали снимать ссылки. Я разведал это дело, и увидел, что Яндекс потихоньку выбрасывает из индекса дублированные страницы, и ссылки с них снимаются. В общем задача ясна, нужно избавиться от дублей.
Совет №1 robots.txt для wordpress
Запрос «robots.txt для wordpress» весьма полезный по нему можно найти много ценной информации. Но все роботсы, которые вы найдете по этому запросу не идеальные, так как не избавляю полностью от дублей в выдаче. Для того чтобы избавиться от дублей в robots.txt нужно запретить:
1. Архивы, например — site.ru/2010/06
2. Метки, — site.ru/tag/stranica
3. Страницы созданные плагином Page Navi или навигацией — site.ru/page/5
Для этого в robots.txt нужно добавить следующие записи
Disallow: /2010/*
Disallow: /tag/*
Disallow: /page/*
На сколько я знаю, эти записи понимает как Яндекс так и Google, поэтому их можно прописать как в User-agent: Yandex так и в User-agent: *
Продвижение конкретной страницы в Google
Что-то давненько я не писал про продвижение в Google, так что держите.
Для того чтобы продвинуть конкретную страницу в Google очень важно знать она находится в основной выдаче или в дополнительной, для того чтобы это узнать достаточно вбить в поиск один простой запрос:
site:site.ru/stranica.html
Если в выдаче будет присутствовать одна единственная страница, то все нормально а если будут присутствовать другие страницы, тогда значит не повезло проверяемой странице попасть в основной индекс.
Даже если страница находится в «соплях», то ее можно от туда вытащить если добавить уникального контента и ссылок на эту страниц, но это в том случае если страница попала в сопли по небольшому количеству критериев, если же страница совсем плохая, то лучше не тратить время и усилий на то, чтобы вытаскивать ее из дополнительного индекса.
11 Comments
На мой взгляд, метод через роботс.тхт экстенсивный и неподходящий. Для устранения дублей придумали параметр rel="canonical", указывающий ссылку на страницу-первоисточник. Т.е. для избавления от дублей достаточно добавить этот параметр в ссылки со страниц категорий и любых других. По нему поисковик сам поймет, где лежит основной контент.
Такой трюк:
site:site.ru/stranica.html
не работает для страниц с адресацией, типа hyperseo.ru/?p=1719
Как проверить наличие в индексе такой страницы? Знаю, что на автомате это возможно, ведь GetGoodLinks как-то проверяет
в свете последних экспериментов дубли на одном сайте не так страшны как дубли на других сайтах
раз речь зашла о гугле, то и написал бы что-нибудь про PR
Спасибо за пост, узнал новую инфу!
Об основной и дополнительной выдаче Гугла не знал. Спасибо! 😉
А как посмотреть все ссылки на сайт в гугле?
Капитан Очевидность прямо
Да за робот реально спасибо...
За файл ROBOT.TXT спасибо, я не много знаю команд для работы с ним.=) Точнее самого алгоритма работы
У меня вопрос: Disallow: /page/* просто страницы не уберет из выдачи? как-то немного стремно именно эту строчку прописывать)