Немного о поисковой оптимизации

Меня немного смущает такие результаты поиска в моем блоге:
http://clip2net.com/clip/m5763/1221316918-clip-29kb.png

Как можно заставить поисковики не индексировать подобные страницы и как заставить их не индексировать страницы с постами (имею в виду цикл записей, т.е. понятное дело, не надо индексировать страницу 2,3 и т.д.) ? В идеале хотелось бы добиться чтобы индексировались только а) sinle posts
б) single pages
в) страницы рубрик
г) страницы тегов
все остальное – дублирование, я так понимаю, но как заставить поисковики обходить подобный "мусор" ?

И еще. Насколько важны страницы архива и что они дают? Я вот их нигже на блоге не вывожу, но в хедере у меня стуот фунция архивов, которая выдает в результате что-то типа

<link rel='archives' title='Август 2008' href='http://mixa-blog.org.ua/2008/08/' />
	<link rel='archives' title='Июль 2008' href='http://mixa-blog.org.ua/2008/07/' />
	<link rel='archives' title='Июнь 2008' href='http://mixa-blog.org.ua/2008/06/' />
	<link rel='archives' title='Май 2008' href='http://mixa-blog.org.ua/2008/05/' />
	<link rel='archives' title='Апрель 2008' href='http://mixa-blog.org.ua/2008/04/' />
	<link rel='archives' title='Март 2008' href='http://mixa-blog.org.ua/2008/03/' />

Зачем это надо и какая от этого польза?

Буду очень благодарен за толковые обьясние в стиле "для полных чайников".

И еще вот, о плагине All in one Seo Pack

http://clip2net.com/clip/m5763/1221317366-clip-7kb.png

Как правильнее настроить? Кто как настраивает и для чего? Спасибочки!

robots.txt, что то типа:

User-agent: *
Disallow: /*?s=
Disallow: /trackback
Disallow: /*.html/feed
Disallow: /wp-admin*
Disallow: /wp-includes*
Disallow: /wp-content*
Disallow: /tag/

Flector +1 у меня тоже http://lecactus.ru/robots.txt я уже давно писал даже про то что уроды всякие такие ссылки (результаты поиска) пропихивали в говносайты с тысячами ссылок

а про get arhives и настройку all in one seo pack кто-нить расскажет?
И да, Flector, можешь что-нить порекомендовать по robots.txt почитать? Мануалы в смысле… ?

а про get arhives и настройку all in one seo pack кто-нить расскажет?
И да, Flector, можешь что-нить порекомендовать по robots.txt почитать? Мануалы в смысле... ?

Все о файле «robots.txt» по-русски — как составить robots.txt

а архивы лучше отрубить.

http://robotstxt.org.ru/

а архивы лучше отрубить.

Отлично! Огромное спасибо! Ну, теперь осталось только, чтобы кто то посоветовал насчет

И еще вот, о плагине All in one Seo Pack

http://clip2net.com/clip/m5763/1221317366-clip-7kb.png

Как правильнее настроить? Кто как настраивает и для чего?

И будет Михе счастье!… ))))))))

Anonymous
Отправить
Ответ на: