robots.txt для борьбы с дубликатом.

Здравствуйте. Собираюсь разместить такой robots.txt :

User-agent: *
Allow: /bolezni_korov
Allow: /bolezni_sviney
Disallow: /
User-agent: Yandex
Allow: /bolezni_korov
Allow: /bolezni_sviney
Disallow: /
Host: hozjajstvo.ru

Правильно ли я полагаю, что будет запрещено к индексации все кроме статистических страниц bolezni_sviney и bolezni_korov и всех дочерних им?
Правильно ли будет применить его, что бы избежать дублирования контента?

Anonymous
Отправить
Ответ на: