Блог на WordPress. Разбираюсь с robots.txt. Я его не ставил. Физически такого файла нет. Но проверка по Яндек вебмасер и Google инструменты сообщили. что у меня неправильный robots.txt.
User-agent: *
Disallow:
Sitemap: http://delajblog.ru/sitemap.xml.gz
Начал искать откуда он появился. В файле functions.php нашел:
function do_robots() {
header( ‘Content-Type: text/plain; charset=utf-8’ );
do_action( ‘do_robotstxt’ );
$output = ”;
$public = get_option( ‘blog_public’ );
if ( ‘0’ == $public ) {
$output .= "User-agent: *\n";
$output .= "Disallow: /\n";
} else {
$output .= "User-agent: *\n";
$output .= "Disallow:\n";
Я не знаю что делать. Допустим я составлю robots.txt и залью на хостинг, но эта функция опять сгенерирует
этот неправильный robots.txt.
В общем – полный тупик. Что делать не знаю.
За то время, что Вы сочиняли этот пост, можно было десять раз залить на хостинг свой robots.txt и убедиться, что отдается именно он 🙂
За то время, что Вы сочиняли этот пост, можно было десять раз залить на хостинг свой robots.txt и убедиться, что отдается именно он :)[/quote]
Очень ценное замечание. Я так и поступлю. Спасибо за дельный совет. Уже всё работает нормально.
Кстати, Харькову привет! Закончил ХВВКУ в 1980 г.