Откуда взялся robots.txt?

Блог на WordPress. Разбираюсь с robots.txt. Я его не ставил. Физически такого файла нет. Но проверка по Яндек вебмасер и Google инструменты сообщили. что у меня неправильный robots.txt.
User-agent: *
Disallow:

Sitemap: http://delajblog.ru/sitemap.xml.gz

Начал искать откуда он появился. В файле functions.php нашел:

function do_robots() {
header( ‘Content-Type: text/plain; charset=utf-8’ );

do_action( ‘do_robotstxt’ );

$output = ”;
$public = get_option( ‘blog_public’ );
if ( ‘0’ == $public ) {
$output .= "User-agent: *\n";
$output .= "Disallow: /\n";
} else {
$output .= "User-agent: *\n";
$output .= "Disallow:\n";
Я не знаю что делать. Допустим я составлю robots.txt и залью на хостинг, но эта функция опять сгенерирует
этот неправильный robots.txt.
В общем – полный тупик. Что делать не знаю.

Допустим я составлю  robots.txt и залью на хостинг, но эта функция опять сгенерирует  
этот неправильный robots.txt.

За то время, что Вы сочиняли этот пост, можно было десять раз залить на хостинг свой robots.txt и убедиться, что отдается именно он 🙂

[quote=Sead]Допустим я составлю  robots.txt и залью на хостинг, но эта функция опять сгенерирует  
этот неправильный robots.txt.

За то время, что Вы сочиняли этот пост, можно было десять раз залить на хостинг свой robots.txt и убедиться, что отдается именно он :)[/quote]
Очень ценное замечание. Я так и поступлю. Спасибо за дельный совет. Уже всё работает нормально.
Кстати, Харькову привет! Закончил ХВВКУ в 1980 г.

Anonymous
Отправить
Ответ на: