Динамический формировать robots.txt

Стал записывать в таблицу бд, url адреса которые возвращают 404 код + 410

Ранее на сайте было 4000 публикаций, оставил 10%. + перед удалением перешел на другой url публикаций(вместео /news-auto-top, стал /n-23123) и тут же стал делать 301 перенаправление с url на конце которых был слеш.

В общем если нырять в говно, то целиком... Забросил сайт, икс упал, посещаемость упала, так и так...

В последнее время решил доделать... Не о том, спустя год, роботы по-прежнему обходили страницы 404...

Они удаляются, роботы перестают обходить их, но это очень долго. Куда быстрее выставить запрет в robots.

  • в публикациях были изображения по 2-5, url которых тоже изменил. В общем те карусели...

Стал вести таблицу и записывать url, вижу какие страницы боты посещают с кодом 404, какие не существуют...

sitemap на сайте, формата php. То есть не через крон, сразу отдаю данные бд, все работает..

К вопросу. В гугл консоле, вебмастре нет возможности указать какой файл играет роль robots.txt. Остается только обновлять его по крону...

Что если обновлять robots по крону и выгружать в него таблицу с url адресами несуществующих страниц. Дабы в ручную не добавлять...

Был ли у кого подобный опыт?


Ответы (0 шт):