Чем скачать все страницы чужого сайта (нужно логинится на сайте)?

Порекомендуйте решение для скачивания тех страниц сайта какие посещаешь. Что-то типа истории браузера, только с сохранением страниц. Вручную можно, но результат такой себе.

Лет 5-10 назад было рабочее решение: для Firefox дополнение "ScrapBook X", а для него была еще надстройка "ScrapBook X AutoSave". Их уже нету, а старые версии дополнений в старую версию браузера не устанавливаются.

Там не только автоматически сохранялись страницы во время серфинга, но и менялись ссылки. Если страница скачена, то на остальных скаченных страницах все ссылки на нее вели на скаченную версию, а не на сайт. Круто было. Сейчас есть что-то подобное?

ПС: найденный мною отдельный софт для скачивания сайта не очень подходит, на сайте нужно будет залогиниться, чтобы посмотреть содержимое.


Ответы (2 шт):

Автор решения: I_CaR

"логиниться" вам ни чего не даст. Движок скачать можно лишь с FTP. Вы скачаете лишь результат работы движка.

→ Ссылка
Автор решения: Eugene X

Есть такая программка называться httrack

Очень гибкая в настройках, фактический копирует весь сайт целиком.

→ Ссылка