Как правильно копировать сайт
Хочу скопировать сайт, но у меня не выходит это сделать. Пробую через WebCopy и HTTtrack. Не могу понять, что и где указывать, что бы он копировал так же css(вроде в этом проблема). Те, кто разбираются, можете помочь пжлст.
Вот что он выдает:
Понимаю,что наверное не по адресу, но может кто то шарит. Спасибо!
Ответы (1 шт):
Очень много факторов которые влияют на процесс парсинга информации. Если сайт написан с использованием веб компонентов, то скорее всего даже скаченая информация не будет отображаться. Аналогично, если сайт отдаеться с какого-то CDN
.
Можете попробовать ещё Cyotek WebCopy
или же Teleport Pro
.
Так же есть Расширения для браузеров
- SingleFile (Chrome, Firefox, Edge) – сохраняет страницы в один .html файл.
- ScrapBook X (Firefox) – позволяет копировать сайты и редактировать их.
- Save Page WE (Chrome, Firefox) – сохраняет страницы с изображениями и стилями
Учтите, что создание копий сайтов не приветствуеться поисковыми роботами, а при аргументированой жалобе правообладателей такие копии баняться вместе с доменными именами.
ПС Если вас интересует только информация с Википедии, то там есть нормальный API которыей дайот нормальную возможность забирать информацию. Использовать сторонние приложении не надо.