Как правильно задать параметры в httrack.

К аждый активный пользователь интернета не раз сталкивался с ситуацией, когда на просторах всемирной паутины находил крайне полезный сайт, информацию с которого хотелось бы сохранить в свою личную коллекцию. Многие пользователи для этого пользуются инструментом «Закладки», который есть во всех браузерах. Но этот простой способ коллекционирования на самом деле не сохраняет саму информацию, а всего лишь сохраняет ссылку на эту информацию в интернете. Это влечет за собой потенциальные проблемы (описанные далее в статье). Поэтому в некоторых случаях может быть важным сохранить не просто ссылку, но и сами страницы сайта. Причем сделать это в наиболее удобном виде и без излишней кропотливой ручной работы. HTTrack — бесплатная программа, созданная специально для этих целей. В этой статье будет рассказано как скачать сайт целиком с помощью программы HTTrack и какие наиболее важные настройки этой программы следует выставлять в процессе работы.

Зачем скачивать сайты?

Как уже было упомянуто, простое сохранение ссылки на нужную страничку не всегда бывает полезным. Прежде всего очевидно, что при отсутствии доступа к интернету не получится просмотреть информацию по ссылке. Поэтому часто люди предпочитают в браузере нажать сохранение html-страницы. А в случае если таких страниц не одна или две, а десяток или даже сотни, то задаются вопросом, как скачать сайт полностью чтобы элементарно иметь возможность работать с ним оффлайн. Например, удобно было бы копировать папку с файлами сайта на планшет, чтобы почитать их в дороге.

Вторая важная причина, по которой стоит сохранять интернет страницы — это проблема недолговечности. Вы можете иметь постоянный доступ к интернету по нескольким подстраховочным каналам. Но это скорее всего не поможет в случае, если сайт стал недоступен. Может хозяин сайта перестал оплачивать его. Или ресурс заблокировали по каким-то причинам. Или с сайта был удален нужный Вам раздел. Или сайт атаковали злобные хакеры, и он долгое время не грузится. Причин может быть много, но итог один — не получается перейти по сохраненной ссылке, чтобы просмотреть нужную страницу. Спасительной соломинкой может служить кэш Google, из которого иногда можно выудить копии недоступной страницы. Но это слишком неудобный способ и к тому же ненадежный — не все страницы могут храниться в гугл-кэше.

Преимущества использования программ закачки сайтов

Самый простой вариант сохранения интернет-страниц — это использование штатных средств браузеров. Но в этом случае пользователь сталкивается с двумя непреодолимыми проблемами:

1. Страницы приходится сохранять вручную, по одной. Если страниц много, то это неблагодарный труд.

2. Все сохраненные страницы никак не связаны между собой. Открыв первую страницу и нажав ссылку на вторую страницу, браузер будет пытаться открыть адрес в интернете, а не сохраненный файл на Вашем компьютере.

Есть еще третья проблема поменьше — если на всех этих сохраненных страницах используется одна большая картинка (например логотип сайта), то такая картинка будет сохраняться в новый файл рядом с сохраняемыми страницами. А это значит что будет напрасно расходоваться место на жестком диске для хранения многократно дублирующейся объемной информации.

Именно для решения этих трех проблем и были придуманы программы, знающие как скачать сайт целиком сохранив не только текст страниц и изображения, но и структуру ссылок между ними. Таким образом, если такой программой-качалкой скачать статический сайт (состоящий из html, css-файлов и картинок), то можно получить точную копию всех этих файлов на своем жестком диске.

Установка программы HTTrack

Перейдем непосредственно к практике. Прежде всего необходимо скачать программу со страницы закачки на официальном сайте. Можно скачать программу установки и установить, но проще скачать архив с портативной версией программы (третья ссылка в списке ссылок для закачки).

Скачанный архив следует распаковать в любое удобное место и запустить приложение WinHTTrack.exe

В результате откроется окно программы, в котором можно как скачать сайт полностью, так и скачать выборочные страницы.

Как скачать сайт целиком?

Перед тем как скачать сайт полностью, следует оценить, насколько большой объем информации содержится на сайте. Если на сайте всего пара десятков страниц, то скачать его нетрудно. Но некоторые порталы могут содержать десятки тысяч страниц, и качать их все может не иметь смысла. Поэтому чаще всего ограничиваются скачиванием определенных разделов сайта Для примера предположим, что перед нами стоит задача скачать учебный раздел «Начало работы в Веб» с сайта Mozilla — чтобы на досуге почитать скачанные тексты.

После запуска программы появляется главное окно, в котором предлагается начать новый проект по закачке. Для этого нажимаем кнопку «Далее».

Задаем произвольное имя проекта и указываем путь, куда следует сохранить скачанную информацию.

При закачке сайтов следует знать одну важную вещь — программа начинает закачку с определенной страницы, указанной пользователем, сохраняет ее и все картинки на ней. Это первый уровень сохранения. Затем программа последовательно просматривает все ссылки на этой странице, и начинает сохранять html-файлы по этим ссылкам со всем их содержимым. Это второй уровень сохранения. Далее программа переходит на третий уровень, сканируя ссылки на всех страницах второго уровня. После переходит на четвертый уровень, пятый и т.д. до тех пор пока не сохранит все страницы на сайте. Это означает, что если сайт достаточно большой, то с переходом на каждый новый уровень объем сохраняемых данных возрастает в геометрической прогрессии. Поэтому крайне важно изначально указать правильную страницу, с которой будет начато сканирование — чтобы процесс ветвления равномерно охватывал все подразделы и можно было бы задать небольшую глубину сканирования без риска что до каких-то нужных страниц дело не дойдет. Лучший вариант, если это страница, на которой размещено содержание материала, карта сайта или главное меню сайта. Тогда все нужные материалы находятся в шаговой доступности и не останутся без внимания.

В нашем случае мы задаем главную страницу раздела, на которой содержится содержание интересующих нас материалов. А в типе проекта указываем вариант «Загрузить сайты + вопросы». Ценность варианта с вопросами состоит в том, что если на страницах будут ссылки на другие сайты, то программа спросит, нужно ли их закачивать или нет. Без этого пришлось бы тратить много времени и трафика на закачку других ненужных сайтов.

Выставив нужные значения в полях адреса и типа проекта, следует нажать кнопку параметры, чтобы указать, что именно следует закачивать.

Настройка параметров закачки

Тут во вкладке «Ограничения» нужно указать, на какую глубину (на сколько уровней) осуществлять переход по ссылкам. Также не лишним будет ограничить скорость закачки, чтобы не перегружать сервер сайта интенсивными запросами.

Другим важным моментом является указание типов файлов, которые необходимо загружать. Обычно сайт загружают вместе с картинками. А если на сайте есть музыкальные и видеофайлы, то их загрузка может оказаться нереальной задачей. Поэтому в каждом отдельном случае взвешивается целесообразность загрузки того или иного содержимого. И на основании этого составляется список допустимых и недопустимых к загрузке типов файлов. Задать этот список можно на вкладке «Фильтры».

В программе HTTrack содержится и множество других настроек, которые в отдельных случаях могут быть востребованы. Но в подавляющем большинстве случаев достаточно выставить только глубину сканирования и типы файлов.

Запуск процесса

После того как все необходимые параметры заданы, можно перейти непосредственно к этапу закачки. Для этого надо в главном окне программы нажать кнопку «Далее», а в следующем окне — кнопку «Готово».

Начнется закачка сайта, в процессе которой будут появляться вопросы, что делать со ссылками на другие ресурсы. Если нет необходимости использовать стороннюю информацию, то лучше всего выбирать вариант «Игнорировать домен».

Чем больше глубина сканирования, тем больше сторонних ссылок может обнаружить программа. Поэтому иногда процесс работы с ответами может быть кропотливым. Но это стоит того, поскольку это самый надежный способ закачать именно то, что нужно, и отменить закачку того, что не нужно. По мере исчерпания ссылок вопросов будет становиться все меньше, и в конце концов нам останется только следить за процессом закачки.

По окончании этого процесса появится окно с сообщением «Создание зеркала завершено».

Теперь можно перейти в папку со скачанными файлами и просматривать их. Теперь они доступны даже без доступа к интернету.

Выводы

С помощью программы HTTrack можно как скачать сайт целиком, так и скачать выборочные разделы сайта. С помощью настроек программы можно задавать глубину сканирования ссылок и тем самым регулировать объем скачиваемой информации, если сайт имеет большое число страниц. Также с помощью фильтров можно ограничить виды скачиваемых файлов, что может быть полезно в случае наличия больших мультимедийных файлов или архивов на скачиваемом сайте. А интерактивные вопросы по ходу закачки позволяют указать программе, что из стороннего содержимого закачивать нужно, а что не нужно. Благодаря этому можно получить копию сайта на своем компьютере и работать с этой информацией офлайн.

Всем привет! Друзья, в этой статье я расскажу, как скачать сайт ? Какие существуют программы для скачивания блогов? Сделаю обзор программ для закачки сайтов и блогов, а на примере одной из них опишу весь процесс скачивания сайта целиком .

Мне не раз задают вопросы: «Как скачать целый сайт ?» со всеми скриптами, статьями, картинками и т.п. Как сделать копию сайта у себя на жёстком диске и др. На самом деле скачать сайт целиком можно несколькими программами (способами), давайте рассмотрим их.

Для скачивания же сайта целиком разумнее воспользоваться специальными программами, называют их оффлайн-браузерами . С их помощью вы легко можете скачать свой любимый сайт , сохранив его на жёсткий диск компьютера. А затем, просматривать его без интернета, использовать его скрипты, графику и всё остальное.

Программы для закачки сайтов:

1. Teleport Pro
2. Offline Explorer Pro
3. Webcopier
4. HTTrack Website Copier

Teleport Pro - это одна из наиболее известных программ для скачивания сайтов.

Программа Teleport Pro позволит вам очень быстро скачать практически любой сайт , имеет простой, интуитивно понятный интерфейс. Вы можете использовать различные настройки программы, устанавливать режим и глубину скачивания. Она поможет вам сделать как полную копию сайта с сохранением структуры его каталогов, так и скачать отдельную веб-страничку или файл этого сайта.
Оффлайн-браузер Teleport Pro может быть интегрирован в браузеры Opera или Internet Explorer, поддерживает многопоточную закачку файлов. В программе есть возможность скачивать сайты по расписанию, задать маску файлов, что позволит скачивать (или не скачивать) только файлы определённого типа. Во избежание бана на сайте вы можете установить в программе Teleport Pro ограничение на массовое скачивание. В целом, программа для скачивания сайтов неплохая, я ей пользовался, единственный минус - полная её версия платная!..

Offline Explorer Pro - русскоязычный оффлайн-браузер для скачивания сайтов.

Позволяет вам, как скачивать сайт целиком , так и отдельные его страницы (можно задать маску файлов). Сохранённые страницы, картинки, скрипты и др. файлы доступны в режиме оффлайн. Все загруженные сайты, файлы сайтов вы можете записать на оптический диск, экспортировать, например в.zip архив или другой удобный для вас формат.
Программа Offline Explorer Pro позволяет редактировать сохранённые веб-страницы, по загруженным сайтам есть полноценный поиск. Для удобства использования Offline Explorer Pro, в неё встроен мастер новых проектов, призванный ускорить работу с программой. Offline Explorer Pro скачивает сайт по протоколам: Web, HTTPS и FTP, позволяет загружать потоковое аудио и видео по протоколам RTSP, PNM, MMS и NSV. От себя добавлю, Offline Explorer Pro мощная, удобная программа для скачивания сайтов .

Webcopier - небольшая, российская программка для закачки сайтов.

Программа Webcopier достаточно простая и благодаря русскоязычному меню вы легко её освоите. Открыв программу Webcopier, перед вами появится мастер закачки нового сайта, он пошагово поможет настроить все опции для загрузки сайта, установить количество одновременно скачиваемых файлов (100 максимум), настроить глубину скачивания сайта и различных фильтров загружаемых файлов.
Также программа Webcopier может работать с сайтами уже загруженными на жёсткий диск. Она позволяет обновлять изменившиеся страницы сайта, ссылки, и загружать новые файлы, не перезагружая сайт целиком. В целом программа работает нормально, каких-либо замечаний при тестировании её на скачивание сайта у меня не возникло.

Оффлайн-браузер HTTrack Website Copier - удобная программа для скачивания сайтов . Именно на её примере я подробно расскажу, как скачать сайт к себе на компьютер!
Итак, начнём:
1. Скачайте архив с программой в конце этой статьи, установите HTTrack Website Copier на свой компьютер. Думаю, нет необходимости описывать установку программы, там всё понятно и так!
2. На рабочем столе появится ярлык программы, запустите его.

3. Перед вами появится приветственное окошко программы HTTrack Website Copier. Дизайн здесь не самый лучший, главное, что она работает отлично. Нажмите кнопку «Далее».

4. В открывшемся окне введите имя проекта, категорию проекта и укажите папку, куда будет скачиваться сайт. Нажмите кнопку «Далее».

5. Продолжаем задавать настройки для закачки сайта программой HTTrack Website Copier , в большое поле введите адрес загружаемого сайта, не забудьте указать протокол http:// . Нажмите кнопку «Задать параметры».

6. Откройте вкладку «Фильтры», здесь можно указать какие типы файлов необходимо загружать вместе с сайтом. Я обычно отмечаю всё, ставлю галочки напротив каждого типа файлов. Нажимаем кнопку «ОК».

7. Возвращаемся в предыдущее окно и нажимаем кнопку «Далее». В принципе, нам здесь ничего менять не нужно, поэтому смело нажимаем кнопку «Готово».

8. Программа HTTrack Website Copier сразу же начнёт скачивать сайт , и известит вас звуковым сигналом, как только загрузка будет завершена.

9. Теперь можно перейти в папку, которую мы указывали для загрузки, в ней будет находиться ещё одна папка с именем нашего проекта в программе. В ней и лежит наш только что скачанный сайт ! Чтобы его запустить, найдите файлик index.html и откройте его в любом браузере.

Как видите скачать сайт целиком совсем не сложно! Я рассказал только о четырёх программах (оффлайн-браузерах ) для скачивания сайтов , на самом деле их, конечно же, больше. Есть даже on-line сервисы для скачивания сайтов , они скачивают файлы сайта в архив, который вы можете потом распаковать и работать дальше.

Как вам статья? Надеюсь тема: «Как скачать сайт » была вам интересна. Советую подписаться на обновления моего сайта по e-mail, чтобы получать анонсы новых статей к себе на почту и участвовать в для подписчиков.

Обычно я сохраняю важные веб-страницы с помощью функции «Файл -> Сохранить как» в любом браузере, либо горячие клавиши «Ctrl + S». Но особо интересные сайты хочется скачать к себе на диск полностью. При этом чувствую себя хомяком, который тащит всё к себе, но всё равно надо

Ну что ж, скопировать сайт целиком это уже давно не проблема, надо лишь выбрать подходящий для себя способ. А их три:

  • Открывать каждую страничку и сохранять на диск
  • Использовать онлайн-сервисы
  • Пользоваться специальными программами

А теперь подробнее о последних двух способах.

Онлайн-сервисы

Как несложно догадаться из названия – это специальные сайты, с помощью которых можно скачать другие сайты из интернета. Преимущество данного подхода в том, что не нужно устанавливать дополнительных программ, и, соответственно, не важно какая операционная система установлена. Вроде бы всё классно – вставил имя сайта, нажал скачать, и получаешь готовый архив. Но на деле всё оказалось не настолько радужным.

Недостаток сервисов в том, что их мало, а те что есть, работают так себе, либо просят денег. Лично у меня ни разу не получалось скачать даже одностраничный сайт. Сервисы показывали процесс загрузки и зависали. Но тем не менее, список прилагаю:

Пользоваться программой довольно легко, нам в этом поможет «мастер». После запуска программы отображается дерево папок и файлов слева, и приглашение мастера справа. Дерево нужно только для того чтобы открыть ранее сохранённый проект. Нажимаем «Далее» чтобы начать новый проект или возобновить прерванную закачку:

Вводим любое название и путь для сохранения сайта. Путь по умолчанию «C:\Мои Web Сайты» лучше поменять на «C:\Downloads»:

На третьем шаге нужно ввести домен.. Тип проекта можно выбрать «Загрузить сайт(ы)», если это новый проект, или «Продолжить прерванную загрузку», если нужно докачать сайт. Вариант «Обновить существующую закачку» полезен для тех, кто уже имеет копию сайта, но хочет её обновить до последней.

Здесь же можно задать дополнительные параметры, которые могут сократить время загрузки. По умолчанию можно ничего не менять, программа и так отработает нормально. Но всё же рекомендую обратить внимание на некоторые параметры:

  • Фильтры. Вы можете ограничить тип файлов для закачки. Например, запретить или разрешить скачивание видео или архивов (ZIP, RAR, CAB). По умолчанию включены картинки png, jpg, gif, файлы стилей css и скрипты js.
  • Ограничения. Задайте максимальную глубину сканирования сайта. Глубина – это количество переходов по ссылкам со стартовой страницы. Например, если стартовой является главная страница сайта, а глубина равна 2, то программа скачает первый уровень, т.е. главную страницу, и страницы на которые есть ссылки с главной, и всё. Если задать глубину 3, то будут скачены более глубокие страницы. Оптимальным является 3-4 уровня.
  • Линки. Поставьте галочку «Получить вначале HTML файлы!», это позволит сначала выкачать основной текстовый контент сайта, а затем уже картинки и другие файлы.

Идём дальше. На четвёртом шаге можно позволить автоматически устанавливать интернет-соединение и разрывать его по окончании закачки. Также можно выставить автоматическое выключение компьютера, по окончании работы (галочка «Shutdown PC when finished»).

Нажимаем «Готово» и идём за чашечкой кофе, пока WinHTTrack WebSite Copier работает за нас.

Готовый сайт можно открыть двумя способами.

  • из папки, в которую сохраняли проект, кликнув по файлу index.html. В этом случае откроется страница со списком всех проектов. Нужно выбрать интересующий.
  • из папки с именем самого проекта, кликнув по файлу index.html. В этом случае сразу откроется сайт.

Скрипт DollySites

Я лично пользуюсь платным скриптом, но чтобы его установить нужен хостинг и немного опыта. Но зато скрипт работает очень хорошо, все скопированные мною сайты открывались один-в-один как в оригинале. Этому скрипту . Я его использую для создания копий лендингов, но работает он с любыми, даже самыми большими сайтами.

Offline Explorer

Платная программа-комбайн, есть демо. Из явных отличий от WinHTTrack:

  • встроенный Web-browser и Web сервер для локального предпросмотра;
  • распознаёт и загружает ссылки из HTML файлов, Java- и VB- скриптов, классов Java, Macromedia Flash (SFW), CSS, XML/XSL/DTD, TOC, PDF, M3U, AAM, RealMedia (SMIL, RAM, RPM) и MS NetShow Channel (.NSC) файлов;
  • поиск по загруженным сайтам;
  • экспорт в различные форматы (в т.ч. для записи сайтов на CD);
  • удаление скриптов со страниц web.archive.org.

Интерфейс покажется более замороченным, но ничего сложного в нём нет. Запускаем мастер:

Выбираем один из 12 шаблонов:

Например, шаблон «Download only one page with images and scripts» заточен для загрузки только одной страницы. Если не знаете какой выбрать, то пусть будет «Default Template». Далее вводим нужный сайт, любое название проекта и путь к папке на диске:

По окончанию загрузки придёт уведомление на рабочий стол.

Из платных, ещё можете попробовать некогда легендарную программу Teleport Pro (на английском), но по-моему за неё просят намного больше, чем она стоит, да и устарела уже.

Какие есть ограничения у копий

Хочу внести ясность, что скопированный проект, даже если он точь-в-точь будет выглядеть как оригинал, это не означает что будут работать все функции. Не будет работать функционал, который исполняется на сервере, т.е. различные калькуляторы, опросы, подбор по параметрам — работать не будут 99%. Если функционал реализован с помощью Javascript, то будет работать.

Но.php скрипты скачать с сервера НЕВОЗМОЖНО, вообще НИКАК. Также не будут работать формы обратной связи и подачи заявок без ручных доработок, кстати DollySites делает это. Учтите, что некоторые сайты имеют защиту от скачивания, и в таком случае вы получите пустую страницу или сообщение об ошибке.

В наше время, когда интернет доступен практически в любой момент, иногда возникает необходимость скачать сайт целиком. Зачем это нужно? Причины могут быть разные: и желание сохранить важную информацию на будущее, и необходимость получить доступ к нужным данным при отсутствии доступа в сеть, и возможность ознакомиться с тем, как сверстаны страницы. Могут быть и другие резоны. Важно знать, как выполнить эту задачу, и далее мы покажем несколько способов как сделать копию сайта для последующего его использования в оффлайн режиме.

Самый простой способ о котором все знают, даже если ни разу не пользовались. Эта возможность есть в любом браузере. Достаточно лишь нажать комбинацию клавиш «Ctrl»+«S», после чего в открывшемся окне отредактировать название сохраняемой страницы и указать папку, в которую ее следует поместить.

Казалось бы, куда проще. Вот только есть в этом способе один существенный недостаток. Мы скачали всего лишь одну страницу, а в интересующем нас сайте таких страниц может быть весьма большое количество.

Хорошо, если сайт маленький, или состоит всего из одной страницы, а если нет? Придется выполнять это действие для каждый из них. В общем, работа для усидчивых и целеустремленных, не знающих об одном из основных двигателей прогресса.

Способ 2. Использование онлайн-сервисов

Вот оно, самое простое решение. Сейчас много есть полезных онлайн-ресурсов для перекодирования файлов, редактирования аудиофайлов и т. п. Среди достоинств этого метода – кроссплатформенность, отсутствие необходимости захламлять свою операционную систему утилитами, которые, возможно, понадобятся лишь однажды.

Всего делов-то, зайти на такой ресурс, ввести в строку адрес интересующего сайта, нажать кнопку запуска процесса скачивания и подставить «емкость», в которую польется интересующая информация…

В теории так, но, к сожалению, подобных онлайн-ресурсов, позволяющих скачать сайт целиком, раз, два, три и… И, пожалуй, все, если говорить о бесплатной возможности сохранить копию сайта на компьютер. А за все остальное придется платить, или мириться с урезанным функционалом.

Но давайте рассмотрим примеры поближе.

Едва ли не единственный бесплатный и русскоязычный ресурс. Интерфейс предельно прост. В строке вводим адрес интересующего сайта, вводим капчу, нажимаем кнопку «Скачать» и ждем…

Процесс небыстрый, к тому же с первого раза может и не получиться. Если все удачно, то на выходе получим архив с сайтом.

Условно-бесплатный ресурс, позволяющий один раз воспользоваться его услугами бесплатно, после чего за скачивание сайтов придется платить.

Работает webparse.ru быстрее предыдущего ресурса, но делает это не бесплатно. В итоге получаем архив со скачанным сайтом. В настройках нет настройки глубины парсинга структуры скачиваемого сайта, поэтому убедиться, что удалось скачать сайт полностью, придется только самостоятельной сверкой оригинала и его копии.

Другие ресурсы

Среди других способов можно отметить ресурс , создающий PDF-файл со страницами скачиваемого сайта. Естественно, часть функционала сайта будет утеряна. Если это допустимо, то воспользоваться данным ресурсом можно.

Еще один ресурс, позволяющий скачать сайт – . К сожалению, пользоваться им можно только на платной основе.

Способ 3. Специализированные программы

Использование утилит для скачивания файлов — пожалуй, наиболее функциональный вариант, позволяющий добиться своей цели. Придется смириться с тем, что в системе появятся дополнительные программы, одна часть из которых бесплатна, а другая – более меркантильна и требует за выполнение тех же функций поощрение. Причем, бесплатные программы (иногда их еще называют оффлайн-браузерами) по возможностям практически не уступают платным аналогам.

В отличие от онлайн-сервисов, подобная программа работает гораздо быстрее, хотя придется искать подходящую под вашу ОС версию этого ПО. Некоторые программы можно найти не только для ОС Windows, но и для других.

Рассмотрим несколько примеров таких программ.

WinHTTrack WebSite Copier

Одна из самых популярных программ, предназначенных для создания оффлайн-копий сайтов. Справедливости ради надо сказать, что бесплатных аналогов практически нет.

Для того, чтобы пользоваться программой, надо скачать с сайта разработчика подходящую версию, проинсталлировать ее в свою систему и запустить. В первом окне будет предложено выбрать язык интерфейса. Среди всех вариантов есть и русский.

Интерфейс программы прост и запутаться в нем не получится. В первом окне надо указать имя и категорию проекта, а также указать место, где будет храниться скачиваемый сайт.

Теперь надо ввести адрес сайта, который надо скачать. Программа имеет большое количество настроек, где задается глубина просмотра сайта, определяются фильтры, указывающие что скачивать надо, а что – нет. Например, можно запретить скачку изображений, исполняемых файлов и т. п. Настроек много, и если есть необходимость, можно внимательно с ними ознакомиться.

В следующем окне надо нажать кнопку «Готово», после чего остается только дождаться окончания процесса. По окончании в указанной папке будут находиться файлы скачанного сайта. Для того, чтобы открыть его для просмотра необходимо выбрать файл index.htm.

Теперь папку с проектом можно скачивать на любой носитель и просматривать там, где это удобно.

Англоязычная программа с солидно выглядящим интерфейсом и большими возможностями по настройке процедуры скачивания сайта. Достаточно только вести адрес интересующего ресурса, указать папку, в которую сохранить скачанные данные и нажать кнопку «Copy Website».

Все, теперь остается дождаться окончания работы программы и в указанном места найти файл «index.htm», который и будет начальной страницей ресурса, который подготовили для оффлайн-просмотра.

Из недостатков можно отметить только отсутствие русификации, а также то, что Cyotek WebCopy работает только на ОС Windows, начиная с версии Vista. Версий под другие ОС нет.

Teleport Pro

Одна из старейших программ, к сожалению, платная. Имеется тестовый период. После установки и запуска появится главное окно, где необходимо указать режим скачивания сайта. Это может быть полная копия, можно сохранить только определенный тип файлов и т. п.

После этого надо создать новый проект, который будет ассоциирован со скачиваемым сайтом и ввести адрес интересующего интернет-ресурса. По умолчанию глубина переходов по страницам имеет значение 3. Этот параметр можно изменить. После этого можно нажать кнопку «Далее».

Создастся новый проект, необходимо указать папку, в которую сохранять данные. Для запуска процедуры скачивания надо нажать кнопку «Start» (синий треугольник) в панели управления. Начнется процесс сохранения сайта на ваш диск.

Offline Explorer

Еще одна платная, но весьма функциональная программа. Есть русифицированная версия. Триальная версия работает 30 дней, при этом есть ограничение на количество скачиваемых файлов – 2000. Программа существует разновидностях Standard, Pro и Enterprise. Самая дешевая версия стоит 59.95$, а самая дорогая – 599.95$.

Как и в других программах, работа начинается с того, что необходимо создать новый проект и указать адрес интересующего сайта. Доступно большое количеств настроек, при помощи которых можно отфильтровать ненужную информацию, задать глубину просмотра сайта и т. п.

После того как проект создан, отредактированы параметры загрузки, можно нажать кнопку «Загрузить» и дожидаться результата.

Возможностей у программы действительно много. Есть многопоточная загрузка, собственный веб-сервер для просмотра того, что было скачано, масса настроек. Если оценивать все возможности, то программа действительно ценная (уж простите за тавтологию), вот только стоимость ее неприлично высока.

Webcopier

Платная программа с 15-дневным триальным периодом. Существует в версиях для Windows и Mac OS. Алгоритм работы не отличается оригинальностью, что, впрочем, является плюсом. Для скачивания сайта надо создать новый проект, ввести URL.

Мастер попросит ответить на несколько вопросов, например, ввести логин и пароль пользователя на скачиваемом сайте, указать папку назначения, позволит изменить некоторые параметры, например, отключить возможность скачивания изображений. После окончания создания проекта для начала процедуры создания локальной копии сайта надо нажать кнопку «Start download». Будет отображаться процесс при помощи графика, показывающего скорость работы, а также время работы.

Заключение

Возможностей создать локальную коллекцию нужных сайтов для их просмотра достаточно. Есть и онлайн-ресурсы, есть и специализированное ПО. Каждый из вариантов имеет свои достоинства и недостатки. К сожалению, большинство программ платные, и готовы ли вы раскошелиться за более широкий функционал или достаточно того, что умеют бесплатные утилиты – решать каждому самостоятельно.

Прежде чем отдавать предпочтение тому или иному решению, следует попробовать их все, благо даже платные программы имеют тестовый период, пусть и с некоторыми ограничениями. Это позволит оценить возможности этого ПО, понять, необходим ли вам весь этот функционал, насколько корректно производится скачивание сайтов.


Вопрос который является заголовком этого материала поначалу вызывает у обычного современного пользователя полное недоумение. Зачем скачивать сайты, если они и так всегда под рукой? Однако, старые интернетчики и, как показывает жестокая действительность, знают, что это далеко не так.

Я не буду здесь указывать на причины, почему в одно мгновение некоторые, порой очень полезные сайты навсегда исчезают с просторов Интернет. Предлагаю всего лишь ознакомиться с сервисами и программами, которые можно использовать для сохранения сайтов и последующим их просмотром на своём компьютере.


Особенно полезно использовать такую возможность в случае скачивания огромного количества страниц или сайта целиком. Для меня таким случаем, стала потребность скачать с одного из образовательных сайтов все pdf документы. Рассмотрим программы и онлайн-сервисы для скачивания сайтов.

Программы для скачивания сайтов

Подобного рода оффлайн-программы позволят вам скачать указанный раздел или сайт целиком, что может понадобиться в разных случаях. Самое полезное в сохранении сайта на жестком диске, то, что он сохраняется вместе с внутренней системой ссылок.


Оффлайн-браузеры, создают копию всех доступных директорий сайта, что позволяет вам переходить по ссылкам так, как вы делаете на обычном сайте в интернет. В пределах скачанного сайта вы сможете пользоваться всеми разделами и меню.


Кроме того, программы способны распознавать скрипты, интерпретируя их, и тем самым давая возможность использовать их в скачанной копии сайта. При закачке сайта сохраняется полный список файлов вместе со ссылками на них, что дает вам, возможно, не только просматривать страницы, но также слушать музыку и даже смотреть видео.




Одной из самых популярных программ подобного рода является HTTrack WebSite Copier. Её популярность объясняется простым и понятным интерфейсом, поддержкой русского языка, кроссплатформенностью и абсолютной бесплатностью!




Установка приложения выполняется на английском языке, после установки в настройках есть возможность выбора русского языка. Скачивание вебсайта производится с помощью мастера.








Одна из лучших платных программ для закачки сайтов целиком. Цена одной лицензии составляет 50 долларов. В неё нет поддержки русского языка, но интерфейс прост и его быстро можно освоить. Следует отметить что программа уже давно не обновлялась. Как впрочем, и многие другие программы подобного класса.




Позволяет выполнять на веб-странице поиск файлов определенного типа, размера, а также поиск по ключевым словам, формировать список всех страниц и файлов сайта.


Программа создана в компании Metaproducts, для работы в среде Windows. Стоимость самой простой лицензии Standard составляет порядка 60 долларов.


За эти деньги пользователь получает возможность скачивать не только html-страницы, но и потоковое аудио и видео.




Имеет современный интерфейс, в котором приятно работать, а также множество разнообразных настроек и функций, среди которых возможность одновременной обработки до 500 сайтов, загрузка запароленных сайтов, наличие собственного веб-сервера для комфортного просмотра скачанных ресурсов.


Важно! Одной из приятных особенностей программы является поддержка функции Drag–n–Drop, которая позволяет сохранять страницы путем их перетаскивания из браузера в программу.



Website Extractor

Программа для загрузки сайтов на жесткий диск.


приложение, позволяющее скачивать из интернета сайты целиком (или частично - по желанию). Программа относится к классу т.н. "оффлайновых" браузеров.



WebTransporter

Программа, позволяющая скачивать сайты и просматривать их офлайн.




это программа, установив которую, вы сможете просматривать необходимые вам страницы Интернета без подключения к сети.


Программа, которая позволяет сохранять на вашем жестком диске структуру веб-сайтов, а также каталоги товаров и прочее.




Программа анализирует веб-страницы и ищет на них заданную информацию.



SurfOffline

Разработчики предлагают 30-дневный испытательный срок чтобы протестировать все возможности программы.
Сохранение сайта происходит через мастер. Программа позволяет скачивать как весь сайт так и отдельные страницы.

Таблица сравнения программ по созданию оффлайн-копий сайтов.

Название программы Ссылка на сайт разработчика Бесплатные функции Просмотр в офлайн Скачивание
A1 Website Download http://www.microsystools.com/products/website-download/ ограничен +
BackStreet Browser http://www.spadixbd.com/backstreet/index.htm ограничены +
Cyotek WebCopy http://www.cyotek.com/cyotek-webcopy все + +
Darcy Ripper http://darcyripper.com/ все +
GetLeft не существует все частично
GNU Wget http://www.gnu.org/software/wget/ все - +
HTTrack http://www.httrack.com/ все + +
Local Website Archive http://www.aignes.com/lwa.htm ограничены - частично
Offline Downloader http://www.offlinedownloader.com/ 30-дневный испытательный срок + +
ограничены + +
QuadSucker/Web http://www.quadsucker.com/quadweb/ все + +
SurfOffline http://www.surfoffline.com/ 30-дневный испытательный срок + +
http://www.tenmax.com/teleport/pro/home.htm ограничены + +
http://visualwebripper.com/ 15-дневный испытательный срок - +
http://www.newprosoft.com/web-content-extractor.htm ограничены извлекает нужные данные +
Web2Disk http://www.web2disk.com/Default.aspx ограничены +
WebTransporter http://www.realsofts.com/ru мало +
http://www.spidersoft.com/webzip/ ограничены + +

Продолжение таблицы сравнения программ по созданию оффлайн-копий сайтов.

Название программы Поддерживаемые технологии Настраиваемая фильтрация Операционная система Версия Год выпуска Стоимость
A1 Website Download + Windows, Mac OS X от 39 уе
BackStreet Browser Windows 3.2 2011 19 уе
Cyotek WebCopy очень много визуальных настроек и режимов + Windows 1.1.1.4 2016 бесплатен
Darcy Ripper кроссплатформенный бесплатен
GetLeft - Windows (with Tcl/Tk), Linux, Mac OSX 2.5 бесплатен
GNU Wget Linux бесплатен
HTTrack кроссплатформенный бесплатен
Local Website Archive - Windows 29,95 евро
Offline Downloader Windows 4.2 29,95 уе
все + Windows от 60 уе
QuadSucker/Web Windows 3.5 2007 бесплатен
SurfOffline CSS, Flash, HTTPS, JS + Windows 29,95 уе
HTML5, CSS3, and DHTML + Windows 1.72 2015 49,95 уе
AJAX + Windows 3.0.16 2016 349уе
+ Windows 8.3 2016 49 уе
Web2Disk Windows 39,95 уе
WebTransporter http + Windows недоступна
Windows 7.1.2.1052 2008 39,95 уе


Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: