Httrack website copier как скачать отдельные файлы. Как просмотреть то, что мы скачали

Как скачать сайт целиком бесплатно? Этот вопрос мы обсудим в данной статье и обратим внимание на бесплатный оффлайн браузер — . WinHTTrack – это бесплатная программа для скачивания сайтов целиком.

Бывает время, когда, действительно, необходимо скачать какой-нибудь интересный сайт целиком.

Это может быть в случае, если у нас ноутбук или нетбук и мы собираемся куда-то поехать , где нет выхода в Интернет (допустим, на дачу, в поход, на море и т.п.). В данной ситуации, воспользовавшись программой для скачивания сайтов целиком, можно дома скачать любой сайт и затем читать его в любое время и в любом месте, без необходимости подключаться к Сети.

Или, например, у нас в основном медленный и дорогой Интернет , но есть возможность оплатить быстрый и безлимитный трафик на один день (или сходить со своим ноутбуком к другу, у которого есть безлимитный Интернет). Составили список необходимых сайтов, подключили на один день безлимитный тариф (или сходили к другу), скачали выбранные сайты целиком и всё, — дальше можно читать их уже без подключения к Интернет.

Также бывают ситуации, когда Интернет безлимитный, но медленный , и для того чтобы открывать новые страницы на каком-нибудь часто посещаемом нами сайте приходится тратить много времени. В таком случае, очень даже кстати возможность скачать сайт целиком, чтобы потом просматривать его страницы быстро, ведь файлы сайта будут находиться уже на нашем компьютере.

Чтобы скачать сайт целиком, в Сети существует на выбор несколько разных платных программ. Но, в согласии с тематикой моего сайта, мы рассмотрим: как скачать сайт целиком бесплатно , т.е. с помощью бесплатной программы.

Для этого мы будем использовать бесплатную программу для скачивания сайтов.

Как скачать

Для того, чтобы скачать программу для скачивания сайтов (самую последнюю ее версию), заходим на официальный сайт этой программы и в раделе загрузок скачиваем установочный файл. В большинстве случаев нужно скачать первый файл, как показано на снимке ниже. Но, Вы можете также выбрать другой установочный файл, если у Вас, операционная система не Windows, а Linux или Android:

Установка программы WinHTTrack Website Copier

Установка WinHTTrack начинается с приветственного окна, в котором просто жмем Next :

Указывается, какое будет название папки в меню Пуск для запуска WinHTTrack. Так же, здесь можно ничего не менять. Идем далее:

Оставляем всё, как предлагается по умолчанию, и жмем Next :

В следующем окне показываются выбранные параметры. Просто жмем Install для завершения установки. Появится следующее окно, в котором оставляем галочку на , если хотим запустить программу сразу же после установки. А другую галочку можно убрать (читать историю развития программы на английском, думаю, вряд ли кому-то будет интересно). Жмем Finish :

Запуск программы WinHTTrack Website Copier

Если оставили галочку на Launch WinHTTrack Website Copier , то программа запустится сразу же. В дальнейшем её можно будет запускать через меню Пуск, как будет показано ниже.

При первом запуске WinHTTrack Website Copier можно установить язык для интерфейса программы:

  1. Выбираем русский язык для WinHTTrack
  2. В появившемся окне, говорящем, что для изменения языка, нужно перезапустить программу, нажимаем ОК
  3. Нажимаем ОК там, где выбирали язык:

Изменить язык можно также через меню программы, как показано на снимке:

Закрываем программу WinHTTrack полностью, нажатием на крестик в правом верхнем углу, либо на кнопку Exit, расположенную посередине экрана программы:

Запускаем программу заново через меню Пуск -> Все программы -> Папка WinHTTrack -> , как показано на снимке:

Как скачать сайт целиком с помощью WinHTTrack

Процесс скачивания сайта целиком с помощью WinHTTrack я рассмотрю на примере своего сайта:

Запускаем WinHTTrack и посередине экрана программы нажимаем на кнопку Далее > :

В новом окне указываем Имя нового проекта , Категорию проекта (для дальнейшего упорядочивания сохраненных сайтов) и путь сохранения — Каталог (где на компьютере будут храниться сохраненные сайты), который при желании можно изменить. Жмем Далее:

Указываем Тип загрузки, добавляем адрес сайта и жмем Далее, чтобы скачать сайт полностью со всеми страницами и файлами, которые есть на этом сайте:

Причем у программы есть хорошая особенность, — можно в реальном времени наблюдать процесс скачивания сайта целиком и при этом пропускать скачивание любых ненужных файлов:

Это может быть полезно, когда мы видим, что качается какой-нибудь большой видео-файл или ненужная нам программа.

Но можно также изначально (перед скачиванием сайта) задать параметры по своему желанию, чтобы, например, заранее исключить скачивание того, что нам не нужно.

Такую настройку параметров давайте рассмотрим немного подробнее.

Как задать параметры WinHTTrack для скачивания сайта

Переходим во вкладку Задать параметры (снимок выше). Здесь нас будут интересовать особенно 3 вкладки:

А). Фильтры WinHTTrack для скачивания сайта

В данной вкладке можно дать задание программе: как при скачивании сайта поступать с некоторыми файлами.

Допустим, нам нужно скачать сайт целиком вместе со всеми картинками, но нам не нужны программы (файлы exe), архивы, а также видео и аудио, которые могут находиться на нем. В таком случае мы ставим на всех группах файлов галочки и меняем вручную значок + на для всех файлов, которые хотим исключить из закачки:

Как видим, вариантов для скачивания необходимой информации может быть много.

Б). Ограничения WinHTTrack для скачивания сайта

В этой вкладке можно настроить некоторые параметры, ограничивающие какие-либо функции. При наведении на каждую ячейку курсором мыши, появляется пояснение выбранного ограничения, поэтому можно посмотреть, что означает каждое из них:

Две из них, на мой взгляд, самые часто используемые:

Максимальный размер сайта. Полезно в случаях, когда мы хотим ограничить скачивания сайта, ведь мы не знаем, сколько там информации на самом деле, а место у нас на компьютере может быть ограничено. Поэтому сами решаем, сколько можем уделить места на своем компьютере для этого сайта.

Максимальное время закачки сайта. Полезно в случаях, когда мы куда-нибудь собираемся и выходить уже нужно через полчаса-час, а нам нужно срочно скачать какой-нибудь сайт в дорогу почитать без Интернета. И здесь можно указать время, через сколько прекратить закачку: сколько успели скачать – сколько и будет.

Остальные ограничения можете попробовать использовать самостоятельно, — они уже не так часто применимы и, может быть, не понадобятся никогда.

В). Линки WinHTTrack

Остальные вкладки дают дополнительные возможности, но основное, что нужно для того, чтобы скачать сайт целиком, я описал в этой заметке. Начинающему пользователю, думаю, на остальное можно не обращать особого внимания.

Вот и всё! Осталось нажать на кнопку Готово :

И после закачки сайта можно переходить к его просмотру.

Чтобы просматривать скачанные сайты, в левой части окна программы находим на своем компьютере папку с сохраненными сайтами и нажимаем на файл index.html , как показано на снимке:

В браузере откроется страница с меню, с помощью которого можно запускать и просматривать все скачанные сайты:

Нажимаем на любой из сохраненных сайтов и радуемся быстрому просмотру!

Еще полезные функции WinHTTrack

Также при использовании WinHTTrack Website Copier для скачивания сайтов можно воспользоваться некоторыми полезными функциями этой программы. В типе загрузки сайта можно выбрать, что нам требуется от сайта.

Например, мы можем загрузить только отдельные файлы (только картинки, архивы или программы), указав расширения необходимых файлов через настройки параметров. Также мы можем продолжить загрузку (если вдруг Интернет отключился), или обновить закачку (если хотим дополнить информацию скачанного когда-то сайта):

Вывод: – это хорошая бесплатная программа для скачивания сайтов, которая дает возможность скачать сайт целиком , а с помощью фильтров и ограничений позволяет делать процесс скачивания сайта удобным и разнообразным.

Есть множество программ для скачивания сайтов, чтобы можно было просматривать его локально на своем компьютере без выхода в интернет. Веб-разработчикам интересно скачивания целого файла, чтобы посмотреть как реализована верстка сайта, как оптимизированы изображения и многое другое.

  1. Offline Explorer ($59.95) и Offline Explorer Pro ($149.95)
  2. Teleport Pro ($49.95)
  3. Webcopier ($30)
  4. И даже такие архаичные как Wget (бесплатна), но необходимо уметь работы с консолью операционной системы.
  5. Есть даже бесплатный русский сервис Site2Zip.com (я ставил на закачку, но он ничего не скачал).
  6. HTTrack Website Copier (бесплатна)

А теперь подробнее о последней программе.

HTTrack Website Copier

Выбор небольшой, поэтому наиболее подходящей программой для скачивания сайта будет HTTrack Website Copier. К тому она вполне неплохо справляется с данной задачей.

Есть различные версии программы, которые совместимы с:

  • 32-разрядной Windows 2000/XP/Vista/Seven/8
  • 64-разрядной Windows Vista/7/8

В настройках можно выбрать русский язык.

Скачать нужную версию мы сможете прямо с официального сайта

Как скачивать сайт целиком

1. Установить программу на свой компьютер.

2. Выберите в настройках русский язык и перезагрузите программу, чтобы интерфейс обновился.

3. Создайте новый проект

  • Укажите название проекта.
  • В какую папку на ваш компьютер сохранить сайт.
  • И нажмите кнопку «Далее».

4. В поле «Веб адреса: (URL)» укажите адрес сайта, который надо скопировать и нажмите на кнопку «Задать параметры».



5. В появившемся окне выставляем параметры скачивания.

Если у вас нет прокси оставляем все как есть и переходим к следующей вкладке «Фильтры».

Внимание: если возникли проблемы со скачиванием - попробуйте снять флажок с опции «Использовать прокси для ftp-закачки».



6. Здесь мы избавляемся от мусора и говорим какие файлы нам скачивать не нужно.

Ставим флажки напротив архивов и видео-файлов. Все расширения добавятся автоматически.



7. Переходим на вкладку «Ограничения».

Я задал максимальную глубину загрузки сайта до трех уровне вложенности. Вы можете указывать другое значение, в зависимости от ваших потребностей.



8. Идем на вкладку «Линки».

Если вы зайдете в нее, то увидите такую структуру.

Как просмотреть то, что мы скачали

Скачанный сайт можно запустить любым способом, например:

  • зайти в папку, в которую сохраняли проект, кликнув по файлу index.html . После этого откроется страница со списком всех проектов. Нужно выбрать нужный.
  • или войти в папку с названием проекта, кликнув по файлу index.html , чтобы открылся сайт сразу.

Всё. Поздравляю, теперь на вашем компьютере точно такая копия сайта как и в интернете. Пользуйтесь на здоровье!

Напишите, пожалуйста, в комментариях, всё ли понятно написано? Скажите, какими программами вы пользуетесь, когда вам надо бесплатно скачать сайт на компьютер?

Обновление локальной копии
Для того, чтобы продолжить скачивание большого блога или синхронизировать локальную версию с тем, что есть в Интернете, httrack может обновить скачанный проект. Насколько я понял, для этого нужно добавить к вышеупомянутому заклинанию ключик --update

То есть для обновления уже скачанного блога с blogspot из директории, где находится директория hts-cache (в ней лежит файл hts-cache/doit.log который содержит все нужные параметры) и пишем:

httrack "http://ВАШБЛОГТУТ .blogspot.com/" "+*.css" "+*.js" "+*.jpg" "+*.jpeg" "+*.tiff" "+*.png" "+*.gif" "+*.giff" "+*.swf" "+.ico" -v --disable-security-limits -s0 "-*666*" "-*BlogBacklinkURL*" --update
И httrack пытается обновить проект. И обновляет его, выкачивая оставшиеся файлы. Кстати, чтобы пропускать файлы со слишком тормозных серверов, можно ещё тайм-аут для httrack поставить поменьше, добавив ключик --timeout 20 после чего тайм-аут будет 20 секунд.

Отмечу так же, что в каталоге hts-cache лежат два больших архива в формате ZIP - так вот, удалить можно только тот из них, который называется old.zip, а new.zip лучше не трогать. Дело в том, что эти файлы содержат информацию, необходимую httrack для обновления скачанного сайта, и если эти файлы удалить, то вы не сможете просто обновить копию (придётся выкачивать всё заново).

Ссылки в тему
Над этой темой бились лучшие умы блоговедения и блоготехники, достижения коих увековечены к примеру в заметке Дмитрия Конищева Создание зеркала сайта и в посте Андрея Афанасенко Архив блога/blogarchive . За что оным умам (а так же всем, кто принимал участие в обсуждениях) низкий поклон и огромная благодарность.
Так же благодарность тов.
vnaum за то, что разыскал в дебрях документации к Блоггеру ссылку на возможность получить все посты Blogger с помощью скриптов на Python.

15 комментариев: | | RSS-лента дискуссии. |
Programmaster комментирует... 21 дек. 2009 г., 16:53:00

Любопытненько. Передо мной задача зеркалирования блога не вставала, но задумка интересная. Попробую-ка свой скопировать ради интереса…

Olly Cat комментирует... 21 дек. 2009 г., 20:31:00

Спасибо, очень интересно и познавательно. Надо подумать как теперь это дело использовать для переноса с одного блога на другой (давно хотел перенести свой старый ЖЖ в блогспот, да руки все не доходили).

Сергей комментирует... 21 дек. 2009 г., 22:41:00

Хотел заметить, что получить архив своего блога проще всего из панели управления — Настройки/Основные сведения/Инструменты блога/Экспорт блога. И получаем XML со всем-всем-всем. Хороший XML. Только данные (но в том числе и все настройки-стили), никакого генерируемого HTML.

У меня была мысль, что можно написать скрипт, формирующий по этому XML-архиву документ TeX, вестаемый автоматически для чтения оффлайн — под печать или e-book. Вроде ljbook или blurb, но лучше:-) Дарю идею.

vnaum комментирует... 23 дек. 2009 г., 00:23:00

Ну и мои две копейки:
http://code.google.com/apis/blogger/docs/1.0/developers_guide_python.html#RetrievingWithoutQuery

(python-gdata в дебиане есть)

virens комментирует... 23 дек. 2009 г., 01:59:00

@ Programmaster пишет...
Любопытненько. Передо мной задача зеркалирования блога не вставала, но задумка интересная.
Скоро встанет такая задача и перед тобой, когда постов будет за сотню. Не всегда есть подключение к интернету - вон в МИФИ вторую неделю интернета нету. Хотя он уж и не МИФИ, я нияу... но не суть.

@ Olly Cat пишет...
Надо подумать как теперь это дело использовать для переноса с одного блога на другой (давно хотел перенести свой старый ЖЖ в блогспот, да руки все не доходили).
Таким способом, думаю, вряд ли. Блогспот загружает один здоровенный XML-файл, но я без понятия, как его сформировать.

@ Сергей пишет...
Хотел заметить, что получить архив своего блога проще всего из панели управления — Настройки/Основные сведения/Инструменты блога/Экспорт блога. И получаем XML со всем-всем-всем.
О, а вот и оберфельдфебель Эвиденц в тред нагрянул! :-)) Извини, Сергей, не смог удержаться;-))

Хороший XML. Только данные (но в том числе и все настройки-стили), никакого генерируемого HTML.
Хорошая девочка Лида, а чем же она хороша?! :-)
Серьёзно, просмотреть его не получается. А раздавать этот файл всем - это у меня и так статьи тырят, а там просто двойники пойдут косяками.

У меня была мысль, что можно написать скрипт, формирующий по этому XML-архиву документ TeX, вестаемый автоматически для чтения оффлайн — под печать или e-book.
Ох ты ёлки-лампочки... Вот до чего хаскель-то доводит, мамочки, поди ж ты... :-)

@vnaum пишет...
Ну и мои две копейки
Это целый рубль, vnaum! Спасибо!

P.S. Прошу простить за немного ироничные ответы, т.к. писал весь день отчёты. После этого сильно пробивает на посмеяться:-)

К аждый активный пользователь интернета не раз сталкивался с ситуацией, когда на просторах всемирной паутины находил крайне полезный сайт, информацию с которого хотелось бы сохранить в свою личную коллекцию. Многие пользователи для этого пользуются инструментом «Закладки», который есть во всех браузерах. Но этот простой способ коллекционирования на самом деле не сохраняет саму информацию, а всего лишь сохраняет ссылку на эту информацию в интернете. Это влечет за собой потенциальные проблемы (описанные далее в статье). Поэтому в некоторых случаях может быть важным сохранить не просто ссылку, но и сами страницы сайта. Причем сделать это в наиболее удобном виде и без излишней кропотливой ручной работы. HTTrack — бесплатная программа, созданная специально для этих целей. В этой статье будет рассказано как скачать сайт целиком с помощью программы HTTrack и какие наиболее важные настройки этой программы следует выставлять в процессе работы.

Зачем скачивать сайты?

Как уже было упомянуто, простое сохранение ссылки на нужную страничку не всегда бывает полезным. Прежде всего очевидно, что при отсутствии доступа к интернету не получится просмотреть информацию по ссылке. Поэтому часто люди предпочитают в браузере нажать сохранение html-страницы. А в случае если таких страниц не одна или две, а десяток или даже сотни, то задаются вопросом, как скачать сайт полностью чтобы элементарно иметь возможность работать с ним оффлайн. Например, удобно было бы копировать папку с файлами сайта на планшет, чтобы почитать их в дороге.

Вторая важная причина, по которой стоит сохранять интернет страницы — это проблема недолговечности. Вы можете иметь постоянный доступ к интернету по нескольким подстраховочным каналам. Но это скорее всего не поможет в случае, если сайт стал недоступен. Может хозяин сайта перестал оплачивать его. Или ресурс заблокировали по каким-то причинам. Или с сайта был удален нужный Вам раздел. Или сайт атаковали злобные хакеры, и он долгое время не грузится. Причин может быть много, но итог один — не получается перейти по сохраненной ссылке, чтобы просмотреть нужную страницу. Спасительной соломинкой может служить кэш Google, из которого иногда можно выудить копии недоступной страницы. Но это слишком неудобный способ и к тому же ненадежный — не все страницы могут храниться в гугл-кэше.

Преимущества использования программ закачки сайтов

Самый простой вариант сохранения интернет-страниц — это использование штатных средств браузеров. Но в этом случае пользователь сталкивается с двумя непреодолимыми проблемами:

1. Страницы приходится сохранять вручную, по одной. Если страниц много, то это неблагодарный труд.

2. Все сохраненные страницы никак не связаны между собой. Открыв первую страницу и нажав ссылку на вторую страницу, браузер будет пытаться открыть адрес в интернете, а не сохраненный файл на Вашем компьютере.

Есть еще третья проблема поменьше — если на всех этих сохраненных страницах используется одна большая картинка (например логотип сайта), то такая картинка будет сохраняться в новый файл рядом с сохраняемыми страницами. А это значит что будет напрасно расходоваться место на жестком диске для хранения многократно дублирующейся объемной информации.

Именно для решения этих трех проблем и были придуманы программы, знающие как скачать сайт целиком сохранив не только текст страниц и изображения, но и структуру ссылок между ними. Таким образом, если такой программой-качалкой скачать статический сайт (состоящий из html, css-файлов и картинок), то можно получить точную копию всех этих файлов на своем жестком диске.

Установка программы HTTrack

Перейдем непосредственно к практике. Прежде всего необходимо скачать программу со страницы закачки на официальном сайте. Можно скачать программу установки и установить, но проще скачать архив с портативной версией программы (третья ссылка в списке ссылок для закачки).

Скачанный архив следует распаковать в любое удобное место и запустить приложение WinHTTrack.exe

В результате откроется окно программы, в котором можно как скачать сайт полностью, так и скачать выборочные страницы.

Как скачать сайт целиком?

Перед тем как скачать сайт полностью, следует оценить, насколько большой объем информации содержится на сайте. Если на сайте всего пара десятков страниц, то скачать его нетрудно. Но некоторые порталы могут содержать десятки тысяч страниц, и качать их все может не иметь смысла. Поэтому чаще всего ограничиваются скачиванием определенных разделов сайта Для примера предположим, что перед нами стоит задача скачать учебный раздел «Начало работы в Веб» с сайта Mozilla — чтобы на досуге почитать скачанные тексты.

После запуска программы появляется главное окно, в котором предлагается начать новый проект по закачке. Для этого нажимаем кнопку «Далее».

Задаем произвольное имя проекта и указываем путь, куда следует сохранить скачанную информацию.

При закачке сайтов следует знать одну важную вещь — программа начинает закачку с определенной страницы, указанной пользователем, сохраняет ее и все картинки на ней. Это первый уровень сохранения. Затем программа последовательно просматривает все ссылки на этой странице, и начинает сохранять html-файлы по этим ссылкам со всем их содержимым. Это второй уровень сохранения. Далее программа переходит на третий уровень, сканируя ссылки на всех страницах второго уровня. После переходит на четвертый уровень, пятый и т.д. до тех пор пока не сохранит все страницы на сайте. Это означает, что если сайт достаточно большой, то с переходом на каждый новый уровень объем сохраняемых данных возрастает в геометрической прогрессии. Поэтому крайне важно изначально указать правильную страницу, с которой будет начато сканирование — чтобы процесс ветвления равномерно охватывал все подразделы и можно было бы задать небольшую глубину сканирования без риска что до каких-то нужных страниц дело не дойдет. Лучший вариант, если это страница, на которой размещено содержание материала, карта сайта или главное меню сайта. Тогда все нужные материалы находятся в шаговой доступности и не останутся без внимания.

В нашем случае мы задаем главную страницу раздела, на которой содержится содержание интересующих нас материалов. А в типе проекта указываем вариант «Загрузить сайты + вопросы». Ценность варианта с вопросами состоит в том, что если на страницах будут ссылки на другие сайты, то программа спросит, нужно ли их закачивать или нет. Без этого пришлось бы тратить много времени и трафика на закачку других ненужных сайтов.

Выставив нужные значения в полях адреса и типа проекта, следует нажать кнопку параметры, чтобы указать, что именно следует закачивать.

Настройка параметров закачки

Тут во вкладке «Ограничения» нужно указать, на какую глубину (на сколько уровней) осуществлять переход по ссылкам. Также не лишним будет ограничить скорость закачки, чтобы не перегружать сервер сайта интенсивными запросами.

Другим важным моментом является указание типов файлов, которые необходимо загружать. Обычно сайт загружают вместе с картинками. А если на сайте есть музыкальные и видеофайлы, то их загрузка может оказаться нереальной задачей. Поэтому в каждом отдельном случае взвешивается целесообразность загрузки того или иного содержимого. И на основании этого составляется список допустимых и недопустимых к загрузке типов файлов. Задать этот список можно на вкладке «Фильтры».

В программе HTTrack содержится и множество других настроек, которые в отдельных случаях могут быть востребованы. Но в подавляющем большинстве случаев достаточно выставить только глубину сканирования и типы файлов.

Запуск процесса

После того как все необходимые параметры заданы, можно перейти непосредственно к этапу закачки. Для этого надо в главном окне программы нажать кнопку «Далее», а в следующем окне — кнопку «Готово».

Начнется закачка сайта, в процессе которой будут появляться вопросы, что делать со ссылками на другие ресурсы. Если нет необходимости использовать стороннюю информацию, то лучше всего выбирать вариант «Игнорировать домен».

Чем больше глубина сканирования, тем больше сторонних ссылок может обнаружить программа. Поэтому иногда процесс работы с ответами может быть кропотливым. Но это стоит того, поскольку это самый надежный способ закачать именно то, что нужно, и отменить закачку того, что не нужно. По мере исчерпания ссылок вопросов будет становиться все меньше, и в конце концов нам останется только следить за процессом закачки.

По окончании этого процесса появится окно с сообщением «Создание зеркала завершено».

Теперь можно перейти в папку со скачанными файлами и просматривать их. Теперь они доступны даже без доступа к интернету.

Выводы

С помощью программы HTTrack можно как скачать сайт целиком, так и скачать выборочные разделы сайта. С помощью настроек программы можно задавать глубину сканирования ссылок и тем самым регулировать объем скачиваемой информации, если сайт имеет большое число страниц. Также с помощью фильтров можно ограничить виды скачиваемых файлов, что может быть полезно в случае наличия больших мультимедийных файлов или архивов на скачиваемом сайте. А интерактивные вопросы по ходу закачки позволяют указать программе, что из стороннего содержимого закачивать нужно, а что не нужно. Благодаря этому можно получить копию сайта на своем компьютере и работать с этой информацией офлайн.

В наше время, когда интернет доступен практически в любой момент, иногда возникает необходимость скачать сайт целиком. Зачем это нужно? Причины могут быть разные: и желание сохранить важную информацию на будущее, и необходимость получить доступ к нужным данным при отсутствии доступа в сеть, и возможность ознакомиться с тем, как сверстаны страницы. Могут быть и другие резоны. Важно знать, как выполнить эту задачу, и далее мы покажем несколько способов как сделать копию сайта для последующего его использования в оффлайн режиме.

Самый простой способ о котором все знают, даже если ни разу не пользовались. Эта возможность есть в любом браузере. Достаточно лишь нажать комбинацию клавиш «Ctrl»+«S», после чего в открывшемся окне отредактировать название сохраняемой страницы и указать папку, в которую ее следует поместить.

Казалось бы, куда проще. Вот только есть в этом способе один существенный недостаток. Мы скачали всего лишь одну страницу, а в интересующем нас сайте таких страниц может быть весьма большое количество.

Хорошо, если сайт маленький, или состоит всего из одной страницы, а если нет? Придется выполнять это действие для каждый из них. В общем, работа для усидчивых и целеустремленных, не знающих об одном из основных двигателей прогресса.

Способ 2. Использование онлайн-сервисов

Вот оно, самое простое решение. Сейчас много есть полезных онлайн-ресурсов для перекодирования файлов, редактирования аудиофайлов и т. п. Среди достоинств этого метода – кроссплатформенность, отсутствие необходимости захламлять свою операционную систему утилитами, которые, возможно, понадобятся лишь однажды.

Всего делов-то, зайти на такой ресурс, ввести в строку адрес интересующего сайта, нажать кнопку запуска процесса скачивания и подставить «емкость», в которую польется интересующая информация…

В теории так, но, к сожалению, подобных онлайн-ресурсов, позволяющих скачать сайт целиком, раз, два, три и… И, пожалуй, все, если говорить о бесплатной возможности сохранить копию сайта на компьютер. А за все остальное придется платить, или мириться с урезанным функционалом.

Но давайте рассмотрим примеры поближе.

Едва ли не единственный бесплатный и русскоязычный ресурс. Интерфейс предельно прост. В строке вводим адрес интересующего сайта, вводим капчу, нажимаем кнопку «Скачать» и ждем…

Процесс небыстрый, к тому же с первого раза может и не получиться. Если все удачно, то на выходе получим архив с сайтом.

Условно-бесплатный ресурс, позволяющий один раз воспользоваться его услугами бесплатно, после чего за скачивание сайтов придется платить.

Работает webparse.ru быстрее предыдущего ресурса, но делает это не бесплатно. В итоге получаем архив со скачанным сайтом. В настройках нет настройки глубины парсинга структуры скачиваемого сайта, поэтому убедиться, что удалось скачать сайт полностью, придется только самостоятельной сверкой оригинала и его копии.

Другие ресурсы

Среди других способов можно отметить ресурс , создающий PDF-файл со страницами скачиваемого сайта. Естественно, часть функционала сайта будет утеряна. Если это допустимо, то воспользоваться данным ресурсом можно.

Еще один ресурс, позволяющий скачать сайт – . К сожалению, пользоваться им можно только на платной основе.

Способ 3. Специализированные программы

Использование утилит для скачивания файлов — пожалуй, наиболее функциональный вариант, позволяющий добиться своей цели. Придется смириться с тем, что в системе появятся дополнительные программы, одна часть из которых бесплатна, а другая – более меркантильна и требует за выполнение тех же функций поощрение. Причем, бесплатные программы (иногда их еще называют оффлайн-браузерами) по возможностям практически не уступают платным аналогам.

В отличие от онлайн-сервисов, подобная программа работает гораздо быстрее, хотя придется искать подходящую под вашу ОС версию этого ПО. Некоторые программы можно найти не только для ОС Windows, но и для других.

Рассмотрим несколько примеров таких программ.

WinHTTrack WebSite Copier

Одна из самых популярных программ, предназначенных для создания оффлайн-копий сайтов. Справедливости ради надо сказать, что бесплатных аналогов практически нет.

Для того, чтобы пользоваться программой, надо скачать с сайта разработчика подходящую версию, проинсталлировать ее в свою систему и запустить. В первом окне будет предложено выбрать язык интерфейса. Среди всех вариантов есть и русский.

Интерфейс программы прост и запутаться в нем не получится. В первом окне надо указать имя и категорию проекта, а также указать место, где будет храниться скачиваемый сайт.

Теперь надо ввести адрес сайта, который надо скачать. Программа имеет большое количество настроек, где задается глубина просмотра сайта, определяются фильтры, указывающие что скачивать надо, а что – нет. Например, можно запретить скачку изображений, исполняемых файлов и т. п. Настроек много, и если есть необходимость, можно внимательно с ними ознакомиться.

В следующем окне надо нажать кнопку «Готово», после чего остается только дождаться окончания процесса. По окончании в указанной папке будут находиться файлы скачанного сайта. Для того, чтобы открыть его для просмотра необходимо выбрать файл index.htm.

Теперь папку с проектом можно скачивать на любой носитель и просматривать там, где это удобно.

Англоязычная программа с солидно выглядящим интерфейсом и большими возможностями по настройке процедуры скачивания сайта. Достаточно только вести адрес интересующего ресурса, указать папку, в которую сохранить скачанные данные и нажать кнопку «Copy Website».

Все, теперь остается дождаться окончания работы программы и в указанном места найти файл «index.htm», который и будет начальной страницей ресурса, который подготовили для оффлайн-просмотра.

Из недостатков можно отметить только отсутствие русификации, а также то, что Cyotek WebCopy работает только на ОС Windows, начиная с версии Vista. Версий под другие ОС нет.

Teleport Pro

Одна из старейших программ, к сожалению, платная. Имеется тестовый период. После установки и запуска появится главное окно, где необходимо указать режим скачивания сайта. Это может быть полная копия, можно сохранить только определенный тип файлов и т. п.

После этого надо создать новый проект, который будет ассоциирован со скачиваемым сайтом и ввести адрес интересующего интернет-ресурса. По умолчанию глубина переходов по страницам имеет значение 3. Этот параметр можно изменить. После этого можно нажать кнопку «Далее».

Создастся новый проект, необходимо указать папку, в которую сохранять данные. Для запуска процедуры скачивания надо нажать кнопку «Start» (синий треугольник) в панели управления. Начнется процесс сохранения сайта на ваш диск.

Offline Explorer

Еще одна платная, но весьма функциональная программа. Есть русифицированная версия. Триальная версия работает 30 дней, при этом есть ограничение на количество скачиваемых файлов – 2000. Программа существует разновидностях Standard, Pro и Enterprise. Самая дешевая версия стоит 59.95$, а самая дорогая – 599.95$.

Как и в других программах, работа начинается с того, что необходимо создать новый проект и указать адрес интересующего сайта. Доступно большое количеств настроек, при помощи которых можно отфильтровать ненужную информацию, задать глубину просмотра сайта и т. п.

После того как проект создан, отредактированы параметры загрузки, можно нажать кнопку «Загрузить» и дожидаться результата.

Возможностей у программы действительно много. Есть многопоточная загрузка, собственный веб-сервер для просмотра того, что было скачано, масса настроек. Если оценивать все возможности, то программа действительно ценная (уж простите за тавтологию), вот только стоимость ее неприлично высока.

Webcopier

Платная программа с 15-дневным триальным периодом. Существует в версиях для Windows и Mac OS. Алгоритм работы не отличается оригинальностью, что, впрочем, является плюсом. Для скачивания сайта надо создать новый проект, ввести URL.

Мастер попросит ответить на несколько вопросов, например, ввести логин и пароль пользователя на скачиваемом сайте, указать папку назначения, позволит изменить некоторые параметры, например, отключить возможность скачивания изображений. После окончания создания проекта для начала процедуры создания локальной копии сайта надо нажать кнопку «Start download». Будет отображаться процесс при помощи графика, показывающего скорость работы, а также время работы.

Заключение

Возможностей создать локальную коллекцию нужных сайтов для их просмотра достаточно. Есть и онлайн-ресурсы, есть и специализированное ПО. Каждый из вариантов имеет свои достоинства и недостатки. К сожалению, большинство программ платные, и готовы ли вы раскошелиться за более широкий функционал или достаточно того, что умеют бесплатные утилиты – решать каждому самостоятельно.

Прежде чем отдавать предпочтение тому или иному решению, следует попробовать их все, благо даже платные программы имеют тестовый период, пусть и с некоторыми ограничениями. Это позволит оценить возможности этого ПО, понять, необходим ли вам весь этот функционал, насколько корректно производится скачивание сайтов.



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: