Supponiamo che abbiate il bisogno di scaricare un intero sito per poi navigare offline, però non volete installare ulteriori programmi.
Allora viene in aiuto il potentissimo wget.
Supponiamo che vogliate scaricare il sito alla pagina http://it.wikipedia.org/wiki/Ubuntu con i relativi link.
Per farlo basta eseguire da terminale i seguenti comandi:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains it.wikipedia.org \
--no-parent \
it.wikipedia.org/wiki/Ubuntu
Le opzioni impostate sono:
--recursive
: scarica il sito web intero.--domains it.wikipedia.org
: fa in modo tale che non vengano seguiti i link al di fuori del dominio impostato--no-parent
: fa in modo tale di non seguire i link al di fuori della directory impostata /wiki/Ubuntu–page-requisites: serve per prelevare tutti gli elementi che compongono la pagina (immagini, CSS e così via).--html-extension
: salva i file con estensione .html.--convert-links
: converte i link in modo tale da poter permettere la navigazione offline.--restrict-file-names=windows
: modifica i nomi dei file in modo da essere compatibili anche con Windows.--no-clobber
: non sovrascrive file esistenti (usato nel caso in cui si intende continuare un download interrotto)
Per maggiori informazioni su wget potete consultare per esempio questa guida .