Il est possible de rapatrier tout son site en une seule ligne de commande dans un terminal et c'est carrément pratique et très rapide:

terminalgobage

Commande de base : wget

au lieu de www.unsite.com, il faut bien sur indiquer l'adresse d'index de son site.

puis les options :

-r : récursif sur le site
-l : pour définir les niveaux de récursion (ici 5 au maximum)
-k : pour convertir les destinations des liens pour une lecture locale
-E : convertir les types de fichier au format HTML (pour éviter que la lecture de sites en PHP posent problème en lecture sous Firefox).

Documentation complète ici

J'ai utilisé cette commande pour sauvegarder mon site de travail (un rased) et cela s'est fait en 30 secondes !

Autre intérêt possible, télécharger un site (petit de préférence) pour y accéder hors connexion, lors d'un trajet par exemple, où pour y faire travailler des élèves sans risque qu'il aillent surfer ailleurs.

Il y a bien sûr des limites techniques et déontologiques (si, si) à l'utilisation de wget : voir cette discution sur le forum Ubuntu

Enfin, si vous utilisez Firefox, quelque soit votre système d'exploitation, vous pouvez copier des pages avec l'extension ScrapBook.