J'ignorais que wget pouvait être utilisé pour télécharger récursivement toutes les pages d'un site. J'avais besoin de faire ça simplement pour extraire la documentation d'un vieux site dont je ne suis pas sûr qu'il soit toujours en ligne dans quelques années.
wget -r -p https://urldusite.com
Et le tour est joué ! Bon j'ai juste eu un souci avec l'extension .html
qui manquait pour la plupart des fichiers mais sinon ça fait le job.
Source: https://www.makeuseof.com/tag/how-do-i-download-an-entire-website-for-offline-reading/
Différence entre curl et wget.