La commande wget permet d'aspirer les pages de nos URLs récoltées précédemment.
Voici le script contenant cette commande :
Les pages ont bien été aspirées (pour la plupart), et ont créé un dossier .html par fichier d'URLs :

Pour finir voici le tableau obtenu :

Lorsque que nous cliquons sur "Page aspirée", si celle-ci a bien été aspirée, nous sommes dirigées vers l'URL adéquate.
Dans un prochain billet, nous tenterons l'aspiration avec la commande curl.
Elle n'existait pas dans le terminal d'Ubuntu, mais le terminal de ce dernier nous a toutefois indiqué la marche à suivre : taper "sudo apt-get install curl".
Aucun commentaire:
Enregistrer un commentaire