Backstreet est un navigateur qui permet de surfer sur Internet hors ligne, en sauvegardant les sites pour les visualiser ensuite sans connexion internet.
Je ne pense pas que cela arrivera souvent, entre autres choses l’utilité de cet article peut être limitée par la présence de flux qui peuvent être sauvegardés sur votre ordinateur en utilisant un programme comme FeedDemon ou avec Microsoft Outlook en utilisant des plugins comme NetNewWire ou NewsFire ou même NewsGator (pour les essayer, cliquez sur la figure du flux à droite).
Cependant, les flux peuvent être partiels et incomplets, et si un site disparaît dans l’air, vous risquez de vous blesser.
Le chiffon, donc, nous devons aussi le mettre si vous voulez lire un site de nouvelles ou un blog comme celui-ci.
Le but est donc d’enregistrer un site pour naviguer sur les pages web pour les lire hors ligne, calmement et sans connexion internet, directement depuis l’ordinateur.
Faire à partir du navigateur comme Internet Explorer, « Fichier — Enregistrer sous », est une solution très peu pratique qui n’est nécessaire que si vous voulez faire une copie rapide d’une seule page et non d’un groupe ou du site entier.
Pour faire une copie d’un site entier ou, mieux, des pages qui peuvent vous intéresser, afin qu’elles soient sauvegardées sur votre ordinateur et organisées selon la structure des répertoires et le rendre navigable, vous pouvez utiliser le programme BlackStreet Browser qui est adapté à cet usage.
Une fois installé le navigateur, connecté à Internet, il faut taper, en allant dans Fichier — Nouveau, l’URL du site à sauvegarder décidant également :
– Où l’enregistrer sur l’ordinateur ;
– Que ce soit pour copier seulement les pages qui viennent du serveur qui héberge le site ou pour sauvegarder aussi les sites liés à partir du même ;
– La profondeur des liens à vérifier et à sauvegarder, c’est-à-dire que si vous définissez 3, vous sauvegardez les pages liées à la première, celles liées à celle-ci et les liens au troisième niveau ;
– Si vous n’enregistrez pas des pages plus grandes qu’une certaine taille de données, par exemple, si elles dépassent 200 Koctets ;
– Si vous copiez les pages suivant la structure du site ou si vous les copiez sur votre ordinateur en une seule fois.
En laissant tous les paramètres tels qu’ils sont par défaut, la page est copiée intégralement et de la même manière que vous le voyez en ligne et pour la visualiser, cliquez simplement sur l’un d’eux, par exemple sur la page d’accueil, puis naviguez comme vous le feriez normalement.
Par souci d’exhaustivité de l’information, je mentionne simplement qu’un site web est constitué de plusieurs fichiers structurés comme un répertoire de dossiers, un peu comme Windows.
Cette structure est visible lorsque vous voyez les adresses Internet et remarquez le / entre les deux.
Par exemple www.sito.net est la page d’accueil, comme si c’était C:/ sur Windows, www.sito.net/2009/pippo.html est une page qui se trouve dans le dossier 2009.
Les sites Web modernes ont une structure d’annuaire avec des noms compréhensibles qui rappellent habituellement le contenu écrit, les sites Web plus anciens, non optimisés ont plutôt des noms incompréhensibles avec des chiffres et des lettres qui semblent aléatoires.
Mais dans ce post nous ne sommes pas intéressés par ce fait et nous qui ne comprenons aucune de ces subtilités techniques, nous voulons juste sauvegarder un site web, non pas pour copier le code ou la structure, mais pour le consulter et le parcourir hors ligne.
Si vous voulez quelque chose de plus en tant que programmeur, je peux signaler HttTrack qui est décrit comme un « navigateur hors ligne » ou comme un « copieur de site web ».
Le programme doit être installé et, une fois ouvert, il suffit d’écrire l’url du site que vous voulez copier et il sera pris dans son intégralité avec même le code html, les fichiers et images qui se trouvent derrière.