Vous devez être membre et vous identifier pour publier un article.
Les visiteurs peuvent toutefois commenter chaque article par une réponse.
BadLinksRecorder : récupérer et vérifier les liens d'un s
Article publié le 13/02/2007 12:48:23Un superbe article de Emmanuel PUYBARET sur eTeks
La classe BadLinksRecorder qui suit, permet de lire et de gérer l'ensemble des fichiers d'un site Internet (fichiers HTML, images, classes Java). Son constructeur prend en paramètre l'URL d'un fichier HTML qui est utilisée par la classe comme point de départ pour retrouver tous les fichiers dépendant directement ou indirectement de cette URL.
Tous les liens vers des fichiers qui ne sont pas relatifs à l'URL de départ sont ignorés, mais en modifiant la méthode ignoreURL () de la classe HTMLDocumentLinks, vous pouvez changer cette contrainte.
Tous les fichiers sont manipulés sous forme d'URL ce qui permet d'accéder aussi bien à des fichiers sur un disque local avec le protocole file: ou sur des fichiers accessibles sur Internet par le protocole http:.
le code
Code Java (319 lignes)
/* * BadLinksRecorder.java 1.0 * * Copyright (c) 1999 Emmanuel PUYBARET - eTeks. * All Rights Reserved. * */ import java.net.*; import java.io.*; import java.util.*; import java.text.*; import javax.swing.text.*; import javax.swing.text.html.*; public class BadLinksRecorder { // pour valeur les documents HTML lus private int badURLsCount; // Nombre de mauvaises URLs private int badAnchorsCount; // Nombre d'ancres non définies { // Tentative d'ouverture pour vérifier la validité de l'URL // Déclenchement d'une exception en cas de problème inputStream.close (); } { // Tentative d'ouverture du fichier // Si le fichier est accédé via le protocole http // vérification si un code 4xx n'a pas été renvoyé return connection.getInputStream (); } // Méthode d'interrogation des résultats du parsing { return parsedHtmlFiles; } { return ((HTMLBadLinks)htmlFiles.get (file)).getMalformedURLs (); } { return ((HTMLBadLinks)htmlFiles.get (file)).badURLs; } { return ((HTMLBadLinks)htmlFiles.get (file)).badAnchors; } public int getBadURLsCount () { return badURLsCount; } public int getBadAnchorsCount () { return badAnchorsCount; } // Parcours du fichier HTML donné au constructeur et de tous les fichiers // qui lui sont liés. public boolean parseFiles () { parsedHtmlFiles.addElement (searchedURL); // Parcours de toutes les urls qui sont ajoutées à parsedHtmlFiles for (int i = 0; i ‹ parsedHtmlFiles.size (); i++) { try { } { // En cas d'échec, ajout à l'ensemble des mauvais fichiers badFiles.addElement (searchURL); continue; } try { // Création d'un document HTML ajouté à l'ensemble htmlFiles HTMLBadLinks doc = new HTMLBadLinks (searchURL, parsedHtmlFiles, otherCheckedFiles); htmlFiles.put (searchURL, doc); // Démarrage de la lecture et du parsing du fichier HTML html.read (urlReader, doc, 0); urlReader.close (); e.hasMoreElements (); ) try { // Construction de l'URL sans ancre url.getPort (), url.getFile ()); if ( lowerCaseFile.endsWith (".htm") || lowerCaseFile.endsWith (".html")) { // Si le fichier est un fichier HTML, ajout à l'ensemble // des fichiers HTML (vérification de l'extension en minuscules) if (!parsedHtmlFiles.contains (urlWithNoAnchor)) parsedHtmlFiles.addElement (urlWithNoAnchor); } else // Pour les autres types de fichier (GIF, JPG,...), ajout // à l'ensemble des autres fichiers if (!otherCheckedFiles.contains (url)) otherCheckedFiles.addElement (url); } { } // Ne peut arriver } { } { } } // Suppression des mauvais fichiers de parsedHtmlFiles for (int i = 0; i ‹ parsedHtmlFiles.size (); ) if (badFiles.contains (parsedHtmlFiles.elementAt (i))) parsedHtmlFiles.removeElementAt (i); else i++; // Suppression des mauvais fichiers de otherCheckedFiles for (int i = 0; i ‹ otherCheckedFiles.size (); ) { try { // Tentative d'ouverture du fichier inputStream.close (); i++; } { badFiles.addElement (otherFile); otherCheckedFiles.removeElementAt (i); } } badURLsCount = 0; badAnchorsCount = 0; // Recherche des URLs et ancres mauvaises dans tous les fichiers lus e.hasMoreElements (); ) { HTMLBadLinks parsedDocument = (HTMLBadLinks)e.nextElement (); badURLsCount += parsedDocument.getMalformedURLs ().size (); // Parcours de toutes les URLs du fichier eURL.hasMoreElements (); ) try { // Construction de l'URL sans ancre url.getPort (), url.getFile ()); // Vérification si l'URL sans ancre est dans les mauvais fichiers if (badFiles.contains (urlWithNoAnchor)) { parsedDocument.badURLs.addElement (urlWithNoAnchor); badURLsCount++; } else if ( !otherCheckedFiles.contains (url) && url.getRef () != null) { HTMLBadLinks htmlDocument = (HTMLBadLinks)htmlFiles.get (urlWithNoAnchor); // Recherche de l'existence de l'ancre dans le fichier indiqué if (!htmlDocument.getAnchors ().contains (url.getRef ())) { parsedDocument.badAnchors.addElement (url); badAnchorsCount++; } } } { } // Ne peut arriver } // Tri bulle simple sur le vecteur parsedHtmlFiles // pour une sortie des fichiers par ordre alphabétique boolean sorted; do { sorted = true; for (int i = 0; i ‹ parsedHtmlFiles.size () - 1; i++) { if (url1.toString ().compareTo (url2.toString ()) › 0) { parsedHtmlFiles.setElementAt (url2, i); parsedHtmlFiles.setElementAt (url1, i + 1); sorted = false; } } } while (!sorted); // Renvoie true si pas d'erreur rencontrée return badURLsCount == 0 && badAnchorsCount == 0; } // Classe dérivée de HTMLDocumentLinks qui mémorise en plus les URLs // et les ancres mauvaises private class HTMLBadLinks extends HTMLDocumentLinks { Vector htmlFiles, Vector otherFiles) { super (file); } } // Méthode main () d'exemple de mise en oeuvre // (prend en argument un nom de fichier HTML de départ // sous forme d'URL, par exemple file:/disk/dir1/index.html) { try { BadLinksRecorder recorder = new BadLinksRecorder (args [0]); if (recorder.parseFiles ()) else { // Pour chacun des fichiers HTML lus, listing des erreurs e.hasMoreElements (); ) { e2.hasMoreElements (); ) + " l'URL " + e2.nextElement () + " est incorrecte."); e2.hasMoreElements (); ) + " l'URL " + e2.nextElement () + " n'existe pas."); e2.hasMoreElements (); ) { + " l'ancre" + url.getRef () + " de l'URL " + url + " est inconnue."); } } + " URL et " + recorder.getBadAnchorsCount () + " ancres sont incorrectes.\n"); } // Liste de tous les fichiers HTML lus " fichiers verifies :\n"); e.hasMoreElements (); ) } { } } }
parseFiles
La méthode principale de cette classe est parseFiles (). Bien que longue, elle effectue un ensemble d'opérations assez simples, dont voici la description :
Elle parcourt dans une boucle l'ensemble des fichiers HTML mémorisés dans le vecteur parsedHtmlFiles. Ce vecteur ne contient au départ que l'URL passée au constructeur. A chaque tour de boucle, on essaye d'ouvrir un fichier HTML : Si l'ouverture échoue, l'URL du fichier est ajoutée au vecteur badFiles ; si elle réussit, une nouvelle instance de la classe HTMLBadLinks (qui dérive de HTMLDocumentLinks) est créée et l'ensemble des liens et des ancres de ce fichier est lu grâce à la méthode read ().
Parmi ces liens, tous ceux qui désignent des fichiers HTML et qui ne sont pas déjà dans le vecteur parsedHtmlFiles, sont ajoutés à la fin de parsedHtmlFiles, pour être lus plus tard. Ainsi tous les fichiers qui dépendent directement ou indirectement de l'URL de départ seront parcourus dans cette boucle.
Toutes les URLs des fichiers HTML inaccessibles sont enlevés du vecteur parsedHtmlFiles.
Chaque fichier non HTML (images, classes Java) du vecteur otherCheckedFiles est ouvert pour vérifier s'il existe ou non. S'il est inaccessible, son URL est retirée de otherCheckedFiles pour être ajoutée au vecteur badFiles.
Arrivé à ce point, cette méthode a mémorisé les trois ensembles d'URLs suivants :
L'ensemble parsedHtmlFiles des fichiers HTML existants. La table de hash htmlFiles mémorise le même ensemble en associant à chacune de ces URLs, une instance de la classe HTMLBadLinks. La classe HTMLBadLinks mémorise tous les liens et toutes les ancres d'un fichier HTML.
L'ensemble otherCheckedFiles des autres types de fichiers existants.
L'ensemble badFiles de tous les fichiers inaccessibles et référencés par les fichiers HTML.
Pour vérifier la cohérence des liens et des ancres de tous les fichiers HTML, il suffit alors de parcourir l'ensemble htmlFiles, en vérifiant que tous les liens de chacun des fichiers HTML sont corrects ou non.
Pour manipuler plus facilement l'ensemble parsedHtmlFiles, un tri bulle est effectué sur cet ensemble pour qu'il soit classé par ordre alphabétique.
Finalement, la méthode parseFiles () renvoie true ou false pour indiquer que tous les liens ou les ancres sont corrects ou non.
La méthode main () de la classe BadLinksRecorder prend en paramètre une URL. Cette URL est utilisée comme point de départ pour vérifier l'ensemble d'un site Internet et doit contenir des liens vers les autres fichiers du site. Typiquement, cette URL est le fichier d'index du site.
Après avoir créé une instance de BadLinksRecorder, et appelé la methode parseFiles (), la méthode main () imprime sur la sortie standard la liste de tous les liens et toutes les ancres qui sont incorrectes, suivie de la liste des fichiers HTML vérifiés.
Compilation
Pour utiliser le programme précédent, recopiez les programmes BadLinksRecorder.java et HTMLDocumentLinks.java, puis compilez-les d'une des manières suivantes :
Si vous utilisez Java 1.1 sous Windows et si vous avez installé Swing dans le répertoire c:\jdk\Swing-1.1, vous utiliserez la ligne de commande suivante :
javac -classpath c:\jdk\Swing-1.1\swing.jar;c:\jdk\lib\classes.zip BadLinksRecorder.java HTMLDocumentLinks.java
Si vous utilisez Java 2 dans lequel Swing est inclus, vous utiliserez la ligne de commande suivante :
javac BadLinksRecorder.java HTMLDocumentLinks.java
Exécution
L'exemple de ce programme prend en paramètre l'URL du fichier HTML de base d'un site Internet (situé localement ou sur un serveur HTTP).
Si vous utilisez Java 2, vous pouvez exécuter le programme avec par exemple, la ligne de commande suivante :
java BadLinksRecorder http://www.unsite.com/index.html
Attention ! Tous les fichiers dont l'URL est relative à l'URL de départ seront lus qu'ils dépendent directement ou indirectement (via d'autres fichiers) du fichier HTML de base. Ceci peut représenté pour les gros sites une très grande quantité d'information longue à lire et à traiter...
Un article de Akira Sato
Source : www.eteks.com
Version en cache
21/12/2024 19:54:43 Cette version de la page est en cache (à la date du 21/12/2024 19:54:43) afin d'accélérer le traitement. Vous pouvez activer le mode utilisateur dans le menu en haut pour afficher la dernère version de la page.Document créé le 13/09/2004, dernière modification le 26/10/2018
Source du document imprimé : https://www.gaudry.be/ast-rf-387.html
L'infobrol est un site personnel dont le contenu n'engage que moi. Le texte est mis à disposition sous licence CreativeCommons(BY-NC-SA). Plus d'info sur les conditions d'utilisation et sur l'auteur.