Comment récupérer tous les URL présents sur un site WEB ? - Logiciels - Windows & Software
Marsh Posté le 05-06-2012 à 21:50:14
ben des regexp seraient adaptées pour ça. Pour le langage, php, JS...
Marsh Posté le 05-06-2012 à 23:02:02
C'est à dire ?
Y'a pas des utilitaires gratos à passer sur le site ?
Marsh Posté le 06-06-2012 à 09:05:42
Ecrire une expression régulière pour capturer des url, t'en trouve via Google . Faut juste avant, dumper la page web sur laquelle appliquer la regexp. En php via un fopen() ou file_get_content(), ça se fait bien.
Si c'est sur un site web à toi et que tu peux modifier, tu peux ajouter un script JS qui exécutera la regexp. Ca va dépendre aussi de ce que tu veux faire après, une fois les url obtenues...
Marsh Posté le 06-06-2012 à 13:33:44
Oui, mais je ne vois pas où poser ma question ailleurs ?
Si tu as un meilleur endroit, peux tu me l'indiquer STP ?
Marsh Posté le 06-06-2012 à 13:56:12
-> Cat Windows & Software
Marsh Posté le 06-06-2012 à 15:57:01
Test ca : https://www.google.fr/search?aq=0&o [...] &q=httrack
C'est le seul que je connaisse.
Marsh Posté le 06-06-2012 à 16:28:05
Ce sujet a été déplacé de la catégorie Programmation vers la categorie Windows & Software par Gilou
Marsh Posté le 05-06-2012 à 19:18:04
Bonjour,
Afin de contrôler les URL qui ont été mis sur un gros site WEB, je voudrais pouvoir les récupérer automatiquement, avec la page sur laquelle ils se trouvent.
Est ce qu'il y a des outils qui permettent de faire ça ?
Par avance merci.
Message édité par stephaneF le 05-06-2012 à 19:18:25