telecharger 2500 fichiers

telecharger 2500 fichiers - Logiciels - Windows & Software

Marsh Posté le 01-10-2002 à 05:58:37    

Quel logiciel me conseillez vous pour telecharger 2500 fichier automatiquement ?
 
Ils sont comme cela :
 
http://site.com/fichier1.zip
http://site.com/fichier2.zip
...
http://site.com/fichier2500.zip
 
J'ai essayé getright (et un generateur de .grx, je n'allais pas tout faire a la main :)) mais il rame a fond, il ne sais pas bien gerer tout ça...
j'ai pensé a leechftp mais je ne connais pas de generateur de fichier de download pour ce logiciel.
 
Quelqun a un bon logiciel pour ça ?
Ce sont de tout petits fichiers (moins d'un ko chaqun),
mais il y en a beaucoup  :sweat:

Reply

Marsh Posté le 01-10-2002 à 05:58:37   

Reply

Marsh Posté le 01-10-2002 à 06:20:26    

moua a écrit a écrit :

(...)



 
si t'essaie de choper les images de ppc suite a un certain post a moi spa cool (la bande passante pousse pas dans les pc).
 
alors je vais te répondre, paske je sais, mais plus tard, je vais bien voir si Sly empeche l'indexation du repertoire concerne de ppc ... ou alors tu montre l'url ...
 
izz

Reply

Marsh Posté le 01-10-2002 à 07:14:17    

moua a écrit a écrit :

hein ? de quoi tu parle ?
On peut meme plus d/l des images de cul ?  :ange:  [:zaib3k]  




 
oki desole ;)
 
bon un truc qui fonctionne dans ce cas : tu enregistre la page avec les liens avec ton brouteur
 
il va te pondre une page avec 2500 liens, dudur pour flashget le pauvre on le comprend
 
tu edite le code source de ta page, en placeant une balise de commentaire au tour de tous les liens suaf les 500 premiers (pifometre)...
 
tu recharge la page, tu clic droit plus "tout enregistrer avec flashget" la il va bien vouloir
 
et tu te retappe la manip juska ce que tu ai tout ...
 
voila, pas mieux pour l'instant ...

Reply

Marsh Posté le 01-10-2002 à 08:02:51    

Tu peux utiliser un soft type "aspirateur" ...
Celui que j'utilisais (Teleport Pro), permet sans probleme de charger des milliers de fichiers ...
Au lieu de lui demander une copie exacte du site, tu lui demandes a partir de l'URL http://site.com/ avec une profondeur de "1" de recuperer tous les .ZIP, puis avant de lancer le telechargement dans les options tu affines a "fichier*.zip".
 
A+


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
Reply

Marsh Posté le 01-10-2002 à 08:48:52    

moua a écrit a écrit :

Quel logiciel me conseillez vous pour telecharger 2500 fichier automatiquement ?
 
Ils sont comme cela :
 
http://site.com/fichier1.zip
http://site.com/fichier2.zip
...
http://site.com/fichier2500.zip
 
J'ai essayé getright (et un generateur de .grx, je n'allais pas tout faire a la main :)) mais il rame a fond, il ne sais pas bien gerer tout ça...
j'ai pensé a leechftp mais je ne connais pas de generateur de fichier de download pour ce logiciel.
 
Quelqun a un bon logiciel pour ça ?
Ce sont de tout petits fichiers (moins d'un ko chaqun),
mais il y en a beaucoup  :sweat:  




 
 
http://www.httrack.com/index.php
 
 
tu dis : "pomper le lien www.site.com"
et ds les filtre du exclus TOUT sauf *.zip
 
et vala

Reply

Marsh Posté le 01-10-2002 à 17:25:23    

Non ce ne sont pas des liens
je veut fichier1 fichier2 fichier2000...
mais il n'y a aucun lien vers ces fichiers (je sais qu'ils existent).
 
En plus IE ouvre automatiquement ces .doc... enfin bref, il faudrais un download manager mailleur que getright, ou un generateur de liste a telecharger autre que pour getright.


Message édité par moua le 01-10-2002 à 17:27:14
Reply

Marsh Posté le 01-10-2002 à 17:26:49    

ben leechftp tu vas dans le rep, pis tu sélectionnes tout et tu le mets dans la queue, nan ? [:wam]


---------------
The only thing necessary for the triumph of evil is for good people to do nothing.
Reply

Marsh Posté le 01-10-2002 à 17:28:27    

CK Ze CaRiBoO a écrit a écrit :

ben leechftp tu vas dans le rep, pis tu sélectionnes tout et tu le mets dans la queue, nan ? [:wam]  




 
mais c'est pas un FTP... et il n'y a pas de lien vers ces fichiers, et je me vois mal faire 2000 copier/coller + modification d'un chiffre a la main

Reply

Marsh Posté le 01-10-2002 à 17:30:39    

moua a écrit a écrit :

 
 
mais c'est pas un FTP... et il n'y a pas de lien vers ces fichiers, et je me vois mal faire 2000 copier/coller + modification d'un chiffre a la main



alors il te reste que l'aspirateur de site :/


---------------
The only thing necessary for the triumph of evil is for good people to do nothing.
Reply

Marsh Posté le 01-10-2002 à 17:49:13    

CK Ze CaRiBoO a écrit a écrit :

alors il te reste que l'aspirateur de site :/




 
heuu je me repete :
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)

Reply

Marsh Posté le 01-10-2002 à 17:49:13   

Reply

Marsh Posté le 01-10-2002 à 17:49:58    

et ben tu fais toi meme la page avec les lien, non  :heink: ?


Message édité par Mhaggar le 01-10-2002 à 17:50:18

---------------
You want to know my name, you want to see my face, I'm the devil !
Reply

Marsh Posté le 01-10-2002 à 17:58:15    

moua a écrit a écrit :

 
 
heuu je me repete :
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)



eh ben si l'aspirateur il aspirera qd ^même, tu mets un filtre *.zip et pis vala


---------------
The only thing necessary for the triumph of evil is for good people to do nothing.
Reply

Marsh Posté le 01-10-2002 à 18:04:25    

kapere est de loin le programme le plus adapté à ce que tu souhaites faire a+

Reply

Marsh Posté le 01-10-2002 à 18:15:26    

Mhaggar a écrit a écrit :

et ben tu fais toi meme la page avec les lien, non  :heink: ?




 
Heuu... c'est pas que j'ai la flemme mais faire 2500 liens a la main ou presque... :sweat:

master_jul
: THX vais essayer

Reply

Marsh Posté le 01-10-2002 à 19:17:43    

moua a écrit a écrit :

 
 
Heuu... c'est pas que j'ai la flemme mais faire 2500 liens a la main ou presque... :sweat:

master_jul
: THX vais essayer




 
 
donne l'url

Reply

Marsh Posté le 01-10-2002 à 19:49:56    

Latinus a écrit a écrit :

 
 
 
donne l'url




 
c'est private :p
 
mais en gros c'est
site.com/fichier1.zip
site.com/fichier2.zip
...
site.com/fichier3.zip
 
master_jul : on ne peut pas avec ton prog
 

Reply

Marsh Posté le 01-10-2002 à 19:52:17    

bha dans le cas qui se présente, à part avec un accès en ftp... y'a pas d'autre solution que de faire 1 par 1

Reply

Marsh Posté le 01-10-2002 à 19:52:56    

Latinus a écrit a écrit :

 
 
 
donne l'url




 
mouais, file l'url
 
je te genere une page qui te fais les noms avec php c'est trop simple ...
 
edit : si prive > PM, je peux pas te generer une page en html avec l'url en variable
 
apres je te fais des blocs de xxx (200 ?) liens par page, et tu clic droit "telecharger tt avec flashget"
 
izz


Message édité par izz le 01-10-2002 à 19:54:29
Reply

Marsh Posté le 01-10-2002 à 19:53:28    

izz a écrit a écrit :

 
 
mouais, file l'url
 
je te genere une page qui te fais les noms avec php c'est trop simple ...




 
bha voilà, mais c privé

Reply

Marsh Posté le 01-10-2002 à 19:55:31    

Latinus a écrit a écrit :

 
 
bha voilà, mais c privé




 
cf edit ci dessus
 
si tu as un serveur apache avec php a dispo, je peux te filer le code et tu genere toi meme ...

Reply

Marsh Posté le 01-10-2002 à 20:34:36    

izz a écrit a écrit :

 
 
cf edit ci dessus
 
si tu as un serveur apache avec php a dispo, je peux te filer le code et tu genere toi meme ...




 
J'ai :)
 
ça serais sympa :)
 
A part ça... je peut toujours remplacer tout les "site.com/ficher" par la veritable url avec le notepad

Reply

Marsh Posté le 01-10-2002 à 21:12:55    

tfé pa ièche : installe un aspirateur de sites genre teleport pro  :)
komen dire : c tout simplement fait pour  :D


Message édité par Pnar le 01-10-2002 à 21:14:08

---------------
bah kestufou ?
Reply

Marsh Posté le 01-10-2002 à 21:21:48    

Pnar a écrit a écrit :

tfé pa ièche : installe un aspirateur de sites genre teleport pro  :)
komen dire : c tout simplement fait pour  :D  




 
heuu je repete :
 
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)
 
izz : tu peut copier le code du php içi ?

Reply

Marsh Posté le 01-10-2002 à 21:40:42    

moua a écrit a écrit :

 
 
heuu je repete :
 
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)




ki a dit que les liens étaient nécessaires ? du moment qu'ils sont accessibles directement  :sol:


---------------
bah kestufou ?
Reply

Marsh Posté le 01-10-2002 à 21:58:36    

moua a écrit a écrit :

 
 
heuu je repete :
 
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)
 
izz : tu peut copier le code du php içi ?




 
si le repertoire ou ils sont est indexable si ... si tu connais (moi pas) la commande pour demander au serveur la liste des fichiers dans le dossier c'est possible ...
 
ainsi il va te generer une page html comme celle qu'il te sort quand tu demande une page ou il trouve pas d'index.htm/html/php etc ...
 
bon, tu as po confiance en moi (je prefere ma copine a des video au passage  :D ) je peux bien sur te balancer le code, mais tu veux le code source en PHP (tu dois avoir un serveur php sous la main !) ou le resultat en html (soit 2500 lignes de code je suis pas sur que je puisse poster auant) ?

Reply

Marsh Posté le 01-10-2002 à 22:05:33    

Ya bien wget sous linux :)
 
# wget http://site.com/*
 
La commande doit ressembler à ça. Je crois pas que ce soft soit porté sous Windows :/


---------------
#!/usr/bin/girl
Reply

Marsh Posté le 01-10-2002 à 22:07:49    

Bon j'ai une solution.
 
Il faut tout d'abord que tu te crées un fichier texte (par exemple download.txt) contenant chaque url que tu veux télécharger:
http://site.com/fichier1.zip
http://site.com/fichier2.zip  
...
http://site.com/fichier2500.zip  
Avec un tableur, tu peux le generer sans problèmes.
 
Ensuite tu utilises Windows Commander http://www.ghisler.com qui est un super gestionnaire de fichiers (faut pas se fier à l'interface, il est très puissant).
Tu vas dans le menu "Reseau" puis tu selectionnes "FTP : télécharger depuis la liste" (ca marche egalement pour les url en HTTP, j'ai essaye), et tu lui indiques ton fichier texte.
 
Ensuite il va tous les télécharger un par un.

Reply

Marsh Posté le 01-10-2002 à 22:08:20    

localhost a écrit a écrit :

Ya bien wget sous linux :)
 
# wget http://site.com/*
 
La commande doit ressembler à ça. Je crois pas que ce soft soit porté sous Windows :/
 




 
y'a certainement mais le site est mega prive apparement  :D  
 
c'est p'tet des videos d'un membre du forum  :D
 
edit = ska j'voulai dire en maitant po bien exprime c'est kon peut po savoir si le serveur est sous nux ou pas vu que Bush a cache l'url dans un micro onde de la maison blanche en croyant que c'etait un coffre (code 00:00)  :D


Message édité par izz le 01-10-2002 à 22:13:12
Reply

Marsh Posté le 01-10-2002 à 22:09:21    

izz a écrit a écrit :

 
 
y'a certainement mais le site est mega prive apparement  :D  
 
c'est p'tet des videos d'un membre du forum  :D  




 
trompé de quote  :??:


---------------
#!/usr/bin/girl
Reply

Marsh Posté le 01-10-2002 à 22:10:30    

faxone a écrit a écrit :

Bon j'ai une solution.
 
Il faut tout d'abord que tu te crées un fichier texte (par exemple download.txt) contenant chaque url que tu veux télécharger:
http://site.com/fichier1.zip
http://site.com/fichier2.zip  
...
http://site.com/fichier2500.zip  
Avec un tableur, tu peux le generer sans problèmes.
 
Ensuite tu utilises Windows Commander http://www.ghisler.com qui est un super gestionnaire de fichiers (faut pas se fier à l'interface, il est très puissant).
Tu vas dans le menu "Reseau" puis tu selectionnes "FTP : télécharger depuis la liste" (ca marche egalement pour les url en HTTP, j'ai essaye), et tu lui indiques ton fichier texte.
 
Ensuite il va tous les télécharger un par un.




 
une fois qu'il a le .txt c'est pas un probleme, au pire avec flashget (si deja instlle sur sa becane, possible car tres bon d/ldeur) il peut chopper des blocs de 200 ou 500 liens ...

Reply

Marsh Posté le 01-10-2002 à 22:19:45    

izz a écrit a écrit :

 
 
y'a certainement mais le site est mega prive apparement  :D  
 
c'est p'tet des videos d'un membre du forum  :D
 
edit = ska j'voulai dire en maitant po bien exprime c'est kon peut po savoir si le serveur est sous nux ou pas vu que Bush a cache l'url dans un micro onde de la maison blanche en croyant que c'etait un coffre (code 00:00)  :D  




 
Je te parle pas du serveur. Peu importe.
wget est un utilitaire sur ton système linux. Si moua était sous linux (peut-être qui l'est), il peut utiliser wget.


---------------
#!/usr/bin/girl
Reply

Marsh Posté le 01-10-2002 à 22:27:40    

localhost a écrit a écrit :

 
 
Je te parle pas du serveur. Peu importe.
wget est un utilitaire sur ton système linux. Si moua était sous linux (peut-être qui l'est), il peut utiliser wget.
 




 
j'ai appris keke chose  :D

Reply

Marsh Posté le 01-10-2002 à 22:32:30    

izz : le fichier php, je l'executerais ensuite merci :)
au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private :)
 
localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux.

Reply

Marsh Posté le 01-10-2002 à 22:37:55    

moua a écrit a écrit :

izz : le fichier php, je l'executerais ensuite merci :)
au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private :)
 
localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux.




 
mouiais pourquoi tu as efface ton post "On peut meme plus d/l des images de cul ? ",  :heink: pourquoi tu dis maintenant "au passage ce ne sont pas des vidéos (ni meme des images)" ?  :heink:  
 
t'es pas obligé de nous prendre pour des c... ou alors il faut pas que je m'en appercoive ...
et pis efface pas tes posts quotés par les autres  :D  
 
 
 

Reply

Marsh Posté le 01-10-2002 à 22:40:39    

moua a écrit a écrit :

 
 
heuu je repete :
 
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)




 
avec Kapere (cité plus haut, www.kapere.com ) t'as un truc "batch download" où tu peux faire ce que tu veux, et le soft gère sans problèmes une liste de plusieurs dizaines de milliers de fichiers


---------------
mes programmes ·· les voitures dans les films ·· apprenez à écrire
Reply

Marsh Posté le 01-10-2002 à 22:40:52    

bon  :heink:  je vais tout de meme te filer la reponse  :)  
 
tu copie colle ce texte dans un fichier que tu nomme index.php
 

Code :
  1. <html><head></head><body>
  2. <?php
  3. $k = 1;
  4. // si tu veux commencer a 1
  5. $limite = 201;
  6. //si tu veux arreter a 200
  7. //un boucle a la con a customiser comme tu veux
  8. while ($k < $limite) {
  9. echo "<a href=http://www.site.com/";
  10. echo $k;
  11. echo ".zip>Link #$k</a><br />";
  12. $k = $k + 1;
  13. }
  14. ?>
  15. </body></html>


 
comme tu peux voir c'est pas bien dur ... teste ok


Message édité par izz le 01-10-2002 à 22:49:00
Reply

Marsh Posté le 01-10-2002 à 23:32:18    

moua a écrit a écrit :

izz : le fichier php, je l'executerais ensuite merci :)
au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private :)
 
localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux.




 
Ou est le problème alors ?


---------------
#!/usr/bin/girl
Reply

Marsh Posté le 01-10-2002 à 23:33:48    

antp : merci j'avais pas vu  :hello:
 
izz : thx  :jap: je test ça desuite, sinon j'ai effacé mon post pour éviter qu'il soit mal interpreté :o
 
je test desuite ton php

Reply

Marsh Posté le 01-10-2002 à 23:35:36    

localhost a écrit a écrit :

 
 
Ou est le problème alors ?




 
wget ne permet pas de generer une page html/fichier_texte avec tout les liens, c'est la premiere étape

Reply

Marsh Posté le 01-10-2002 à 23:52:44    

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed