Downloader for x : mode d'emploi ? - Logiciels - Linux et OS Alternatifs
Marsh Posté le 03-11-2005 à 06:46:38
Quelle distribution? Quel serveur X?
Marsh Posté le 03-11-2005 à 12:12:55
"Downloader for x" c'est le nom d'un programme de gestion de téléchargement
je l'ai installé sous Ubuntu mais je n'arrive pas à le faire marcher et je n'ai rien vu de consistant sur Google
Marsh Posté le 03-11-2005 à 12:56:09
Le faire marcher, c'est à dire ? Tu arrives à le lancer ?
Et man d4x, tu l'as lu ?
Opera
Marsh Posté le 03-11-2005 à 14:47:07
oui je le lance, mais je ne sais pas l'utiliser
non, je n'ai pas l'habitude étant nouveau sous linux et ubuntu! je vais regarder ce que ça donne...
Marsh Posté le 03-11-2005 à 17:57:20
oui mais les autres fonctions ? télécharger les liens d'une page par exemple ?
Marsh Posté le 03-11-2005 à 17:58:51
Regarde par là pour l'utiliser avec Firefox : http://roozeec.over-blog.com/article-215091.html
Marsh Posté le 03-11-2005 à 23:51:04
Je ne comprend pas d4x est très facile à utiliser.
New download pour ajouter un download
tu mets l'adresse dans l'url (tu peux paramétrer pour que le presse papier soit ajouté automatiquement)
tu cliques sur cp1251 -> ut8 (pour transformer le nom en utf8) ou tu mets un autre nom
personnellement j'aime bien aussi gwget
Marsh Posté le 04-11-2005 à 00:23:00
limax a écrit : Je ne comprend pas d4x est très facile à utiliser. |
Marsh Posté le 04-11-2005 à 00:24:15
le soft permet de télécharger tous les liens d'une page d'un coup par exemple (D4X ou WGget) ?
Marsh Posté le 04-11-2005 à 08:58:32
cp1251 -> ut8 C'est ce que j'utilise mais tu n'est pas obligé tu mets le nom que tu veux, tu as 3 boutons où tu peux cliquer, il suffit d'essayer, c'est quand même pas sorcier (j'aime bien ton smil ).
Marsh Posté le 04-11-2005 à 16:12:38
chaced a écrit : permet il ? oui pour gwget (qui utilise wget avec un interface gtk) |
oui, mais comment ?!
Marsh Posté le 04-11-2005 à 22:33:02
Il faut toujours faire: man wget
pour aspirer un site: wget -r -np -k http://tonsite.com ou wget --recursive --no-parent --convert-links http://tonsite.com
regarde ici http://www.trustonme.net/astuces/voir.php?id=20
Tu as aussi httracks avec le plugin pour mozilla. Dans le menu de mozilla tu as alors un menu télécharger le site. C'est très pratique, mais je ne l'utilise plus, j'aime mieux wget.
Marsh Posté le 04-11-2005 à 23:49:08
limax a écrit : Il faut toujours faire: man wget |
Et avec gwget, de cliquer sur new, saisir une url de de cocher la case que l'on veut
Marsh Posté le 05-11-2005 à 19:35:41
limax a écrit : Il faut toujours faire: man wget |
je voulais un truc graphique
j'ai gwget et il n'a aucune option, pas de "case à cocher", je ne vois pas l'interet pas rapport au gestionnaire de téléchargement inclus dans Firefox ?!
Marsh Posté le 06-11-2005 à 02:29:46
c'est une blague ou pas ?
sur l'interface de gwget j'ai 3 boutons : nouveau/resume all/pause all
quand je glisse-lache une url, il la télécharge sans me proposer d'option
et quand je rentre une url en faisant "nouveau"je peux juste choisir le dossier de destination du téléchargement
ce sont des options cachées dont tu parles ou quoi ?
je précise que j'ai installé gwget via synaptic/ubuntu 5.10 et qu'il s'agit de la 0.95
"man gwget" est très succint
Marsh Posté le 06-11-2005 à 12:42:49
comme son nom l'indique, ça parcour les fichiers en reccurcif, en gros on a un truc du genre :
il fait un wget de la page html, recherche les liens de la page et pour chaque lien leur fait un wget, et reccursivement jusqu'a tout avoir téléchargé.
Pour ce genre de truc, je préfaire HTTracks quand meme (et français en bonus)
Marsh Posté le 06-11-2005 à 22:59:12
je viens d'essayer de copier un lien comme dans ton exemple graphique c'est trop cool : puissant et simple à la fois!
recursif je suis pas sur de comprendre : ça veut dire que si je rentre http://forum.hardware.fr/ il va travailler en étoile et récupérer les fichiers vers lesquels pointent les liens vers lesquels pointent d'autres liens etc jusqu'au niveau dans les pérférences 1, 2, 3 etc ?
qu'apportent webhttracks, D4X ou aria par rapport à gwget qui a l'air déjà complet ?
Marsh Posté le 07-11-2005 à 15:48:51
Httracks a été conçu pour aspirer un site web, et pour ça, il est champion, meme un site web en php y passe, par contre, ça peut devenir vite enorme.
Gwget qui est une simple interface a wget fait son boulot de logiciel de pause / résume en utilisant wget, bref, il convient presque tout le temp
Marsh Posté le 07-11-2005 à 16:36:52
c'est quoi la particularité d'un site web en php ?
Marsh Posté le 07-11-2005 à 22:43:23
c'est une arborescence différente ? c'est répandu ? quel interêt de la chose ?
Marsh Posté le 08-11-2005 à 01:11:23
moi j'ai "http://forum.hardware.fr/hardwarefr/OSAlternatifs/Downloader-mode-emploi-sujet-53227-1.htm#t0"
Marsh Posté le 08-11-2005 à 11:53:44
Tu as l'adresse url rewriting pour le référencement, normalement c'est : http://forum.hardware.fr/forum2.ph [...] post=53227
Marsh Posté le 09-11-2005 à 00:56:11
chaced a écrit : sans lui, il n'y aurait de forum car les pages resterait statique et ne pourrait pas changer |
euh : tu peux développer STP ?
Marsh Posté le 03-11-2005 à 02:33:59
je n'arrive pas à faire marcher ce programme et ne trouve pas de tuto...
quelqu'un peut-il m'aider ?