Mirroir local mediawiki - Logiciels - Linux et OS Alternatifs
Marsh Posté le 07-07-2008 à 14:43:00
sous quel OS tu fais ça ?
Marsh Posté le 07-07-2008 à 15:53:25
ReplyMarsh Posté le 07-07-2008 à 15:56:25
tu peux essayer avec wget mais pour les liens qui sont créés avec php, je doute que ça fonctionne
wget -mirror http://site_web |
Marsh Posté le 07-07-2008 à 15:58:40
wedgeant a écrit : tu peux essayer avec wget mais pour les liens qui sont créés avec php, je doute que ça fonctionne
|
c'est surtout que ça ne vas pas "aspirer" les bdd mysql
Marsh Posté le 07-07-2008 à 16:01:42
bah non plus non
Marsh Posté le 07-07-2008 à 16:29:48
memaster a écrit :
|
En fait la BDD contient les articles et un wget récupère bien l'article.
En fait, actuellement j'utilise wget avec cette syntaxe.
wget -q -pEk "http://site/mediawiki/index.php/$PAGE"
$PAGE étant le nom de l'acticle dans la base Mediawiki.
Mon problème est avec les liens de type:
http://site/mediawiki/index.php/Image:AntiRiaa.jpg
C'est un lien dans MediaWiki pour accéder à l'image mais son lien réel et de type http://site/mediawikidir/e/ea/AntiRiaa.jpg (ce lien n'est pas en dur dans la BDD mais calculé, comment ?)
Deplus la page reprise par wget est pollulé par des scripts javascripts qu'il faudrait nettoyer.
Sinon, peut être auriez vous une méthode (avec sed ou autre) pour remplacer un lien dans un page html par un autre ?
Marsh Posté le 07-07-2008 à 14:38:08
Bonjour,
Je cherche à exporter une base mediawiki pour être consultable en local (ou sur cdrom) avec possibilité d'accés au image/medias contenu dans chaque article.
j'ai testé un aspirateur de type httrack mais je n'ai pas tous les liens de fonctionnel.
Quelqu'un a t'il déjà fait un export d'article complet ?