Compression tgz ou zip - Algo - Programmation
Marsh Posté le 28-10-2005 à 15:44:30
mais c'est uniquement celui la ?
c'est pas une implémentation de plusieurs algos ?
Marsh Posté le 28-10-2005 à 15:57:13
c tout simple a utiliser LZW, la premiere fois que javais decouvert ce truc, la simplicité mavait vraiment etonné
sinon un lien qui explique les choses assez simplement :
http://www.data-compression.com/lossless.html
Marsh Posté le 28-10-2005 à 22:13:43
ce qui ma qd mm etonné avec les algo de compression c que depuis Lempel Zif on donne leur theorie+ entropy rate, plus personne n'a jamais reussi a faire mieux, affaire classee depuis 30 ans et ce malgré que l'augmentation cpu +ram
Marsh Posté le 28-10-2005 à 23:43:13
c'est vrai et sa fait bizard aussi de ce dire que "il n'y a peut-être pas mieux"
ce serait un des seuls trucs que je connais ou l'on dirait c'est fini ; mieux est impossible.
Ptete qu'il n'y a plus de cerveau assé puissant...
Marsh Posté le 29-10-2005 à 00:12:04
Non, la théorie de l'information de M. Shannon est derrière et permet de calculer la quantité d'information contenue dans un message. On ne peut pas aller en-deça, sinon le message est dégradé.
Marsh Posté le 29-10-2005 à 00:13:55
On est d'ailleurs pas loin de la limite de shannon si ma mémoire est bonne non ?
Marsh Posté le 29-10-2005 à 00:24:03
Oui, Huffman est un peu une façon de calculer cette limite avec un nombre limité de symboles. Les autres algos ne font qu'améliorer les dictionnaires mais le principe est similaire. C'est pour ça que la différence entre les algos est relativement faible dans le cas général.
Marsh Posté le 27-10-2005 à 18:12:36
Bonjour,
Je voulais savoir si quelqu'un connaissais précisèment les algorithmes utiliser pour créer des fichiers .tar.gz ou .zip.
Je connais différents algo comme le RLE ou codage de Huffman ou RFC, ...
Enfaite j'aimerais pouvoir réaliser une lib en PHP qui donne des fichiers compatibles avec ces formats.
Alors voilà si quelqu'un connait les algos utiliser....
Merci