Transformer un signal 1D sous forme matricielle ! - Divers - Programmation
Marsh Posté le 22-05-2011 à 00:21:21
Un signal temporel ?
Imaginons que c'est un peu comme du morse, avec des signaux plus ou moins longs et des intervalles plus ou long.
Il y a beaucoup de façons de transformer cela.
Dans le cas du morse, on filtre le signal en considérant que l'on a trois valeurs : long, court, muet.
On peut assigner des nombres à ces valeurs, par exemple : 2, 1, 0.
Ensuite, on peut considérer qu'il faut prendre des séries de trois signaux, par exemple. Et nous voilà avec une matrice.
Ou bien on peut constituer un histogramme avec les suites de ces valeurs.
On peut aussi considérer que l'on n'a pas du morse, mais une image, et les valeurs 2, 1, 0, correspondraient à un pixel qui serait gris, blanc ou noir.
Ensuite, les x, et les y se déterminent selon l'emplacement de chaque pixel.
Pour le retour à la ligne, il faut avoir un signal particulier (une valeur 3), ou bien, par convention connaitre à l'avance la longueur d'une ligne.
Marsh Posté le 22-05-2011 à 01:18:01
on deconvolue pas avec une inversion matricielle, mais avec une FFTI.
un signal 1d ets une matrice a une ligne, je vois pas le probleme.
Marsh Posté le 22-05-2011 à 09:16:20
Il peut aussi vouloir inverser la matrice de sa fonction d'appareil.
Marsh Posté le 21-05-2011 à 14:30:26
Bonjour a tous !
Alors voila, tout est plus ou moins dans le titre !
J'ai un signal 1D , temporel quelconque et je veux le mettre sous forme matricielle sous Matlab !
Pour une image je saurais me débrouiller, avec chaque pixel avec une coordonnées X et Y, mais avec un signal temporel je ne vois pas comment mi prendre ( peut être de la même manière mais je ne vois pas ... )
Le but si sa peut aider, est d'inverser cette matrice pour une simple déconvolution du signal.
Voila merci d'avance