Présentation Estimation et Transmission de l'Information

21
COMMUNICATIONS ACOUSTIQUES SOUS-MARINES Restitution d’autonomie Estimation et transmission de l’information

description

Quelques erreurs dans les résultats.

Transcript of Présentation Estimation et Transmission de l'Information

Page 1: Présentation Estimation et Transmission de l'Information

COMMUNICATIONS ACOUSTIQUES SOUS-MARINESRestitution d’autonomieEstimation et transmission de l’information

Page 2: Présentation Estimation et Transmission de l'Information

PROBLEMATIQUE

• Communication acoustique entre deux dispositifs sous-marins.

• Réalisation d’un procédé permettant la communication et sa simulation.

Page 3: Présentation Estimation et Transmission de l'Information

STRUCTURE DU POCEDE

Codage Décodage

Modulation Démodulation

Estimationdéconvolution - filtrage

Propagation Mesure

Emission

Page 4: Présentation Estimation et Transmission de l'Information

DEFINITION DU MILIEU• Milieu considéré comme linéaire

• Onde acoustique subissant des réflexions et des atténuations

S1 S2

a1,θ1a2,θ2

a3,θ3a4,θ4

• Mesures bruités : ajout d’un signal b(t)

𝒚 (𝒕 )=∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒙 (𝒕−𝜽 𝒊 )+𝒃 (𝒕 )

b : signal stationnaire centré indépendant de xPROPAGATION MESURE

ESTIMATION

4

Page 5: Présentation Estimation et Transmission de l'Information

REPONSE IMPULSIONNELLE𝒚 (𝒕 )=∑

𝒊=𝟏

𝒏

𝒂𝒊 .𝒙 (𝒕−𝜽 𝒊 )+𝒃 (𝒕 )

Réponse impulsionnelle du milieu (x = δ0) : 𝒉 (𝒕 )=∑

𝒊=𝟏

𝒏

𝒂𝒊 .𝜹𝜽𝒊(𝒕 )+𝒃 (𝒕 )

Intercorrélation entre l’entrée et la sortie dans le cas d’un signal impulsionnel :

𝜞 𝒙𝒚 (𝒕 )=∑𝒊=𝟏

𝒏

𝒂𝒊 .𝑯 𝒙 𝜹𝜽𝒊

(𝒕 )+𝜞 𝒙𝒃(𝒕 )

= 0

𝜞 𝒙𝒚 (𝒕 )=∑𝒊=𝟏

𝒏

𝒂𝒊 .𝜹𝜽𝒊(𝒕 ) Méthode d’identification des paramètres et

PROPAGATION MESURE

ESTIMATION

5

Page 6: Présentation Estimation et Transmission de l'Information

CARACTERISTIQUES DU SIGNAL𝒚 (𝒕 )=∑

𝒊=𝟏

𝒏

𝒂𝒊 .𝒙 (𝒕−𝜽 𝒊 )+𝒃 (𝒕 )

Caractéristique fréquentielle de la propagation

𝒀 (𝝂 )=∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒆𝟐 𝒊𝝅 𝜽𝒊𝝂 𝑿 (𝝂 )+𝑩(𝝂 )

Caractéristique fréquentielle de la réponse impulsionnelle sans bruit

𝑯 (𝝂 )=∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒆𝟐 𝒊𝝅 𝜽𝒊𝝂

𝑯−𝟏 (𝝂 )= 𝟏

∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒆𝟐𝒊 𝝅 𝜽𝒊𝝂

PROPAGATION MESURE

ESTIMATION

6

Page 7: Présentation Estimation et Transmission de l'Information

CHIRP

a1

Fenêtre du CHIRP On met en adéquation la fenêtre du spectre du CHIRP avec celle du canal afin de retrouver les coefficients.

θ1

Les coefficients se mesurent dans les différences de paliers

θ2θ3θ4θ5 θ6

PROPAGATION MESURE

ESTIMATION

7

Page 8: Présentation Estimation et Transmission de l'Information

CAS IDEAL𝑮𝒊𝒅 ( ν )=𝑯−𝟏 (𝝂 )= 𝟏

∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒆𝟐 𝒊𝝅 𝜽𝒊𝝂

0 5 10 15 20 25 30 35 40 45 50-1

0

1signal émis (sinus)

0 5 10 15 20 25 30 35 40 45 50-2

0

2x 10

-11 signal filtré en absence de bruit

Am

plitu

de

0 5 10 15 20 25 30 35 40 45 500

0.5

1x 10

-10 signal filtré en présence de bruit

Temps

Am

plitu

de

SNR = 7.7dB

Prendre en compte le bruit lors de la déconvolutionESTIMATION

MODULATION

8

Page 9: Présentation Estimation et Transmission de l'Information

CHOIX DU FILTRAGE𝑻 −𝟏 (𝝂 )= 𝟏

∑𝒊=𝟏

𝒏

𝒂𝒊 .𝒆𝟐 𝒊𝝅 𝜽𝒊𝝂

En absence de bruit, le filtre à mettre en place pour pouvoir récupérer le signal source est un RII

Impossibilité de récupérer le signal source de manière exacte et causale. Nécessité d’estimer le signal.

• On ne connaît pas la nature du signal d’entrée : pas de représentation d’état. Impossibilité d’estimer le signal par un filtre de Kalman ou un lisseur

RTS

• Le signal d’entrée est vu comme un signal aléatoire stationnaire

Idée : utiliser un filtre de Wiener pour estimer le signal d’entrée

ESTIMATION

MODULATION

9

Page 10: Présentation Estimation et Transmission de l'Information

MODELE DE WIENER

Xw = Xt = H * XHw = H-1

ESTIMATION

MODULATION

10

Modèle de transmission

H

+

+F

+

-

x xt

b

xm y ε

Modèle de Wiener+

+

FiltreFw

+

-

xw xm y ε

Lien Hw

b

d

Utilisation d’un filtre de Wiener dont le lien est la déconvolution du signal

Page 11: Présentation Estimation et Transmission de l'Information

FILTRAGE DE WIENER (1/2)

Utilisation du filtre de Wiener non causal :

𝑮𝑵𝑪 (𝝂 )=𝑺𝒅 𝒙𝒎

(𝝂 )𝑺𝒙𝒎

(𝝂 )

𝑆𝑥𝑚( ν )=𝑆𝑥𝑡

(ν )+𝑆𝑏 ( ν )=𝑆𝐻∗𝑥 ( ν )+𝑆𝑏 (ν )=¿𝐻 (ν )∨¿2𝑆𝑥 (ν )+𝑆𝑏 ( ν ) ¿

𝑥𝑚=𝑥𝑡+𝑏

𝑆𝑑 𝑥𝑚(ν )=𝑆𝑑𝑥𝑡

( ν )+𝑆𝑑𝑏 (ν )⏟=𝑆

𝑑(𝐻∗𝑥)

( ν )=𝐻 (ν )𝑆𝑥 ( ν )

= 0

𝑮𝑵𝑪 (𝝂 )=𝑯 (𝝂)𝑺𝒙 (𝝂 )  

¿𝑯 (𝝂)∨¿𝟐𝑺𝒙 (𝝂 )+𝑺𝒃 (𝝂 )  ¿

En l’absence de bruit (Sb = 0), -> On retrouve la caractéristique du filtre idéal.

ESTIMATION

MODULATION

11

Page 12: Présentation Estimation et Transmission de l'Information

FILTRAGE DE WIENER (2/2)

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07-2

-1.5

-1

-0.5

0

0.5

1

1.5

2Impact du bruit sur la déconvolution du signal par méthode de Wiener

Temps

Am

plitu

de

prop. à sortie déconvoluée filtrée

entree de canal

Réponse du filtre de Wiener à un sinus

500 1000 1500 2000 2500 3000 3500-1

0

1signal emis

500 1000 1500 2000 2500 3000 3500

-5

0

5

10signal reçu

500 1000 1500 2000 2500 3000 3500-10

0

10signal filtré et déconvolué

Réponse du filtre de Wiener à un message convolué

ESTIMATION

MODULATION

12

Page 13: Présentation Estimation et Transmission de l'Information

SIGNAL AVANT MODULATION

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1

-1.5

-1

-0.5

0

0.5

1

1.5

temps t (sec)

ampl

itude

message binaire et signal x(t)

signal sans porteuse

MODULATION

CODAGE

13

FIGURE: Signal aléatoire approchant les bits avant modulation

Page 14: Présentation Estimation et Transmission de l'Information

MODELISATION DU CANAL

-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 10

50

100

150

200

250

300

350

400

450

500

FIGURE : Histogramme représentatif du bruit inséré, à un coefficient multiplicateur près

- de la forme Yn=Xn+Bn - bruit : somme de multiples sources indépendantes qui converge vers une gaussienne

MODULATION

CODAGE

14

Stationnaire, causal, sans mémoireCanal avec bruit additif blanc gaussien

Page 15: Présentation Estimation et Transmission de l'Information

REPRESENTATION SPECTRALE

: F(p(.)) rect(BP = 1/2Db

: augmentation de la BP

MODULATION

CODAGE

15

FIGURES: Transformée de Fourieren fonction d’alpha

Intérêt du sinus cardinal : la transformée de Fourier est un rectangle.

Annulation tous les 1/Db Réduction des interférences entre symboles

80 90 100 110 120 130 140 150 1600

0.2

0.4

0.6

0.8

1

1.2x 10

-3 Transformée de Fourier du pulse suivant alpha

alpha=1

alpha=0.6alpha=0.3

alpha=0

Page 16: Présentation Estimation et Transmission de l'Information

Alpha = 0,9 Db= 103 Alpha = 0,5 Db= 103

- Tracé sur l’intervalle de temps 1/Db- Interférentes entre symboles et bruit- Ecartement horizontal : latitude permise dans le choix de l’échantillonnage- Ecartement vertical : influence du bruit- Recherche d’une ouverture aussi grande que possible

-1 -0.5 0 0.5 1

x 10-3

-1.5

-1

-0.5

0

0.5

1

1.5

Time

Am

plitu

de

Eye Diagram

-1 -0.5 0 0.5 1

x 10-3

-1.5

-1

-0.5

0

0.5

1

1.5

Time

Am

plitu

de

Eye Diagram

MODULATION

CODAGE

16

diagrammes de l’œil

CHOIX DE ALPHA

Tolérance au bruit alpha = 0

Tolérance à l’instant de récupération des symboles alpha = 1

Page 17: Présentation Estimation et Transmission de l'Information

DEMODULATION

-4000 -3000 -2000 -1000 0 1000 2000 3000 40000

0.01

0.02

0.03trace du spectre du signal de sortie bruité non filtré

pulsation rad/s

ampl

itude

-4000 -3000 -2000 -1000 0 1000 2000 3000 40000

0.01

0.02

0.03trace du spectre du signal de sortie bruité filtré

pulsation rad/s

ampl

itude

Filtre passe-bas

Cos(2

y sortie_temp

MODULATION

CODAGE

17

Page 18: Présentation Estimation et Transmission de l'Information

MODELE DE SOURCE

• Source considérée simple

• Alphabet contenant les 26 lettres, plus l’espace, la virgule et le point.

• Le codage de source dépend de la langue utilisée

CODAGE

CONCLUSION

18

Anglais Francais

Entropie de la source primaire

4.18 Sh 4.06 Sh

Efficacité 0.860 0.836

Page 19: Présentation Estimation et Transmission de l'Information

CODAGE DE SOURCE• Utilisation du codage de Huffman• Codage différent pour selon la langue utilisée

Anglais Francais

Entropiesource primaire

4.18 Sh 4.06 Sh

Efficacité 0.860 0.836

Taux de bits 1source secondaire

0.562 0.565

Efficacitéentropie source secondaire binaire

0.989 0.988

Taux de compression 12.95% 14.7%

𝜏 𝑐𝑜𝑚𝑝𝑟𝑒𝑠𝑠𝑖𝑜𝑛=𝐸𝑓𝑓𝑠𝑒𝑐𝑜𝑛𝑑𝑎𝑖𝑟𝑒−𝐸𝑓𝑓𝑝𝑟 𝑖𝑚𝑎𝑖𝑟𝑒CODAGE

CONCLUSION

19

Page 20: Présentation Estimation et Transmission de l'Information

Capacité temporelle : formule de Hartley-Tuller-Shannon

Avec RSB=

et B bande passante telle que : B=Db(1+alpha).AN : Bruit de variance 0,1RSB = 12,4 dBCt = 8,13. 103 Shannon/sec (sans considérer la modulation..)

Limite : 2nd théorème de Shannon

On peut obtenir en sortie un signal aussi fiable que possible si et seulement si le débit d’information est inférieur à la capacité temporelle du canal.

MODULATION

CODAGE

20

CAPACITE DU CANAL

Page 21: Présentation Estimation et Transmission de l'Information

CONCLUSION

CONCLUSION21

Considérer des extensions de l’alphabet

Optimiser le programme Matlab

Des questions?