Université Paris Descartes / UFR de Mathématiques et Informatique - L3 MIA Syst
Université Paris Descartes / UFR de Mathématiques et Informatique - L3 MIA Systèmes de Communication Epreuve de contrôle continu (1h30) - 27 mars 2008 Documents, calculatrices et téléphones interdits. Il est attendu la plus grande rigueur dans la rédaction des réponses, qui devront être claires, courtes et précises à la fois. Les trois parties peuvent être abordées dans l’ordre qui vous convien- dra, mais les réponses à chaque partie ne devront pas être dispersées dans la copie. Vous trouverez en annexe quelques compléments éventuellement utiles. 1 Questions de cours (1+2+1+1+1=6 points) a) Si un codage de source est à longueur variable, comment peut-on différencier les symboles successifs dans le flux binaire ? b) L’oreille humaine perçoit des sons entre 20 Hz et 22 kHz, de puissance comprise entre 0 et 90 dB. Expliquez pourquoi, lorsqu’on veut une qualité hifi, les sons sont échantillonnés à 44,1 kHz et les échantillons sonores sont codés sur 16 bits (en virgule fixe). Rappel : le rapport signal à bruit de quantification, en dB, vaut 6k, où k désigne le nombre de bit par échantillon. c) Dans le codage d’une trame MPEG-1, le nombre de bit par échantillon dans chaque bande i doit respecter la relation ni > P i dB−Mi 6 , où P i dB et Mi désignent respectivement la puissance du signal et le seuil de masquage dans la ieme bande. D’autre part, la somme des ni doit rester inférieure à une certaine valeur N qui dépend du débit autorisé. Quel problème peut survenir ? Par quel mécanisme y remédie-t-on dans le codeur MP3 ? (ne pas donner simplement le nom du mécanisme, mais expliquer en quoi il consiste) d) Citez et décrivez un exemple de code en ligne utilisé dans les transmissions en bande de base, différent du code NRZ. e) Quel est le rôle du filtre adapté dans un récepteur ? 1 2 Exercices 2.1 Codage de canal (5 points) Soit un code en bloc linéaire défini par la matrice génératrice G suivante : G = 1 0 0 1 1 0 0 1 0 1 0 1 0 0 1 1 1 1 a) Quel est le rendement de ce code ? b) Construire l’ensemble des mots de code. Quelle est la distance minimale de ce code ? En dé- duire les pouvoirs de détection et de correction. c) On reçoit le mot r = 111011. Décoder r selon la distance minimale (i.e. en recherchant le mot de code le plus proche du mot reçu). Ce décodage est-il fiable ? (justifier votre réponse). 2.2 Codage de source (5 points) a) Soit une source binaire sans mémoire X telle que P(1) = p ≪1 et P(0) = 1 −p. – Trouver un équivalent de (1 −p) log2(1 −p) – En déduire que (1−p) log2(1−p) p log2(p) p→0 − →0 – En déduire que l’entropie de X peut être approchée par : H(X) ∼−p log2(p). Indications : – ∀x, log2(x) = ln(x)/ ln(2) – Pour 0 < x ≪1, ln(1 −x) ∼−x b) On groupe maintenant les éléments binaires de X par mots de 2. On note X2 la nouvelle source ainsi constituée. – Calculer, en fonction de p, la probabilité de chaque mot (sans approximations) – Quelle est l’entropie de X2 ? – Construire un code de Huffman de X2 – Calculer la longueur moyenne des mots de code – En déduire l’efficacité du codage et comparer avec celle de la question a (sans regroupement des éléments binaires). 2.3 Détection de symboles (5 points) Soit un canal de communication modélisé par l’ajout d’un bruit. On émet des symboles binaires équiprobables. Pour chaque symbole émis Si, le récepteur traite, après filtrage adapté et échantillon- nage, une valeur z = si + b, telle que : – s0 = −A, avec A > 0 – s1 = A – b est une variable aléatoire de densité de probabilité uniforme sur un intervalle [−∆/2; ∆/2], avec ∆/2 > A. La densité de probabilité de b, représentée sur la figure 1, est donc définie par : p(b) = 1/∆ si b ∈[−∆/2; ∆/2] 0 sinon 2 b p(b) ∆ 2 −∆ 2 1/∆ FIG. 1 – Densité de probabilité du bruit de canal b. a) Dessiner les densités de probabilité conditionnelle p(z|s0) et p(z|s1). b) On souhaite détecter le symbole émis selon la règle du maximum de vraisemblance a poste- riori : P(s0|z) > P(s1|z) ⇒ r0 P(s1|z) > P(s0|z) ⇒ r1 où ri désigne l’événement “détection du symbole i”. En appliquant la règle de Bayes, en déduire une règle simple de décision selon la valeur de z. Pour quelles valeurs de z ne peut-on prendre de décision ? c) Comme il faut de toute façon prendre une décision, on détecte s0 si z < 0 et s1 si z > 0. Montrer que : P(r0|s1) = P(r1|s0) = 1 2 −A ∆ . d) Ecrire l’événement erreur sous forme ensembliste et calculer la probabilité d’erreur Pe. 3 Annexes Probabilités Règle de Bayes : Soient A un événement et X une variable aléatoire de densité de probabilité p. Alors : P(A|x)p(x) = p(x|A)P(A) Soient une variable aléatoire Z et deux réels a et b : P(a < Z < b) = Z b a p(z)dz Entropie L’entropie d’une source X délivrant des symboles xi, 1 ≤i ≤N, est définie par : H(X) = − N X i=1 P(xi) log2(P(xi)) 3 uploads/S4/ cc-2008.pdf
Documents similaires
-
20
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Fev 28, 2022
- Catégorie Law / Droit
- Langue French
- Taille du fichier 0.0390MB