Analyse des signaux

Analogie entre vecteurs et signaux

Il existe une analogie parfaite entre les vecteurs et les signaux.

Vecteur

Un vecteur contient la magnitude et la direction. Le nom du vecteur est indiqué par le type de visage en gras et leur amplitude est le type de visage clair.

Example:V est un vecteur de magnitude V. Considérons deux vecteurs V 1 et V 2 comme indiqué dans le diagramme suivant. Soit la composante de V 1 avec V 2 est donnée par C 12 V 2 . La composante d'un vecteur V 1 avec le vecteur V 2 peut être obtenue en prenant une perpendiculaire de la fin de V 1 au vecteur V 2 comme indiqué sur le diagramme:

Le vecteur V 1 peut être exprimé en termes de vecteur V 2

    V 1 = C 12 V 2 + V e

    Où Ve est le vecteur d'erreur.

Mais ce n'est pas la seule manière d'exprimer le vecteur V 1 en termes de V 2 . Les autres possibilités sont:

V 1 = C 1 V 2 + V e1

V 2 = C 2 V 2 + V e2

Le signal d'erreur est minimum pour une grande valeur de composant. Si C 12 = 0, alors deux signaux sont dits orthogonaux.

Produit scalaire de deux vecteurs

    V 1 . V 2 = V 1 .V 2 cosθ

      θ = Angle entre V1 et V2

    V 1 . V 2 = V 2 .V 1

    Les composantes de V 1 alog n V 2 = V 1 Cos θ = $ V1.V2 \ over V2 $

D'après le diagramme, les composantes de V 1 alog n V 2 = C 12 V 2

$$ V_1.V_2 \ over V_2 = C_12 \, V_2 $$

$$ \ Rightarrow C_ {12} = {V_1.V_2 \ over V_2} $$

Signal

Le concept d'orthogonalité peut être appliqué aux signaux. Considérons deux signaux f 1 (t) et f 2 (t). Semblable aux vecteurs, vous pouvez approximer f 1 (t) en termes de f 2 (t) comme

    f 1 (t) = C 12 f 2 (t) + f e (t) pour (t 1 <t <t 2 )

    $ \ Flèche droite $ f e (t) = f 1 (t) - C 12 f 2 (t)

Une manière possible de minimiser l'erreur consiste à intégrer sur l'intervalle t 1 à t 2 .

$$ {1 \ sur {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] dt $$

$$ {1 \ sur {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] dt $$

Cependant, cette étape ne réduit pas non plus l'erreur dans une mesure appréciable. Cela peut être corrigé en prenant le carré de la fonction d'erreur.

$ \ varepsilon = {1 \ sur {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t) - C_ {12} f_2] ^ 2 dt $

Où ε est la valeur quadratique moyenne du signal d'erreur. La valeur de C 12 qui minimise l'erreur, vous devez calculer $ {d \ varepsilon \ over dC_ {12}} = 0 $

$ \ Rightarrow {d \ over dC_ {12}} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] ^ 2 dt] = 0 $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [{d \ over dC_ {12}} f_ {1} ^ 2 (t) - {d \ over dC_ {12} } 2f_1 (t) C_ {12} f_2 (t) + {d \ sur dC_ {12}} f_ {2} ^ {2} (t) C_ {12} ^ 2] dt = 0 $

Les dérivés des termes qui n'ont pas de terme C12 sont zéro.

$ \ Rightarrow \ int_ {t_1} ^ {t_2} - 2f_1 (t) f_2 (t) dt + 2C_ {12} \ int_ {t_1} ^ {t_2} [f_ {2} ^ {2} (t)] dt = 0 $

Si $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t ) dt}} $ component vaut zéro, alors deux signaux sont dits orthogonaux.

Mettez C 12 = 0 pour obtenir la condition d'orthogonalité.

0 = $ {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t) dt}} $

$$ \ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt = 0 $$

Espace vectoriel orthogonal

Un ensemble complet de vecteurs orthogonaux est appelé espace vectoriel orthogonal. Considérez un espace vectoriel en trois dimensions comme indiqué ci-dessous:

Considérons un vecteur A en un point (X 1 , Y 1 , Z 1 ). Considérons trois vecteurs unitaires (V X , V Y , V Z ) dans la direction de l'axe X, Y, Z respectivement. Puisque ces vecteurs unitaires sont orthogonaux entre eux, il satisfait que

$$ V_X. V_X = V_Y. V_Y = V_Z. V_Z = 1 $$

$$ V_X. V_Y = V_Y. V_Z = V_Z. V_X = 0 $$

Vous pouvez écrire les conditions ci-dessus comme

$$ V_a. V_b = \ left \ {\ begin {array} {ll} 1 & \ quad a = b \\ 0 & \ quad a \ neq b \ end {array} \ right. $$

Le vecteur A peut être représenté en termes de ses composantes et de ses vecteurs unitaires comme

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z ................ (1) $

Tous les vecteurs dans cet espace tridimensionnel peuvent être représentés en termes de ces trois vecteurs unitaires uniquement.

Si vous considérez un espace à n dimensions, alors tout vecteur A dans cet espace peut être représenté comme

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + N_1V_N ..... (2) $

Comme la grandeur des vecteurs unitaires est l'unité pour tout vecteur A

La composante de A le long de l'axe x = AV X

La composante de A le long de l'axe Y = AV Y

La composante de A le long de l'axe Z = AV Z

De même, pour un espace à n dimensions, la composante de A le long d'un axe G

$ = A.VG ............... (3) $

Remplacez l'équation 2 dans l'équation 3.

$ \ Flèche droite CG = (X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + G_1 V_G ... + N_1V_N) V_G $

$ = X_1 V_X V_G + Y_1 V_Y V_G + Z_1 V_Z V_G + ... + G_1V_G V_G ... + N_1V_N V_G $

$ = G_1 \, \, \, \, \, \ text {puisque} V_G V_G = 1 $

$ Si V_G V_G \ neq 1 \, \, \ text {ie} V_G V_G = k $

$ AV_G = G_1V_G V_G = G_1K $

$ G_1 = {(AV_G) \ sur K} $

Espace de signal orthogonal

Considérons un ensemble de n fonctions orthogonales entre elles x 1 (t), x 2 (t) ... x n (t) sur l'intervalle t 1 à t 2 . Comme ces fonctions sont orthogonales l'une à l'autre, deux signaux quelconques x j (t), x k (t) doivent satisfaire la condition d'orthogonalité. c'est à dire

$$ \ int_ {t_1} ^ {t_2} x_j (t) x_k (t) dt = 0 \, \, \, \ text {où} \, j \ neq k $$

$$ \ text {Let} \ int_ {t_1} ^ {t_2} x_ {k} ^ {2} (t) dt = k_k $$

Soit une fonction f (t), elle peut être approximée avec cet espace de signal orthogonal en ajoutant les composantes le long de signaux mutuellement orthogonaux ie

    $ \, \, \, f (t) = C_1x_1 (t) + C_2x_2 (t) + ... + C_nx_n (t) + f_e (t) $

    $ \ quad \ quad = \ Sigma_ {r = 1} ^ {n} C_rx_r (t) $

    $ \, \, \, f (t) = f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t) $

Erreur de carré moyenne $ \ varepsilon = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$$ = {1 \ sur t_2 - t_2} \ int_ {t_1} ^ {t_2} [f [t] - \ sum_ {r = 1} ^ {n} C_rx_r (t)] ^ 2 dt $$

La composante qui minimise l'erreur quadratique moyenne peut être trouvée par

$$ {d \ varepsilon \ over dC_1} = {d \ varepsilon \ over dC_2} = ... = {d \ varepsilon \ over dC_k} = 0 $$

Considérons $ {d \ varepsilon \ over dC_k} = 0 $

$$ {d \ over dC_k} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt] = 0 $$

Tous les termes qui ne contiennent pas C k valent zéro. c'est-à-dire qu'en somme, r = k terme demeure et tous les autres termes sont nuls.

$$ \ int_ {t_1} ^ {t_2} - 2 f (t) x_k (t) dt + 2C_k \ int_ {t_1} ^ {t_2} [x_k ^ 2 (t)] dt = 0 $$

$$ \ Rightarrow C_k = {{\ int_ {t_1} ^ {t_2} f (t) x_k (t) dt} \ over {int_ {t_1} ^ {t_2} x_k ^ 2 (t) dt}} $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = C_kK_k $$

Erreur quadratique moyenne

La moyenne du carré de la fonction d'erreur f e (t) est appelée erreur quadratique moyenne. Il est noté ε (epsilon).

.

$ \ varepsilon = {1 \ sur t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2dt $

$ \, \, \, \, = {1 \ sur t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f_e ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt - 2 \ Sigma_ {r = 1} ^ {n} C_r \ int_ {t_1} ^ {t_2} x_r (t) f (t) dt $

Vous savez que $ C_ {r} ^ {2} \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt = C_r \ int_ {t_1} ^ {t_2} x_r (t) f (d) dt = C_r ^ 2 K_r $

$ \ varepsilon = {1 \ sur t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r - 2 \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt - \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \ donc \ varepsilon = {1 \ sur t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + (C_1 ^ 2 K_1 + C_2 ^ 2 K_2 + ... + C_n ^ 2 K_n)] $

L'équation ci-dessus est utilisée pour évaluer l'erreur quadratique moyenne.

Ensemble fermé et complet de fonctions orthogonales

Considérons un ensemble de n fonctions orthogonales entre elles x 1 (t), x 2 (t) ... x n (t) sur l'intervalle t 1 à t 2 . Ceci est appelé comme ensemble fermé et complet lorsqu'il n'existe aucune fonction f (t) satisfaisant la condition $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 $

Si cette fonction satisfait l'équation $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 \, \, \ text {pour} \, k = 1,2, .. $ alors f (t) est dit orthogonal à chaque fonction de l'ensemble orthogonal. Cet ensemble est incomplet sans f (t). Il devient un ensemble fermé et complet lorsque f (t) est inclus.

f (t) peut être approchée avec cet ensemble orthogonal en ajoutant les composantes le long de signaux mutuellement orthogonaux ie

$$ f (t) = C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) + f_e (t) $$

Si la série infinie $ C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) $ converge vers f (t) alors l'erreur quadratique moyenne est nulle.

Orthogonalité dans les fonctions complexes

Si f 1 (t) et f 2 (t) sont deux fonctions complexes, alors f 1 (t) peut être exprimée en termes de f 2 (t) comme

$ f_1 (t) = C_ {12} f_2 (t) \, \, \, \, \, \, \, \, $ .. avec une erreur négligeable

Où $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt} \ over {\ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt}} $

Où $ f_2 ^ * (t) $ = conjugué complexe de f 2 (t).

Si f 1 (t) et f 2 (t) sont orthogonales alors C 12 = 0

$$ {\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt \ over \ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt} = 0 $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (dt) = 0 $$

L'équation ci-dessus représente la condition d'orthogonalité dans des fonctions complexes.