next up previous contents index
Avanti: Stima spettrale Su: Densità Spettrale Indietro: Teorema di Wiener   Indice   Indice analitico

Esempi

Processo armonico.

E' definito in base ad una sua generica realizzazione


x$ \left(\vphantom{ t,\theta }\right.$t,$ \theta$ $ \left.\vphantom{ t,\theta }\right)$ = Acos$ \left(\vphantom{ 2\pi f_{0}t+\theta }\right.$2$ \pi$f0t + $ \theta$ $ \left.\vphantom{ 2\pi f_{0}t+\theta }\right)$


che, se il parametro $ \theta$ è una variabile aleatoria uniformemente distribuita tra - $ \pi$ e - $ \pi$ (ossia p$\scriptstyle \Theta$$ \left(\vphantom{ \theta }\right.$$ \theta$ $ \left.\vphantom{ \theta }\right)$ = $ {\frac{1}{2\pi }}$rect2$\scriptstyle \pi$$ \left(\vphantom{ \theta }\right.$$ \theta$ $ \left.\vphantom{ \theta }\right)$), descrive un processo ergodico.

Sappiamo che una sua realizzazione (ad esempio quella con $ \theta$ = 0) ha una densità di potenza $ \mathcal {P}$x$ \left(\vphantom{ f}\right.$f$ \left.\vphantom{ f}\right)$ = $ {\frac{A^{2}}{4}}$$ \left[\vphantom{ \delta \left( f-f_{0}\right) +\delta \left( f+f_{0}\right) }\right.$$ \delta$$ \left(\vphantom{ f-f_{0}}\right.$f - f0$ \left.\vphantom{ f-f_{0}}\right)$ + $ \delta$$ \left(\vphantom{ f+f_{0}}\right.$f + f0$ \left.\vphantom{ f+f_{0}}\right)$ $ \left.\vphantom{ \delta \left( f-f_{0}\right) +\delta \left( f+f_{0}\right) }\right]$. Possiamo quindi ottenere l'autocorrelazione

0.280000
\resizebox* {0.25\columnwidth}{!}{\includegraphics{cap7/f7.12.ps}}

senza dover svolgere l'integrale:

$\displaystyle \mathcal {R}$x$\displaystyle \left(\vphantom{ t}\right.$t$\displaystyle \left.\vphantom{ t}\right)$ = $\displaystyle \mathcal {F}$-1$\displaystyle \left\{\vphantom{ \mathcal{P}_{x}\left( f\right) }\right.$$\displaystyle \mathcal {P}$x$\displaystyle \left(\vphantom{ f}\right.$f$\displaystyle \left.\vphantom{ f}\right)$ $\displaystyle \left.\vphantom{ \mathcal{P}_{x}\left( f\right) }\right\}$ = $\displaystyle {\frac{A^{2}}{4}}$$\displaystyle \left[\vphantom{ e^{j2\pi f_{0}t}+e^{-j2\pi f_{0}t}}\right.$ej2$\scriptstyle \pi$f0t + e-j2$\scriptstyle \pi$f0t$\displaystyle \left.\vphantom{ e^{j2\pi f_{0}t}+e^{-j2\pi f_{0}t}}\right]$ = $\displaystyle {\frac{A^{2}}{2}}$cos$\displaystyle \left(\vphantom{ 2\pi f_{0}t}\right.$2$\displaystyle \pi$f0t$\displaystyle \left.\vphantom{ 2\pi f_{0}t}\right)$

Il risultato trovato conferma che l'autocorrelazione di un segnale periodico è periodica; riflettiamo dunque sulla circostanza che anche un seno, od un coseno con qualunque altra fase, avrebbe avuto la stessa $ \mathcal {R}$x$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$. Ciò è d'altra parte evidente, avendo tutti questi segnali uguali densità $ \mathcal {P}$x$ \left(\vphantom{ f}\right.$f$ \left.\vphantom{ f}\right)$.

Processo gaussiano bianco limitato in banda.

Il processo n$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ è chiamato bianco perché costante in frequenza, e descritto da una densità di potenza pari a

0.250000
 

 

\resizebox* {0.25\textwidth}{!}{\includegraphics{cap7/f7.13.ps}}

$\displaystyle \mathcal {P}$n$\displaystyle \left(\vphantom{ f}\right.$f$\displaystyle \left.\vphantom{ f}\right)$ = $\displaystyle {\frac{N_{0}}{2}}$rect2W$\displaystyle \left(\vphantom{ f}\right.$f$\displaystyle \left.\vphantom{ f}\right)$

in cui W è l'occupazione di banda a frequenze positive. In tali ipotesi otteniamo

$\displaystyle \mathcal {R}$n$\displaystyle \left(\vphantom{ t}\right.$t$\displaystyle \left.\vphantom{ t}\right)$ = $\displaystyle \mathcal {F}$-1$\displaystyle \left\{\vphantom{ \mathcal{P}_{n}\left( f\right) }\right.$$\displaystyle \mathcal {P}$n$\displaystyle \left(\vphantom{ f}\right.$f$\displaystyle \left.\vphantom{ f}\right)$ $\displaystyle \left.\vphantom{ \mathcal{P}_{n}\left( f\right) }\right\}$ = N0Wsinc$\displaystyle \left(\vphantom{ 2Wt}\right.$2Wt$\displaystyle \left.\vphantom{ 2Wt}\right)$

In particolare, campioni presi a distanza Tc = 1/2W sono incorrelati (ed essendo il processo gaussiano anche statisticamente indipendenti); questo risultato giustifica, almeno da un punto di vista teorico, una ipotesi che viene spesso fatta: quella di trovare sovrapposti ai campioni di segnale, dei campioni di rumore statisticamente indipendenti.

All'aumentare di W, $ \mathcal {R}$n$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ tende a zero più rapidamente, cosicchè il rumore si mantiene correlato per un tempo sempre minore, ovvero due campioni estratti ad una stessa distanza t hanno una correlazione sempre minore. Un risultato simile vale anche più in generale, in quanto l'autocorrelazione $ \mathcal {R}$x$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ di un qualsiasi processo (tranne nel caso periodico, riconducibile ad una combinazione di processi armonici) tende a 0 con t $ \rightarrow$ $ \infty$, ovvero da un certo t in poi la correlazione è trascurabile.

Onda PAM.

Abbiamo già descritto un generico segnale numerico come una somma di repliche di una funzione g$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$, con ampiezze an rappresentative dei valori da trasmettere:

x$\displaystyle \left(\vphantom{ t}\right.$t$\displaystyle \left.\vphantom{ t}\right)$ = $\displaystyle \sum_{n=-\infty }^{\infty }$ang$\displaystyle \left(\vphantom{ t-nT+\theta }\right.$t - nT + $\displaystyle \theta$ $\displaystyle \left.\vphantom{ t-nT+\theta }\right)$

La presenza della variabile aleatoria $ \theta$ a distribuzione uniforme tra $ \pm$$ {\frac{T}{2}}$ (per cui p$\scriptstyle \Theta$$ \left(\vphantom{ \theta }\right.$$ \theta$ $ \left.\vphantom{ \theta }\right)$ = $ {\frac{1}{T}}$rectT$ \left(\vphantom{ \theta }\right.$$ \theta$ $ \left.\vphantom{ \theta }\right)$), rende x$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ un processo ergodico.

Si mostrerà in appendice 7.9.2 che, nelle ipotesi in cui le ampiezze an siano determinazioni di variabili aleatorie indipendenti ed identicamente distribuite, a media nulla e varianza $ \sigma_{A}^{2}$, l'autocorrelazione di x$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ vale $ \mathcal {R}$x$ \left(\vphantom{ \tau }\right.$$ \tau$ $ \left.\vphantom{ \tau }\right)$ = $ \sigma_{A}^{2}$$ {\frac{\mathcal{R}_{G}\left( \tau \right) }{T}}$ in cui $ \mathcal {R}$G$ \left(\vphantom{ \tau }\right.$$ \tau$ $ \left.\vphantom{ \tau }\right)$ è l'autocorrelazione di g$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$, e dunque

$\displaystyle \mathcal {P}$x$\displaystyle \left(\vphantom{ f}\right.$f$\displaystyle \left.\vphantom{ f}\right)$ = $\displaystyle \sigma_{A}^{2}$$\displaystyle {\frac{\mathcal{E}_{G}\left( f\right) }{T}}$

Osserviamo innanzitutto che è per questa via che si sono caratterizzate le densità di potenza proprie dei codici di linea. Limitandoci a voler interpretare il risultato, notiamo che $ \mathcal {E}$G$ \left(\vphantom{ f}\right.$f$ \left.\vphantom{ f}\right)$ è la densità di energia di una singola replica di g$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$. La sua ripetizione, con periodo T, fornisce una densità di potenza media $ {\frac{\mathcal{E}_{G}\left( f\right) }{T}}$. Se ogni replica di g$ \left(\vphantom{ t}\right.$t$ \left.\vphantom{ t}\right)$ è moltiplicata per una v.a. indipendente a media nulla e varianza (potenza) $ \sigma_{A}^{2}$, la densità di potenza $ \mathcal {P}$x$ \left(\vphantom{ f}\right.$f$ \left.\vphantom{ f}\right)$ aumenta di egual misura. Un'ultima avvertenza riguarda il fatto che, se gli an non sono indipendenti, il risultato è più complesso (vedi appendice 7.9.2).



Sottosezioni
next up previous contents index
Avanti: Stima spettrale Su: Densità Spettrale Indietro: Teorema di Wiener   Indice   Indice analitico
alef@infocom.uniroma1.it
2001-06-01