tema 4: variable aleatoria n-dimensional · 2015-04-22 · •la esperanza de una función de la...

Post on 17-Feb-2020

6 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Carlos Alberola López

Lab. Procesado de Imagen, ETSI Telecomunicación

Despacho 2D014

caralb@tel.uva.es, jcasasec@tel.uva.es,http://www.lpi.tel.uva.es/sar

Concepto de VA N-dimensional

X

Y( )YX,

Extensión a composición de N experimentos

( )NXXXX ,,, 21 L=

Conceptos básicos

• Función de distribución: se define como la probabilidad de la intersección de N sucesos:

• Función de densidad

• Cálculo de una probabilidad en espacio N-dimensional

I

• Reducción del número de variables en las funciones:

• Función de distribución: evaluar en infinito las variables a eliminar

• Función de densidad: integrar en el recorrido de las variables a eliminar

• Independencia de variables: factorización de funciones de caracterización

Conceptos básicos

• N funciones de N VAs: Teorema fundamental:

• Si partimos de una situación del tipo:

• Podemos caracterizar la VA de salida mediante:

Conceptos básicos

( )( )

( )NNN

N

N

g

gg

XXXY

XXXYXXXY

,,,

,,,,,,

21

2122

2111

L

MM

L

L

=

=

=

• Respecto de funciones condicionadas:

• Recordemos la relación vista en el caso 2D:

• Y recordemos la regla de la cadena para probabilidades condicionadas

• O bien

Conceptos básicos

• Teniendo esto presente, podemos escribir:

• O bien

• Existen pues múltiples posibilidades

Conceptos básicos

( ) ( ) ( )NNN xxfxxxxfxxxf ,,,,,,,, 332121 LLL =

•Y siguiendo esta pauta es sencillo eliminar la dependencia de variables en las funciones condicionadas:

•Variables a la izquierda del condicionante: integrar con respecto a ellas.

•Variables a la derecha del condicionante: multiplicar por la función de densidad de esa variable condicionada a las demás e integrar con respecto a ella.

Conceptos básicos

•Estimación de mínimo error cuadrático medio:

•El estimador lineal se obtiene resolviendo un problema de optimización.

•El estimador no lineal es la extensión del resultado visto en el capítulo anterior, es decir, la esperanza de la variable a estimar condicionada a las observaciones:

Conceptos básicos

•Los conceptos de correlación y covarianza siguen estando presentes. Tales parámetros miden la relación cruzada entre dos variables (no entre tres o más).

•Cuando se tienen N variables hay que especificar entre qué dos variables (de las N) se están especificando tales parámetros.

•Es cómodo emplear operadores vectoriales y/o matriciales para ordenar esta información.

Esperanzas matemáticas

Vector de medias:Matriz de covarianza:

•La ortogonalidad y/o la incorrelación son propiedades cómodas para cálculos de esperanzas en las que haya N variables involucradas. Por ejemplo, sea . Su varianza es:

Esperanzas matemáticas

∑=

=N

ii

1

XZ

•Entonces:

Esperanzas matemáticas

( ){ }2ZZ η−E

•Las variables complejas son una combinación lineal de variables reales:

•Por tanto:

•Respecto de la varianza, en el caso complejo tenemos que encontrar un radio de dispersión. Por ello se define:

Variables complejas

YXZ j+=

{ } { } { } { }YXYXZ jEEjEE +=+=

Valor cuadrático medio

•La esperanza de una función de la variable compleja puede escribirse como hemos visto para el caso de una función de 2 variables aleatorias:

•Independencia: si dos variables complejas son independientes, las componentes cartesianas son independientes entre sí:

Variables complejas

222

111

YXZYXZjj

+=

+=independientes

•Al respecto de correlación y covarianza:

•El orden de las variables por tanto ahora es importante:

Variables complejas

Teoremas asintóticos•Teorema del Límite Central: la suma de variables independientes e indénticamente distribuidas (IID) tiende a tener una distribución gaussiana.

•El teorema también es cierto cuando de las VAs son independientes y tienen distribuciones similares.

con

Teoremas asintóticos•Para VAs continuas y para VAs discretas con valores equiespaciados también se observa que:

con

Teoremas asintóticos

( )0,1U~iX

1X 21 XX +

∑=

5

1iiX ∑

=

10

1iiX

Teoremas asintóticos•Teorema de Demoivre-Laplace: caso particular del Teorema del Límite Central para el caso de VAs de Bernouilli IID:

1>>N

con

( )( )⎩

⎨⎧

==

===

pPqP

i

ii 11

00XX

X

( )pN,B~X

2

Teoremas asintóticos•Ley de los Grandes Números: convergencia de la frecuencia relativa a la probabilidad axiomática. Formalmente:

•con

( )( ) pAP

NA A

r

=

=Nf

Teoremas asintóticos•Ley de los Grandes Números. Demostración:

Demoivre-Laplace

Teoremas asintóticos•Por tanto:

• La expresión

sirve para hallar el valor de N que hace falta para caer dentro de un intervalo del valor p con una probabilidad deseada.

Variables conjuntamente gaussianas•N VAs son conjuntamente gaussianas si la función de densidad de las mismas se puede escribir

1xN

Nx1NxN

1x1

•Si N VAs son conjuntamente gaussianas:

•Que cada una de ellas es marginalmente gaussiana, con los parámetros (media y varianza) según indica el vector de medias y la matriz de covarianza.

•Que cada subconjunto de k<N variables son conjuntamente gaussianas.

•Que la función de densidad de k variables condicionadas a las N-k restantes es la correspondiente a una variable conjuntamente gaussiana.

Variables conjuntamente gaussianas

•IMPORTANTE: La transformación lineal de VAs conjuntamente gaussianas es conjuntamente. gaussiana!!!!!

•Partimos de donde la matriz de transformación es de rango completo. Entonces, aplicando el teorema fundamental:

•Operando y agrupando términos matriciales en la matriz se llega fácilmente al resultado

XY A=

Variables conjuntamente gaussianas

C

•Si N VAs son conjuntamente gaussianas:

•Incorrelación implica independencia

Variables conjuntamente gaussianas

2

2

2

0000

0000

2

1

N

C

X

X

X

X

σ

σσ

L

OM

M

L

=

•Particularización de lo anterior para N=2. La función de densidad resulta ser:

•Si entonces los términos cruzados desaparecen y la función de densidad se factoriza en el producto de las marginales (luego, de nuevo, incorrelación implica independencia)

Gaussiana Bivariante

0=XYρ

b) Las variables son gaussianas correladas. Por ello la variable bidimensional es una gaussiana bivariante. Nos piden:

( ){ }xE

xyfY

Y

Para ello

( ) ( )( )xf

yxfxyfX

XYY

,= ( ) 2

22

2

22

2

22

212

122

2112

1

σσσρ

σρ

πσ

ρπσ xyxyx

ee ⎥⎥⎦

⎢⎢⎣

⎡+−

−−−

=

Introduciendo el segundo factor:

( ) ( )( )

( )⎥⎥⎦

⎢⎢⎣

⎡+−

−−

−−

−=

2

2

22

22

2

2

221

121

2121 σσ

ρσ

ρσρ

ρπσ

yxyxx

exyfY

resulta

( ) ( )( ) ⎥

⎥⎦

⎢⎢⎣

⎡+−

−−

−=

2

2

22

22

22

121

2121 σσ

ρσρ

ρ

ρπσ

yxyx

exyfY

( ) ( )( )

( )2

2

2121

2 211 σ

ρρ

πρσ

xy

exyf−

−−

−=Y

es decir

( )200 -1,xN~x ρσρ=XYSegún enunciado

Solución: a)

R

( ) ( )

∫−−

⎟⎠⎞

⎜⎝⎛=

=

R

yxR

dxdyee

dxdyyxfRP

2

2

2

2

222

21

,

σσ

πσ

XY

Si ahora hacemos

( )( )θθ

sincos

ryrx

=

=

Nos queda

( ) ∫∫∫ ∫−−

=⎟⎠⎞

⎜⎝⎛= 4

1

02

2

2

041

0

2

02

22

2

2

2

21

21 drerdrdrdeRP

rrσ

ππσ

σθ

πθ

πσ

( ) 22

2

2

2

3214

1

0

241

02

2

2

01

21 σσσ

π

σθ

π−−−

−=−== ∫∫ eedrerdRPrr

entonces, despejando tenemos

( ) 7.01 2321

≥−=−

σeRP

Si ha de verificarse que:

1611.0≤σ

top related