tema 4: variable aleatoria n-dimensional · 2015-04-22 · •la esperanza de una función de la...
TRANSCRIPT
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL
Carlos Alberola López
Lab. Procesado de Imagen, ETSI Telecomunicación
Despacho 2D014
[email protected], [email protected],http://www.lpi.tel.uva.es/sar
Concepto de VA N-dimensional
X
Y( )YX,
iε
Extensión a composición de N experimentos
( )NXXXX ,,, 21 L=
Conceptos básicos
• Función de distribución: se define como la probabilidad de la intersección de N sucesos:
• Función de densidad
• Cálculo de una probabilidad en espacio N-dimensional
I
• Reducción del número de variables en las funciones:
• Función de distribución: evaluar en infinito las variables a eliminar
• Función de densidad: integrar en el recorrido de las variables a eliminar
• Independencia de variables: factorización de funciones de caracterización
Conceptos básicos
• N funciones de N VAs: Teorema fundamental:
• Si partimos de una situación del tipo:
• Podemos caracterizar la VA de salida mediante:
Conceptos básicos
( )( )
( )NNN
N
N
g
gg
XXXY
XXXYXXXY
,,,
,,,,,,
21
2122
2111
L
MM
L
L
=
=
=
• Respecto de funciones condicionadas:
• Recordemos la relación vista en el caso 2D:
• Y recordemos la regla de la cadena para probabilidades condicionadas
• O bien
Conceptos básicos
• Teniendo esto presente, podemos escribir:
• O bien
• Existen pues múltiples posibilidades
Conceptos básicos
( ) ( ) ( )NNN xxfxxxxfxxxf ,,,,,,,, 332121 LLL =
•Y siguiendo esta pauta es sencillo eliminar la dependencia de variables en las funciones condicionadas:
•Variables a la izquierda del condicionante: integrar con respecto a ellas.
•Variables a la derecha del condicionante: multiplicar por la función de densidad de esa variable condicionada a las demás e integrar con respecto a ella.
Conceptos básicos
•Estimación de mínimo error cuadrático medio:
•El estimador lineal se obtiene resolviendo un problema de optimización.
•El estimador no lineal es la extensión del resultado visto en el capítulo anterior, es decir, la esperanza de la variable a estimar condicionada a las observaciones:
Conceptos básicos
•Los conceptos de correlación y covarianza siguen estando presentes. Tales parámetros miden la relación cruzada entre dos variables (no entre tres o más).
•Cuando se tienen N variables hay que especificar entre qué dos variables (de las N) se están especificando tales parámetros.
•Es cómodo emplear operadores vectoriales y/o matriciales para ordenar esta información.
Esperanzas matemáticas
Vector de medias:Matriz de covarianza:
•La ortogonalidad y/o la incorrelación son propiedades cómodas para cálculos de esperanzas en las que haya N variables involucradas. Por ejemplo, sea . Su varianza es:
Esperanzas matemáticas
∑=
=N
ii
1
XZ
•Entonces:
Esperanzas matemáticas
( ){ }2ZZ η−E
•Las variables complejas son una combinación lineal de variables reales:
•Por tanto:
•Respecto de la varianza, en el caso complejo tenemos que encontrar un radio de dispersión. Por ello se define:
Variables complejas
YXZ j+=
{ } { } { } { }YXYXZ jEEjEE +=+=
Valor cuadrático medio
•La esperanza de una función de la variable compleja puede escribirse como hemos visto para el caso de una función de 2 variables aleatorias:
•Independencia: si dos variables complejas son independientes, las componentes cartesianas son independientes entre sí:
Variables complejas
222
111
YXZYXZjj
+=
+=independientes
•Al respecto de correlación y covarianza:
•El orden de las variables por tanto ahora es importante:
Variables complejas
Teoremas asintóticos•Teorema del Límite Central: la suma de variables independientes e indénticamente distribuidas (IID) tiende a tener una distribución gaussiana.
•El teorema también es cierto cuando de las VAs son independientes y tienen distribuciones similares.
con
Teoremas asintóticos•Para VAs continuas y para VAs discretas con valores equiespaciados también se observa que:
con
Teoremas asintóticos
( )0,1U~iX
1X 21 XX +
∑=
5
1iiX ∑
=
10
1iiX
Teoremas asintóticos•Teorema de Demoivre-Laplace: caso particular del Teorema del Límite Central para el caso de VAs de Bernouilli IID:
1>>N
con
( )( )⎩
⎨⎧
==
===
pPqP
i
ii 11
00XX
X
( )pN,B~X
2
Teoremas asintóticos•Ley de los Grandes Números: convergencia de la frecuencia relativa a la probabilidad axiomática. Formalmente:
•con
( )( ) pAP
NA A
r
=
=Nf
Teoremas asintóticos•Ley de los Grandes Números. Demostración:
Demoivre-Laplace
Teoremas asintóticos•Por tanto:
• La expresión
sirve para hallar el valor de N que hace falta para caer dentro de un intervalo del valor p con una probabilidad deseada.
Variables conjuntamente gaussianas•N VAs son conjuntamente gaussianas si la función de densidad de las mismas se puede escribir
1xN
Nx1NxN
1x1
•Si N VAs son conjuntamente gaussianas:
•Que cada una de ellas es marginalmente gaussiana, con los parámetros (media y varianza) según indica el vector de medias y la matriz de covarianza.
•Que cada subconjunto de k<N variables son conjuntamente gaussianas.
•Que la función de densidad de k variables condicionadas a las N-k restantes es la correspondiente a una variable conjuntamente gaussiana.
Variables conjuntamente gaussianas
•IMPORTANTE: La transformación lineal de VAs conjuntamente gaussianas es conjuntamente. gaussiana!!!!!
•Partimos de donde la matriz de transformación es de rango completo. Entonces, aplicando el teorema fundamental:
•Operando y agrupando términos matriciales en la matriz se llega fácilmente al resultado
XY A=
Variables conjuntamente gaussianas
C
•Si N VAs son conjuntamente gaussianas:
•Incorrelación implica independencia
Variables conjuntamente gaussianas
2
2
2
0000
0000
2
1
N
C
X
X
X
X
σ
σσ
L
OM
M
L
=
•Particularización de lo anterior para N=2. La función de densidad resulta ser:
•Si entonces los términos cruzados desaparecen y la función de densidad se factoriza en el producto de las marginales (luego, de nuevo, incorrelación implica independencia)
Gaussiana Bivariante
0=XYρ
b) Las variables son gaussianas correladas. Por ello la variable bidimensional es una gaussiana bivariante. Nos piden:
( ){ }xE
xyfY
Y
Para ello
( ) ( )( )xf
yxfxyfX
XYY
,= ( ) 2
22
2
22
2
22
212
122
2112
1
σσσρ
σρ
πσ
ρπσ xyxyx
ee ⎥⎥⎦
⎤
⎢⎢⎣
⎡+−
−−−
=
Introduciendo el segundo factor:
( ) ( )( )
( )⎥⎥⎦
⎤
⎢⎢⎣
⎡+−
−−
−−
−=
2
2
22
22
2
2
221
121
2121 σσ
ρσ
ρσρ
ρπσ
yxyxx
exyfY
resulta
( ) ( )( ) ⎥
⎥⎦
⎤
⎢⎢⎣
⎡+−
−−
−=
2
2
22
22
22
121
2121 σσ
ρσρ
ρ
ρπσ
yxyx
exyfY
( ) ( )( )
( )2
2
2121
2 211 σ
ρρ
πρσ
xy
exyf−
−−
−=Y
es decir
( )200 -1,xN~x ρσρ=XYSegún enunciado
Solución: a)
R
( ) ( )
∫
∫−−
⎟⎠⎞
⎜⎝⎛=
=
R
yxR
dxdyee
dxdyyxfRP
2
2
2
2
222
21
,
σσ
πσ
XY
Si ahora hacemos
( )( )θθ
sincos
ryrx
=
=
Nos queda
( ) ∫∫∫ ∫−−
=⎟⎠⎞
⎜⎝⎛= 4
1
02
2
2
041
0
2
02
22
2
2
2
21
21 drerdrdrdeRP
rrσ
ππσ
σθ
πθ
πσ
( ) 22
2
2
2
3214
1
0
241
02
2
2
01
21 σσσ
π
σθ
π−−−
−=−== ∫∫ eedrerdRPrr
entonces, despejando tenemos
( ) 7.01 2321
≥−=−
σeRP
Si ha de verificarse que:
1611.0≤σ