introducción a la inferencia estadística · 2016. 6. 2. · introducción a la inferencia...

36
Introducción a la Inferencia Estadística Dept. of Marine Science and Applied Biology Jose Jacobo Zubcoff

Upload: others

Post on 01-Feb-2021

5 views

Category:

Documents


0 download

TRANSCRIPT

  • Introducción a la Inferencia Estadística

    Dept. of Marine Science and Applied BiologyJose Jacobo Zubcoff

  • Modelos de Regresión Simple

    • Que tipo de relación existe entre 2 variables• Predicción de valores a partir de una de ellas

    • Variable Explicativa, Predictor o Independiente• Variable Dependiente

  • Estudio conjunto de dos variables

    • Datos de dos variables de una muestra.– En cada fila tenemos los datos de un individuo– Cada columna representa los valores que toma una

    variable sobre los mismos.– Las individuos no se muestran en ningún orden

    particular.

    • Las observaciones pueden ser representadas enun diagrama de dispersión

    • Nuestro objetivo será intentar reconocer a partirdel mismo si hay relación entre las variables, dequé tipo, y si es posible predecir el valor de unade ellas en función de la otra.

    ...

    163

    176

    166

    169

    171

    158

    180

    154

    162

    Alturaen cm.

    ...

    68

    84

    54

    60

    66

    62

    78

    60

    61

    Pesoen Kg.

  • 30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

    Diagramas de dispersión o nube de puntos

    Mid

    e 18

    7 cm

    .

    Mide 161 cm.

    Pesa 76 kg.

    Pesa 50 kg.

    Tenemos las alturas y los pesos de 30 individuos representados en undiagrama de dispersión.

  • 30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

    Relación entre variablesTenemos las alturas y los pesos de 30 individuos representados en undiagrama de dispersión.

    Parece q

    ue el pe

    so aume

    nta con

    la

    altura

  • 30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

    Predicción de una variable en función de la otra

    Aparentemente el peso aumenta 10Kg por cada 10 cm de altura... o sea,el peso aumenta en una unidad por cada unidad de altura.

    10 cm.

    10 kg.

  • Incorrelación

    30

    80

    130

    180

    230

    280

    330

    140 150 160 170 180 190 200

    Relación directa e inversaFuerte relación

    directa.

    30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

    Cierta relación

    inversa

    0

    10

    20

    30

    40

    50

    60

    70

    80

    140 150 160 170 180 190 200

    Para valores de X por encima de lamedia tenemos valores de Y porencima y por debajo en proporcionessimilares. Incorrelación.

    Para los valores de X mayores que lamedia le corresponden valores de Ymenores. Esto es relación inversa odecreciente.

    •Para los valores de X mayores que la mediale corresponden valores de Y mayorestambién.•Para los valores de X menores que la mediale corresponden valores de Y menorestambién. Esto se llama relación directa.

  • ¿Cuándo es bueno un modelo de regresión?• Lo adecuado del modelo depende de

    la relación entre:– la dispersión marginal de Y– La dispersión de Y condicionada a X

    • Es decir, fijando valores de X, vemoscómo se distribuye Y

    – La distribución de Y, para valoresfijados de X, se denomina distribucióncondicionada.

    – La distribución de Y,independientemente del valor de X, sedenomina distribución marginal.

    • Si la dispersión se reducenotablemente, el modelo de regresiónserá adecuado.

    150 160 170 180 190

    32

    03

    40

    36

    03

    80

    40

    04

    20

    y

    32

    03

    40

    36

    03

    80

    40

    04

    20

    32

    03

    40

    36

    03

    80

    40

    04

    20

    32

    03

    40

    36

    03

    80

    40

    04

    20

    32

    03

    40

    36

    03

    80

    40

    04

    20

    r= 0.415 r^2 = 0.172

    150 160 170 180 190

    35

    03

    60

    37

    03

    80

    39

    0

    y

    35

    03

    60

    37

    03

    80

    39

    03

    50

    36

    03

    70

    38

    03

    90

    35

    03

    60

    37

    03

    80

    39

    03

    50

    36

    03

    70

    38

    03

    90

    r= 0.984 r^2 = 0.969

  • Ejemplos de correlaciones positivas

    r=0,1

    30

    80

    130

    180

    230

    280

    330

    140 150 160 170 180 190 200

    r=0,4

    30

    40

    50

    60

    70

    80

    90

    100

    110

    120

    130

    140 150 160 170 180 190 200

    r=0,8

    30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

    r=0,99

    30

    40

    50

    60

    70

    80

    90

    100

    140 150 160 170 180 190 200

  • Ejemplos de correlaciones negativas

    r=-0,5

    0

    10

    20

    30

    40

    50

    60

    70

    80

    90

    140 150 160 170 180 190 200

    r=-0,7

    0

    10

    20

    30

    40

    50

    60

    70

    80

    140 150 160 170 180 190 200

    r=-0,95

    0

    10

    20

    30

    40

    50

    60

    70

    80

    140 150 160 170 180 190 200

    r=-0,999

    0

    10

    20

    30

    40

    50

    60

    70

    80

    140 150 160 170 180 190 200

  • Modelo de regresión lineal simple• En el modelo de regresión lineal simple, dado dos

    variables– Y (dependiente)– X (independiente, explicativa, predictora)

    • buscamos encontrar una función de X muy simple(lineal) que nos permita aproximar Y mediante– Ŷ = b0 + b1X

    • b0 (ordenada en el origen, constante)• b1 (pendiente de la recta)

    • Y e Ŷ rara vez coincidirán por muy bueno que sea elmodelo de regresión. A la cantidad– e = (Y-Ŷ) se le denomina residuo o error residual.

  • 0

    30

    60

    90

    120

    150

    180

    0 10

    20

    30

    40

    50

    60

    70

    80

    90

    100

    110

    120

    130

    140

    150

    160

    170

    180

    190

    200

    210

    220

    Regresion lineal: ejemplo de las alturas (padres e hijos):

    Ŷ = b0 + b1X• b0=85 cm• b1=0,5

    b0=85 cm

    b1=0,5

  • 0

    30

    60

    90

    120

    150

    180

    0 10

    20

    30

    40

    50

    60

    70

    80

    90

    100

    110

    120

    130

    140

    150

    160

    170

    180

    190

    200

    210

    220

    Regresion lineal

    • La relación entre las variables no es exacta =>– Cuál es la mejor recta que sirve para predecir los valores de Y

    en función de los de X– Qué error cometemos con dicha aproximación (residual).

    b0=85 cm

    b1=0,5

  • • El modelo lineal de regresión se construye utilizando la técnica deestimación mínimo cuadrática:– Buscar b0, b1 de tal manera que se minimice la cantidad

    • Σi ei2• Se comprueba que para lograr dicho resultado basta con elegir:

    • Se obtiene además otras ventajas– El error residual medio es nulo– La varianza del error residual es mínima para dicha estimación.– Traducido: En término medio no nos equivocamos. Cualquier otra

    estimación que no cometa error en término medio, si es de tipo lineal,será peor por presentar mayor variabilidad con respecto al error medio(que es cero).

    Regresión lineal

  • Interpretación de la variabilidad en Y

    YEn primer lugar olvidemos que existela variable X. Veamos cuál es lavariabilidad en el eje Y.

    La franja sombreada indica la zonadonde varían los valores de Y.

    Proyección sobre el eje Y = olvidar X

  • Interpretación del residuoYMiremos ahora los errores de predicción

    (líneas verticales). Los proyectamos sobre eleje Y.

    Se observa que los errores de predicción,residuos, están menos dispersos que lavariable Y original.

    Cuanto menos dispersos sean losresiduos,mejor será la bondad del ajuste.

  • Modelos de Regresión Simple

    • Modelo Lineal o Recta de Regresión

    XY !" +=

    Método de Mínimos Cuadrados

    XXYE !" +=)(

    2

    11

    2 ))(( XYn

    i

    i

    n

    i

    i!"# +$=%%

    ==

  • Modelos de Regresión Simple

    XbYa !=

    2

    1

    2

    1

    1

    22

    1

    )(

    ))((

    X

    XY

    n

    i

    i

    n

    i

    ii

    n

    i

    i

    n

    i

    ii

    S

    S

    XX

    YYXX

    XnX

    YXnYX

    b =

    !

    !!

    =

    """"

    #

    $

    %%%%

    &

    '

    !

    !

    =

    (

    (

    (

    (

    =

    =

    =

    =

    Fórmula para la estimación por Mínimos Cuadrados

    Varianza Residual de Y para cada valor de X

    ( )2221

    22

    ..2

    1))((

    2

    1XY

    n

    i

    iiXYSbS

    n

    nbXaY

    nS !

    !

    !=+!

    != "

    =

  • Modelos de Regresión Simple

    ( )!"#

    $%& +!

    "#$

    %&'=

    ''

    '...,

    12

    ,2

    1 .. btbInS

    S

    nX

    XY

    ((

    )

    2,2

    ..

    0 1)(!

    "#

    <##

    n

    XY

    Xt

    S

    nSb

    Intervalo de confianza para el coeficiente

    Contraste de Hipótesis

    !"#

    $

    =

    01

    00

    :

    :

    %%

    %%

    H

    H

  • Modelos de Regresión Simple

    ( )!"

    #$%

    &++!

    "#

    $%& ++'+=

    '

    '

    '

    ' ...,)1( 0)1()(1

    ..2

    ,20

    12

    20

    0bxaStbxaI

    XSn

    Xx

    nXYny ((

    2

    2

    20

    ,2

    )1(

    )(1..

    00

    )(

    )(!

    µ"

    "

    "

    <+

    "+n

    Sn

    Xx

    nXY

    t

    S

    bxa

    X

    Intervalo de predicción para un nuevo valor de Y dado X0

    Contraste de Hipótesis

    !"#

    $+

    =+

    01

    00

    :

    :

    µ%&

    µ%&

    XH

    XH

  • Modelos de Regresión Simple

    !

    2

    X

    XY

    S

    Sb =

    YX

    XY

    SS

    Sr =

    Medidas de Bondad de Ajuste

    Estiman y !Por tanto

    rS

    Sb

    X

    Y= !"

    "#

    X

    Y=

  • Regresion LinealProblema

  • Regresion LinealSe desea saber si existe relación lineal entre el peso del recién nacido y el nivel de estriol en su madre.

    7 2500 9 25009 2500 12 270014 2700 16 270016 2400 14 300016 3000 16 310017 3000 19 310021 3000 24 280015 3200 16 320017 3200 25 320027 3400 15 340015 3400 15 350016 3500 19 340018 3500 17 360018 3700 20 380022 4000 25 390024 4300

  • Regresión Simple

    XbYa !=

    2

    1

    2

    1

    1

    22

    1

    )(

    ))((

    X

    XY

    n

    i

    i

    n

    i

    ii

    n

    i

    i

    n

    i

    ii

    S

    S

    XX

    YYXX

    XnX

    YXnYX

    b =

    !

    !!

    =

    """"

    #

    $

    %%%%

    &

    '

    !

    !

    =

    (

    (

    (

    (

    =

    =

    =

    =

    Varianza Residual de Y (Error tipico de estimacion) para cada valor de X

    ( )2221

    22

    ..2

    1))((

    2

    1XY

    n

    i

    iiXYSbS

    n

    nbXaY

    nS !

    !

    !=+!

    != "

    =

    Con las expresiones de b y a calculamos los coeficientes y cte.

  • Regresion Lineal

    Covarianza / Varianza(X)

  • Regresion Lineal

  • Asociación entre variables continuas

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal

  • Regresion Lineal