articulo

8
MATEMÁTICAS CÁLCULO EFICIENTE DEL ESTIMADOR JACKINIFE PARA MÍNIMOS CUADRADOS LINEALES DE RANGO DEFICIENTE * Héctor Jairo Martínez R.**, Ana María Sanabria R.*** Resumen En este art´ ıculo, extendemos al problema de m´ ınimos cuadrados lineales de rango defi- ciente, el resultado presentado en [MaSa06], el cual reduce de m n 2 (m - 1) 2 + n(m - 1) + n 3 6 a m[3n + n 2 ] el costo del algoritmo standard para calcular el estimador jackknife para ınimos cuadrados lineales de rango completo. Palabras Claves: Estimador jackknife, M´ ınimos cuadrados lineales, Rango completo, Rango deficiente. * Trabajo presentado en las XV Jornadas en Estad´ ıstica e Inform´ atica de la ESPOL en Guayaquil, Ecuador, 2008. Los resultados previos a este trabajo se obtuvieron en el marco del proyecto de investigaci´ on alculo Eficiente del Estimador Jackknife para M´ ınimos Cuadrados Lineales, inscrito en la Vicerrector´ ıa de Investigaci´ on de la Universidad del Valle. ** Profesor Titular, AA 25360, Departamento de Matem´ aticas, Universidad del Valle. hec- [email protected] *** Profesora Titular, AA 25360, Departamento de Matem´ aticas, Universidad del Valle. [email protected] 1 Abstract In this article, we extend to the linear least squares problem of rank deficient, the result given in [MaSa06], which reduces from m n 2 (m - 1) 2 + n(m - 1) + n 3 6 to m[3n + n 2 ] the standard algorithm cost of computing the jackknife estimator for the linear least squares problem of full range. Key words: Jackknife estimator, Linear least squares problem, full range, rank defi- cient. Martínez, H.J., A. M. Sanabria R.: Cálculo eficiente del estimador Jackinife para mínimos cuadrados lineales de ran- go deficiente. Rev. Acad. Colomb. Cienc. 36 (141): 587-594, 2012. ISSN 0370-3908.

Upload: jorge-calderon

Post on 29-Sep-2015

1 views

Category:

Documents


0 download

DESCRIPTION

ciencia

TRANSCRIPT

  • MATEMTICAS

    CLCULO EFICIENTE DEL ESTIMADOR JACKINIFEPARA MNIMOS CUADRADOS LINEALES

    DE RANGO DEFICIENTE*

    Hctor Jairo Martnez R.**, Ana Mara Sanabria R.***

    Calculo Eficiente del Estimador Jackknife para MnimosCuadrados Lineales de Rango Deficiente*

    Efficient Calculation of the Jackknife Estimator for LinearLeast Squares rank deficient

    Hector Jairo Martnez R.** Ana Mara Sanabria R.***

    Resumen

    En este artculo, extendemos al problema de mnimos cuadrados lineales de ran-go deficiente, el resultado presentado en [Martnez-Sanabria, 2006], el cual reduce de

    m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]a m[3n + n2] el costo del algoritmo standard para cal-

    cular el estimador jackknife para mnimos cuadrados lineales de rango completo.Palabras Claves: Estimador jackknife, Mnimos cuadrados lineales, Rango completo,

    Rango deficiente.

    Abstract

    In this article, we extend to the linear least squares problem of rank deficient, the result

    given in [Martnez-Sanabria, 2006], which reduces from m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]to m[3n + n2] the standard algorithm cost of computing the jackknife estimator for thelinear least squares problem of full range.

    Key words: Jackknife estimator, Linear least squares problem, full range, rank defi-cient.

    *Trabajo presentado en las XV Jornadas en Estadstica e Informatica de la ESPOL en Guayaquil, Ecuador,2008. Los resultados previos a este trabajo se obtuvieron en el marco del proyecto de investigacion CalculoEficiente del Estimador Jackknife para Mnimos Cuadrados Lineales, inscrito en la Vicerrectora de Investigacionde la Universidad del Valle.

    **Profesor Titular, AA 25360, Departamento de Matematicas, Universidad del Valle. [email protected]***Profesora Titular, AA 25360, Departamento de Matematicas, Universidad del Valle.

    [email protected]

    1

    Calculo Eficiente del Estimador Jackknife para MnimosCuadrados Lineales de Rango Deficiente*

    Efficient Calculation of the Jackknife Estimator for LinearLeast Squares rank deficient

    Hector Jairo Martnez R.** Ana Mara Sanabria R.***

    Resumen

    En este artculo, extendemos al problema de mnimos cuadrados lineales de rango defi-

    ciente, el resultado presentado en [MaSa06], el cual reduce dem

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]a m[3n + n2] el costo del algoritmo standard para calcular el estimador jackknife paramnimos cuadrados lineales de rango completo.

    Palabras Claves: Estimador jackknife, Mnimos cuadrados lineales, Rango completo,Rango deficiente.

    Abstract

    In this article, we extend to the linear least squares problem of rank deficient, the result

    given in [MaSa06], which reduces from m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]to m[3n+n2] the

    standard algorithm cost of computing the jackknife estimator for the linear least squaresproblem of full range.

    Key words: Jackknife estimator, Linear least squares problem, full range, rank defi-cient.

    *Trabajo presentado en las XV Jornadas en Estadstica e Informatica de la ESPOL en Guayaquil, Ecuador,2008. Los resultados previos a este trabajo se obtuvieron en el marco del proyecto de investigacion CalculoEficiente del Estimador Jackknife para Mnimos Cuadrados Lineales, inscrito en la Vicerrectora de Investigacionde la Universidad del Valle.

    **Profesor Titular, AA 25360, Departamento de Matematicas, Universidad del Valle. [email protected]***Profesora Titular, AA 25360, Departamento de Matematicas, Universidad del Valle.

    [email protected]

    1

    Calculo Eficiente del Estimador Jackknife para MnimosCuadrados Lineales de Rango Deficiente*

    Efficient Calculation of the Jackknife Estimator for LinearLeast Squares rank deficient

    Hector Jairo Martnez R.** Ana Mara Sanabria R.***

    Resumen

    En este artculo, extendemos al problema de mnimos cuadrados lineales de rango defi-

    ciente, el resultado presentado en [MaSa06], el cual reduce dem

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]a m[3n + n2] el costo del algoritmo standard para calcular el estimador jackknife paramnimos cuadrados lineales de rango completo.

    Palabras Claves: Estimador jackknife, Mnimos cuadrados lineales, Rango completo,Rango deficiente.

    Abstract

    In this article, we extend to the linear least squares problem of rank deficient, the result

    given in [MaSa06], which reduces from m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]to m[3n+n2] the

    standard algorithm cost of computing the jackknife estimator for the linear least squaresproblem of full range.

    Key words: Jackknife estimator, Linear least squares problem, full range, rank defi-cient.

    *Trabajo presentado en las XV Jornadas en Estadstica e Informatica de la ESPOL en Guayaquil, Ecuador,2008. Los resultados previos a este trabajo se obtuvieron en el marco del proyecto de investigacion CalculoEficiente del Estimador Jackknife para Mnimos Cuadrados Lineales, inscrito en la Vicerrectora de Investigacionde la Universidad del Valle.

    **Profesor Titular, AA 25360, Departamento de Matematicas, Universidad del Valle. [email protected]***Profesora Titular, AA 25360, Departamento de Matematicas, Universidad del Valle.

    [email protected]

    1

    Calculo Eficiente del Estimador Jackknife para MnimosCuadrados Lineales de Rango Deficiente*

    Efficient Calculation of the Jackknife Estimator for LinearLeast Squares rank deficient

    Hector Jairo Martnez R.** Ana Mara Sanabria R.***

    Resumen

    En este artculo, extendemos al problema de mnimos cuadrados lineales de rango defi-

    ciente, el resultado presentado en [MaSa06], el cual reduce dem

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]a m[3n + n2] el costo del algoritmo standard para calcular el estimador jackknife paramnimos cuadrados lineales de rango completo.

    Palabras Claves: Estimador jackknife, Mnimos cuadrados lineales, Rango completo,Rango deficiente.

    Abstract

    In this article, we extend to the linear least squares problem of rank deficient, the result

    given in [MaSa06], which reduces from m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]to m[3n+n2] the

    standard algorithm cost of computing the jackknife estimator for the linear least squaresproblem of full range.

    Key words: Jackknife estimator, Linear least squares problem, full range, rank defi-cient.

    *Trabajo presentado en las XV Jornadas en Estadstica e Informatica de la ESPOL en Guayaquil, Ecuador,2008. Los resultados previos a este trabajo se obtuvieron en el marco del proyecto de investigacion CalculoEficiente del Estimador Jackknife para Mnimos Cuadrados Lineales, inscrito en la Vicerrectora de Investigacionde la Universidad del Valle.

    **Profesor Titular, AA 25360, Departamento de Matematicas, Universidad del Valle. [email protected]***Profesora Titular, AA 25360, Departamento de Matematicas, Universidad del Valle.

    [email protected]

    1

    Martnez, H.J., A. M. Sanabria R.: Clculo eficiente del estimador Jackinife para mnimos cuadrados lineales de ran-go deficiente. Rev. Acad. Colomb. Cienc. 36 (141): 587-594, 2012. ISSN 0370-3908.

  • 588 rev. acad. colomb. cienc.: volumen xxxvi, nmero 141 - diciembre 2012

    1. Introduccion.

    Los estimadores basados en tecnicas de re-muestreo como el jackknife, por sus propieda-des estadsticas [Ef94], [Ko.e88], [ShTu96], soncada vez mas usados, tanto en general, comoen particular, en el problema de mnimos cua-drados lineales [WeWe83], para reducir el sesgode las estimaciones [Mi74], y estimar varianzas[Wo85] e intervalos de confianza [Kl.e87], prin-cipalmente. Ademas, en las dos ultimas deca-das, este tipo de metodos han ganado impor-tancia debido a las facilidades computaciona-les de los nuevos tiempos. Pero, como para-lelamente ha aumentado la dimension de losproblemas a resolver, las facilidades compu-tacionales no eximen de la necesidad de bus-car algoritmos mas eficientes para los calculos.En [MaSa06], usando convenientemente pro-piedades basicas del algebra lineal, se proponeun algoritmo mucho mas eficiente que el al-goritmo standard para el calculo de Estima-dor Jackknife para Mnimos Cuadrados Linea-les (EJMCL), que funciona cuando el problemade estimacion inicial es de rango completo.

    En este artculo, proponemos una modificacional algoritmo propuesto en [MaSa06], de tal ma-nera que conserve la eficiencia sin requerir con-dicion alguna sobre el problema inicial ni sobrelos subproblemas involucrados en la estimacionjackknife.

    Para lograr este proposito, inicialmente, recor-damos la definicion del estimador jackknife pa-ra el problema de mnimos cuadrados linealesde rango completo, luego presentamos el algo-ritmo standard para el calculo del EJMCL y losaportes, en este sentido, hechos por Martnezy Sanabria [MaSa00] y [MaSa06]. Posterior-mente, sin usar el supuesto de rango completode la matriz inicial del Problema de MnimosCuadrados Lineales (PMCL), presentamos unanueva caracterizacion de la o las soluciones delos subproblemas de mnimos cuadrados (no

    necesariamente de rango completo), requeridaspara el calculo del EJMCL. Finalmente, conbase en este resultado, proponemos la modi-ficacion al algoritmo planteado anteriormente,la cual es el objetivo central de este artculo.

    2. Estimador Jackknife pa-

    ra Mnimos Cuadrados Linea-

    les(EJMCL).

    Como se planteo en [MaSa00] y [MaSa06], da-do un parametro y T = tm(Y1, , Ym) unestimador de este parametro, se puede cons-truir otro estimador utilizando la tecnica dejackknife, la cual consiste en corregir el esti-mador inicial con base en el promedio de los mestimadores que se obtienen al aplicar el pro-cedimiento inicial de estimacion a cada una delas submuestras que resultan al eliminar unaobservacion de la muestra inicial.

    Formalmente, dada Y1, Y2, , Ym, una mues-tra aleatoria de una poblacion caracterizadapor un parametro y T = tm(Y1, , Ym)un estimador de , se calculan los estimado-res Ti = tm1(Y1, , Yi1, Yi+1, , Ym) parai = i, ,m y luego se calcula el estimador

    TJ =1

    m

    mi=1

    (mT (m 1)Ti)

    = mT (m 1)mi=1

    Tim

    (1)

    = T + (m 1)(T

    Tim

    ,

    )

    llamado estimador jackknife [BeYe91], [Ef94],[Mi74], [ShTu96], [Ko.e88].

    En particular, dado el conjunto de observacio-nes (aTi , i), para i = 1, ,m, donde ai Rn,m n y i R, el problema de estimar x talque i = a

    Ti x, por el metodo de los mnimos

    cuadrados, se reduce a encontrar x tal que

    ||Ax y||2 = mnxRn

    ||Ax y||2 ,

    2

    1. Introduccion.

    Los estimadores basados en tecnicas de re-muestreo como el jackknife, por sus propieda-des estadsticas [Ef94], [Ko.e88], [ShTu96], soncada vez mas usados, tanto en general, comoen particular, en el problema de mnimos cua-drados lineales [WeWe83], para reducir el sesgode las estimaciones [Mi74], y estimar varianzas[Wo85] e intervalos de confianza [Kl.e87], prin-cipalmente. Ademas, en las dos ultimas deca-das, este tipo de metodos han ganado impor-tancia debido a las facilidades computaciona-les de los nuevos tiempos. Pero, como para-lelamente ha aumentado la dimension de losproblemas a resolver, las facilidades compu-tacionales no eximen de la necesidad de bus-car algoritmos mas eficientes para los calculos.En [MaSa06], usando convenientemente pro-piedades basicas del algebra lineal, se proponeun algoritmo mucho mas eficiente que el al-goritmo standard para el calculo de Estima-dor Jackknife para Mnimos Cuadrados Linea-les (EJMCL), que funciona cuando el problemade estimacion inicial es de rango completo.

    En este artculo, proponemos una modificacional algoritmo propuesto en [MaSa06], de tal ma-nera que conserve la eficiencia sin requerir con-dicion alguna sobre el problema inicial ni sobrelos subproblemas involucrados en la estimacionjackknife.

    Para lograr este proposito, inicialmente, recor-damos la definicion del estimador jackknife pa-ra el problema de mnimos cuadrados linealesde rango completo, luego presentamos el algo-ritmo standard para el calculo del EJMCL y losaportes, en este sentido, hechos por Martnezy Sanabria [MaSa00] y [MaSa06]. Posterior-mente, sin usar el supuesto de rango completode la matriz inicial del Problema de MnimosCuadrados Lineales (PMCL), presentamos unanueva caracterizacion de la o las soluciones delos subproblemas de mnimos cuadrados (no

    necesariamente de rango completo), requeridaspara el calculo del EJMCL. Finalmente, conbase en este resultado, proponemos la modi-ficacion al algoritmo planteado anteriormente,la cual es el objetivo central de este artculo.

    2. Estimador Jackknife pa-

    ra Mnimos Cuadrados Linea-

    les(EJMCL).

    Como se planteo en [MaSa00] y [MaSa06], da-do un parametro y T = tm(Y1, , Ym) unestimador de este parametro, se puede cons-truir otro estimador utilizando la tecnica dejackknife, la cual consiste en corregir el esti-mador inicial con base en el promedio de los mestimadores que se obtienen al aplicar el pro-cedimiento inicial de estimacion a cada una delas submuestras que resultan al eliminar unaobservacion de la muestra inicial.

    Formalmente, dada Y1, Y2, , Ym, una mues-tra aleatoria de una poblacion caracterizadapor un parametro y T = tm(Y1, , Ym)un estimador de , se calculan los estimado-res Ti = tm1(Y1, , Yi1, Yi+1, , Ym) parai = i, ,m y luego se calcula el estimador

    TJ =1

    m

    mi=1

    (mT (m 1)Ti)

    = mT (m 1)mi=1

    Tim

    (1)

    = T + (m 1)(T

    Tim

    ,

    )

    llamado estimador jackknife [BeYe91], [Ef94],[Mi74], [ShTu96], [Ko.e88].

    En particular, dado el conjunto de observacio-nes (aTi , i), para i = 1, ,m, donde ai Rn,m n y i R, el problema de estimar x talque i = a

    Ti x, por el metodo de los mnimos

    cuadrados, se reduce a encontrar x tal que

    ||Ax y||2 = mnxRn

    ||Ax y||2 ,

    2

  • martnez r., h.j., a.m. sanabria r. - clculo eficiente del estimador jackinife para mnimos cuadrados lineales de rango deficiente 589

    donde A = [a1, , am]T y y = (1, , m)T ,lo cual se conoce como el Problema de MnimosCuadrados Lineales (PMCL).

    As, el estimador jackknife para mnimos cua-drados es

    xJ = mx (m 1)mi=1

    xim

    ,

    donde xi es tal que

    ||Aixi yi||2 = mnxRn

    ||Aix yi||2 ,

    con Ai = [a1, , ai1, ai+1, , am]T y y =(1, , i1, i+1, , m)T .

    3. Algoritmos para calcular el

    EJMCL.

    Por lo descrito en la seccion anterior, el algo-ritmo para calcular el EJMCL se divide en trespasos:

    0. Dados A Rmn, y Rm,1. Resolver mn

    xRn||Ax y||2 , Salida: x.

    2. Para i = 1, ,mResolver mn

    xRn||Aixyi||22 , Salida: xi.

    3. Calcular xJ = mx (m 1)mi=1

    xim

    .

    Salida: xJ .

    Si las matrices A y Ai, para i = 1, ,m, sontodas de rango completo, los problemas de losPasos 1 y 2 se reducen a encontrar las solucio-nes unicas de las ecuaciones

    ATAx = ATy y ATi Aix = ATi yi,

    para i = 1, ,m. En otras palabras, dichospasos se reducen a calcular

    x = (ATA)1ATy y xi = (ATi Ai)1ATi yi,

    para i = 1, ,m.Para este caso, en [MaSa00], los autores pro-ponen un algoritmo que reduce el costo de loscalculos de xi, una vez x esta calculado.

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.- Calcular i = z

    Ti d ii.

    - Calcular xi = x+(ii i

    )zi.

    Salida: xi.

    Como soporte teorico de este algoritmo, conbase en ciertas relaciones entre las matri-ces y los vectores involucrados [MaSa00] yla propiedad de matrices invertibles dada porShermann-Morrison-Woodbury [DeSc83],Martnez y Sanabria obtuvieron el siguienteresultado.

    Teorema 1 [MaSa00] . Dadas las matri-ces A = [a1, , am]T de orden m n yAi = [a1, , ai1, ai+1, , am]T de orden(m 1) n, ambas de rango completo, y losvectores y = (1, , m)T Rm y yi =(1, , i1, i+1, , m)T R(m1), la so-lucion de ATi Aix = A

    Ti yi esta dada por

    xi = x+

    (zTi dii

    i)zi ,

    donde x es la solucion de ATAx = ATy, zi esla solucion de ATAz = ai, i = 1 aTi zi ydi = A

    Ti yi.

    Mas tarde, para fortalecer el resultado an-terior, en [MaSa06], los autores encontraronuna caracterizacion del conjunto solucion deATi Aix = A

    Ti yi, basada en la solucion de

    ATAx = ATy, independientemente de si la ma-triz Ai es o no de rango completo.

    Teorema 2. [MaSa06] Dada la matriz A =[a1, , am]T Rmn de rango completo y

    3

    donde A = [a1, , am]T y y = (1, , m)T ,lo cual se conoce como el Problema de MnimosCuadrados Lineales (PMCL).

    As, el estimador jackknife para mnimos cua-drados es

    xJ = mx (m 1)mi=1

    xim

    ,

    donde xi es tal que

    ||Aixi yi||2 = mnxRn

    ||Aix yi||2 ,

    con Ai = [a1, , ai1, ai+1, , am]T y y =(1, , i1, i+1, , m)T .

    3. Algoritmos para calcular el

    EJMCL.

    Por lo descrito en la seccion anterior, el algo-ritmo para calcular el EJMCL se divide en trespasos:

    0. Dados A Rmn, y Rm,1. Resolver mn

    xRn||Ax y||2 , Salida: x.

    2. Para i = 1, ,mResolver mn

    xRn||Aixyi||22 , Salida: xi.

    3. Calcular xJ = mx (m 1)mi=1

    xim

    .

    Salida: xJ .

    Si las matrices A y Ai, para i = 1, ,m, sontodas de rango completo, los problemas de losPasos 1 y 2 se reducen a encontrar las solucio-nes unicas de las ecuaciones

    ATAx = ATy y ATi Aix = ATi yi,

    para i = 1, ,m. En otras palabras, dichospasos se reducen a calcular

    x = (ATA)1ATy y xi = (ATi Ai)1ATi yi,

    para i = 1, ,m.Para este caso, en [MaSa00], los autores pro-ponen un algoritmo que reduce el costo de loscalculos de xi, una vez x esta calculado.

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.- Calcular i = z

    Ti d ii.

    - Calcular xi = x+(ii i

    )zi.

    Salida: xi.

    Como soporte teorico de este algoritmo, conbase en ciertas relaciones entre las matri-ces y los vectores involucrados [MaSa00] yla propiedad de matrices invertibles dada porShermann-Morrison-Woodbury [DeSc83],Martnez y Sanabria obtuvieron el siguienteresultado.

    Teorema 1 [MaSa00] . Dadas las matri-ces A = [a1, , am]T de orden m n yAi = [a1, , ai1, ai+1, , am]T de orden(m 1) n, ambas de rango completo, y losvectores y = (1, , m)T Rm y yi =(1, , i1, i+1, , m)T R(m1), la so-lucion de ATi Aix = A

    Ti yi esta dada por

    xi = x+

    (zTi dii

    i)zi ,

    donde x es la solucion de ATAx = ATy, zi esla solucion de ATAz = ai, i = 1 aTi zi ydi = A

    Ti yi.

    Mas tarde, para fortalecer el resultado an-terior, en [MaSa06], los autores encontraronuna caracterizacion del conjunto solucion deATi Aix = A

    Ti yi, basada en la solucion de

    ATAx = ATy, independientemente de si la ma-triz Ai es o no de rango completo.

    Teorema 2. [MaSa06] Dada la matriz A =[a1, , am]T Rmn de rango completo y

    3

  • 590 rev. acad. colomb. cienc.: volumen xxxvi, nmero 141 - diciembre 2012

    la solucion x de ATAx = ATy, donde y =(1, , m)T Rm, si i = 1 aTi zi = 0y xi es una solucion de A

    Ti Aix = di, entonces

    xi = x+ zi para algun R y zi la solucionde ATAz = ai. (Ademas, se demuestra que si

    = 0, = zTi dii

    i)Este resultado, les permitio aMartnez y Sa-nabria implementar una ligera modificaciondel segundo paso del algoritmo propuesto en[MaSa00], para seguir siendo eficientes en elcalculo del estimador jackknife para mnimoscuadrados lineales con la condicion unica queA sea de rango completo [MaSa06]:

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.Si i = 0,{ Solucion unica }i = z

    Ti d ii.

    i =ii i.

    Si no,{ Escoja una de las infinitassoluciones }

    i = 0.end sixi = x+ izi.

    end paraSalida: xi.

    Como este ultimo algoritmo solo esta garanti-zado si la matriz A es de rango completo, nosvimos obligados a continuar con la busqueda deresultados que nos permitieran una caracteri-zacion de la o las soluciones de ATi Aix = A

    Ti yi,

    basada en una solucion de ATAx = ATy, inde-pendientemente de si las matrices A y Ai sono no de rango completo. A continuacion, pre-sentamos los resultados de esta busqueda.

    4. Caracterizacion del conjunto

    solucion de ATi Aix = ATi yi.

    Lema. Dada la matriz A = [a1, , am]T deorden mn y una solucion x de ATAx = ATy,donde y = (1, , m)T Rm, si i =1 aTi zi = 0, entonces aTi x i = 0, dondezi es una solucion de A

    TAz = ai.

    Demostracion: Si S = ATA, di = ATi yi,

    Ai = [a1, , ai1, ai+1, , am]T de orden(m 1) n, Si = ATi Ai, Sixi = di yyi = (1, , i1, i+1, , m)T R(m1),tenemos que, como d = ATy = di + iai,S = Si + aia

    Ti (ver Lemas 1 y 2 en [MaSa00])

    y Sx = d = di + iai, entonces zTi Sx =

    zTi di+izTi ai. Ademas, como Szi = ai, se tiene

    que aTi x = zTi di + iz

    Ti ai. Por lo tanto,

    aTi x i = zTi di + i(zTi ai 1)= zTi Sixi + i(z

    Ti ai 1)

    = zTi (S aiaTi )xi + i(zTi ai 1)= zTi Sxi zTi aiaTi xi + i(zTi ai 1)= aTi xi zTi aiaTi xi + i(zTi ai 1)= (1 zTi ai)aTi xi + i(zTi ai 1)= (1 zTi ai)(aTi xi i) ,

    de donde resulta obvio que si i = 1zTi ai = 0,entonces aTi x i = 0.

    El Teorema 1 establece que si i = 1aTi zi = 0,entonces Ai es de rango completo y

    xi = x+

    (zTi dii

    i)zi .

    Al igual que en [MaSa06], veamos que, encaso que i = 0, utilizando el Lema ante-rior, podemos determinar algunas solucionesde ATi Aix = A

    Ti yi.

    Teorema 3. Bajo las mismas condiciones delLema anterior, si i = 1 aTi zi = 0, se tieneque xi = x+zi es solucion de A

    Ti Aix = A

    Ti yi,

    para todo R.

    4

    la solucion x de ATAx = ATy, donde y =(1, , m)T Rm, si i = 1 aTi zi = 0y xi es una solucion de A

    Ti Aix = di, entonces

    xi = x+ zi para algun R y zi la solucionde ATAz = ai. (Ademas, se demuestra que si

    = 0, = zTi dii

    i)Este resultado, les permitio aMartnez y Sa-nabria implementar una ligera modificaciondel segundo paso del algoritmo propuesto en[MaSa00], para seguir siendo eficientes en elcalculo del estimador jackknife para mnimoscuadrados lineales con la condicion unica queA sea de rango completo [MaSa06]:

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.Si i = 0,{ Solucion unica }i = z

    Ti d ii.

    i =ii i.

    Si no,{ Escoja una de las infinitassoluciones }

    i = 0.end sixi = x+ izi.

    end paraSalida: xi.

    Como este ultimo algoritmo solo esta garanti-zado si la matriz A es de rango completo, nosvimos obligados a continuar con la busqueda deresultados que nos permitieran una caracteri-zacion de la o las soluciones de ATi Aix = A

    Ti yi,

    basada en una solucion de ATAx = ATy, inde-pendientemente de si las matrices A y Ai sono no de rango completo. A continuacion, pre-sentamos los resultados de esta busqueda.

    4. Caracterizacion del conjunto

    solucion de ATi Aix = ATi yi.

    Lema. Dada la matriz A = [a1, , am]T deorden mn y una solucion x de ATAx = ATy,donde y = (1, , m)T Rm, si i =1 aTi zi = 0, entonces aTi x i = 0, dondezi es una solucion de A

    TAz = ai.

    Demostracion: Si S = ATA, di = ATi yi,

    Ai = [a1, , ai1, ai+1, , am]T de orden(m 1) n, Si = ATi Ai, Sixi = di yyi = (1, , i1, i+1, , m)T R(m1),tenemos que, como d = ATy = di + iai,S = Si + aia

    Ti (ver Lemas 1 y 2 en [MaSa00])

    y Sx = d = di + iai, entonces zTi Sx =

    zTi di+izTi ai. Ademas, como Szi = ai, se tiene

    que aTi x = zTi di + iz

    Ti ai. Por lo tanto,

    aTi x i = zTi di + i(zTi ai 1)= zTi Sixi + i(z

    Ti ai 1)

    = zTi (S aiaTi )xi + i(zTi ai 1)= zTi Sxi zTi aiaTi xi + i(zTi ai 1)= aTi xi zTi aiaTi xi + i(zTi ai 1)= (1 zTi ai)aTi xi + i(zTi ai 1)= (1 zTi ai)(aTi xi i) ,

    de donde resulta obvio que si i = 1zTi ai = 0,entonces aTi x i = 0.

    El Teorema 1 establece que si i = 1aTi zi = 0,entonces Ai es de rango completo y

    xi = x+

    (zTi dii

    i)zi .

    Al igual que en [MaSa06], veamos que, encaso que i = 0, utilizando el Lema ante-rior, podemos determinar algunas solucionesde ATi Aix = A

    Ti yi.

    Teorema 3. Bajo las mismas condiciones delLema anterior, si i = 1 aTi zi = 0, se tieneque xi = x+zi es solucion de A

    Ti Aix = A

    Ti yi,

    para todo R.

    4

  • martnez r., h.j., a.m. sanabria r. - clculo eficiente del estimador jackinife para mnimos cuadrados lineales de rango deficiente 591

    Demostracion: Usando la misma notacionque en la demostracion del Lema anterior, sea R,

    Si(x+ zi) = (S aiaTi )(x+ zi)= Sx+ Szi aiaTi x aiaTi zi= d+ ai aiaTi x aiaTi zi= d+ ai(1 aTi zi) aiaTi x .

    Usando la hipotesis i = 0, por el Lema ante-rior, aTi x = i y por lo tanto

    Si(x+ zi) = d aii = di .

    Para completar la caracterizacion de las solu-ciones de ATi Aix = di, obtuvimos el siguienteresultado.

    Teorema 4. Bajo los supuestos del Lema an-terior, si xi es una solucion de A

    Ti Aix = di,

    entonces xi = x + izi para algun i R yzi una solucion de A

    TAx = ai. Ademas, sii = 1 aTi zi = 0, entonces

    i =aTi x i

    i. (2)

    Demostracion: Usando la misma notacionque en la demostracion del Lema anterior, si

    Sixi = di ,

    entonces,

    Sxi aiaTi xi = (d iai) .

    Por tanto,

    Sxi = d iai + aiaTi xi= Sx iai + aiaTi xi ,

    yS(xi x) = (aTi xi i)ai .

    As quexi x = izi ,

    para algun i R y un zi tal que Szi = ai.Como xi = x + izi es solucion de Sxi = di,entonces

    (S aiaTi )(x+ izi) = d iai .Y puesto que Sx = d, entonces

    iSzi aiaTi x iaiaTi zi = iai .Ahora, como Szi = ai, se tiene que

    i(1 aTi zi)ai = (aTi x i)ai.

    De aqu que i =aTi x i1 aTi zi

    , si i = 1aTi zi =0 y, por el Lema anterior, i sera cualquiernumero real, si i = 0 (ver Teorema 3).

    Es de anotar que, si el problema original es derango completo; es decir, S es invertible, este icoincide con el escalar encontrado en [MaSa00].En este caso, x = S1d = S1di + iS1ai.Por lo tanto, aTi x = a

    Ti S

    1di + iaTi S1ai =

    zTi di+xiaTi zi. Reemplazando este resultado en

    (2), tenemos que

    i =zTi di + ia

    Ti zi i

    i

    =zTi di i(1 aTi zi)

    i

    =zTi dii

    i .

    que es el escalar obtenido en el Teorema 1, de-mostrado en [MaSa00].

    5. Algoritmo modificado y ge-

    neralizado para el calculo del

    EJMCL.

    Los resultados anteriores nos permiten imple-mentar una ligera modificacion del algoritmo

    5

    Demostracion: Usando la misma notacionque en la demostracion del Lema anterior, sea R,

    Si(x+ zi) = (S aiaTi )(x+ zi)= Sx+ Szi aiaTi x aiaTi zi= d+ ai aiaTi x aiaTi zi= d+ ai(1 aTi zi) aiaTi x .

    Usando la hipotesis i = 0, por el Lema ante-rior, aTi x = i y por lo tanto

    Si(x+ zi) = d aii = di .

    Para completar la caracterizacion de las solu-ciones de ATi Aix = di, obtuvimos el siguienteresultado.

    Teorema 4. Bajo los supuestos del Lema an-terior, si xi es una solucion de A

    Ti Aix = di,

    entonces xi = x + izi para algun i R yzi una solucion de A

    TAx = ai. Ademas, sii = 1 aTi zi = 0, entonces

    i =aTi x i

    i. (2)

    Demostracion: Usando la misma notacionque en la demostracion del Lema anterior, si

    Sixi = di ,

    entonces,

    Sxi aiaTi xi = (d iai) .

    Por tanto,

    Sxi = d iai + aiaTi xi= Sx iai + aiaTi xi ,

    yS(xi x) = (aTi xi i)ai .

    As quexi x = izi ,

    para algun i R y un zi tal que Szi = ai.Como xi = x + izi es solucion de Sxi = di,entonces

    (S aiaTi )(x+ izi) = d iai .Y puesto que Sx = d, entonces

    iSzi aiaTi x iaiaTi zi = iai .Ahora, como Szi = ai, se tiene que

    i(1 aTi zi)ai = (aTi x i)ai.

    De aqu que i =aTi x i1 aTi zi

    , si i = 1aTi zi =0 y, por el Lema anterior, i sera cualquiernumero real, si i = 0 (ver Teorema 3).

    Es de anotar que, si el problema original es derango completo; es decir, S es invertible, este icoincide con el escalar encontrado en [MaSa00].En este caso, x = S1d = S1di + iS1ai.Por lo tanto, aTi x = a

    Ti S

    1di + iaTi S1ai =

    zTi di+xiaTi zi. Reemplazando este resultado en

    (2), tenemos que

    i =zTi di + ia

    Ti zi i

    i

    =zTi di i(1 aTi zi)

    i

    =zTi dii

    i .

    que es el escalar obtenido en el Teorema 1, de-mostrado en [MaSa00].

    5. Algoritmo modificado y ge-

    neralizado para el calculo del

    EJMCL.

    Los resultados anteriores nos permiten imple-mentar una ligera modificacion del algoritmo

    5

  • 592 rev. acad. colomb. cienc.: volumen xxxvi, nmero 141 - diciembre 2012

    propuesto en [MaSa06] para seguir siendo efi-cientes en el calculo del estimador jackknife pa-ra mnimos cuadrados lineales, aun en el casoque A sea de rango deficiente. Dicho algorit-mo modificado y generalizado para calcular xiaparece a continuacion.

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.Si i = 0,{ Solucion unica }i =

    aTi x ii

    .

    Si no,{ Escoja una de las infinitassoluciones }

    i = 0.end sixi = x+ izi.

    end paraSalida: xi.

    Al comparar este algoritmo con el propuestoen la Seccion 5 de [MaSa06], podemos concluirque la diferencia aparece por la posibilidad queexiste que A sea de rango deficiente y por lotanto que el PMCL inicial tenga infinitas solu-ciones. En este caso, con base en una soluciondel problema inicial, podemos calcular una so-lucion de los subproblemas requeridos para laestimacion de jackknife, simplemente calculan-do una solucion de ATAz = ai y un escalarapropiado (ver (2)).

    Al igual que en [MaSa06], si i = 0 (subpro-blema de rango deficiente), el subproblema tie-ne infinitas soluciones, en donde sugerimos to-mar como solucion la misma que se tomo parael problema inicial (i = 0 xi = x). Enconsecuencia, como se demostro en [MaSa00],este algoritmo reduce el costo de solucion de

    los subproblemas aunque no sean de rango

    completo, de m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]am[3n+n2] el numero de flops requeridos parael calculo del estimador jackknife de mnimoscuadrados lineales (EJMCL) para un modelolineal aun si este es de rango deficiente, siendon el numero de parametros a estimar y m eltamano de la muestra.

    Es mas, si no se necesitan los EMCL de ca-da una de las submuestras, se puede obtenerel EJMCL sin calcular los EMCL, mediante laexpresion

    xJ = x m 1m

    mi=1

    izi ,

    con la ventaja adicional de saber que algunosi son cero, lo cual simplifica la sumatoria dela expresion anterior.

    6 . Conclusiones

    En este artculo, se ha caracterizado completa-mente el conjunto solucion de los subproblemasde mnimos cuadrados lineales que resultan enel calculo del estimador jackknife de mnimoscuadrados lineales de un modelo lineal, aun enel caso que este sea de rango deficiente.

    Este resultado permite modificar el algoritmopropuesto en [MaSa06] para calcular el mencio-nado estimador, sin requerir que ninguno delos problemas involucrados (inicial o subpro-blemas) sean de rango completo, manteniendola misma eficiencia de computo.

    Al igual que en [MaSa00], este resultado per-mite hacer calculos mas eficientes siempre queel algoritmo que se utilice para resolver los di-ferentes subproblemas de mnimos cuadradoslineales requeridos por el estimador jackknifesea el mismo que se utilice para resolver el pro-blema de mnimos cuadrados lineales inicial.

    6

    propuesto en [MaSa06] para seguir siendo efi-cientes en el calculo del estimador jackknife pa-ra mnimos cuadrados lineales, aun en el casoque A sea de rango deficiente. Dicho algorit-mo modificado y generalizado para calcular xiaparece a continuacion.

    Para i = 1, ,m.{Resolver ATi Aix = ATi yi.}- Resolver Szi = ai.- Calcular i = a

    Ti zi.

    - Calcular i = 1 i.Si i = 0,{ Solucion unica }i =

    aTi x ii

    .

    Si no,{ Escoja una de las infinitassoluciones }

    i = 0.end sixi = x+ izi.

    end paraSalida: xi.

    Al comparar este algoritmo con el propuestoen la Seccion 5 de [MaSa06], podemos concluirque la diferencia aparece por la posibilidad queexiste que A sea de rango deficiente y por lotanto que el PMCL inicial tenga infinitas solu-ciones. En este caso, con base en una soluciondel problema inicial, podemos calcular una so-lucion de los subproblemas requeridos para laestimacion de jackknife, simplemente calculan-do una solucion de ATAz = ai y un escalarapropiado (ver (2)).

    Al igual que en [MaSa06], si i = 0 (subpro-blema de rango deficiente), el subproblema tie-ne infinitas soluciones, en donde sugerimos to-mar como solucion la misma que se tomo parael problema inicial (i = 0 xi = x). Enconsecuencia, como se demostro en [MaSa00],este algoritmo reduce el costo de solucion de

    los subproblemas aunque no sean de rango

    completo, de m

    [n2(m 1)

    2+ n(m 1) + n

    3

    6

    ]am[3n+n2] el numero de flops requeridos parael calculo del estimador jackknife de mnimoscuadrados lineales (EJMCL) para un modelolineal aun si este es de rango deficiente, siendon el numero de parametros a estimar y m eltamano de la muestra.

    Es mas, si no se necesitan los EMCL de ca-da una de las submuestras, se puede obtenerel EJMCL sin calcular los EMCL, mediante laexpresion

    xJ = x m 1m

    mi=1

    izi ,

    con la ventaja adicional de saber que algunosi son cero, lo cual simplifica la sumatoria dela expresion anterior.

    6 . Conclusiones

    En este artculo, se ha caracterizado completa-mente el conjunto solucion de los subproblemasde mnimos cuadrados lineales que resultan enel calculo del estimador jackknife de mnimoscuadrados lineales de un modelo lineal, aun enel caso que este sea de rango deficiente.

    Este resultado permite modificar el algoritmopropuesto en [MaSa06] para calcular el mencio-nado estimador, sin requerir que ninguno delos problemas involucrados (inicial o subpro-blemas) sean de rango completo, manteniendola misma eficiencia de computo.

    Al igual que en [MaSa00], este resultado per-mite hacer calculos mas eficientes siempre queel algoritmo que se utilice para resolver los di-ferentes subproblemas de mnimos cuadradoslineales requeridos por el estimador jackknifesea el mismo que se utilice para resolver el pro-blema de mnimos cuadrados lineales inicial.

    6

  • martnez r., h.j., a.m. sanabria r. - clculo eficiente del estimador jackinife para mnimos cuadrados lineales de rango deficiente 593

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

  • 594 rev. acad. colomb. cienc.: volumen xxxvi, nmero 141 - diciembre 2012

    Queda como un reto para nosotros y nuestroslectores, desarrollar una teora similar que per-mita caracterizar las soluciones de los subpro-blemas de mnimos cuadrados para el caso ge-neralizado del estimador jackknife en el cual seelimina mas de una observacion de la muestrainicial para plantear los subproblemas (Esti-mador jackknife agrupado).

    7 . Agradecimientos

    Nuestros agradecimientos al Departamento deMatematicas de la Universidad del Valle porel apoyo logstico y economico tanto para eldesarrollo como para la divulgacion del pre-sente trabajo. Tambien, nuestro reconocimien-to y agradecimientos al evaluador anonimo dela version original de este trabajo por sus su-gerencias para mejorar la presentacion de losresultados.

    Referencias

    [BeYe91] Behar, R. y Yepes, M. (1991) So-bre algunas tecnicas de remuestreo:El metodo de jackknife. Heurstica,No 6, Pags. 49-58

    [DeSc83] Dennis, J.E. & Schnabel, R.B.(1983) Numerical methods for un-constrained optimization and nonli-near equations. Prentice Hall, NewJersey, USA.

    [Ef94] Efron, B. (1994) The Jackknife,the Bootstrap and Other ResamplingPlans CBMS-NSF Regional Confe-rence Series in Applied Mathema-tics, No. 38, Sixth Edition, SIAM,Philadelphia, PA, USA.

    [Kl.e87] Kleijuen, JPC., Karremans, P.Oortwinj, W., Van Groennen-

    daal, W. (1987) Jackknifing esti-mated weighted least squares, Com-munications in Statistics: Theoryand Methods v.16, Pags. 747-764.

    [Ko.e88] Kovar, J., Rao, J. & Wu, CFJ.(1988) Bootstrap and other methodsto measure errors in survey estima-tes, Canadian Journal of Statistics16, Pag. 26-45.

    [MaSa00] Martnez, H.J. y Sanabria A.M.(2000) Calculo eficiente del esti-mador jackknife para mnimos cua-drados lineales bajo condiciones deunicidad. Matematicas: EnsenanzaUniversitaria, Vol VIII, Nos 1 y2, Pags. 29-43.

    [MaSa06] Martnez, H.J. y Sanabria A.M.(2006) Calculo eficiente del estima-dor jackknife para mnimos cuadra-dos lineales de Rango Completo. Re-vista de la Academia Colombiana deCiencias Exactas, Fsicas y Natura-les, Vol XXX, Pag. 361-365.

    [Mi74] Miller, R.G. (1974) The Jacknife:a review. Biometrika 61, Pags. 1-15.

    [ShTu96] Shao, J. and Tu, D. (1996) TheJackknife and the Bootstrap, 2ndPrinting, Springer Series in Statis-tics, New York. USA.

    [WeWe83] Weber, N.C. & Welsh, A.H.(1983) Jackknifing the general linearmodel, Australian Journal of Statis-tics 25, No. 3, Pags. 425-436.

    [Wo85] Wolter, K.M., (1985) Introductionto variance estimation, First Edi-tion, Statistics for Social and Beha-vioral Science, Springer, New York,USA.

    7

    Recibido: 10 de agosto de 2012Aceptado para publicacin: 5 de diciembre de 2012