universidad del salvador · 2013-12-19 · universidad del salvador facultad de ciencias...

19
UNIVERSIDAD DEL SALVADOR FACULTAD DE CIENCIAS ECONÓMICAS INSTITUTO DE INVESTIGACIONES ECONÓMICAS DOCUMENTO DE INVESTIGACIÓN Nº3 Diciembre de 2011 MARCELO TORCUATO DE ALVEAR 1335 C1058AAU CIUDAD DE BUENOS AIRES, ARGENTINA TEL +5411-4816-1904 http://www.ecousal.com.ar Gustavo Federico Martin Métodos alternativos para el cálculo del Valor al Riesgo

Upload: others

Post on 14-May-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

UNIVERSIDAD DEL SALVADOR

FACULTAD DE CIENCIAS ECONÓMICAS

INSTITUTO DE INVESTIGACIONES ECONÓMICAS

DOCUMENTO DE INVESTIGACIÓN Nº3

Diciembre de 2011

MARCELO TORCUATO DE ALVEAR 1335 C1058AAU CIUDAD DE BUENOS AIRES, ARGENTINA

TEL +5411-4816-1904 http://www.ecousal.com.ar

Gustavo Federico Martin

Métodos alternativos para el cálculo del Valor al Riesgo

Page 2: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

2

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

AUTORIDADES

RECTOR

Dr. Juan Alejandro Tobías

VICERRECTOR ACADÉMICO

Lic. Javier Alonso Hidalgo

VICERRECTOR ECONÓMICO

Dr. Fernando Lucero Schmidt

VICERRECTORA DE INVESTIGACIÓN Y DESARROLLO

Lic. Paula Ortiz, MBA

DECANO DE LA FACULTAD DE CIENCIAS ECONÓMICAS Mag. Sergio García

DIRECTOR DEL INSTITUTO DE INVESTIGACIONES ECONÓMICAS

Mag. Juan Miguel Massot

Page 3: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

3

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Métodos alternativos para el cálculo del Valor al Riesgo

Gustavo F. Martin*

Instituto de Investigaciones Económicas Facultad de Ciencias Económicas

Universidad del Salvador

Resumen

Este trabajo, tiene por objetivo analizar algunos métodos alternativos para el cálculo del VaR, su aplicabilidad, y el problema de las correlaciones como factor de riesgo para la estimación del mismo. Se ha observado que los métodos evaluados son inapropiados o computacionalmente costosos. Si bien son parte de un programa de investigación académica aún en desarrollo, todavía existe un largo camino por recorrer hasta llegar a un consenso sobre qué método sería el más eficiente, en términos de precisión y costo computacional, a la hora de cuantificar el riesgo de mercado.

Palabras clave: Valor al Riesgo, factores de riesgo, modelos bayesianos, cambios de régimen, GARCH

Abstract

This paper aims to assess some alternative methods for the calculation of VaR, its applicability, and the problem of correlations as a risk factor to estimate it. The analyzed methods have been observed as inappropriate or computationally expensive. Even when these are the underlying foundation of current academic research, there still remains a long way until the achievement of a consensus on which method would be most efficient, in terms of accuracy and computational cost, to quantify market risk.

Keywords: Value at Risk, risk factors, Bayesian models, regime switching, GARCH JEL: C11, C13, C14, C15, C18, G11

* Instituto de Investigaciones Económicas, Universidad del Salvador. Este trabajo expresa exclusivamente las opiniones y juicios de valor del autor, los cuales no necesariamente reflejan los de la Universidad del Salvador, la Facultad de Ciencias Económicas, el Instituto de Investigaciones Económicas, ni los de sus autoridades. Igualmente, el autor agradece los oportunos comentarios y sugerencias de Juan Miguel Massot, Héctor Rubini y Jorge Viñas. Todo error y/u omisión subyacente es de exclusiva responsabilidad del autor.

Page 4: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

4

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Índice

Página

1. Introducción y motivación 5

1.2. El VaR en la Comunicación “A” 5203 del BCRA 6

2. Metodologías para el Value at Risk – Una Revisión 6

2.1. Modelos de Estimación del VaR 7

3. Algunos Métodos Alternativos de Estimación del VaR 9

3.1. Conditional Autoregressive Value at Risk (CAViaR) 9

3.2. Muestreo Polar Adaptativo y Algoritmos Bayesianos 10

3.3. Simulación de Montecarlo mediante Importance Sampling 11

3.4. Adaptive Importance Sampling y Algoritmos Bayesianos 12

3.5. VaR Bayesiano via Product Partition Models 13

3.6. Modelo con Cambios de Régimen 14

3.7. Modelo de Componentes GARCH con Ponderaciones Variables en el Tiempo 15

3.8. Técnicas Cuasi-Bayesianas 16

3.9. Las Correlaciones como Factores de Riesgo 16

4. Consideraciones Finales 17

5. Bibliografía 19

Page 5: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

5

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

1. Introducción y motivación

Este trabajo, tiene por objetivo presentar algunos métodos alternativos para el cálculo del VaR,

analizar críticamente su aplicabilidad, y explorar el problema de las correlaciones como factor de riesgo para la estimación del mismo.

A pesar de los nuevos y sofisticados métodos que se presentarán en este trabajo, todavía se ha logrado pasar de la etapa de investigación y llegar a un acuerdo acerca de cómo estimar mejor el VaR, tanto en el plano teórico como en la aplicación práctica. La diversidad en las maneras que se construyen las carteras de activos (lineales y no lineales) y la globalización de los activos que componen las mismas, implican nuevas y variadas fuentes de riesgo que no todos los métodos para el control del riesgo de mercado son capaces de incluir con precisión.

A raíz de los fracasos durante los últimos 20 años en la gestión de riesgos asociados a pérdidas millonarias e, incluso, a la liquidación de varias compañías de alto perfil, hubo una amplia demanda de una mejor cuantificación de los riesgos de mercado que enfrentan las empresas de servicios empresariales y financieros.

Según el Banco Central de la República Argentina1, se entiende por riesgo de mercado “[…] la

posibilidad de sufrir pérdidas en posiciones dentro y fuera del balance a raíz de fluctuaciones adversas en los precios de mercado de diversos activos” (Sección 4 de Comunicación A 5203 Banco Central de la República Argentina).

Las pérdidas por una mala gestión del riesgo tales como la Banca Barings (USD 1,31 miles de millones), Metallgesellschaft (USD 1,59 miles de millones) durante los años 90 y más recientemente SADIA (USD 1,09 miles de millones) o la UBS (USD 2 mil millones) son algunos ejemplos de cómo compañías, que no necesariamente vinculadas a la actividad financiera, perdieron sumas millonarias y hasta quebraron por no saber administrar el riesgo de mercado. Asimismo, la creciente volatilidad de los mercados financieros desde 1995 y en particular la reciente crisis, indujo a investigadores, profesionales y reguladores a diseñar y desarrollar herramientas de gestión de riesgos cada vez más sofisticadas. De entre estas, se destaca, el Value at Risk (VaR o también llamado Valor al Riesgo) que se convirtió en una metodología estándar de la industria para cuantificar este tipo de riesgo.

El VaR se define simplemente como la pérdida máxima esperada de una cartera durante un cierto período de tiempo a un determinado nivel de probabilidad. La popularidad de este método se basa en su capacidad de agregar varios componentes de riesgo de mercado de una empresa o banco en un solo número. No obstante, el hecho de ser popular no lo hace superior a otros métodos de cuantificación del riesgo. Por un lado, su mayor ventaja es que brinda información de manera más sencilla que, por ejemplo, el gestión de activos/pasivos (ALM). Por otra parte, se centra en una de las principales preocupaciones de los directivos de las empresas financieras, la posibilidad de una pérdida significativa en el valor de la cartera de inversiones. En sus diversas formas, el VaR también ha ganado un fuerte apoyo de la industria financiera y de los organismos normativos, como el Grupo de los Treinta, el Banco de Pagos Internacionales (Bank of International Settlements) y la Unión Europea. Los defensores de esta metodología suponen que esta herramienta podría reemplazar, o al menos complementar, otras técnicas menos estandarizadas, tales como gestión de activos/pasivos (Asset/Liability Management –ALM) y pruebas de estrés.

Pero mientras el concepto de VaR es sencillo, su aplicación no lo es. Existe una gran variedad de modelos que producen estimaciones muy diferentes de los riesgos de mercado para el mismo portafolio. Esta

1 El BCRA sigue las recomendaciones del acuerdo de Basilea, por lo tanto se toma como definición.

Page 6: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

6

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

cuestión resulta fundamental para todos los profesionales del riesgo, la divergencia en los modelos conducen a la incertidumbre en cuanto al significado de las estimaciones del mismo Esta incertidumbre se traduce en un riesgo real de que las estimaciones se utilizan de manera inadecuada.

La crisis financiera de 2008, generada por las hipotecas subprime, ha sometido a amplia discusión tanto

la utilidad del VaR como el método más adecuado para calcularlo. De la misma manera, es necesario que la forma final en que se lo deba calcular sea al menos sencilla de entender, programar y con bajo costo computacional. El VaR resultante debe ser extremadamente preciso, de otra manera, si el riesgo subyacente no es calculado con exactitud, llevaría a asignaciones de capital subóptimas con consecuencias negativas en la rentabilidad y/o estabilidad de las instituciones financieras (Engle y Manganelli (1999) y (2007), Ryohei y Masaaki (2007), Pollard (2007), y Venkataraman (1997)).

1.2 El VaR en la Comunicación “A” 5203 del BCRA

En lo que al área de regulación local se refiere, el Banco Central de la República Argentina (BCRA) emitió el 23 de mayo de 2011 la Comunicación A 5203 que versa sobre todo tipo de riesgo: de crédito, de tasa de interés, corporativo, de mercado, operacional, de liquidez y pruebas de estrés. La sección 4 de la comunicación del BCRA, trata específicamente el riesgo de mercado. Si bien, deja en manos de las entidades financieras la manera en que manejarán el riesgo, si impone ciertas estructuras responsables de los mismos.

En particular, para la gestión del riesgo de mercado, el BCRA sugiere, entre otras cosas, que se utilicen modelos para la estimación del riesgo y pruebas de estrés.

Asimismo, la Comunicación permite una amplia libertad de elección al no ser restrictivo en sus

definiciones. Por caso, la misma solo exige que los bancos posean un proceso “adecuado2” que lo lleva a cabo una unidad independiente de quien genera el riesgo.

En lo que se refiere a los factores de riesgo, el BCRA exige que se incluyan los que se consideren

relevantes y las omisiones se justifiquen. Asimismo, requiere que las unidades de gerenciamiento de riesgo modelen la curva de rendimientos. Sobre esto último no existe un acuerdo acerca de cómo estimar la curva para el mercado de bonos argentino; al tiempo que no existen suficientes datos para determinar una cantidad mínima de puntos de la curva de modo que se modele de forma razonable.

En suma, el BCRA deja en manos de la entidad la elección de los modelos para tratar los distintos

tipos de riesgo y su aplicación mientras cumpla con requisitos mínimos de información y transparencia. De esta manera, en la sección que sigue se analizan algunos modelos alternativos para la estimación del VaR que son “punta de lanza” en la investigación actual. Quedará sujeto al lector o profesional del riesgo de mercado la utilidad o adecuación de los mismos a su sistema de gestión del riesgo. De esta manera, se refuerza la necesidad de realizar estudios críticos de las distintas metodologías para el cálculo del VaR.

2. Metodologías para el Value at Risk – Una Revisión

El VaR es un método para cuantificar el riesgo de mercado, el cual utiliza técnicas estadísticas estándar que se usan de manera rutinaria en otros campos técnicos. En términos formales, el VaR mide la peor pérdida esperada en un intervalo de tiempo determinado, bajo condiciones normales del mercado ante un nivel de confianza dado.

2 Sin explicitar a que se refiere por adecuado.

Page 7: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

7

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

El VaR proporciona a los usuarios una medida resumida del riesgo de mercado. El proceso que conduce a obtener el mismo puede utilizarse para decidir donde reducir el riesgo. El VAR combina la exposición a una fuente de riesgo con la probabilidad de un movimiento adverso en el mercado.

El VaR es útil para una serie de propósitos:

1. Presentación de información: Resulta útil para que los directores ejecutivos evalúen los riesgos que corren las operaciones de mercado y de inversión. Además, informa a los accionistas los riesgos financieros de la empresa en un número sencillo.

2. Asignación de recursos: Puede utilizarse para determinar limites de posición a los operadores financieros y para decidir donde asignar los recursos de capital. La ventaja del VaR es que crea un denominador común con el cual comparar las actividades riesgosas en diversos mercados. También el riesgo total de la empresa financiera puede descomponerse en medidas individuales que permiten a los usuarios determinar que posiciones contribuyen más al riesgo total.

3. Evaluación del desempeño por riesgo: Puede utilizarse para ajustar las evaluaciones de los

operadores financieros por el riesgo que están tomando y por cómo lo controlan

4. Regulación: La regulación prudencial de las instituciones financieras requiere el mantenimiento de niveles mínimos de capital como reservas contra el riesgo financiero3. El comité de Basilea para la supervisión Bancaria, el Banco de la Reserva Federal de los Estados Unidos y los reguladores en la Unión Europea han coincidido en aceptar el VaR como una medida aceptable del riesgo de mercado.

2.1. Modelos de Estimación del VaR

Desde un punto de vista estadístico, la estimación del VaR se reduce al cálculo del valor de un percentil de la distribución de los retornos. El hecho que esta distribución no sea constante a lo largo del tiempo, implica un desafío para su estimación precisa.

La estimación requiere de tres pasos:

1. Mark to market de la cartera de activos 2. Estimación de la distribución de los retornos de la cartera de activos 3. Cálculo del VaR del portafolio

La diferencia entre los distintos métodos se encuentra en el punto (2), es decir, en la manera en que se

resuelve el problema de estimar el valor del portafolio a un determinado momento del tiempo.

De manera amplia, se pueden clasificar los modelos existentes en tres categorías:

1. Paramétricos (RiskMetrics™ y GARCH4, GARCH asimétricos ) 2. No paramétricos (Simulación Histórica y Modelos Híbridos) 3. Semiparamétricos (EVT5, CAViaR6 y cuasi-máxima verosimilitud GARCH)

3 Si bien existen otros tipos de riesgo, como el de crédito, el de tasas de interés, de operaciones, de contraparte, etc., las regulaciones suelen ser específicas en cuanto al capital que debe separarse por el riesgo de mercado. 4 General Autoregressive Conditional Heteroskedasticity 5 Extreme Value Theory 6 Conditional Autoregressive Value at Risk.

Page 8: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

8

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Las diferencias resultantes de calcular el VaR por alguno de estos métodos pueden resultar abismales. Ello hace que la elección del método no sea un asunto menor. Si la estimación es poco precisa, se asignaría capital de manera subóptima lo que acarrearía pérdidas financieras y de eficiencia innecesarias. Por lo tanto, es necesario comprender los supuestos cruciales de cada método así como el modelo matemático y la técnica cuantitativa empleada para determinar sus que potenciales virtudes poseen y si las posibles fallas del mismo son subsanables. De esta manera, el investigador, el profesional o el regulador podrían elegir de manera más adecuada el modelo que crea que mejor se ajusta a sus objetivos.

Asimismo, resulta necesario conocer las características propias de las series de datos financieros. Estas se pueden resumir de la siguiente forma7:

1. La distribución de los retornos es leptocúrtica, es decir que poseen un pico más alto y colas más pesadas que la distribución normal.

2. Los retornos de las acciones se encuentran, en general, sesgados hacia las pérdidas. 3. Los retornos al cuadrado están significativamente autocorrelacionados, esto es, las

volatilidades de los factores de mercado tienden a agruparse en grupos o clusters por período. 4. Las volatilidades y correlaciones de las variables financieras son cambiantes en el tiempo y

dependen de la ventana temporal en que se base el análisis.

Hay una gran variedad de modelos que se pueden utilizar para estimar el valor en riesgo. Por ejemplo,

algunos sistemas de gestión de riesgos permiten simulaciones definidas por el usuario, o utilizan modelos

basados en escenarios para el cálculo del VaR.

La técnica más utilizada8 para el cálculo del VaR utiliza covarianzas históricas entre los distintos

factores de riesgo para evaluar el efecto de las perturbaciones en un portafolio cuyas posiciones se pueden

“mapear” a dichos factores de riesgo.

Uno de estos modelos paramétricos, y que es pilar en la industria financiera, es el JP Morgan

RiskMetrics™. Dado su uso generalizado, y su [casi] designación no oficial de estándar de la industria, resulta

oportuno preguntarse en qué medida este modelo en particular brinda un lenguaje común para la medición

del riesgo. Una de sus ventajas, es que se actualiza diariamente a través de internet, RiskMetrics™, de esta

manera, las correlaciones y volatilidades permiten a los usuarios evaluar los riesgos del mercado financiero

global (en términos de VaR) durante un determinado período de tiempo consistentemente a través de

diferentes clases de activos. Asimismo, en un esfuerzo por hacer que el uso de la conjuntos de datos más

transparente, el JP Morgan también hizo público el modelo detallando cómo estas volatilidades y

correlaciones se calculan y la manera en que se debe utilizar (Guldimann 1995). No obstante, este modelo ha

sido criticado por hacer hipótesis demasiado simplistas: asume una distribución normal para los retornos de

los activos y que las correlaciones se mantienen constantes durante el período de cálculo. Ello, finalmente,

convierte a este método en engañoso y hasta peligroso.

En general, se observa que los modelos utilizados poseen un trade off entre la facilidad de uso, por un

lado y la precisión por el otro; RiskMetrics ™ se enfoca en proveer una herramienta relativamente simple y

transparente (Longerstaey y Zangari, 1995).

A pesar de la popularidad de RiskMetrics ™, la cuestión sigue siendo si este o cualquier otro modelo,

puede constituir un estándar independiente de los detalles del modelo de implementación y uso. Esto no es

una idea nueva. Es más, Guldimann, uno de los arquitectos de RiskMetrics ™, fue quien observó que la

7 Ver Dowd (2002). 8 Ver Alexander (2010).

Page 9: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

9

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

medición del riesgo "y de gestión sigue siendo tanto un arte como una ciencia " y que "ninguna cantidad de análisis

sofisticado podrá sustituir a la experiencia y el juicio profesional en la gestión de riesgos”.

En suma, el modelo teórico que se utilice requerirá, además, de una precisa implementación del

mismo ya que la misma dependerá de los cuellos de botella que se presenten en las bases de datos que se

manejen y del costo computacional9 de los algoritmos que se deban procesar. Esto último, debido a la [casi]

infinita variedad de instrumentos y el gran número de mercados, cuyos atributos institucionales y estadísticos

varían con en el tiempo. Esta imperfección de los modelo implica que las decisiones se dejan en manos de

quien desarrolle los sistemas de gerenciamiento del riesgo, que decide qué modelo aplicar, y del usuario de

este sistema, que interpreta los datos de entrada y salida de dicho modelo. Esto lleva a que el mismo modelo

formal pueda llegar a ofrecer diferentes conclusiones.

3. Algunos Métodos Alternativos de Estimación del VaR

En esta sección se presentan varios de los más novedosos métodos para estimar el VaR con el objetivo de lograr la mayor precisión con el menor costo computacional posible. De esta manera, los autores de los diversos métodos pretenden encontrar la forma óptima de cubrir un portafolio del riesgo de mercado y a la vez realizar una asignación eficiente del capital.

3.1 Conditional Autoregressive Value at Risk (CAViaR)

El modelo CAViaR fue introducido por Engle y Manganelli (1999). La intuición básica detrás del mismo es la de modelar directamente la evolución del percentil relevante10 del VaR a través del tiempo en vez de toda la distribución de los retornos del portafolio. Ellos proponen la siguiente especificación del VaR:

,112,110, ,,,..., ttptt qylqq (1)

Donde, qt,θ es el θ-percentil de la distribución de los retornos a tiempo t, {yt}es la serie de retornos del

portafolio y los β son parámetros de regresión. La función l(.) permite al investigador la libertad de elegir un modelo distinto de acuerdo con su especificación. Engle y Manganelli (1999) proponen el uso de una función

Simétrica de Valor Absoluto del tipo 12 tyl y una de Pendiente Asimétrica

00 1312 tt yIyIl . Sin embargo, para poder utilizar simulación por Montecarlo, Engle y

Manganelli (2001) sugieren un modelo de GARCH(1,1) indirecto de la forma:

21

2

,13

2

,121, ttt yqq (2)

Engle y Manganelli (2001) estiman los parámetros desconocidos mediante regresiones no lineales de

percentiles (non-linear regresión quantile techniques). Sea,

,, ttt qy 0, ttQuant (3)

9 Se define como computacionalmente costoso a aquellos métodos o algoritmos que por su complejidad insumen una cantidad de tiempo excesiva (en el sentido que la información obtenida carece de relevancia por obtenerse tarde), o requieren de cierta capacidad de procesamiento que resulta cara en términos de costo-beneficio o de ambos. 10 Estos pueden ser 1%, 5% o 10% de riesgo dependiendo del grado de confianza elegido.

Page 10: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

10

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Donde θ es la probabilidad asociada con el percentil, Ωt es el conjunto de información al momento t y

0, ttQuant implica que el θ-percentil del término del error es 0. De esta manera, usando resultados

de White (1994) y Koenker y Basset (1978), Engle y Manganelli (1999) obtienen resultados consistentes para la regresión de:

,, :

,

:

, 11

mintttt qyt

tt

qyt

tt qyqyT

(4)

Particularmente, no es necesario ningún supuesto acerca de la distribución del error por lo que se

reduce el error por mala especificación. Sin embargo, el supuesto crucial es que el proceso del percentil haya sido correctamente especificado. No obstante, si el proceso del percentil no ha sido correctamente especificado, los autores sostienen que la minimización de la función objetivo (4) puede ser interpretada como la minimización del criterio de información de Kullback-Leibler, que mide la discrepancia entre el modelo verdadero y el que se encuentra en estudio.

En la simulación de montecarlo, Engle y Manganelli (2001) amplían el modelo CAViaR con EVT para mejorar los resultados de la estimación en percentiles muy bajos.

,, :

,

:

, 0101

mintttt qyt

ttt

qyt

ttt hqyhqyT

(5)

Donde h(.) es la función de densidad de la matriz de varianzas y covarianzas de la regresión del

percentil.

Asimismo, generaron distintas series con varias distribuciones y parámetros asociados para testear los distintos métodos. Según sus resultados, los VaR calculados mediante Simulación Histórica, GARCH Normal y EVT fueron los de peor desempeño en términos de error cuadrático medio y sesgo. En casos de intervalos de confianza extremadamente altos (0.995%), obtuvieron que el CAViaR resultó poco confiable debido a que solo unas pocas observaciones excedían el percentil. De esta manera, el método mostró que tenía los mismos problemas que al usar la estimación por percentil directa. No obstante, al ampliar el modelo con EVT resultó óptimo para distribuciones de colas pesadas. Sin embargo, el modelo no calificó primero para funciones generadoras de datos (DGF) de otro tipo como gamma y GARCH normal.

De este modo, tanto el CAViaR simple como el modelo aumentado mediante EVT resultan óptimos bajo ciertas distribuciones, en particular con colas pesadas. A pesar de ello, en algunas especificaciones el CAViaR simple muestra cierta superioridad frente al aumentado con EVT, lo que convierte a este último en computacionalmente subóptimo. Si bien los autores no lo mencionan, el problema de este modelo reside en su complejidad para la estimación y en el costo computacional asociado dado que al no conocer la distribución del VaR a través del tiempo, se debe optar por el modelo aumentado que es claramente ineficiente bajo determinadas distribuciones11.

3.2 Muestreo Polar Adaptativo y Algoritmos Bayesianos

En este trabajo Bauwens y otros (1999) proponen utilizar al muestreo polar adaptativo (APS, en inglés) como método de MCMC12 para el análisis bayesiano de modelos con distribuciones posteriores no

11 Por ejemplo para distribuciones Gamma que se usan en opciones. 12 Markov Chain Monte Carlo.

Page 11: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

11

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

estándar13. Para muestrear de manera eficiente tales distribuciones, los autores utilizan las transformaciones a localización-escala y a coordenadas polares. Luego, se aplica el algoritmo de Metrópolis-Hastings14 para muestrear direcciones y, condicionadas a estas, las distancias a partir de invertir la función de densidad acumulada (FDA). Finalmente, aplican un procedimiento secuencial para actualizar la localización y la escala.

Los autores prueban este método sobre un conjunto de modelos canónicos que ofrecen una cercana no identificación (near non-identifiability), fuerte correlación, y bimodalidad. Concluyen que el APS resulta superior al Metrópoli-Hastings estándar en términos de parsimonia y robustez. Finalmente, testean el APS dentro de un análisis bayesiano de un modelo de mixtura de distribuciones GARCH para la evaluar el VaR del índice Dow Jones.

En su trabajo, los autores concluyen que el cálculo del VaR por este método resulta computacionalmente demasiado intensivo por la cantidad de simulaciones que se deben hacer y los dos muestreos. Por ello, también sugieren comenzar con un conjunto de parámetros posteriores (posterior parameters) de “buena calidad” con baja correlación. No obstante no hacen mención a cómo obtener o determinar estos parámetros. Esto pone en tela de juicio al método que los autores sugieren, además de dejarlos en una posición frágil a la hora de defender el mismo ya que dejan incompleta la información necesaria para reproducir el modelo. Asimismo, según los autores, el método arroja resultados más conservadores que los habituales para todos los horizontes en que se quiera calcular el VaR. No obstante, a pesar de su alto costo computacional el método resulta más robusto y flexible que otros métodos estándar como la simulación histórica o el VaR paramétrico15.

3.3 Simulación de Montecarlo mediante Importance Sampling Glass (1999) aproxima el problema del cálculo del VaR a través de la simulación de montecarlo de un

portafolio con varios activos. Para ello, propone utilizar el método de importance sampling16o muestreo por importancia de modo de obtener simulaciones más confiables.

Una vez determinado que los retornos se simularán mediante una distribución multidimensional log-normal del tipo:

ttStS ,

2

10ln~ 2 (6)

El problema se convierte en examinar vSVSA donde, S es el valor del retorno esperado

del portafolio, V(S) es el valor de este portafolio dado su retorno esperado y vα es el límite de tolerancia para el valor del portafolio en tiempo t. Conceptualmente es parecido a un stop loss17.

13 Los autores definen a estas distribuciones como ill-behaved, a falta de una buena traducción para este término se optó por llamarlas “no estándar”, pero no debe confundirse con otro tipo de distribuciones ya conocidas en estadística, como la Gamma, la Chi, etc. 14 En matemática y física, el algoritmo de Metropolis-Hastings es un método MCMC para obtener una serie de muestras aleatorias de una distribución de probabilidad cuyo muestreo directo es difícil. Esta secuencia se puede utilizar para aproximar la distribución (es decir, para generar un histograma), o para el cálculo de una integral (como un valor esperado). 15 Para una discusión en profundidad de los mètodos estándar, ver Kevin Dowd(2002) 16 En estadística, el importance sampling o el muestreo por importancia es una técnica general para estimar las propiedades de una distribución particular, a través de muestras generadas a partir de una distribución diferente de la distribución de interés. Dependiendo de la aplicación, el término puede referirse al proceso de toma de muestras de esta distribución alternativa, el proceso de inferencia, o ambos. 17 En finanzas, un stop loss es una orden anticipada de venta que se ejecuta si el precio llega a determinado umbral para evitar una pérdida determinada.

Page 12: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

12

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

El método de importance sampling es aplicado por Glass (1999) para circunvalar el problema que los eventos de cola suceden con muy baja probabilidad. Dado que la distribución de los retornos se simula como log-normal, la ocurrencia de un evento donde la pérdida puede ser total tiene probabilidad cercana a cero y por lo tanto según la teoría de los mercados eficientes, es predecible.

Si bien, el método, es a primera vista relativamente sencillo y computacionalmente “barato”, existen ciertos problemas que evitan su uso generalizado y por tanto requiere de modificar el método. El primero de estos problemas es que se necesita la matriz de varianzas y covarianzas del portafolio. Ello puede ser un problema ya que las instituciones financieras poseen portafolios de tal tamaño que su cálculo se realiza cada (aproximadamente) tres meses por el costo computacional que implica. El no contar con una estimación a tiempo real de esta matriz convierte en obsoleto el método durante tiempos de crisis en que las correlaciones son cambiantes a intervalos de tiempo cada vez más reducidos. El segundo es que, según admite el autor, el método no contempla a portafolios que contengan productos exóticos, opciones dependientes del tiempo, y activos basados en índices que son comunes en los portafolios de instituciones financieras. De este modo, la metodología que ofrecen resulta útil solamente para fines académicos y no práctico para inversores.

3.4 Adaptive Importance Sampling y Algoritmos Bayesianos Hoogerheide y Van Dijk (2008) proponen un acercamiento que definen como eficiente y exacto de la

medida del VaR dentro de un marco bayesiano para un modelo elegido por el investigador. Este consiste en un nuevo método de muestreo adaptante de muestreo por importancia para la estimación de percentiles vía mixtura rápida (QERMit, Quantile Estimation via Rapid Mixture of t approximations).

Como novedad, los autores plantean la necesidad de evitar que el resultado final se encuentre sujeto a la simulación exclusivamente. Hacen énfasis en los peligros que puede provocar el ruido o error en las simulaciones. Asimismo, recuerdan que existe un menor error de simulación implica un mayor costo computacional, por lo que descartan de plano los métodos basados exclusivamente en simulaciones.

Para el cálculo del VaR, Hoogerheide y Van Dijk (2008) consideran particularmente el caso del percentil 99% y un horizonte de 10 días para fijar la precisión del modelo.

Las contribuciones para mejorar el cálculo del VaR de este trabajo son las siguientes. En primer lugar, se consideran los errores estándar de las estimaciones del VaR y del Expected Shortfall (ES). Dado que el VaR y el ES no son simplemente expectativas incondicionales (una función) de una variable aleatoria, los errores estándar no entran directamente en el cálculo propuesto por Geweke (1989) para utilizar importance sampling. Sin embargo, estos resultan de extrema importancia cuando se evalúa la eficiencia del estimador en comparación a otros métodos de simulación. En segundo lugar, proponen una densidad particular de mezcla híbrida (hybrid mixture density) que proporcione una aproximación a la densidad óptima de la importance density para el cálculo del VaR. Esta hybrid mixture approximation hace uso de dos mezclas de distribuciones t-Student así como de la distribución de los valores de retornos futuros.

La contribución principal de este trabajo es un acercamiento iterativo para construir esta aproximación de la hybrid mixture. Esta es, según los autores, automática en el sentido que requiere solamente una posterior density kernel y no la densidad posterior exacta, y la distribución de los retornos futuros dados los parámetros y datos históricos.

El método que utilizan consta de dos etapas. La primera, se trata de construir una aproximación a la importance density óptima. La segunda, utiliza esta densidad con el método de simulación por importance sampling, esto es el QERMit.

Page 13: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

13

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

El QERMit construye una mixtura aproximada de distribuciones t-Student dados un kernel y una densidad objetivo. La meta de los autores es aproximar una densidad en la que los escenarios de grandes pérdidas son más frecuentes. Posteriormente, estos eventos se corrigen asignándoles menor peso. La idea es en esencia similar a la simulación de una opción con barrera, en la que se pretende aumentar la cantidad de veces en que la simulación cruza la barrera mediante sesgo para obtener un resultado más cercano a la realidad.

Hoogerheide y Van Dijk (2008) se diferencia del resto de la literatura de importance sampling en el cálculo del VaR, en cuatro aspectos. Primero, típicamente, en la literatura existente, la distribución de los retornos futuros se encuentra simplemente dada, es decir que la densidad exacta de los retornos es conocida o asumida. Hoogerheide y Van Dijk (2008) consideran un marco Bayesiano en el cual asumen que únicamente la densidad exacta de los retornos dados los parámetros del modelo y un kernel de la densidad posterior son conocidos. Esto significa que la importance density no se centra sólo en los escenarios de mayores pérdidas.

En segundo lugar, los autores argumentan que la velocidad de la construcción del procedimiento y la flexibilidad de la importance density resultante son la razón por la que este método rinde estimaciones más exactas y confiables del VaR y/o del ES con menores tiempo de cálculo que acercamientos alternativos. De esta manera, se puede utilizar este método en “tiempo real” que es lo que cualquier profesional requiere.

Tercero, típicamente la literatura solamente considera el cálculo del VaR, mientras que Hoogerheide y Van Dijk (2008) también ofrece una estimación alternativa del ES.

Cuarto, la exactitud numérica del método se muestra repitiendo muchas simulaciones y calculando la desviación estándar del conjunto de estimaciones, que resulta menor a estimaciones mediante métodos alternativos.

3.5 VaR Bayesiano via Product Partition Models

Bormetti y otros (2010) proponen una nueva metodología de características bayesianas para el cómputo del VaR basado en Product Partition Models (PPM) paramétricos. Según los autores, el uso de modelos PPM permite que se mantenga un ajuste a la distribución Normal incluso ante la presencia de datos extremos, y que se obtenga una expresión de la forma cerrada para el cálculo del VaR.

Para presentar su método, los autores abandonan los supuestos de retornos idénticamente distribuidos como es usual en la metodología VaR estándar. No obstante, asumen que los retornos se distribuyen de manera normal con una estructura de partición en los parámetros de interés. De esta manera, asignan una distribución previa18 al espacio de todas las posibles particiones e identifican clusters de retornos que comparten estadísticamente las mismas medias y varianzas. Así, la hipótesis de idéntica distribución se mantiene dentro del cluster pero no entre estos y es posible realizar el supuesto de normalidad. Como subproducto se obtiene un identificador de anomalías y puntos extremos.

A modo de experimento, definen dos formas de partir los parámetros, uno donde únicamente el vector de medias es relevante y la varianza es una variable aleatoria común a toda la muestra; y otro donde el vector de varianzas impone la partición y la media es una variable común desconocida. La primera forma resulta efectiva pero es altamente sensible a los prior parameters escogidos, lo que le quita robustez19. Los autores sugieren utilizar el conocimiento del analista para ajustar los parámetros, práctica riesgosa debido a los problemas de subjetividad que ello acarrea. Asimismo, muestran que al partir la serie en base al vector de varianzas esta sensibilidad se reduce.

18 Este tipo de procedimientos, donde se asignan distribuciones o probabilidades en base a creencias particulares del investigador acerca de cómo debería ser aproximadamente el resultado se conoce como inferencia bayesiana. 19 Al cambiar los parámetros por otro conjunto posible de los mismos, los resultados pueden variar de manera significativa.

Page 14: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

14

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Para obtener la distribución posterior utilizan el Gibbs Sampler20. Sin embargo, algo que no mencionan

los autores, es que el Gibbs Sampler puede no converger cuando la distribución es impropia21. Algo que ocurre frecuentemente con los datos extremos, por ello es que utilizan los clusters para eliminarlos. No obstante, ello no elimina el problema enteramente ya que la causa de la no convergencia podría ser otra22.

Finalmente, para ilustrar el funcionamiento de este método, aplican el algoritmo a tres activos del Mib30 (bolsa italiana) que poseen las más altas kurtosis por lo que los métodos estándar suelen fallar. Los resultados numéricos muestran que el PPM se puede explotar con éxito para cuantificar la exposición al riesgo de mercado. Las estimaciones obtenidas del VaR son similares a los obtenidos mediante máxima verosimilitud, pero proporciona más información acerca de la estructura del agrupamiento de los datos y la presencia de puntos extremos. Sin embargo, se debe tener cierto cuidado en la elección de la conformación de los clusters ya que si solamente se utiliza el vector de medias, este tiende a subestimar el VaR, algo que no ocurre cuando se agrega el vector de varianzas. Esto último incrementa el costo computacional del algoritmo. Asimismo, se destaca como falla, la elección de los parámetros de la prior distribution que pueden afectar sensiblemente los resultados.

3.6 Modelo con Cambios de Régimen

El perfil de riesgo no es constante a lo largo del tiempo, este puede ser alterado por una amplia gama de eventos sistémicos y no sistémicos que provocarían cambios, continuos y/o discontinuos, en la volatilidad de los retornos. Dado que estos cambios son en su mayoría no predecibles, deben ser tratados como variables aleatorias. Asimismo, Inui y otros (2005) demuestran que el VaR, por simulación histórica, sobrestima las necesidades de capital cuando este se aplica a distribuciones con colas pesadas a un α de 1%. Ryohei y Masaaki (2007) aplican técnicas de cambios de régimen para tratar de solucionar ambos problemas simultáneamente.

Según Ryohei y Masaaki (2007) una de las ventajas de utilizar cambios de régimen es que estos modelos permiten que la información condicional se refleje en las proyecciones y caracterizan los cambios en volatilidad por su persistencia. No obstante, algo que los autores no mencionan es que este tipo de modelos puede alertar el cambio de régimen demasiado tarde ya que se basa en probabilidades condicionales y estas requieren de cierta cantidad de elementos en la muestra para indicar si se ha cambiado de régimen o no. Sin embargo, este tipo de modelos resultan ideales para un análisis histórico o backtesting. No obstante, los autores aducen que su modelo se ajusta rápidamente23 a los cambios en el riesgo.

El VaR con cambio de régimen se define como:

20 En estadística, el Gibbs Sampler es un algoritmo para generar una secuencia de muestras de la distribución de probabilidad conjunta de dos o más variables aleatorias. El propósito de esta secuencia es la aproximación de la distribución conjunta, aproximar la distribución marginal de una de las variables, o algún subconjunto de las variables (por ejemplo, los parámetros desconocidos o variables latentes), o el cálculo de una integral (por ejemplo, el valor esperado de una de las variables). Por lo general, algunas de las variables corresponden a las observaciones cuyos valores son conocidos, y por lo tanto no deben ser incluidos en la muestra. Se trata de un algoritmo aleatorio (es decir, un algoritmo que hace uso de números aleatorios, y por lo tanto produce resultados diferentes cada vez que se ejecuta), y es una alternativa a los algoritmos deterministas para la inferencia estadística como variational Bayes o el algoritmo maximización de expectativas (EM ). 21 es una función de distribución que no es impropia si:

es finita e igual a 1.

Si I es infinita, entonces es impropia. Por ejemplo, es una distribución impropia. 22 Ver Justel y Peña (1996), Kleibergen y Van Dijk (1994, 1998) por ejemplo. 23 No obstante, no hacen mención alguna a que se refieren con “rápidamente”.

Page 15: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

15

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

K

k

tkkt VaRk1

),(ˆmax (7)

Donde )(ˆ kt es la probabilidad de que el mercado24 se encuentre en el régimen k y k es una

constante tal que 10 k e implica un límite inferior a la probabilidad de encontrarse en el estado k, y k

es la distribución normal.

Los autores testean su modelo en el TOPIX con resultados positivos de acuerdo con sus

supuestos. No obstante, el parámetro k es ajustado ad hoc y no proveen una forma adecuada de calcularlo.

Tampoco resulta claro cómo debe calcularse el VaR si el portafolio incluye varios mercados y por lo tanto se agrega riesgo de moneda. Asimismo, el experimento se realiza únicamente para acciones, no se hace mención a cómo los cambios de régimen podrían afectar a un portafolio que contenga bonos u opciones. No obstante ello, la idea de cambios de estado es una arista que debería explorarse para investigaciones futuras.

3.7 Modelo de Componentes GARCH con Ponderaciones Variables en el Tiempo

De manera sucinta, la idea de este método es agregar a la volatilidad una dinámica que sea cambiante en el tiempo pero dependiente de algún estado no observable y persistente. El modelo propuesto por Bauwens y Storti (2007) generaliza el modelo del componente GARCH de Ding y de Granger (1996). La volatilidad se modela como una combinación de componentes GARCH no observables donde la combinación de las ponderaciones varía con el tiempo de acuerdo con ciertas variables de estado que el usuario debe elegir de manera apropiada25. Para hacer inferencia en los parámetros modelo, Bauwens y Storti (2007) desarrolla un algoritmo basado en el Gibbs Sampler y aplican su método al S&P 500 para calcular el VaR y el ES.

La definición de VaR mediante este método difiere de la comúnmente utilizada en la literatura dado que por construcción consideran el percentil empíricamente relevante (esto es si el VaR se estima al 1%, 5% o 10%) de la distribución posterior (en el sentido bayesiano) de los retornos. Esto es:

T

hThT IVaRRP , (8)

con h

i iThT rR1

Donde R es el retorno agregado dentro de h períodos. La ecuación (8) muestra cuál es la probabilidad

que los retornos esperados dentro de h períodos sean inferiores a un VaR determinado condicionado a la información en T.

El modelo presenta como falla principal la imposibilidad de realizar pronósticos 100% confiables a T +h con h>1 debido a la no linealidad del mismo. Por ello, los resultados del VaR se deben calcular a no más de un período (en el que se encuentren las series) y aplicar alguna corrección de temporalidad para determinar el riesgo de pérdida en la cartera a períodos mayores a un período lo que supone una limitante importante ya que toma cierto tiempo desarmar una cartera de activos para vender posiciones de alto riesgo o que no se encuentren cubiertas a satisfacción.

24 En este caso debe interpretarse mercado en un sentido amplio, los autores utilizan el índice TOPIX como referencia del mercado y su portafolio se limita a este mercado únicamente. 25 Ello supone un problema ya que los autores no definen claramente cómo es que deba hacerse esta elección apropiada.

Page 16: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

16

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

3.8 Técnicas Cuasi-Bayesianas

Venkataraman (1997) enfatiza lo inapropiado de utilizar el supuesto de normalidad dado que la distribución de los retornos resulta con elevada kurtosis y colas pesadas. Para levantar este supuesto, propone que el VaR se calcule a través de una mixtura de distribuciones normales y que la inferencia se haga por medio de una estimación de máxima verosimilitud cuasi-bayesiana.

La ventaja de utilizar una mixtura de normales, no correlacionadas, es que permite utilizar las propiedades de la distribución normal a la vez que se pueden muestrear los retornos a partir de varias distribuciones con distintas medias y varianza. De esta forma, se simula una densidad con colas más pesadas.

El método de máxima verosimilitud no resulta adecuado para este contexto de mixturas ya que al no existir un máximo local para la función de verosimilitud lleva a que los parámetros estimados sean inestables, las soluciones al problema de maximización podrían ser únicamente locales, y el algoritmo de solución podría no converger. Por ello, Venkataraman (1997) aplica un método cuasi-bayesiano.

La técnica cuasi-bayesiana implica asumir una distribución a priori de cuál sería la distribución relevante en cada momento del tiempo y luego mediante el Gibbs Sampler actualiza esta distribución hasta que converja a una distribución posterior (en el sentido bayesiano).

Sin embargo, todo esto resulta computacionalmente costoso por la cantidad de activos que posee una entidad financiera. Es más, si se desea agregar más de dos distribuciones o interdependencias temporales el costo computacional se eleva exponencialmente. De esta manera, una entidad financiera que posea una cartera con más de 10 activos tendría que analizar un mínimo de 3.628.800 combinaciones para las interdependencias entre los mismos a lo que se le agregan las relaciones intertemporales.

3.9 Las Correlaciones como Factores de Riesgo

En general, los portafolios de los bancos de inversión más importantes, y fondos comunes de inversión, presentan tres características distintivas:

1. Se componen de activos internacionales. 2. Se encuentran condicionados por un gran número de variables financieras tales como

retornos de las acciones, tasas de interés, spreads de tasas, tipos de cambio, etc. 3. Estas variables poseen volatilidades y correlaciones cambiantes en el tiempo.

Es precisamente el tercer punto el que ha sido menos explotado en la literatura pero que reviste,

quizás, la mayor importancia a los efectos del cálculo del riesgo de mercado y pruebas de estrés, en particular durante momentos de crisis. Es más, dado que las correlaciones en los activos internacionales pueden alinearse rápidamente (es decir acercarse a 1, esto es correlación perfecta), esta información resulta útil para el diseño de las estrategias de cobertura para un evento de estrés financiero.

No obstante, el procedimiento para utilizar las matrices de correlaciones en simulaciones de estrés o

cálculo del VaR es problemático. Ello se debe a que al no tener debidamente en cuenta las interdependencias y restricciones de los distintos elementos de las matrices de correlaciones, las simulaciones pueden llegar a resultados que son matemáticamente aberrantes: matrices de correlaciones que no son definidas positivas (Dash, 2004). Uno de los problemas que dificultan el uso de las correlaciones como factores de riesgo es que los elementos de la matriz son interdependientes. Por lo tanto, se debe reformular el problema de manera

Page 17: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

17

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

geométrica redefiniendo las correlaciones como funciones de variables angulares independientes. Estos

ángulos son las coordenadas esféricas naturales de una -esfera donde = N-1 y N es la cantidad de correlaciones.

Para = 2, el problema tiene una solución trivial, es cuando la dimensión N > 2 que comienza a activarse las restricciones en las relaciones entre las correlaciones. En rigor, para el caso de N = 3, no es

posible elegir de manera arbitraria las correlaciones , de otra manera la matriz violaría la ley de los cosenos26 que es la que mantiene la relación entre todas las correlaciones27. Si esta ley no se satisface, las fluctuaciones de las variables no pueden existir, los resultados obtenidos serían irreales. Por caso, el precio de los bonos del Tesoro de EEUU debe estar correlacionado negativamente con la tasa de interés. De no aplicarse las restricciones adecuadas, una simulación podría arrojar una correlación positiva, lo que sería un error. Para solucionar este problema, se debe pasar al plano de los vectores angulares más el azimut28 correspondiente de las proyecciones de los vectores de las correlaciones, que si resultarán independientes y pueden ser manipulados de manera que se cumplan las restricciones sobre las correlaciones. Luego se puede recuperar el conjunto original de correlaciones. Al agregar más dimensiones se agregan ángulos azimutales por cada dimensión extra. En suma, se trata de mapear las correlaciones a ángulos dentro de la N-esfera para obtener correlaciones que sí puedan existir. Una vez obtenida una matriz de correlaciones positiva definida consistente, en el sentido que las correlaciones obtenidas no sean resultados imposibles29 en la realidad según el análisis anterior, se pueden realizar pruebas de estrés y manejar el riesgo generado por las correlaciones. En el caso del VaR, es posible ajustar la dinámica de las correlaciones30 al horizonte deseado, de modo de incluir la matriz de correlación como factor de riesgo. De esta manera, se obtienen distribuciones finales para distintos escenarios posibles que contienen mapeado todos los factores de riesgo inherentes a los mercados en que opere la entidad. Si bien esta metodología parece contemplar todos los factores de riesgo en el cálculo del VaR, queda por resolver cómo lograr un modelo de este tipo que no sea computacionalmente costoso.

4. Consideraciones Finales

Los métodos para calcular el VaR presentados son apenas una muestra de un universo en continua expansión. A lo largo de las últimas dos décadas, se ha desarrollado una gran variedad de modelos para calcular el VaR que aún no logran un trade off eficiente entre costo computacional31 y precisión. Muchos de estos modelos se presentan y evalúan en contextos simples ya que al imponer portafolios más sofisticados o abandonar algunos supuestos (normalidad de los retornos, linealidad del portafolio, etc.) resultan complejos y difíciles de llevar a la práctica. Por lo tanto, a veces no es posible definir de manera precisa el resultado arrojado por los modelos.

26 La ley de cosenos se puede considerar como una extensión del teorema de Pitágoras aplicable a todos los triángulos: el cuadrado de un lado de un triángulo es igual a la suma de los cuadrados de los otros dos lados menos el doble producto de estos dos lados

multiplicado por el coseno del ángulo que forman. 27 Se obviará la parte matemática para evitar complicar el texto. Para una explicación en mayor detalle se sugiere consultar Dash (2004) capítulo 22. 28 En matemáticas, un sistema de coordenadas esféricas es un sistema de coordenadas de tres dimensiones del espacio donde se especifica la posición de un punto por tres números: la distancia radial de ese punto de origen fijo, su ángulo de inclinación, medida a partir de una dirección del cenit fijo, y el azimut de su proyección ortogonal sobre un plano de referencia que pasa por el origen y es ortogonal al cenit, medida a partir de una dirección de referencia fijo. El ángulo de inclinación es a menudo sustituida por el ángulo de elevación medida desde el plano de referencia. 29 Por ejemplo una correlación negativa entre dos monedas cuando una se encuentra atada a la otra. 30 Para excluir aquellos casos en que la dinámica de las correlaciones no son posibles. 31 Ver nota al pie 22.

Page 18: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

18

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

Para lograr mejoras en las estimaciones del VaR, sería necesario cambiar la manera en que se conciben los modelos para cuantificar el riesgo de mercado, en particular el VaR. En rigor, no es admisible cualquier método econométrico para estimar el riesgo de mercado. Es necesario, que por un lado se estudien cuáles son los factores de riesgo y, por otro, generar un modelo de estimación que se base en supuestos que no sean inapropiados32. Si los supuestos subyacentes son demasiado rígidos o no se cumplen bajo determinadas circunstancias (como varianzas y covarianzas constantes en el período de estimación, o factores externos como el brote de una crisis que echa por tierra cualquier simulación en base a datos históricos), el tener que elaborar modelos alternativos para recalcular el VaR implica un costo extra para las instituciones financieras.

Dentro de los modelos analizados en este trabajo, se observó que o bien los métodos son

inapropiados o son computacional costosos. Por lo tanto, es menester encontrar el trade-off adecuado para lograr un método que sea ágil, computacionalmente barato y fidedigno.

Si bien los trabajos expuestos son la base de una investigación académica aún en desarrollo, todavía existe un largo camino por recorrer hasta tanto estos aportes generen un mayor consenso sobre qué método sería el más eficiente, en términos de precisión y costo computacional, a la hora de cuantificar el riesgo de mercado.

5. Bibliografía [1] Alexander, C. (2003), “The present and future of financial risk management”, ISMA Centre Discussion Papers in Finance 2003-12. [2] Alexander, C. (2010), Market Risk Analysis. Volume IV: Value at Risk Models, John Wiley & Sons. [3] Bormetti, G., M.E. De Giuli, D. Delpini, y C. Tarantola (2009), “Bayesian analysis of value at risk with product partition models”, preprint Elsevier. [4] Bauwens, L, C., Boss y H.K., Van Dijk (1999), “adaptive polar sampling with an application to a bayes measure of Value at Risk”, Core Discussion Paper 9957. [5] Bauwens, L. y G. Storti (2007), “A component GARCH model with time varying weights”, CORE Discussion Papers 2007/19. [6] Dash, J. W. (2004), Quantitative Finance and Risk Management. A Physicist’s Approach, World Scientific Publishing Co. Pte. Ltd. [7] Ding, Z., Granger, C. W. J. (1996), “Modeling volatility persistence of speculative returns: a new approach”, Journal of Econometrics, 73, 185-215. [8] Dowd, K. (2002), Measuring Market Risk. Chichester: John Wiley and Sons. [9] Engle, R.F y S. Manganelli (1999), “CAViaR: Conditional Value at Risk by Quantile Regression”, NBER, Working Paper 7341. [10] Engle, R.F y S. Manganelli (2001), “Value at Risk models in finance”, ECB, Working Paper 75.

32 Por ejemplo asumir normalidad en la distribución de los retornos, varianzas y covarianzas constantes, prior de distribuciones elegidos sin un fundamento, etc.

Page 19: UNIVERSIDAD DEL SALVADOR · 2013-12-19 · universidad del salvador facultad de ciencias econÓmicas instituto de investigaciones econÓmicas documento de investigaciÓn nº3 gustavo

19

Documento de Investigación Nº3 Diciembre de 2011 IIE – FCE USAL

[11] Geweke, J. (1989), “Exact predictive densities for linear models with ARCH disturbances”, Journal of Econometrics 40, 63–86. [12] Glass, D. (1999), “Importance Sampling Applied to Value at Risk”, MSc. Thesis, Courant Institute of Mathematical Sciences, NYU. [13] Guldimann, T. (1995), RiskMetrics-Technical Document, Morgan Guaranty Trust Company [14] Hoogerheide, L.F. y H.K., Van Dijk (2008), “Bayesian forecasting of value at risk and expected shortfall using adaptive importance sampling”, Tinbergen Institute Report 08-092/4. [15] Inui, K., M. Kijima, y A. Kitano (2005), “VaR is subject to a significant positive bias”, Statistics and Probability Letters, 72, 299-311. [16] Justel, A. y Pena, D. (1996), “Gibbs sampling will fail in outlier problems with strong masking”, Journal of Computational and Graphical Statistics 5, 176–189. [17] Kleibergen, F. R. y H. K van Dijk, (1994), “On the shape of the likelihood/posterior in cointegration models”, Econometric Theory 10, 514–551. [18] Kleibergen, F. R. y H. K van Dijk (1998), “Bayesian simultaneous equations analysis using reduced rank structures”, Econometric Theory 14, 701–743. [19] Koenker, R. y G. Bassett (1978), “Regression quantiles”, Econometrica 46, 33-50. [20] Longerstaey, J. y P. Zangari (1995), “a transparent tool”, Risk N° 8. [21] Pollard, M. (2007), “Bayesian value at risk and the capital charge puzzle”, LSE Working Paper [22] Ryohei, K. y K., Masaake (2007), “Value at Risk in a market subject to regime switching”, Quantitative Finance 7, Issue 6, 609 – 619. [23] Venkataraman, S. (1997), “Value at Risk for a mixture of normal distributions: the use of quasi-bayesian estimation techniques”, Federal Reserve of Chicago, Economic Perspectives. [24] White, H. (1994), “Estimation, inference and specification analysis”, Cambridge University Press.