the sponsor of this special issue. -...

132

Upload: hahanh

Post on 13-Oct-2018

219 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios
Page 2: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

The Sponsor of this Special Issue.

Instituto Flores de Lemus de Estudios Avanzados en Economía Universidad Carlos III de Madrid

C/ Madrid, 126 – E 28903 Getafe (MADRID – ESPAÑA) T. +34 91.624.98.89 - F. +34 91.624.93.05 e-mail: [email protected]

www.uc3m.es/boletin

Instituto Flores de Lemus de Estudios Avanzados en Economía

BBBUUULLLLLLEEETTTIIINNN--- EU &US INFLATION AND

MACROECONOMIC ANALYSIS

Page 3: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

UUnniivveerrssiiddaadd CCaarrllooss IIIIII SSCCIIEENNCCEE PPAARRKK

The Science Park of the Universidad Carlos III in Madrid is part of a more ambitious project, Leganés Tecnológico, a joint initiative of the Leganés Town Council, the Community of Madrid and the University itself. The Science Park occupies 640-acres in Leganés, just under 4 miles from the Puerta del Sol in Madrid, with access to the M-30, M-40, M-45 motorways and the N-401 road. Characteristics One of the Science Park’s objectives is to promote R&D and the transfer of know-how in some of the areas with most potential for innovation , such as Information and Communications technologies, advanced industrial processes and materials. The Leganés Tecnológico Science Park is divided into two closely related areas:

BUSINESS: to house companies with a clear vocation for innovation.

UNIVERSITY: where a series of structures will be created to enable and facilitate technology transfer between university researchers and businesses, such as:

Technological Innovation Centres: Derived from university research activities fundamentally aimed at providing technological services under contract, together with R&D projects .

Business nursery: Housing and providing services to technology-based businesses created by University students, graduates and teaching staff.

Programmed activities

Promoting the use of technology in businesses

Provision of promotional and marketing services: exhibitions, attendance at trade fairs, technological forums, together with logistic and administrative services.

Guidance and supervision of the business nursery.

Collaboration with the businesses established in the Science Park.

Page 4: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

PUBLICATION MANAGEMENT COMMETTEE: Michele Boldrin, Juan José Dolado, Antoni Espasa and Juan Urrutia.

DIRECTOR: Antoni Espasa.

COORDINATION: Rebeca Albacete.

MACROECONOMIC ANALYSIS AND FORECASTS: Nicolás Carrasco, Coordination. Román Mínguez.

SPANISH REGIONAL ECONOMIC ANALYSIS: José Ramón Cancelo and Arsinoé Lamadriz.

MADRID STOCK EXCHANGE MARKET: Pablo Gaya.

INFLATION ANALYSIS AND FORECASTS:

EUROPE AND SPAIN: Rebeca Albacete.

UNITED STATES: Ángel Sánchez.

COMPOSITION: Mónica López.

COLLABORATOR: César Castro.

COVER DESIGN: Miguel Ordoñez.

EU & US INFLATION AND MACROECONOMIC ANALYSIS BULLETIN is an independent academic publication, monthly published by the Instituto Flores de Lemus de Estudios Avanzados en Economía,

Universidad Carlos III de Madrid. All rights reserved. Reproduction in part or whole is strictly prohibited without prior written permission of the

Instituto Flores de Lemus. Depósito Legal: M22 938 - 1995

Instituto Flores de Lemus de Estudios Avanzados en Economía Universidad Carlos III de Madrid C/ Madrid, 126 – 28903 Getafe (MADRID – ESPAÑA)

T. +34 91.624.98.89 - F. +34 91.624.93.05 e-mail: [email protected]

www.uc3m.es/boletin

Instituto Flores de Lemus de Estudios Avanzados en Economía

BBBUUULLLLLLEEETTTIIINNN EU & US INFLATION AND

MACROECONOMIC ANALYSIS

Page 5: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 2

INDEX / ÍNDICE Pág. I . INTRODUCTION / PRESENTACIÓN

1. Introduction to extraordinary issue number 100 of the Bulletin of Inflation and Macroeconomic Analysis / Presentación al número 100 del Boletín de Inflación y Análisis Macroeconómico, Gregorio Peces-Barba. ..........................5

2. Bulletin of EU and US Inflation and Macroeconomic Analysis: history, methodology, future perspectives and acknowledgement / Boletín de Inflación y Análisis Macroeconómico: historia, metodología, perspectivas futuras y agradecimiento, Antoni Espasa................6

II. EUROPEAN ECONOMIC POLICY / POLÍTICA ECONÓMICA EUROPEA

3. Strengthening the co-ordination of budgetary policies / Reforzamiento de la coordinación de las políticas presupuestarias, Pedro Solbes. ........................................................................................14

III. MACROECONOMIC MODELS AND ANALYSES / MODELOS Y ANÁLISIS MACROECONÓMICOS

4. Argentina: Las fábulas y los hechos, Michele Boldrin..........................................28 5. La utilización de modelos en el diseño de la política económica, Miguel Sebastián - David Taguas...........................................33

IV. INFLATION / INFLACIÓN

6. Causas y remedios del diferencial de inflación, José Luis Feito........................41

V. FORECASTING / PREDICCIÓN

7. Forecasting structural breaks, Clive Granger. .....................................................51 8. Forecasting Pitfalls, David Hendry............................................................................56 9. The EFN experience in forecasting Euro area macroeconomic variables, Massimiliano Marcellino. ................................................................................72 10. Forecast Uncertainty, its Representation and Evaluation, Kenneth Wallis. .....................................................................................78 11. Econometric Models and Forecasting, Arnold Zellner. ......................................87

VI. BUSINESS ECONOMY AND FORECASTING IN LARGE CORPORATIONS / LA ECONOMÍA DE LAS EMPRESAS Y PREDICCIÓN EN LAS GRANDES EMPRESAS

12. The Value of Business Forecasting at a Corporate Level in Non-Financial Companies: Consistency, Anticipation and Monitoring, Juan Carlos Delrieu.............................................................................93 13. La Economía de las Empresas, Vicente Salas .......................................................102

Page 6: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 3

VII. INFLATION ANALYSIS WITH INFORMATION UP TO DECEMBER 2002 / ANÁLISIS DE LA INFLACIÓN CON INFORMACIÓN HASTA DICIEMBRE 2002

14. Analysis of Inflation in the EMU, US and Spain / Análisis de Inflación en UME, Estados Unidos y España.......................................................................................110

Page 7: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 4

I. INTRODUCTION / PRESENTACIÓN

1. Introduction to Issue Number 100 of the Bulletin of Inflation and Macroeconomic Analysis / Presentación al Nº 100 del Boletín de Inflación y Análisis Macroeconómico, Gregorio Peces-Barba

2. Bulletin of EU and US Inflation and Macroeconomic Analysis: History, Methodology, Future Perspectives and Acknowledgement/Boletín de Inflación y Análisis Macroeconómico: Historia, Metodología, Perspectivas Futuras y Agradecimiento, Antoni Espasa.

Page 8: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 5

Gregorio Peces-Barba

PRESENTACIÓN AL Nº 100 DEL BOLETÍN DE INFLACIÓN Y ANÁLISIS

MACROECONÓMICO

INTRODUCTION TO ISSUE NUMBER 100 OF THE BULLETIN OF INFLATION AND MACROECONOMIC

ANALYSIS Me complace enormemente presentar este número especial del Boletín de Inflación y Análisis Macroeconómico (BIAM) del Instituto Flores de Lemus, de la Universidad Carlos III de Madrid, puesto que soy testigo del trabajo e ilusión que en él se ha puesto, así como de la tremenda evolución de sus contenidos y difusión. Y me enorgullece el prestigio y repercusión que ha alcanzado en sus primeros 100 números.

Su Director, el Profesor Antoni Espasa, ha volcado en él su probidad académica y su total entrega, y es de justicia reconocer su trabajo. Merece la pena señalar que es precisamente un procedimiento complejo diseñado por el propio Profesor Espasa el que se aplica para la realización de las predicciones econométricas de la inflación, objeto principal del Boletín, y con las que el Instituto “Flores de Lemus” participa en la encuesta a predictores profesionales que realiza trimestralmente el Banco Central Europeo y contribuye mensualmente con la publicación Consensus Forecasts.

Esta publicación universitaria de difusión internacional se financia con el apoyo de la Universidad, que se complementa mediante suscripciones y patrocinios, y por eso quiero reconocer y agradecer expresamente estas ayudas, que son muy importantes para la labor universitaria. Además, sus resultados son recogidos muy frecuentemente en la prensa española y en ocasiones también en la prensa extranjera.

Esta edición extraordinaria recoge prestigiosas firmas, como las que han venido colaborando en las diferentes secciones y épocas del Boletín. Los trabajos se centran en distintos temas tales como predicción a nivel macroeconómico y empresarial de especial relevancia en los momentos actuales, análisis de inflación y política económica europea.

Por todo ello, felicitamos al Boletín por su nº 100 y a su Director y colaboradores, y esperamos seguir contando mucho tiempo más con una publicación ya consolidada, prestigiosa y que se elabora desde la Universidad.

Gregorio Peces-Barba Martínez Rector de la Universidad Carlos III de Madrid

It is an enormous source of satisfaction to present this special issue of the Bulletin on Inflation and Macroeconomic Analysis (BIMA) prepared by the Instituto Flores de Lemus, of the Universidad Carlos III in Madrid, for I have witnessed the work and enthusiasm with which it has been edited, and the tremendous evolution of its content and distribution. And I would like to express my pride in the prestige and impact of its first 100 issues.

The Bulletin’s Director, Professor Antoni

Espasa, has contributed his academic integrity and his total dedication to this project, and his work is well worthy of acknowledgement. It is worth mentioning that it is precisely a complex procedure designed by Professor Espasa himself that is used to prepare the econometric inflation forecasts which are the Bulletin’s primary objective, and with which the Instituto Flores de Lemus participates in the European Central Bank’s quarterly professional forecaster survey, and contributes to Consensus Forecasts on a monthly basis.

This internationally available university publication receives financial backing from the University, supplemented with subscriptions and sponsorships, and I would like to express my gratitude for this support, so important in the university field. Moreover, its results are often quoted in the Spanish media, and occasionally in the foreign press.

This extraordinary issue includes contributions from renowned personalities, as has been the case in different sections and at different stages of the Bulletin’s history. The articles are centred on different issues, such as forecasting on a macroeconomic and business level, particularly significant at the moment, inflation analyses and European economic policy.

We therefore congratulate the Director and his collaborators on issue number 100 of the Bulletin, and hope to continue to enjoy this consolidated and prestigious publication, edited at the University.

Gregorio Peces-Barba Martínez Rector

Universidad Carlos III de Madrid

Page 9: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 6

Antoni Espasa

BOLETÍN DE INFLACIÓN Y ANÁLISIS MACROECONÓMICO: HISTORIA, METODOLOGÍA, PERSPECTIVAS FUTURAS Y AGRADECIMIENTO.

Antoni Espasa

BULLETIN OF EU AND US INFLATION AND MACROECONOMIC ANALYSIS :

HISTORY, METHODOLOGY, FUTURE PERSPECTIVES AND

ACKNOWLEDGEMENT.

Antoni Espasa

Page 10: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 7

Antoni Espasa

En octubre de 1994 el Laboratorio de Predicción y Análisis Macroeconómico del Instituto Flores de Lemus de la Universidad Carlos III de Madrid empezó a publicar el Boletín de Inflación y Análisis Macroeconómico. Su extensión era de cuatro hojas, se refería exclusivamente a la economía española y presentaba predicciones de inflación, dando un desglose sectorial básico que aumentaba la garantía de las predicciones. A su vez, el detalle de las diferentes situaciones sectoriales constituía una información relevante para realizar un diagnostico que resultase de utilidad a los agentes empresariales e individuales y autoridades económicas. De hecho en los años siguientes el Boletín se amplió con mayor contenido en cuanto al diagnóstico que se derivaba de las predicciones de inflación junto con la evolución general de la economía española. Seguidamente el Boletín pasó a incluir predicciones de las principales macromagnitudes y un análisis más detallado de la economía española, que también se recogían en la revista Economic Forecasts. Todo este desarrollo fue seguido por la incorporación al Boletín, a través de una nueva sección de Temas a Debate, de trabajos de expertos externos, tanto de naturaleza macroeconómica, sectorial, empresarial y de política económica, como de carácter metodológico y econométrico. Durante los tres últimos años han contribuido en esta sección: Emilio Albi, Luc Buawens, Luis C. Currais, Philip Hans Franses, Fernando García-Belenguer, Dolores García Martos, Ignacio González Veiga, David Hendry, José A. Herce, Mario Izquierdo, Jordi Jaumandreu, Juan F. Jimeno, Oscar Jordá, Omar Licandro, Alberto Maydeu, Iván Mayo Burgos, María Jesús Nieto, Les Oxley, Enrique M. Quillis, Julio Rodríguez López, Ma. Jesús San Segundo, Manuel Santos, Nico Valckx, David Veredas y Arnold Zellner. En 1998 se empezaron a realizar ya predicciones de inflación sobre los países europeos y Estados Unidos y en 1999 sobre la Unión Monetaria y Económica y sobre la Unión Europea.

Las predicciones de inflación en el Boletín se han caracterizado por ser puras predicciones

The Macroeconomic Forecast and Analysis Laboratory of the Instituto Flores de Lemus at the Universidad Carlos III in Madrid started to publish the Bulletin of EU and US Inflation and Macroeconomic Analysis in October, 1994. It was then four pages long, referred exclusively to the Spanish economy and presented inflation forecasts, justified by a basic sector-by-sector analysis. In turn, the detailed sectorial breakdown provided relevant information for a diagnosis of use for business and individual agents and economic authorities. In the following years, there was an increase in the information contained in the Bulletin concerning the diagnosis derived from the inflation forecasts together with the evolution of the Spanish economy in general. The Bulletin then began to include a forecast of the principal macroeconomic figures and a more detailed analysis of the Spanish economy, which was also published in Economic Forecasts. All this was followed by a new Issues for Debate section in which we published work by external experts both on macroeconomic, sectorial, business and economic policy-related issues and of a methodological and econometric nature. Over the last three years, this section has included articles by: Emilio Albi, Luc Bauwens, Luis C. Currais , Philip Hans Franses, Fernando García-Belenguer, Dolores García Martos, Ignacio González Veiga, David Hendry, José A. Herce, Mario Izquierdo, Jordi Jaumandreu, Juan F. Jimeno, Oscar Jordá, Omar Licandro, Alberto Maydeu, Iván Mayo Burgos, María Jesús Nieto, Les Oxley, Enrique M. Quillis, Julio Rodríguez López, Ma. Jesús San Segundo, Manuel Santos, Nico Valckx, David Veredas y Arnold Zellner. Inflation forecasts for European countries and the United States were incorporated in 1998, followed by the Economic Monetary and Union and the European Union in 1999.

The Bulletin’s inflation forecasts are characteristically pure econometric predictions, the results of broad and complex econometric models unadjusted for subjective judgements. The lack of subjective adjustments does not mean that when we know that a new event that is going to affect inflation (for example, changes in indirect taxation in different countries, sales prices being included in the CPI calculations for a certain country, etc.) is going

Page 11: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 8

econométricas, es decir, resultantes de modelos econométricos sin ningún tipo de ajuste subjetivo y por obtenerse mediante una modelización amplia y compleja. La no aplicación de ajustes subjetivos no implica que cuando se conoce que en el futuro va a ocurrir o está planificado un hecho nuevo que va a afectar a la inflación no se tengan en cuenta sus efectos. Por ejemplo, cambios en la imposición indirecta en diferentes países, introducción de los precios de las rebajas en el cálculo del IPC de un país concreto, etc. Estos efectos se estiman en función de información pasada en el país en cuestión o en otros países y se introducen a través de nuevas variables en el modelo econométrico.

La metodología de predicción se basa en tres aspectos fundamentales. El primero consiste en desagregar el correspondiente índice de precios al consumo en distintos componentes, como forma relevante de aumentar la información sobre los diversos factores determinantes de los distintas tendencias, estacionalidades y oscilaciones de corto plazo de los precios al consumo incluidos en el índice agregado. El segundo aspecto se refiere a la inclusión en los modelos de indicadores adelantados generales o particulares y el tercero al uso de esquemas no lineales, si son necesarios. En Espasa et al. (1987) y Lorenzo (1997)1 se desarrolla esta metodología para la inflación en España y en Espasa et al.(2002a) y Espasa et al.(2002b)2, para la inflación en Europa y Estados Unidos, respectivamente. La desagregación utilizada depende de la posibilidad de predecir bien todos los componentes resultantes. Eso requiere una metodología econométrica compleja, por ejemplo modelos no lineales en algunos casos, y, sobre todo, información específica sobre los factores determinantes de la evolución de los componentes. Esto último a veces puede ser complicado de obtener. En consecuencia la desagregación utilizada actualmente en el caso español es de 30 a 40 componentes, en el caso de Estados Unidos de 12 a 15 y en el caso de la

to occur or is planned for the future, its impact is ignored. These effects are estimated from past information relating to the country concerned, or other countries, and included in the econometric model in the form of new variables.

Forecast methodology is based on three fundamental aspects. The first consists of breaking down the consumer price index in question into different components, as a means of increasing our information on the different factors behind the trends, seasonal and short-term fluctuations affecting the consumer prices included in the aggregate index. The second aspect refers to the inclusion of general or specific leading indicators in the models, and the third to the use of non-linear structures, if necessary. Espasa et al. (1987) and Lorenzo (1997)3 develop this methodology for inflation in Spain and Espasa et al.(2002a) and Espasa et al.(2002b)4, for inflation in Europe and the United States, respectively. The breakdown used depends on the possibility of predicting all the resulting components correctly. This requires a complex econometric methodology, such as non-linear models in some cases, and, above all, specific information related to the components, which is often difficult to obtain. Consequently, the breakdown currently used for Spain consists of 30 to 40 components, from 12 to 15 for the United States and from 7 to 8 for the Monetary Union. However, as the information and modelling problems mentioned earlier are solved, the level of disaggregation can be increased if required to improve the accuracy of the forecast. The models currently used are not causal, since the agents require monthly inflation forecast updates and causal models have largely been developed on a quarterly basis. The construction of monthly models is certainly feasible, and we hope to provide forecasts based on this type of model in the not too distant future.

1 Espasa, A., Matea M.,Manzano M. y Catasús V. 1987, “La inflación subyacente en la economía española: estimación y metodología”, Boletín Económico, Banco de España, marzo. - Lorenzo F, (1997) “Modelización de la inflación con fines de predicción y diagnóstico”, Tesis Doctoral, Departamento de Estadística y Econometría, Universidad Carlos III de Madrid, septiembre 1997. 2 Espasa, A, Espasa, A., Matea M.,Manzano M. y Catasús V. 1987, “La inflación subyacente en la economía española: estimación y metodología”, Boletín Económico, Banco de España, marzo. - Lorenzo F, (1997) Tesis Doctoral “Modelización de la inflación con fines de predicción y diagnóstico”, Tesis Doctoral, Departamento de Estadística y Econometría, Universidad Carlos III de Madrid, septiembre 1997. 3 Espasa, A, Senra E. y Albacete R. (2002a) “Forecasting EMU inflation: A disaggregated approach by countries and by sectors”, en The European Journal of Finance, v. 8, pp. 402-421.- Espasa A, Poncela P., Senra E, (2002b) “Forecasting monthly US consumer price indexes through a disaggregatted I(2) Analysis. Working Paper 02-03. Universidad Carlos III de Madrid. 4 Espasa, A, Senra E. y Albacete R. (2002a) “Forecasting EMU inflation: A disaggregated approach by countries and by sectors”, en The European Journal of Finance, v. 8, pp. 402-421.- Espasa A, Poncela P., Senra E, (2002b) “Forecasting monthly US consumer price indexes through a disaggregatted I(2) Analysis. Working Paper 02-03. Universidad Carlos III de Madrid.

Page 12: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 9

Estados Unidos de 12 a 15 y en el caso de la Unión Monetaria 7 ó 8. No obstante a medida que se van resolviendo los inconvenientes de información y modelización mencionados, el nivel de la desagregación se puede ampliar, si es conveniente para mejorar la precisión en la predicción. Los modelos empleados por el momento no son modelos causales, pues los agentes requieren actualizaciones mensuales de las predicciones de inflación y los modelos causales sobre el tema se han desarrollado preferentemente a nivel trimestral. La construcción de modelos causales mensuales es ciertamente factible y en un futuro no muy lejano esperamos poder dar predicciones basadas en este tipo de modelos. Aunque en la actualidad los modelos empleados en el Boletín no son causales, el hecho de predecir no sólo la inflación agregada, sino también la inflación en distintos sectores y en diferentes países, proporciona pautas sólidas sobre la importancia de ciertos factores en la evolución de la inflación. Así, el hecho de que la inflación subyacente en la Unión Monetaria para el año 2002 se estuviese prediciendo a lo largo de 2001 y última parte del 2000 en valores muy estables superiores al 2%, indicaba que las predicciones ligeramente a la baja de inflación total que en esos momentos también se daban para el 2002, no se basaban tanto en una evolución favorable de factores inflacionistas internos, sino principalmente en el comportamiento previsto para ciertos factores externos como la evolución de los precios internacionales del crudo. Dado que las innovaciones que afectan el índice de precios sobre el que se calcula la inflación subyacente son más persistentes y tienen en el largo plazo un efecto multiplicador mayor que las innovaciones en los demás precios, ese tipo de predicción desglosada indicaba que la situación inflacionista en la zona euro no estaba mejorando substancialmente. Dado el objetivo específico que se ha impuesto el BCE, el comportamiento de esta institución en ese período de tiempo ha sido acorde con las predicciones mencionadas.

Although the models currently employed in the Bulletin are not causal, the fact that we predict not only aggregate inflation, but also inflation in different sectors and countries, provides solid indications of the importance of certain factors in the evolution of inflation. The fact that underlying inflation in the Monetary Union for 2002 was forecast throughout 2001 and in the last few months of 2000 at stable values above 2%, indicated that the slightly lower total inflation forecasts also presented at the time for 2002 were not so much based on a favourable evolution of internal inflationist factors, but primarily on the predicted behaviour of certain external factors, such as the evolution of international crude oil prices. Since the innovations affecting the price index from which underlying inflation is calculated are more persistent and have a greater long-term multiplying impact than other price innovations, this type of disaggregate forecast indicated that the inflationist situation in the euro zone was not improving in a substantial manner. Given the specific objective established by the ECB, the institution’s behaviour during this period was in accordance with these forecasts.

Another example refers to inflation in manufactured products, excluding food and energy, which has been negative in the United States since 1997, and positive in the euro zone. Different factors are evidently responsible for the enormous inflation differential between the two economic areas in this market, but its persistence, and the forecast for 2003 and 2004, indicate that one significant factor is the different level of technological implantation in the two economies. While monthly causal inflation models are designed, one alternative way of performing a causal analysis is to use a regression model to relate the forecasts obtained in the Bulletin with those generated by a quarterly causal model. We use Dreger’s model (2002)5 for the euro zone. The explanation of the causal model is thus applied to our forecasts and the regression residuals can in turn be interpreted as the impact of the heterogeneous evolution of prices in the different sectors on total inflation.

A modo de otro ejemplo se tiene que la inflación en los mercados de bienes, excluidos alimentación y energía, viene siendo negativa en Estados Unidos desde 1997, y positiva en la zona euro. Sin duda, distintos factores son

An analysis of this kind is included in issue number 100 of the Bulletin, showing that the upwards pressure brought to bear on inflation by the monetary policy of the ECB is compensated by the downwards pressure

Page 13: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 10

zona euro. Sin duda, distintos factores son responsables de ese enorme diferencial de inflación en ese mercado de bienes entre ambas zonas económicas, pero la persistencia del diferencial y su predicción para 2003, 2004 indican que un factor importante en su determinación es el diferente nivel de incorporación tecnológica en ambas economías. Mientras se construyen modelos mensuales causales para la inflación una forma alternativa de llevar a cabo un estudio causal es relacionando -mediante un modelo de regresión- las predicciones obtenidas en el Boletín con las generadas por un modelo trimestral causal. En nuestro caso, para la zona euro utilizamos el modelo de Dreger (2002)6. Con ello la explicación del modelo causal se traslada a nuestras predicciones y el residuo de la predicción a su vez se puede interpretar como el efecto que la heterogénea evolución de los precios en los distintos sectores tiene en la inflación total. Un análisis de este tipo se recoge en el número 100 habitual del Boletín. De ese análisis resulta que la fuerte presión actual al alza en la inflación procedente de la política monetaria del BCE se cancela por la presión a la baja que ejerce la brecha existente entre la producción potencial y la real y el diferencial entre los precios al consumo y la tendencia de los costes laborales unitarios. Tales resultados indican que, dadas las circunstancias mencionadas, la política monetaria laxa puede continuar y afirmarse en 2003. Los planes del Boletín hacia el futuro quedan esbozados en lo que antecede y ciertamente consisten en aumentar la precisión de inflación y su explicación causal en las economías de Estados Unidos, zona euro, España y demás países de la Unión. Al mismo tiempo, se desarrollarán mejores predicciones para el cuadro macroeconómico de la zona euro. En la versión española el Boletín incluye ya un análisis macroeconómico, y de la inflación en particular, para la economía de la Comunidad de Madrid y existen planes para ampliarlos a otras comunidades autónomas. La versión española incluye también una encuesta financiera trimestral que lleva a cabo Pablo Gaya.

compensated by the downwards pressure derived from the gap between potential and actual production and the difference between consumer prices and unit labour cost trends. These results indicate that a slack monetary policy can continue and become affirmed in 2003. The above provides a rough sketch of the Bulletin’s plans for the future, which certainly include increasing the accuracy of inflation and its causal explanation in the economies of the United States, euro zone, Spain and other Union countries. At the same time, we will develop better forecasts for the macroeconomic figures in the euro zone. The Spanish version of the Bulletin already includes a macroeconomic analysis, and on inflation in particular, for the Community of Madrid, and there are plans to broaden its scope to include other autonomous regions. It also includes a quarterly financial survey conducted by Pablo Gaya. Work on the Bulletin since 1993 has been possible thanks to an excellent group of tireless collaborators. A special mention should be made of those who, during this period, have been responsible for coordinating the Bulletin. In chronological order, they are Fernando Lorenzo, Eva Senra and Rebeca Albacete. For our inflation forecasts over the years, we have had the collaboration of Antonio Garre, Arsinoé Lamadriz, Lorena Saíz and Ángel Sánchez, and our macroeconomic forecasts at national and regional levels have been thanks to José Ramón Cancelo, Nicolás Carrasco, Fermín Ezquer, Mª Dolores García-Martos, José Felix Izquierdo, José Manuel Martínez, Román Mínguez, Israel Muñoz and Juan Tena. Sergi Jiménez and Franco Perachi have analysed the labour markets and the composition of the Bulletin has been coordinated by Magdalena Nantes, Edita Pereira, Reyes Henández, Gema Marcelo and Mónica López. Others collaborators, César Castro, Mª José Garzón, Ana Belen Jaura and Gerardo Malvido. This Bulletin is in debt with them for the time they have dedicated to this project. Although these technical collaborations are essential, the Bulletin has been published for the last hundred months thanks to the moral

5 Estamos muy agradecidos a Christian Dreger por facilitarnos su modelo y por los continuos comentarios que sobre el mismo nos ha hecho. Sin su valiosa colaboración este estudio causal hubiese sido imposible. Dreger, C. (2002), "A Macroeconometric model for the Euro area", Institute for Economic Research Halle (IWH), manuscrito. 6We are very grateful to Christian Dreger for providing us with his model and for his ongoing comments. This causal study would not have been possible without his valuable collaboration. Dreger, C. (2002), "A Macroeconometric model for the Euro area", Institute for Economic Research Halle (IWH), manuscript.

Page 14: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 11

que lleva a cabo Pablo Gaya. La labor realizada en el Boletín desde el 1993 ha sido posible gracias a un conjunto excelente de incansables colaboradores. De entre ellos es necesario destacar los que en diferentes momentos de este período han tenido la responsabilidad de coordinar el Boletín que, por orden cronológico, han sido Fernando Lorenzo, Eva Senra y Rebeca Albacete. En el estudio y predicción de la inflación a lo largo de estos años se ha contado con la colaboración de Antonio Garre, Arsinoé Lamadriz, Lorena Saíz y Ángel Sánchez,. En la predicción y análisis macroeconómicos a nivel nacional y de comunidad autónoma hay que destacar la colaboración de José Ramón Cancelo, Nicolás Carrasco, Fermín Ezquer, Mª Dolores García-Martos, José Felix Izquierdo, José Manuel Martínez, Román Minguez, Israel Muñoz y Juan Tena. En el análisis de los mercados de trabajo a Sergi Jiménez y Franco Perachi. En la composición del Boletín a Magdalena Nantes, Edita Pereira, Reyes Henández, Gema Marcelo y Mónica López. Otros colaboradores, César Castro, Mª José Garzón, Ana Belen Jaura y Gerardo Malvido. Con todos ellos este Boletín tiene la deuda impagable de haber dedicado su mejor tiempo. Siendo imprescindibles las colaboraciones técnicas, el Boletín se viene publicando desde hace cien meses gracias al apoyo moral y financiero recibido de distintas instituciones. De entre ellas hay que destacar a la Universidad Carlos III de Madrid y a la Fundación Carlos III. Esta última viene apoyando este proyecto, prácticamente desde su aparición, y sin su asegurada contribución el Boletín hubiese desaparecido en alguno de los diversos momentos difíciles por los que ha atravesado. Tras todo ello ha estado el apoyo del rector de la universidad Prof. Gregorio Peces-Barba. Su confianza continua y desde el principio en la validez de este proyecto y la certeza de que mantendría su apoyo al mismo, ha proporcionado a todos cuantos participamos en el Boletín la seguridad y estímulo que se necesita para mantener un proyecto de este tipo. El Boletín se ha visto también apoyado con firmeza por el Instituto Flores de Lemus de Estudios Avanzados en Economía de la Universidad Carlos III de Madrid. El Boletín pudo empezar su andadura gracias al convencimiento que sobre el proyecto tuvo y nos transmitió el entonces director del Instituto, Juan Urrutia. En esos momentos fue también

the last hundred months thanks to the moral and financial support received from different institutions, particularly the Universidad Carlos III in Madrid and the Carlos III Foundation. The latter has backed the project practically since it first appeared, and without its unfaltering contribution, the Bulletin would have disappeared in one of the several difficult periods that it has experienced. This has been due to the support of the University’s chancellor, Prof. Gregorio Peces-Barba. The faith he has shown in the validity of the project from the very beginning, and his assurance that it had his steadfast support, has sustained all those who have been involved in the Bulletin, for whom it has been a driving force providing constant encouragement. The Bulletin also has the firm support of the Instituto Flores de Lemus for Advanced Economic Studies of the Universidad Carlos III in Madrid. It came about thanks to the faith that the then director of the Institute, Juan Urrutia, had in the project and transmitted to us. At the time, the valuable suggestions and wise remarks of Carlos Escribano were also very important. This extraordinary issue of the Bulletin on Inflation and Macroeconomic Analysis is also a tribute to the personality and professional standing of the late Carlos Escribano. Since 2000, the Department of Economy and Technological Innovation of the Community of Madrid, has been financing the study on inflation in this regional economy, which is published regularly in the Spanish version of the Bulletin. Its continued support is helping us to consolidate the growth of this project. Over the years, different institutions have provided special sponsorship for our publication. They are Caja Madrid, Corporación Bancaria Argentaria and Price Waterhouse. The support of the Ministry of Education’s Directorate General for Education, within its special action programme, was significant at a critical time. Other collaborators were Banesto, BBVA, Caja General, Instituto de la Empresa Familiar and Fundación Retevisión. With regards to this special issue, the person behind the idea was Juan Urrutia. His ideas and the financial support of the Urrutia-Elejalde Foundation have been decisive and this extraordinary issue would neither have been conceived nor published without them.

Page 15: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 12

Juan Urrutia. En esos momentos fue también muy importante poder contar con las valiosas sugerencias y acertados comentarios de Carlos Escribano. Esta edición extraordinaria del Boletín de Inflación y Análisis Macroeconómico quiere servir también para conmemorar la personalidad y profesionalidad de Carlos Escribano. Desde el año 2000 la Consejería de Economía e Innovación Tecnológica de la Comunidad de Madrid viene financiando el estudio sobre inflación en dicha comunidad que se publica regularmente en la versión de castellano del Boletín. Su continuado apoyo está permitiendo consolidar la expansión de este proyecto. Durante todos estos años diversas instituciones han realizado un patrocinio especial de nuestra publicación. Estas son Caja Madrid, la Corporación Bancaria Argentaria y Price Waterhouse. Una ayuda de la dirección General de Educación del Ministerio de Educación dentro de su programa de acciones especiales fue muy relevante en momentos críticos para esta publicación. Otras entidades colaboradoras han sido: Banesto, BBVA, Caja General, Instituto de la Empresa Familiar y Fundación Retevisión. Respecto a este número especial es necesario destacar que el promotor y responsable de la idea ha sido Juan Urrutia. Sus ideas y sugerencias y el apoyo financiero de la Fundación Urrutia-Elejalde han sido determinantes para la realización del mismo. Sin ellos esta edición extraordinaria no se hubiese concebido ni llevado a cabo. Este número 100 del Boletín de Inflación y Análisis Macroeconómico cuenta con la colaboración de un conjunto excepcional de académicos y economistas. Sus contribuciones están agrupadas en cinco epígrafes. Tras este epígrafe de presentación, en el segundo dedicado a la Política Económica Europea, Pedro Solbes escribe sobre el “Reforzamiento de la Coordinación de las Políticas Presupuestarias”. El tercero, sobre el tema de Modelos y Análisis Macroeconómicos, recoge las contribuciones de Michele Boldrin, “Argentina: Las Fábulas y los Hechos”, y de Miguel Sebastián y David Taguas, “La Utilización de Modelos en el Diseño de la Política Económica”. El cuarto epígrafe, sobre Inflación, incorpora la contribución de José Luis Feito, “Causas y Remedios del Diferencial de Inflación”. En el quinto epígrafe dedicado a Predicción se

This issue number 100 of the Bulletin on Inflation and Macroeconomic Analysis has the collaboration of an exceptional group of academics and economists. Their contributions are grouped under five headings. After this introduction, in the second section concerning European Economic Policy, Pedro Solbes writes on “Reinforcing the Coordination of Budgetary Policies”. The third heading, on Macroeconomic Models and Analysis, includes articles by Michele Boldrin “Argentina: Las Fábulas y los Hechos”, and by Miguel Sebastián and David Taguas “La Utilización de Modelos en el Diseño de la Política Económica”. The fourth section, Inflation, includes a contribution from José Luis Feito, “Causas y Remedios del Diferencial de Inflación”. The fifth heading, Forecasting, includes articles by Clive Granger, “Forecasting Structural Breaks”, David Hendry, “Forecasting Pitfalls”, Maximiliano Marcellino, “The EFN Experience in Forecasting Euro Area Macroeconomic Variables”, Ken Wallis, “Forecast Uncertainty, its Representation and Evaluation ” and Arnold Zellner, “Econometric Models and Forecasting”. Finally, the sixth section, Business Economy and Forecasting in large corporations, includes articles by Juan Carlos Delrieu, “The Value of Business Forecasting in Non-Financial Companies: Consistency, Anticipation and Monitoring” and Vicente Salas, “La Economía de las Empresas”. Finally, in this special edition we would like to thank all the aforementioned persons and institutions, and our large number of subscribers, whose faith in our work is the best possible reward for all those involved in the Bulletin. Our thanks to you all.

Page 16: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 13

quinto epígrafe dedicado a Predicción se cuenta con los trabajos de Clive Granger, “Forecasting Structural Breaks”, David Hendry, “Forecasting Pitfalls”, Maximiliano Marcellino, “The EFN Experience in Forecasting Euro Area Macroeconomic Variables”, Ken Wallis, “Forecast Uncertainty, its Representation and Evaluation” y Arnold Zellner, “Econometric Models and Forecasting”. Finalmente en el sexto epígrafe sobre la Economía de Empresa y Predicción en las Grandes Empresas, se cuenta con los trabajos de Juan Carlos Delrieu, “The Value of Business Forecasting in Non-Financial Companies: Consistency, Anticipation and Monitoring” y Vicente Salas, “La Economía de las Empresas”. Finalmente con esta edición especial queremos expresar nuestros agradecimientos a todas las personas e instituciones ya mencionadas y al nutrido grupo de suscriptores, cuya confianza en nuestro trabajo, es la mejor recompensa que todas las personas involucradas en este Boletín hemos podido recibir. A todos muchas gracias.

Page 17: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 14

II. POLÍTICA ECONÓMICA EUROPEA 3. Strengthening the co-ordination of budgetary policies /

Reforzamiento de la coordinación de las políticas presupuestarias, Pedro Solbes

Page 18: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 15

Pedro Sobes Mira

REFORZAMIENTO DE LA COORDINACIÓN DE LAS POLÍTICAS

PRESUPUESTARIAS

Pedro Solbes Mira Comisario para Asuntos Económicos y

Financieros

STRENGTHENING THE CO-ORDINATION OF BUDGETARY POLICIES

By: Pedro Solbes Mira Commissioner for Economic and Financial

Affairs

Page 19: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 16

Pedro Solbes

1) Introducción

El nº 100 del Boletín ‘Inflación en la UE y los EEUU y análisis macroeconómicos' coincide con el cuarto aniversario del euro. La experiencia en el marco de la política fiscal, según lo dispuesto en el Tratado y en el Pacto de Estabilidad y Crecimiento (PEC), ha sido en general positiva. El fundamento en que se basa nuestro actual marco político sigue siendo tan válido como siempre, pero en estos cuatro años de aplicación del PEC han surgido también oportunidades para mejorar el marco actual. Es precisamente por ese motivo que, el 27 de noviembre, la Comisión Europea adoptó su Comunicación sobre el reforzamiento de la coordinación de las políticas presupuestarias7. El mensaje básico es que el PEC sigue siendo el marco apropiado para la definición de las políticas presupuestarias, pero que su aplicación y ejecución pueden mejorarse. En este contexto, esta breve aportación presenta las propuestas de la Comunicación. La sección 2 recuerda brevemente el fundamento para unas finanzas públicas saneadas en la UEM y las normas básicas del Tratado y el PEC para coordinar las políticas presupuestarias. La sección 3 discute el ritmo de la consolidación fiscal durante el período preparatorio de la UEM y después de su comienzo, mostrando unos resultados presupuestarios desiguales desde 1999. La sección 4 elabora la tesis de que el actual marco político basado en reglamentaciones para la coordinación de las políticas presupuestarias sigue siendo apropiado, pero cuya aplicación debe reforzarse. A continuación, se presentan las propuestas concretas para la mejora del marco actual en las secciones 5 y 6.

1) Introduction The nº. 100 issue of this ‘Bulletin on Inflation and Macroeconomic Analyses’ coincides with the fourth birthday of the Euro. Experience with the fiscal policy framework as specified in the Treaty and the Stability and Growth Pact (SGP) has generally been positive. The basic rationale underlying our present policy framework remains as valid as ever, but four years of implementing the SGP have also highlighted opportunities for improving the current framework. It is exactly for this reason that on 27 November the European Commission adopted its Communication on Strengthening the co-ordination of budgetary policies8. The basic message is that the SGP remains the appropriate framework for the conduct of budgetary policies, but that its implementation and enforcement can be improved. Against this background this short contribution presents the proposals of the Communication. Section 2 briefly recalls the rationale for sound public finances in EMU and the basic rules of the Treaty and the SGP for co-ordinating budgetary policies. Section 3 discusses the pace of fiscal consolidation during the run-up to EMU and after the start of EMU, demonstrating a mixed budgetary performance since 1999. Section 4 elaborates the point that the existing rule-based policy framework for co-ordinating budgetary policies remains appropriate, but that its implementation needs to be enhanced. Subsequently, the concrete proposals for improvement are presented in Sections 5 and 6.

7 COM (2002) 668 del 27.11.02. 8 COM (2002) 668 of 27.11.02.

Page 20: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 17

2) Marco normativo para coordinar las políticas fiscales en la UEM Lograr unas finanzas públicas saneadas constituye un objetivo esencial de la UEM. Contribuyen al crecimiento y al empleo sostenibles tanto como la política monetaria, que persigue la estabilidad de los precios a medio plazo. Por otra parte, las finanzas públicas saneadas reducen la deuda pública, y por tanto la carga de intereses, y crean el margen necesario para que los estabilizadores automáticos actúen plenamente y para llevar a cabo reformas estructurales muy necesarias, como los aumentos en inversión productiva o las reformas impositivas. Para garantizar unas finanzas públicas saneadas en la UEM, se ha establecido un marco normativo único para la coordinación de las políticas presupuestarias. Este marco refleja el hecho de que la responsabilidad de la política monetaria única se confía al Banco Central Europeo, que es independiente, mientras que la responsabilidad de las políticas presupuestarias sigue descentralizada, recayendo en las autoridades nacionales, bajo ciertas condiciones. La coordinación de la política fiscal se basa en la exigencia del Tratado de que los Estados miembros eviten déficits excesivos, definidos como déficit de las administraciones públicas superiores al 3% del PIB, y mantengan la deuda pública por debajo del 60% del PIB (o disminuyendo a un ritmo satisfactorio hacia el valor de referencia). Con el fin de reforzar los aspectos preventivos de este marco y ayudar a los Estados miembros a evitar un déficit excesivo, las exigencias del Tratado fueron completadas por el Pacto de Estabilidad y Crecimiento (que consta de dos reglamentos del Consejo y compromisos políticos solemnes incluidos en una Resolución del Consejo Europeo de Amsterdam de 1997)9. El PEC impone a los Estados miembros la obligación de lograr y mantener posiciones presupuestarias de 'proximidad al equilibrio o con superávit'10. Con esto se pretende garantizar que la política fiscal contribuya a que la política

2) The rules-based framework for co-ordinating fiscal policies in EMU Sound public finances are at the core of EMU. They contribute to sustainable growth and employment as does monetary policy, which pursues price stability over the medium term. Moreover, sound public finances reduce public debt, and consequently the interest burden, and create room both for the automatic stabilisers to play fully and for much needed structural reforms, including increases in productive investment or tax reforms. To ensure sound public finances in EMU, a unique rules-based framework for the co-ordination of budgetary policies in EMU has been established. This framework reflects the fact that the responsibility for the single monetary policy is entrusted to an independent European Central Bank whilst responsibility for budgetary policies remains decentralised in the hands of national authorities, subject to certain constraints. Fiscal policy coordination is founded on the Treaty requirement for Member States to avoid excessive deficit positions defined as general government deficits below 3% of GDP and the general government debt level remaining below 60% of GDP (or diminishing at a satisfactory pace towards the reference value). In order to reinforce the preventive aspects of this framework and to help Member States avoid excessive deficit positions, the Treaty requirements were complemented by the Stability and Growth Pact (consisting of two Council Regulations and solemn political commitments enshrined in a Resolution of the 1997 Amsterdam European Council).11 The SGP establishes a requirement for Member States to achieve and maintain budgetary positions of ‘close to balance or in surplus’.12 This is meant to ensure that fiscal policy contributes to an environment in which monetary policy can effectively maintain price stability whilst being growth supportive. Moreover, by maintaining a budget position of ‘close to balance or in surplus’, Member States have the necessary room for manoeuvre for cyclical stabilisation through the working of the automatic stabilisers without the 3% of

9 DO L 209 de 2.8.1997 y DO C 236 de 2.8.1997. 10 Las normas presupuestarias están respaldadas por procedimientos de supervisión detallados y regulares. Los Estados miembros deben presentar anualmente programas de estabilidad y de convergencia en los que se establezca un objetivo a medio plazo acorde con la exigencia de "proximidad al equilibrio o superávit" y una senda hacia el logro de dicho objetivo. Los objetivos presupuestarios establecidos en el programa, así como el cumplimiento con los compromisos anteriores, están sujetos a un intensivo control mutuo por parte de la Comisión y los Estados miembros en el seno del Consejo. 11 OJ L 209 of 2.81997 and OJ C 236 of 2.8.1997. 12 These budgetary rules are backed up with detailed and regular surveillance procedures. Member States are required, on an annual basis, to submit stability or convergence programmes in which they set down a medium-term target that meets the ‘close to balance or in surplus’ requirement’ and an adjustment path towards it. The budgetary targets set down in the programme, as well as compliance with previous commitments, are subject to intens ive peer review by the Commission, Member States and the Council.

Page 21: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 18

política fiscal contribuya a que la política monetaria pueda mantener efectivamente la estabilidad de precios reforzando al mismo tiempo el crecimiento. Además, al mantener una situación presupuestaria de "proximidad al equilibrio o superávit", los Estados miembros disponen del margen de maniobra necesario para la estabilización cíclica a través del funcionamiento de los estabilizadores automáticos, sin que se rebase el valor de referencia para el déficit, equivalente al 3% del PIB. Es también un objetivo a medio y largo plazo apropiado en vista de la necesidad de reducir los niveles de deuda por causa del envejecimiento de la población.

the automatic stabilisers without the 3% of GDP reference value for deficits being breached. It is also an appropriate medium and long-term goal given the need to bring down debt levels in the light of ageing populations. 3) The facts: mixed performance since 1999 In 1993, the year when the Maastricht Treaty entered into force, the euro area registered a historically high budget deficit ratio of 5.5% of GDP. Faced with the inevitable need of putting public f inances on a sounder footing, policy makers enacted a strong adjustment.The actual budget deficit fell by

3) Los hechos: rendimiento desigual desde 1999 En 1993, año en que entró en vigor el Tratado de Maastricht, la zona euro registraba un coeficiente de déficit presupuestario históricamente alto, del 5,5% del PIB. Ante la inevitable necesidad de sanear las finanzas públicas, los responsables políticos decretaron un severo ajuste. Entre 1993 y 1997, el déficit presupuestario real cayó 3,5 puntos en la zona euro. En este último año ha descendido por debajo del umbral del 3% del PIB en todos los Estados miembros salvo en Grecia, que lo consiguió en 1999. La experiencia de cuatro años de UEM muestra un rendimiento menos inequívoco. En un contexto de circunstancias económicas generalmente favorables, el déficit presupuestario de la zona euro ha mejorado, pasando de un nivel del 1,3% del PIB en 1999 al 0,9% del PIB en 200013. Pero posteriormente aumentó en 2002, alcanzando un nivel del 2,3% del PIB. El equilibrio presupuestario ajustado cíclicamente, que es un indicador más apropiado para evaluar los cambios de la posición presupuestaria puesto que tiene en cuenta la influencia del ciclo económico en el déficit presupuestario nominal, se ha deteriorado desde 1999; del 1,6% del PIB en 1999 al 1,7% del PIB en 2000, el 1,9% del PIB en 2001 y un nivel estimado para 2002 en el 2,0% del PIB. Con arreglo a esta evolución, se prevé que el nivel general de deuda bruta de la zona euro, que es especialmente pertinente para evaluar los progresos relativos a la viabilidad a medio o a largo plazo, aumente en 2002 por primera vez en muchos años, alcanzando un nivel del 69,6% del PIB.

3.5 percentage points in the euro area between1993 and 1997. In this last year it was brought back below the 3% GDP threshold in all Member States except Greece, which did so in 1999. The experience of four years of EMU shows a less unambiguous performance. In a context of generally favourable economic circumstances, the euro area budget deficit improved from a level of 1.3% of GDP in 1999 to a level of 0.9% of GDP in 200015. But it increased afterwards to reach a level of 2.3% of GDP in 2002. A budget deficit for the euro area reappeared afterwards and reached a level of 2.3% GDP in 2002. The cyclically adjusted budget balance, which is a more appropriate indicator for assessing changes in the budget position since it corrects for the influence of the economic cycle on the nominal budget deficit, shows a deterioration since 1999, from 1.6% GDP in 1999 to 1.7% GDP in 2000, 1.9% GDP in 2001 and a projected level of 2.0% GDP for 2002. In line with these developments, the euro area general gross debt level, which is particularly relevant for assessing developments regarding medium or long term sustainability, is projected to increase for the first time in many years in 2002, to a level of 69.6% GDP. In sum, the process of fiscal consolidation has stopped since 1999, and in some cases it has reversed. For the euro area as a whole, the favourable growth conditions in 1999 and 2000 were not sufficiently used to meet the requirements of the SGP. The deterioration in the euro area cyclically adjusted budget balance since 1999 can be attributed to unfunded tax cuts, expenditure overruns and

13 Incluyendo los ingresos del UMTS, se convirtió en un superávit del 0,1% del PIB. 15 Including UMTS proceeds, it turned into a surplus of 0.1% of GDP.

Page 22: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 19

En suma, el proceso de consolidación fiscal se ha detenido desde 1999, y en algunos casos se ha invertido. Para la zona euro en conjunto, no se aprovecharon lo bastante las condiciones favorables de crecimiento en 1999 y 2000 para cumplir los requisitos del PEC. El deterioro del equilibrio presupuestario ajustado cíclicamente de la zona euro desde 1999 puede atribuirse a los recortes impositivos no financiados con recortes compensatorios en el gasto, a la falta de control de los gastos y a los aumentos discrecionales del gasto público en algunos Estados miembros. Este panorama global oculta, sin embargo, resultados diferentes entre Estados miembros. Siete países de la zona euro y diez Estados miembros de la UE alcanzaron situaciones presupuestarias de "proximidad al equilibrio o superávit" en 2001. Los coeficientes deuda/PIB generalmente han seguido una tendencia decreciente, habiéndose registrado amplias reducciones en varios Estados miembros. Ello creó margen de maniobra para el funcionamiento de los estabilizadores automáticos durante la actual ralentización, lo que contrasta con anteriores fases descendentes en las que los gobiernos tuvieron que endurecer su política fiscal a fin de impedir que los niveles de deuda siguieran tendencias insostenibles. Además, varios Estados miembros han aplicado reformas fiscales ambiciosas, habiéndose observado mejoras en la orientación del gasto público hacia partidas más productivas favorables al crecimiento y el empleo. No obstante, algunos Estados miembros no han logrado completar la transición hacia el cumplimiento del requisito de "proximidad al equilibrio o superávit" del PEC. En Portugal, la deuda alcanzó el 4,1% del PIB en 2001 y, el 5 de noviembre de 2002, el Consejo aprobó una Decisión relativa a la existencia de un déficit excesivo. Para Alemania se prevé un déficit del 3,8% del PIB en 2002, y la Comisión, de conformidad con el apartado 3 del artículo 104 del Tratado, ha adoptado un informe sobre el riesgo de un déficit excesivo. La Comisión ha adoptado también una Recomendación para que el Consejo envíe un aviso de alerta temprana a Francia por desviarse significativamente de los objetivos presupuestarios de 2002 y porque su déficit para 2003 se prevé del 2,9% del PIB, peligrosamente próximo al valor de referencia

unfunded tax cuts, expenditure overruns and discretionary increases in public expenditures in some Member States. This aggregate picture hides diverging performances across Member States. Seven euro area countries and ten EU Member States reached cyclically adjusted budget positions of ‘close to balance or in surplus’ by 2001. Government debt to GDP ratios have generally been on a downward trajectory with large reductions being recorded in several Member States. This created room for the automatic stabilisers to operate during the current economic slowdown, which contrasts with previous downturns when governments had to tighten fiscal policies so as to prevent debt levels from entering unsustainable trajectories. In addition, several Member States have been able to pursue ambitious tax reform strategies and some improvements have been recorded in re-directing public expenditures towards more productive items that are conducive to growth and employment. The other Member States, however, have failed to complete the transition to the ‘close to balance or in surplus’ requirement of the SGP. The budget deficit level in Portugal reached 4.1% of GDP in 2001. As a consequence, the Council on 5 November 2002 adopted a Decision on the existence of an excessive deficit position. A budget deficit of 3.8% of GDP is forecast for Germany in 2002. The Commission has adopted a decsion under Article 104(5) of the Treaty on the existence of an excessive deficit. The Commission has also adopted a Recommendation for the Council to send an early-warning to France on account of a significant divergence from budget targets in 2002 and because its deficit for 2003 is projected to be 2.9% of GDP, perilously close to the 3% of GDP reference value.16 There are also worrying developments as regards government debt where slight increases have been recorded in several Member States. In this context, Italy and Greece give most cause for concern as their government debt levels remain well above 100% of GDP and very little progress was made in the past four years to reduce debt levels. These Member States could have been expected to record significant decreases in

16The Commission Recommendation for an early warning is based on Article 6.2 of Council regulation 1466/97 of 1997 on the strengthening of the surveillance of budgetary positions and the surveillance and co-ordination of economic policies.

Page 23: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 20

peligrosamente próximo al valor de referencia del 3% del PIB14. En cuanto a la deuda pública también se observan evoluciones preocupantes, habiéndose registrado ligeros aumentos en varios Estados miembros. Italia y Grecia presentan las situaciones más preocupantes con un endeudamiento que se mantiene muy por encima del 100% del PIB, y habiendo logrado pequeños avances en los últimos cuatro años en la reducción de su nivel de deuda. Estos Estados miembros podrían haber esperado registrar una reducción significativa de su proporción de deuda, pero esto no se concretó a causa principalmente de múltiples operaciones financieras de gran envergadura que implicaron un incremento de la deuda. Además, esta evolución ha tenido lugar a pesar de la reducción de los tipos de interés como consecuencia de la participación en la zona del euro. 4) Dificultades en la aplicación del PEC Los desafíos en términos de consolidación fiscal en un contexto de crecimiento más lento que el esperado, han provocado ciertas críticas al PEC. En cierto modo, cabía esperar que la cuestión relativa a la modificación de los requisitos básicos del Tratado y del PEC surgiría en el momento en que las normas comenzaran a ser imperativas. Al mismo tiempo, es precisamente en estas circunstancias cuando las normas tienen que ganarse la credibilidad y hacer valer su peso.

expected to record significant decreases in the debt ratio, but this did not materialise mainly on account of large and persistent debt increasing financial operations. Moreover, these developments took place despite the reduction in interest rates following their adoption of the euro. 4) Difficulties in implementing the SGP The challenges in terms of fiscal consolidation against a background of slower than expected growth has fuelled some criticism of the SGP. In a way, it could be expected that the issue of amending the core requirements of the Treaty and the SGP would come up at a time that the rules begin to bite. At the same time, it is exactly in these circumstances that the rules have to earn their credibility and establish their value. Furthermore, an assessment of the SGP by criteria as defined in the literature shows that the EU fiscal rules fare reasonably well in terms of being well defined, enforceable, transparent, simple, flexible and consistent with other policies17. In sum, it is evident that the existing rule based framework for the co-ordination of budgetary policy remains appropriate and is essential for the smooth functioning of EMU. The SGP goal of budgetary positions of ‘close to balance or in surplus’ remains an economically valid objective. Furthermore, a rules-based approach to the co-ordination of budgetary policies that relies on peer pressure can generate results provided it is accompanied by firm political commitments.

Además, una valoración del PEC en función de los criterios definidos en la literatura económica muestra que las normas fiscales de la UE son razonablemente adecuadas en el sentido de que están bien definidas y son ejecutivas, transparentes, simples, flexibles y coherentes con las demás líneas políticas18. En resumen, es evidente que el actual marco normativo para la coordinación de la política presupuestaria sigue siendo el apropiado, y es fundamental para el funcionamiento armónico de la UEM. El objetivo del PEC de lograr situaciones presupuestarias de "proximidad al equilibrio o superávit" sigue constituyendo un objetivo económico válido.

At the same time, recent events have highlighted a number of difficulties with the implementation of the SGP. They include: - Political ownership of the SGP by Member States has diminished. Member States continue to subscribe to the goals and objectives of the SGP. However, in some countries there has been a growing divergence between budgetary commitments and concrete actions to achieve stated targets. - It has been difficult to establish clear and verifiable budget objectives, which take account of underlying economic conditions.

14 La Recomendación de la Comisión relativa a un aviso preventivo se basa en el apartado 2 del artículo 6 del Reglamento (CE) n° 1466/97 del Consejo, de 7 de julio de 1997, relativo al reforzamiento de la supervisión de las situaciones presupuestarias y a la supervisión y coordinación de las políticas económicas. 17Marco Buti, Sylvester Eijffinger and Daniele Franco, ‘Revisiting the Stability and Growth Pact: Grand Design or Internal Adjustment?’ CEPR Discussion Papers No. 3692, January 2003. 18 Marco Buti, Sylvester Eijffinger y Daniele Franco, 'Revisiting the Stability and Growth Pact: Grand Design or Internal Adjustment' Documentos de debate del CEPR, nº 3692, enero de 2003.

Page 24: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 21

constituyendo un objetivo económico válido. Además, un enfoque reglamentario de la coordinación de las políticas presupuestarias que se base en el control mutuo puede dar sus frutos a condición de venir acompañado de unos compromisos políticos firmes. Sin embargo, la experiencia reciente ha puesto de relieve una serie de dificultades en la aplicación del PEC, que pueden resumirse de la forma siguiente: - Ha disminuido la participación de los Estados miembros en la aplicación del PEC. Los Estados miembros continúan suscribiendo los fines y los objetivos del PEC. Sin embargo, en algunos países han venido surgiendo divergencias entre los compromisos presupuestarios y las acciones concretas para lograr los objetivos previstos. - Ha sido difícil establecer unos objetivos presupuestarios claros y verificables que tengan en cuenta las condiciones económicas estructurales. Los objetivos para el saldo presupuestario de los Estados miembros se establecen en términos nominales en los programas de convergencia y de estabilidad. Sin embargo, al evaluar el cumplimiento de los compromisos presupuestarios, y, en particular, el ajuste a una senda de "proximidad al equilibrio o superávit", es necesario considerar el efecto del ciclo económico sobre la situación presupuestaria. Esto ha resultado difícil debido a que los objetivos de déficit nominal incluidos en los programas de los Estados miembros a veces se basaban en hipótesis optimistas de crecimiento y en una concentración de los esfuerzos de ajuste al final del periodo cubierto por los programas. - El marco para la recogida y evaluación de las estadísticas presupuestarias ha experimentado una serie de dificultades. Son muy preocupantes las anomalías en la transmisión de datos detectadas en algunos Estados miembros, que, en el caso de Portugal, han llevado a una acusada revisión al alza de los niveles de déficit. - Algunos Estados miembros no han aplicado políticas presupuestarias saneadas en coyunturas favorables. Al no haberse procedido a un saneamiento presupuestario en 1999 y 2000, cuando las condiciones de crecimiento eran favorables, se ha llegado a un deterioro de las situaciones presupuestarias estructurales y a un escaso margen para el funcionamiento de los estabilizadores automáticos en la siguiente fase de

account of underlying economic conditions. The targets for budget balances of Member States are set down in stability and convergence programmes in nominal terms. However, in assessing compliance with budgetary commitments, and in particular the adjustment path to ‘close to balance or in surplus’, it is necessary to consider the effect of the economic cycle on the budget position. This has proved difficult because the nominal deficit targets in the programmes of Member States were sometimes based on optimistic growth assumptions and with adjustment efforts back-loaded towards the end of the time horizon of programmes. - The framework for the collection and assessment of budgetary statistics has experienced a number of difficulties. Of greatest concern are the reporting anomalies detected in some Member States, which in the case of Portugal led to a very large upward revision of budget deficit levels; - Some Member States did not run sound budgetary policies in good times. A failure to pursue budgetary consolidation in 1999 and 2000 when growth conditions were favourable led to a deterioration in underlying budget positions and inadequate room for the automatic stabilisers to operate in the subsequent economic slowdown. This failure to allow the automatic stabilisers operate symmetrically over the economic cycle illustrates inadequate surveillance and enforcement mechanisms to deal with unwarranted pro-cyclical loosening of the fiscal stance. - The enforcement procedures of the SGP have been found wanting at critical junctures. In particular, the early-warning mechanism has not proven effective in dealing with significant slippage from budget targets set down by Member States in their stability and convergence programmes. In addition, this needs to occur in sufficient time to allow countries to take corrective measures before the 3% of GDP reference value is threatened. - The application of the SGP was not designed to deal with country-specific circumstances in a consistent manner, assuring the long-term sustainability of public finances while supporting structural reforms that are taken to enhance employment and growth potential. Considerable scope exists within the SGP framework to take account of differences in the quality and sustainability of public finances across Member States. But the challenge for

Page 25: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 22

automáticos en la siguiente fase de ralentización económica. Esta imposibilidad de permitir que los estabilizadores automáticos funcionen simétricamente a lo largo del ciclo económico ilustra unos mecanismos de supervisión y aplicación inadecuados para hacer frente a una relajación procíclica injustificada de la política fiscal. - Los procedimientos de aplicación del PEC han sido deficientes en las situaciones críticas. En particular, el mecanismo de alerta preventiva no ha resultado eficaz para afrontar desvíos significativos respecto de los objetivos presupuestarios establecidos por los Estados miembros en sus programas de estabilidad y de convergencia. Además los avisos deben enviarse con antelación suficiente para permitir a los países tomar medidas correctoras antes de que se corra el riesgo de rebasar el valor de referencia del 3%. - La aplicación del PEC no se diseñó para abordar las circunstancias específicas de cada país de forma coherente, garantizando la sostenibilidad a largo plazo de las finanzas públicas y apoyando las reformas estructurales encaminadas a fomentar el potencial de crecimiento y el empleo. Dentro del marco del PEC existe un considerable margen para tener en cuenta las diferencias en la calidad y sostenibilidad de las finanzas públicas entre Estados miembros. Sin embargo, el reto para el PEC es pasar de un enfoque caso por caso a un enfoque basado en rigurosos criterios económicos aplicados de forma coherente a lo largo del tiempo y entre países, preservando el objetivo principal de lograr unas finanzas públicas saneadas y sostenibles. - Ha sido difícil la comunicación con la prensa, los mercados y el público acerca de los beneficios de lograr y mantener unas finanzas públicas saneadas y acelerar el funcionamiento del PEC. Esto se debe en parte al hecho de que lleva cierto tiempo a los agentes económicos ajustarse al nuevo marco existente desde la introducción del euro y también a la complejidad de los procedimientos institucionales del PEC. Además, la comunicación se ha visto dificultada por declaraciones contradictorias sobre la aplicación apropiada de políticas presupuestarias. Por lo general, la dificultad de comprender el fundamento del PEC, y especialmente los compromisos presupuestarios concretos establecidos en los

across Member States. But the challenge for the SGP is to move from a case-by-case approach towards policy making based on economically rigorous criteria that are applied consistently over time and across countries, and which safeguard the core objective of sound and sustainable public finances. - It has been difficult to communicate effectively with the press, markets and the public on the benefits of achieving and sustaining sound public finance positions, and also how the SGP works. This is partly due to the fact it takes time for economic agents to adjust to the new policy framework in place since the launch of the euro and also because the institutional procedures of the SGP are complex. In addition, conflicting statements on the appropriate conduct of budgetary policies have hampered effective communication. Overall, the difficulty in understanding the rationale of the SGP, and especially the precise budget commitments set down in stability and convergence programmes, has weakened external pressure on Member States to run sound budget policies. 5) Improving the implementation of the SGP The recently adopted Communication on Strengthening the co-ordination of budgetary policies presents five proposals to improve the implementation and enforcement of the SGP. These proposals can be achieved within the framework of existing Treaty provisions and SGP Regulations. Therefore, they do not alter the core budget requirements (to avoid excessive deficit positions) or objectives (to achieve and sustain budget positions of ‘close to balance or in surplus’). Neither do they create new procedures, as upgraded budgetary surveillance will take place on the basis of stability and convergence programmes. The proposals can be summarised as follows. i) Due account should be taken of the economic cycle when establishing budgetary objectives at EU level and when carrying out the surveillance of Member States budgetary positions. The ‘close to balance or in surplus’ requirement of the SGP should be defined in underlying terms throughout the economic cycle, i.e. net of transitory effects and especially the effects of cyclical fluctuations on budgets. The principle tool for assessing underlying budget positions will be the common methodology to measure cyclically-adjusted budget balances, which has been agreed by Member States and the

Page 26: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 23

presupuestarios concretos establecidos en los programas de estabilidad y de convergencia, ha debilitado la presión exterior sobre los Estados miembros para que apliquen políticas presupuestarias saneadas.

agreed by Member States and the Commission. ii) Clear transitional arrangements should be established for countries with underlying deficits exceeding the ‘close to balance or in

5) Mejora de la aplicación del PEC La Comunicación recientemente adoptada sobre el reforzamiento de la coordinación de las políticas presupuestarias formula cinco propuestas para mejorar la puesta en práctica y ejecución del PEC. Estas propuestas pueden realizarse dentro del marco de las disposiciones del Tratado y de los actuales Reglamentos sobre el PEC. Por ello, no alteran las exigencias básicas en materia presupuestaria (evitar un déficit público excesivo) ni los objetivos básicos (lograr y mantener situaciones presupuestarias de "proximidad al equilibrio o superávit"). Tampoco crean nuevos procedimientos, ya que la supervisión presupuestaria mejorada tendrá lugar sobre la base de los programas de estabilidad y de convergencia. Las propuestas pueden resumirse del siguiente modo. i) Debe tenerse en cuenta el ciclo económico al fijar los objetivos presupuestarios a nivel de la UE y al realizar la vigilancia de las posiciones presupuestarias de los Estados miembros. La exigencia de 'proximidad al equilibrio o superávit' del PEC debe definirse en términos estructurales a lo largo de todo el ciclo económico, esto es, suprimiendo los efectos transitorios, y especialmente los efectos de las fluctuaciones cíclicas, sobre el presupuesto. El principal instrumento para evaluar las situaciones presupuestarias estructurales será la metodología común que se emplea para la estimación de los saldos presupuestarios ajustados en función del ciclo, que ha sido acordada por los Estados miembros y la Comisión. ii) Deben establecerse disposiciones transitorias claras para los países con déficit estructural que no cumplan el requisito de "proximidad al equilibrio o superávit". Se exigirá a los Estados miembros que consigan una mejora anual de su situación presupuestaria estructural de al menos el 0,5% del PIB hasta cumplir el requisito del PEC de 'proximidad al equilibrio o superávit'. Esta tasa de mejora de la situación presupuestaria subyacente deberá ser superior en los países con mayor déficit o deuda. También se deberá contemplar una mejora anual de la situación presupuestaria estructural más ambiciosa si las condiciones de crecimiento

surplus’ requirement. Member States would be required to achieve an annual improvement in the underlying budgetary position of at least 0.5% each year until the ‘close to balance or in surplus’ requirement of the SGP has been reached. This rate of improvement in the underlying budget position should be higher in countries with high deficits or debt. Also, a more ambitious annual improvement in underlying budget positions should be envisaged if growth conditions are favourable. This proposal recognises that account should be taken of economic conditions when setting the pace of budgetary consolidation, but that the deadline for reaching the goal of the SGP cannot be postponed indefinitely. iii) A pro-cyclical loosening of the budget in good times should be seen as a violation of budgetary requirements at the EU level, and should lead to an appropriate and timely response through the use of instruments provided in the Treaty. To avoid a pro-cyclical loosening of fiscal policies in good times, the automatic stabilisers should operate symmetrically over the cycle. This implies running nominal surpluses when economic conditions are favourable. Effective enforcement procedures are also required to deal with an unwarranted loosening of fiscal policies in good times. iv) Budgetary policies should contribute to growth and employment. The ‘close to balance or in surplus’ requirement could be interpreted to cater for the inter-temporal budgetary impact of large structural reforms that raise employment or growth potential and/or which in the long-term improve the underlying public finances positions. A small temporary deterioration in the underlying budget position of a Member State could be envisaged, if it derives from the introduction of a large structural reform. However, this should only be envisaged if the Member State concerned fulfils strict starting budgetary conditions: substantial progress towards the ‘close to balance or in surplus’ requirement and general government below the 60% of GDP reference value. Moreover, the Commission must verify that there is a clear and realistic deadline for returning to a position of ‘close to balance or in surplus’, and that an adequate safety margin is provided at

Page 27: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 24

ambiciosa si las condiciones de crecimiento son favorables. Esta propuesta reconoce que deben tenerse en cuenta las condiciones económicas al fijar el ritmo de la consolidación presupuestaria, pero que el plazo para alcanzar el objetivo del PEC no puede posponerse indefinidamente. iii) Debe considerarse que un relajamiento procíclico del presupuesto en coyunturas favorables constituye un incumplimiento de las exigencias presupuestarias a escala de la UE, y que debe dar lugar a una respuesta adecuada y oportuna empleando los instrumentos contemplados en el Tratado. Para evitar un relajamiento procíclico de las políticas presupuestarias en coyunturas favorables, los estabilizadores automáticos deben operar de forma simétrica a lo largo de todo el ciclo. Esto implica lograr superávit nominales cuando las condiciones económicas sean favorables. También se requieren procedimientos ejecutivos eficaces para hacer frente a un posible relajamiento injustificado de la política presupuestaria en situaciones favorables. iv) Las políticas presupuestarias deben contribuir al crecimiento y al empleo. Puede interpretarse que la exigencia de "proximidad al equilibrio o superávit" está encaminada a hacer frente a las repercusiones presupuestarias en el tiempo de las grandes reformas estructurales, que incrementan el potencial de crecimiento y el empleo y que, a largo plazo, mejoran la situación estructural de las finanzas públicas. Un pequeño deterioro temporal de la situación presupuestaria estructural en un Estado miembro sólo podrá contemplarse si procede de la introducción de una amplia reforma estructural. Sin embargo, esto sólo podrá contemplarse si el Estado miembro considerado cumple estrictas condiciones iniciales presupuestarias: progresos sustanciales hacia el objetivo de 'proximidad al equilibrio o superávit' y si la deuda pública se sitúa por debajo del valor de referencia del 60% del PIB. Por otra parte, la Comisión deberá comprobar que hay un plazo claro y realista para regresar a una posición 'próxima al equilibrio o con superávit', y que se establece en todo momento un margen adecuado de seguridad para evitar que los déficits nominales superen el valor de referencia del 3% del PIB. Para reflejar las diferencias en la continuidad de las finanzas

that an adequate safety margin is provided at all times to prevent nominal deficits from breaching the 3% of GDP reference value. To reflect differences in the sustainability of public finances across Member States, a small deviation from the ‘close to balance or in surplus’ requirement of a longer-term nature could be envisaged for Member States where debt levels are well below the 60% of GDP reference value, and when public finances are on a sustainable footing. This will require a careful assessment to be made of outstanding public debt, contingent liabilities (such as implicit pension obligations) and other costs associated with ageing populations. v) The sustainability of public finances should become a core policy objective at EU level with greater weight being attached to government debt ratios in the budgetary surveillance process. Countries with high debt levels well above the 60% of GDP reference value would be required to set down ambitious long-term debt reduction strategies in their stability and convergence programmes. Failure to comply with the debt criterion set up in Article 104(2) should result in the activation of the excessive deficit procedure20. The assessment of the sustainability of public finances as part of stability and convergence programmes should be upgraded, with firm policy conclusions as to whether the budgetary policies are ambitious enough to meet the challenge posed by ageing populations. 6) How to implement the proposals within existing procedures? The five proposals above need to be backed up with measures to ensure effective implementation. The Communication therefore proposes that the following measures be adopted and implemented:

-Member States should reaffirm their political commitment to the SGP in a “Resolution to reinforce the co-ordination of budgetary policies”. The Resolution would represent the solemn political commitment of the Commission, Member States and Council to implement the SGP in line with the proposals above. It could make explicit the criteria for interpreting key SGP provisions, e.g. that the ‘close to balance or in surplus’ requirement is assessed in underlying terms, that countries with underlying deficits must achieve an

20 Article 104(2) of the Treaty on the excessive deficit procedure states that “The Commission shall monitor the development of the budgetary situation and of the stock of debt in Member States with a view to identifying gross errors. In particular it shall examine compliance with budgetary discipline on the basis of the following two criteria …whether the ratio of government debt to gross domestic product exceeds a reference value [60% of GDP], unless the ratio is sufficiently diminishing and approaching the reference value at a satisfactory pace.”

Page 28: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 25

diferencias en la continuidad de las finanzas públicas en los distintos Estados miembros, podría preverse una ligera desviación del requisito de posición 'próxima al equilibrio o con superávit' a más largo plazo para los Estados miembros en los que los niveles de deuda estén muy por debajo del valor de referencia del 60% del PIB, y cuando las finanzas públicas tengan una base viable. Esto requerirá una cuidadosa evaluación de la deuda pública pendiente, los pasivos contingentes (tales como obligaciones implícitas en materia de pensiones) y otros costes derivados del envejecimiento de la población. v) La viabilidad de las finanzas públicas debe ser un objetivo político básico a nivel de la UE, atribuyendo una mayor importancia a los coeficientes de deuda de estado en el procedimiento de vigilancia presupuestaria . Los países con niveles de endeudamiento muy por encima del valor de referencia del 60% del PIB deben definir en sus programas de estabilidad y de convergencia estrategias ambiciosas a largo plazo para reducir su endeudamiento. Todo incumplimiento del criterio de deuda fijado en el apartado 2 del artículo 104 deberá activar el procedimiento de déficit excesivo19. La evaluación de la sostenibilidad de las finanzas públicas como parte de los programas de estabilidad y de convergencia debe mejorarse con firmes conclusiones acerca de si las políticas presupuestarias son suficientemente ambiciosas para superar el reto planteado por el envejecimiento de la población. 6) ¿Cómo aplicar las propuestas dentro de los actuales procedimientos? Las cinco propuestas enunciadas deben ser apoyadas por medidas que aseguren su efectiva aplicación. La Comunicación propone pues que se adopten y ejecuten las siguientes medidas:

with underlying deficits must achieve an annual rate of underlying budgetary consolidation of at least 0.5% of GDP and that countries with a very high level of debt must respect a satisfactory pace of debt reduction. In addition, it could establish a firm political commitment that a more flexible application of the ‘close to balance or in surplus’ requirement would only be envisaged if strict conditions and safeguards are met. -The Commission intends to upgrade the analysis of economic and budgetary polices by embarking on a wide range of measures. In particular, the Commission intends to pay increasing attention to the quality of public finances when assessing stability and convergence programmes. More emphasis will be put on budgetary measures which are conducive to growth and employment. Moreover, the quality and timeliness of government finance statistics need to be improved, as they are the foundation on which budgetary surveillance is built. The Commission proposes that a ‘Code of best practices on the reporting of budgetary data’ be endorsed by the (ECOFIN) Council in time for the next excessive deficit procedure reporting of 1 March 200321. -Fiscal rules need to be backed up with effective and credible enforcement procedures. The Treaty and SGP provide a range of surveillance enforcement mechanisms for dealing with slippages from budgetary targets. Three factors should be taken into account when assessing slippage, namely the size of the budgetary slippage (extent to which budget posit ions diverge from the targets set down in stability or convergence programmes), whether the divergence of actual balances from target can be explained by cyclical or discretionary factors, and thirdly the possibility of deficits rising and approaching the 3% of GDP

- Los Estados miembros deberán reafirmar su compromiso político con el PEC en una "Resolución relativa al reforzamiento de la coordinación de las políticas presupuestarias". La Resolución representaría el compromiso político solemne de la Comisión, los Estados miembros y el Consejo para aplicar

reference value. These proposals would imply that an early-warning could be sent to a Member State even if its nominal or underlying budget balance is some way below the 3% of GDP reference value. Furthermore, an inappropriate pro-cyclical loosening of the budget in good times (taking account of the

19 De conformidad con el apartado 2 del artículo 104 del Tratado, relativo al procedimiento de déficit excesivo, “la Comisión supervisará la evolución de la situación presupuestaria y del nivel de endeudamiento público de los Estados miembros con el fin de detectar errores manifiestos. En particular, examinará la observancia de la disciplina presupuestaria atendiendo a los dos criterios siguientes... si la proporción entre la deuda pública y el producto interior bruto rebasa un valor de referencia [60% del PIB], a menos que la proporción disminuya suficientemente y se aproxime a un ritmo satisfactorio al valor de referencia”. 21 Communication from the Commission on the need and the means to upgrade the quality of budgetary statistics. COM (2002) 670 of 27.11.2002

Page 29: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 26

el PEC de conformidad con las propuestas antes mencionadas. Podría explicitar los criterios de interpretación de las disposiciones fundamentales del PEC, por ejemplo, indicando que la exigencia de "proximidad al equilibrio o superávit" se evalúa en términos estructurales, que los países con un déficit estructural deben lograr una tasa anual de saneamiento de la situación presupuestaria estructural de al menos el 0,5% del PIB y que los países con un elevado nivel de endeudamiento deben seguir un ritmo satisfactorio de reducción de la deuda. Por otro lado, la Resolución podría contemplar el establecimiento de un firme compromiso político en el sentido de que una aplicación más flexible del requisito de "proximidad al equilibrio o superávit" sólo se contemplaría en caso de darse unas garantías y condiciones estrictas.

- La Comisión se propone modernizar el análisis de las políticas económicas y presupuestarias mediante la adopción de una amplia gama de medidas. En especial, la Comisión se propone prestar mayor atención a la calidad de las finanzas públicas a la hora de evaluar los programas de estabilidad y de convergencia. Se hará mayor hincapié en las medidas presupuestarias que propicien el crecimiento y el empleo. Por otra parte, debe mejorarse la calidad y periodicidad de las estadísticas sobre finanzas públicas, ya que constituyen la base del procedimiento de supervisión presupuestaria. La Comisión propone que el Consejo (EcoFin) adopte un "Código de buenas prácticas en materia de notificación de datos presupuestarios" con anterioridad a la próxima notificación en el marco del procedimiento de déficit excesivo del 1 de marzo de 200322.

- Las normas fiscales deben estar apoyadas por procedimientos de ejecución eficaces y creíbles. El Tratado y el PEC proporcionan una serie de mecanismos de aplicación de la supervisión para el caso de desvío respecto de los objetivos presupuestarios. Deben tenerse en cuenta tres factores para calcular la desviación, a saber: la magnitud del desvío presupuestario (medida en que las situaciones presupuestarias divergen de los objetivos establecidos en los programas de estabilidad o de convergencia), si la divergencia respecto de los objetivos presupuestarios puede explicarse mediante factores cíclicos o

starting budgetary position and monetary conditions facing the country concerned) should be viewed as a violation of budgetary requirements at EU level. Finally, the interpretation of the debt criterion of the excessive deficit procedure should be clarified,24 i.e. what would constitute a ‘satisfactory pace’ of debt reduction towards the 60% of GDP reference value. The failure on the part of a high debt country to achieve the established pace of debt reduction should lead the Commission to activate the excessive deficit procedure and prepare a report under Article 104(3). In assessing compliance with this requirement, the Commission will examine all the components that drive debt developments, as the pace of debt reduction depends upon some factors that can be shaped by government policies and other factors which lie outside governments’ immediate control.

-Greater external pressure on Member States to run sound public finances can be achieved through better communication. The Commission intends to make public its detailed assessment of stability and convergence programmes. Also, the Commission in July each year will publish a mid-year review of budgetary developments in the Quarterly Report on the Euro area. This will examine how Member States are faring in meeting their budgetary targets. It will also provide an assessment of economic conditions and prospects, as well as general orientations of budgetary policies, which Member States should take into account.

7) Conclusion A unique rule-based framework has been established for the co-ordination of budgetary policies in EMU. The economic rationale of the framework is as valid as ever and the SGP fares reasonably well when assessed against ideal criteria for fiscal rules. Nevertheless, the experience of four years of EMU has highlighted important shortcomings in the implementation of the SGP. In response, the European Commission has formulated concrete proposals for improving the implementation of the rules. These proposals continue to aim at ensuring sound and sustainable public finances and can be implemented within the present legal framework of the Treaty and the SGP. In its contribution to the Convention on the future

22 "Communication from the Commission on the need and the means to upgrade the quality of budgetary statistics" (Comunicación de la Comisión sobre la necesidad y los medios de mejorar la calidad de las estadísticas presupuestarias). COM (2002) 670 de 27.11.2002 23 Véase la nota a pie de página nº 7. 24 See footnote 7.

Page 30: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 27

puede explicarse mediante factores cíclicos o discrecionales, y la posibilidad de que los déficits aumenten y se aproximen al valor de referencia del 3% del PIB. Estas propuestas implicarían que podría enviarse un aviso preventivo a un Estado miembro incluso si su saldo presupuestario nominal o estructural es inferior al valor de referencia del 3% del PIB. Además, un inadecuado relajamiento procíclico del presupuesto en coyunturas favorables (teniendo en cuenta la situación presupuestaria y condiciones monetarias de partida del país de que se trate) debería considerarse como un incumplimiento de las exigencias presupuestarias a escala de la UE. Por último, debe aclararse la interpretación del criterio de deuda contemplado en el procedimiento de déficit excesivo23, esto es, clarificar lo que constituye un "ritmo satisfactorio" de reducción del endeudamiento hacia el valor de referencia del 60% del PIB. El hecho de que un país altamente endeudado no logre el ritmo satisfactorio de reducción del endeudamiento establecido deberá llevar a la Comisión a activar el procedimiento aplicable en caso de déficit excesivo y preparar un informe con arreglo al apartado 3 del artículo 104. Al evaluar el cumplimiento de este exigencia, la Comisión examinará todos los factores de la evolución del endeudamiento, ya que el ritmo de reducción del endeudamiento depende de factores sobre los que pueden influir las políticas aplicadas y de otros factores que escapan al control inmediato de los gobiernos.

Una mejor comunicación puede ejercer una mayor presión exterior sobre los Estados miembros para que apliquen políticas que permitan unas finanzas públicas saneadas. La Comisión se propone hacer pública su evaluación detallada de los programas de estabilidad y de convergencia. Asimismo, en julio de cada año, publicará un análisis de la evolución presupuestaria en el Informe trimestral sobre la zona del euro ("Quarterly Report"), que examinará la forma en que los Estados miembros van cumpliendo sus objetivos presupuestarios, y proporcionará una evaluación de las perspectivas y condiciones económicas, así como de las orientaciones generales de las políticas presupuestarias que los Estados miembros deberán tener en cuenta.

7) Conclusión Se ha establecido un único marco normativo para la coordinación de las políticas presupuestarias en la UEM. El fundamento

contribution to the Convention on the future of Europe the Commission has put forward additional proposals that would further strengthen the economic policy co-ordination. Now it is time to implement the proposals presented in sections 5 and 6 above. The Commission is fully committed to do so and urges Member States to share this commitment.

Page 31: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 28

presupuestarias en la UEM. El fundamento económico del marco es tan válido como siempre y el PEC se comporta razonablemente bien cuando se le evalúa en función de criterios ideales para normas fiscales. Sin embargo, la experiencia de cuatro años de UEM ha puesto de manifiesto algunas deficiencias importantes en la aplicación del PEC. Para abordarlas, la Comisión Europea ha formulado propuestas concretas para mejorar la aplicación de las normas. Estas propuestas siguen teniendo como objetivo asegurar unas finanzas públicas sanas y viables, y pueden aplicarse dentro del actual marco jurídico del Tratado y del PEC. En su contribución a la Convención para el futuro de Europa, la Comisión ha presentado propuestas adicionales que consolidarían aún más la coordinación de la política económica. Ahora es el momento de aplicar las propuestas presentadas en las secciones 5 y 6. La Comisión está firmemente comprometida con este objetivo y exhorta a los Estados miembros a compartir este compromiso.

Page 32: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 29

III. MACROECONOMIC MODELS AND ANALYSES / MODELOS Y ANÁLISIS MACROECONÓMICOS

4. Argentina: las fábulas y los hechos, Michele Boldrin. 5. La utilización de modelos en el diseño de la política económica,

Miguel Sebastián - David Taguas.

Page 33: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 30

Michele Boldrin

ARGENTINA: LAS FÁBULAS Y LOS HECHOS

Page 34: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 31

Michele Boldrin

ARGENTINA: LAS FÁBULAS Y LOS HECHOS Hace poco más de un año explotaba la fase más dramática y preocupante de la crisis económica de Argentina. En los últimos doce meses la renta per capita de Argentina se ha reducido algo como el 20%, generando paro, pobreza (más de la mitad de la población se encuentra hoy por debajo de la línea de la pobreza y un 37 % de los menores de 14 no alcanzan a cubrir sus necesidades básicas) y desconcierto social. Aunque el proceso de caída de la actividad económica haya ralentizado después del verano y el gobierno haya levantado el “corralito” a los depósitos bancarios, la situación de profundo estancamiento de la actividad económica continua todavía. Y no parecen existir, ni en los planes de los políticos ni en el debate de política económica, soluciones razonables a corto o medio plazo. Sin duda, la Argentina atraviesa una de las más profundas crisis de su historia. Pero las crisis económicas no son la excepción sino la regla en la Argentina de los últimos treinta o cuarenta años. Por esta razón Argentina se ha venido haciendo un caso de escuela en los debates sobre (la falta de) desarrollo económico y sus causas. Todo el mundo parece tener opiniones sobre la economía Argentina, su falta de crecimiento, sus continuas y repetidas crisis y las soluciones que seria preciso tomar para acabar con todo eso. Este fenómeno se ha repetido entre 2001 y 2002, con miles de comentaristas económicos explicando al mundo las razones del nuevo desastre. Nos parece, desafortunadamente, que casi todas (¿o todas?) las “sencillas” y “obvias” explicaciones escuchadas tengan una característica común: hacen a puñetazos con los hechos, los datos económicos objetivos, y con la lógica también.

En un cierto sentido hemos escuchado más de lo de siempre, es decir: los mercados no funcionan y se necesitan políticas “keynesianas” unidas a fuertes ayudas internacionales, pero con algunas variantes innovadoras. La primera variante innovadora ha sido la “globalización” de los mercados mundiales, culpable de hundir Argentina y que cualquier otro país no consiga crecer. Este argumento ya se había escuchado unos años antes, entre 1997-98, a frente de la crisis asiática. No importa que, seis / doce meses después de hundir Corea, Tahilandia, Malasia, etcétera, estos mismos capitales malos y globalizados hayan vuelto a invertirse en los mismos sitios, y estos países, puesto orden en sus financiaciones públicas, hayan vuelto a crecer a un ritmo para nada despreciable. La imagen cinematográfica de enormes capitales que se mueven desde una esquina a la otra del planeta haciendo y deshaciendo países y continentes es demásiado atractiva para dejar que el calor de la realidad la haga evaporar. Así que, una y otra vez, hemos leído que es la globalización que hunde a Argentina. Como lo haga no cabe explicar: es obvio. Esto es más fácil de explicar, si es la globalización es la que hunde a Argentina, entonces la solución es acabar con la globalización. Un poco más de intervención estatal, nacionalización, proteccionismo comercial, etcétera y un poco menos de libero mercado y competición, y las cosas se arreglarán pronto. Esto es, además, exactamente el caso de Argentina: ¿No fue la “liberalización” económica que Menem y Carvallo llevaron a cabo entre 1991 y 1994 la causa de todo este desastre? Argentina es otra victima del “neoliberalismo salvaje” de los años noventa. La liberalización salvaje de Menem y Carvallo se acompañó de la “dolarización” de la economía Argentina a través del establecimiento de un cambio fijo con el dólar. Esta ha sido, por muchos, otra causa fundamental de la nueva crisis Argentina: un cambio fijo es inconsistente con el crecimiento económico sostenido ya que las “devaluaciones competitivas”, nos explican, son como la sal y el aceite en la ensalada del crecimiento económico. Esta línea de argumentación es ya más clásica de la anterior. La liberalización es sólo parcialmente culpable de la crisis. Abrió de manera demásiado rápida la economía Argentina a la competición internacional (las aberturas económicas siempre son demásiado rápidas, por otro lado el proteccionismo y los monopolios nunca son demásiado viejos) y además, permitiendo la entrada de capitales también hizo posible su salida. La “culpa” principal está en el efecto negativo del tipo de cambio demásiado alto sobre las exportaciones argentinas. Sin devaluación la competitividad del país se pierde, y desde allí la crisis.

Una tercera clase de explicaciones mezcla algo de globalización y abertura con la

acusación a los mercados financieros internacionales de tratar a Argentina de manera injusta y

Page 35: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 32

desigual. En esta visión de la crisis Argentina, la culpa del desastre cae sobre los mercados financieros (bancos e inversores internacionales, fundamentalmente). Estos piden una prima de riesgo “demasiado” alta para invertir en Argentina, lo que expolia el país de los beneficios del crecimiento, y se escapan demásiado rápidos de sus inversiones en Argentina, lo que hunde el país en los momentos de crisis. Para sustanciar estos argumentos se confrontan las ratios del gasto, déficit y endeudamiento públicos de Argentina con los de los países de la UE, EE.UU. o Japón. Ya que los de Argentina no son mayores que los de los países más ricos, los diez o hasta quince puntos adicionales de prima de riesgo se interpretan como el producto de un “bias” injustificado e injusto o hasta de una forma de silenciosa “conspiración”. Una variante interesante de este argumento atribuye la responsabilidad principal de la culpa al FMI y al Banco Mundial. La variante no es fácil de explicar, ya que a veces imputa a estas instituciones el haber prestado demásiado a Argentina (creando “dependencia”) y a veces le imputa haberle prestado demásiado poco (causando así la devaluación). Alternativamente, esta variante sugiere que la responsabilidad del FMI, en particular, consiste en el hacer sus préstamos condicionales a políticas fiscales y de deuda pública restrictivas. Estas políticas cortan la demanda publica en los momentos de dificultad, provocando así una crisis más profunda. Lo que el FMI tendría que hacer son préstamos incondicionales a países en dificultades económicas, dejando que despilfarren lo que reciben en la manera que más les parezca cómoda a sus normalmente corruptos, gobernantes. Estas, supongo, son las políticas keynesianas que nos faltan. Pero ya me estoy haciendo coger la mano por la polémica, así que olvide el lector lo de poco antes.

Resumiendo, comentaristas y expertos económicos nos han propuesto tres clases de

explicaciones para la nueva crisis Argentina. (1) Globalización y liberalización: demásiado libero mercado y demásiada abertura a los mercados internacionales. (2) Dolarización y cambio fijo, falta de devaluaciones competitivas y por ende, falta de demanda externa. (3) Políticas fiscales restrictivas, debidas al FMI, que se hacen peores en las fases de recesión. Reducción del gasto publico y tipos de interés sobre la deuda demásiado altos, debidos a las injustas primás de riesgo impuestas por los mercados financieros internacionales. Estas son las teorías. Miramos, ahora, a los hechos estadísticos.

La historia de la economía Argentina en la última década se refleja en los siguientes

números. Entre 1990 y 1998 la renta per capita de Argentina creció un 40 por ciento, mientras que entre 1998 y 2002 cayó un 25 por ciento. En los quince años anteriores a 1990 la renta per capita ya había caído en otro 25 por ciento. Así llegamos a la conclusión que la renta media de Argentina es la misma hoy en día que en 1970. Los acontecimientos del periodo 1990-98 habían generado una cierta esperanza de que setenta años después del principio de la decadencia, Argentina hubiera vuelto a encontrar su senda de crecimiento. No fué así.

Primero, analicemos cuán sólido fué el crecimiento de los años 1990-98. Acabada la

inflación, gracias al anclaje con el dólar en 1991 y después de un largo periodo de recesión que había empezado en 1974, la Argentina creció a un ritmo bastante fuerte entre 1991 y principio del 1995. En 1995, la subida de tipos de interés causada por la devaluación del peso Mexicano llevó a la Argentina a una súbita recesión. Dos datos parecen importantes. La variación del “riesgo argentino” lleva los spreads de los bonos soberanos de 800 a 2400 puntos básicos en el primer trimestre de 1995 (JP Morgan, EMBI). Los mismos tardaron un año en recuperar el valor previo a la crisis del “tequila”, por cuanto la prima de riesgo volvió a valores prácticamente normales después de seis meses. El encarecimiento del crédito y su frenazo súbito llevó a una recesión que duró un año y medio, ocasionando una oscilación en la renta nacional del 9% entre su techo y su fondo. Dicho de otra manera: el crecimiento argentino fue “inestable” desde el principio y los inversores reaccionaron siempre con mucha ansiedad a los señales de crisis. En 1995 esto parece perfectamente justificado: después de más de 15 años (en realidad, mirando atrás, casi cuarenta) de destrucción de la inversión a través de inflación, default y expropiación, el nerviosismo de tres años de crecimiento no parecen suficientes para generar confianza. Tres años después, una segunda subida de los tipos de interés (debida, esta vez, a las crisis de Rusia y de los países asiáticos) genera una nueva recesión. Pero, contrariamente a la de 1995, esta recesión no acaba tan pronto. De hecho, la recesión que empezó en 1998 es la misma que la de ahora. El PIB per-capita cae un 4.6% en 1999, un 2.0% en 2000 y un 5.6% en 2001. Esta segunda subida de los tipos de interés es bastante más ligera que la anterior: en 1995 los tipos de interés saltan del 8 al 23 por ciento sobre préstamos en dólares y del 10 al 35 por ciento sobre las mismas operaciones en pesos; en 1999 los mismos tipos suben desde valores iniciales

Page 36: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 33

parecidos al 13 y al 15 por ciento, respectivamente. Así que, si la recesión de 1995 está claramente relacionada con la subida de la prima de riesgo, prueba es que se acaba rápidamente una vez que los tipos bajan, lo mismo parece improbable por la que empieza al final de 1998 y sigue desde hace aquel tiempo. La subida de los tipos fue mucho más suave y la recesión mucho peor. Cabe evidenciar aquí que los tipos de interés medio sobre la deuda pública de Argentina no subieron dramáticamente en estos años. El tipo de interés implícito sobre la deuda Argentina es del 4.3% en 1996, del 5.8% en 1997, del 6.6% en 1998, del 7.3% en 1999, del 7.9% en 2000 y finalmente del 8.9% en 2001. Sube, pero no se dispara. Así que la teoría que explica la crisis por la que los tipos de interés “estrangulan” a Argentina tendría que explicar porque una subida al fin y al cabo razonable como la de 1998 genera una recesión tan larga, cuando una subida mucho más fuerte generó una recesión mucho más corta en 1995. Dicho de otra manera: la recesión de 1995 si parece una recesión debida a la enorme alza en la prima de riesgo, la que empieza en 1998 y dura todavía tiene muy poco a que ver con los tipos de interés. De hecho, pero aquí seria necesario entrar en los detalles técnicos de las series temporales desagregadas, ya había empezado antes de que se subieran los tipos de interés sobre préstamos a Argentina.

Una opinión común es que la fragilidad del crecimiento se debió a la convertibilidad uno a

uno del peso con el dólar estadounidense. Este mismo anclaje que permitió la eliminación súbita de la hiperinflación en 1990-91 y la pequeña como veremos, abertura de Argentina al comercio internacional acabó estrangulando su criatura. Es posible que este juicio sea correcto. Sin embargo, los hechos sugieren que muchos otros factores jugaron un papel igual o aún más importante. Seguimos con los hechos.

¿Fue este crecimiento frágil el producto de la liberalización de la economía Argentina que tuvo lugar en los años 1991-1992? Todo es posible, pero los datos no lo sugieren. Fundamentalmente porque la liberalización fue más humo y propaganda que realidad. Entre 1991 y 1995 se privatizaron grandes empresas públicas (telefonía, minería, gas, etcétera) por un total de 18.500 millones de dólares, que corresponde al 1.5% del Producto Interno Bruto de aquellos años. Estas privatizaciones acabaron transfiriendo algunos monopolios públicos a multinacionales europeas, en la mayoría españolas. En casi todos los casos (excepto por los servicios de telefonía) las nuevas empresas privadas siguieron operando en condición de monopolio. Después de 1995 casi no hubo privatización alguna y las políticas en materia de competencia y regulación antimonopólica fueron sumamente tímidas. Las regulaciones de los mercados internos se mantuvieron prácticamente inalteradas; lo mismo vale por lo impuestos sobre la renta, las cotizaciones sociales (ambos de niveles “europeos altos”) y el poder de los sindicatos que resulta, en los sectores “visibles” de la economía Argentina, ser mucho superior al poder de los sindicatos en Europa. Obviamente podemos llamar las cosas como nos gusta más, así que todo esto lo podemos tranquilamente llamar “liberalismo salvaje” o algo parecido. Lo que esta elección deja en duda es como le llamamos entonces a las políticas económicas de los gobiernos socialistas españoles, italianos o francés: ¿ultra-super-maxi liberalismo caníbal?

Los impuestos sobre las exportaciones bajaron desde el 20% en 1990 a casi cero en 1992.

Pero lo mismo no ocurrió con los impuestos sobre las importaciones. Estos bajaron desde una media del 19% en 1991 a una media del 16% en 1997, con puntas del 23% por bienes de consumo no duraderos y del 21% por bienes de transporte. De hecho, aun al final del periodo de expansión, la economía Argentina seguía siendo una economía cerrada al comercio y a la competencia internacional: las exportaciones eran el 11.5% y las importaciones el 13.5% del PIB en 1998. Los mismos valores por España eran del 30 y del 28.6 por ciento, respectivamente. Así que no se corresponde con la verdad, la idea de una abertura demásiado rápida al comercio internacional, ya que los impuestos sobre las importaciones quedaron casi inalterados. Entonces, nada de liberalización y globalización allí. Estos datos sugieren otra consideración importante. Si las exportaciones son un porcentaje relativamente pequeño del PIB (y por ende, de la demanda final) ¿cómo podemos justificar la opinión común que atribuye la larga recesión que empezó en 1999 a la sobrevaloración del peso y a la caída de las exportaciones?, es verdad: desde 1999 en adelante las exportaciones argentinas prácticamente no crecen, pero tampoco caen. Lo que cae es el PIB y aún más, las importaciones. Si el problema principal fuera un tipo de cambio demásiado alto, esperaríamos el comportamiento opuesto de las importaciones y una caída fuerte de las exportaciones. Así no es, aquí también una mirada a los detalles microeconómicos de las series temporales de precios enseña que en los sectores donde exportan, las empresas Argentinas bajaron

Page 37: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 34

los precios a los niveles de la competencia internacional. Los precios se mantuvieron altos en los mercados internos, en los bienes no comercializables, en los servicios y en todos aquellos sectores de la economía Argentina que seguían y siguen produciendo de manera ineficiente amparados de la competencia internacional por leyes proteccionistas y regulaciones públicas pactadas con los sindicatos. La enorme falta de competitividad internacional del trabajo argentino se lee en la composición del valor añadido exportado: el 75% es renta de tierra o capital. Es decir: Argentina exporta casi esencialmente gas, petróleo, minerales, productos de la tierra y de la ganadería.

Ya que hemos mirado la composición de la demanda y la falta de crecimiento de las

exportaciones después de 1998, merece la pena completar el cuadro. Se ve así que la caída de la inversión parece ser mucho más importante que la de las exportaciones. De manera dramática, año tras año desde 1999 en adelante, caen las inversiones. Estas resultan ser un 30% inferiores en 2001 respecto a 1998, lo que significa una caída equivalente al 6% del PIB. Otro factor importante, dado que representa casi el 70% del PIB, es la caída del consumo privado que llega en 2001 al 92% del nivel de 1998. El gasto público primario, por otro lado, se mantiene constante en todos estos años, y sube el gasto por intereses después de 1999. Así que, aquí también, parece caerse la idea “keynesiana” que fueron las políticas fiscales restrictivas impuestas por el FMI a causar o agraviar la crisis. El gasto público se mantuvo constante en porcentaje del PIB (creció el déficit, como veremos). Los que se escaparon son los inversores, en particular los inversores argentinos. El porqué de esto nadie nos lo ha explicado todavía.

¿Qué nos enseña el mercado de trabajo sobre el crecimiento de los 90? La economía

Argentina generó pocos empleos nuevos en los años de crecimiento: la fracción de la población empleada pasó del 38.1% en 1991 al 39% en 1998 y la tasa de paro subió desde el 7.5% al 10.5% entre 1991 y 1994, llego al 15% en 1995 y era todavía del 12% en 1998, antes que la ultima recesión empezara. Si miramos además la calidad de estos empleos, vemos que el salario de un trabajador ubicado en el tope del 40% más pobre de los empleados, medido en pesos constantes de octubre de 1998, fue de $409 en 1991, $450 en 1998 y $405 en 2001. Los salarios nominales medios crecieron más que el índice de precios de bienes de consumo solamente en 1991, 1992 y 1994, y crecieron menos (o bajaron más) en los demás años. Por el otro lado, el salario medio de los empleados públicos se mantuvo entre un 10% y un 30% por encima del salario promedio argentino, llegando a la igualdad, solamente con la crisis de 2001-2002. Al mismo tiempo, el número de empleados públicos (federales y provinciales) triplicó (habéis leído correctamente: pasaron de uno a tres) en el periodo 1994-2001, subiendo desde el 6 al 16% del empleo formal total. Esto no es debido a la recesión: en diciembre de 1998, los empleados públicos ya eran el 14% del empleo total. Es importante mencionar, para entender mejor estas cifras en el contexto español y europeo, que estos son empleados de la administración pública que no se dedican a la producción de servicios sociales como la salud, la educación u otros servicios comunitarios. El número de trabajadores que producen estos servicios y que son parcialmente financiados a través de transferencias públicas, quedó prácticamente constante, constituyendo alrededor del 19.5% del empleo total en el periodo considerado. Así que el “gasto público keynesiano” (hacer aviones con los papelitos de solicitudes de ciudadanos en oficinas con aire acondicionado) se mantuvo y creció a la grande en la Argentina de los años noventas. Esto también, supongo que es parte del neoliberalismo salvaje.

La composición sectorial del empleo en los otros sectores económicos parece también

sintomática de un crecimiento débil. Los empleados de los sectores manufacturero y agrícola no crecieron, en términos absolutos, en este periodo. Todos los nuevos empleados se concentran en el sector público, en los servicios y en particular, en los servicios personales y comunitarios. La productividad laboral en estos sectores está entre el 30 y el 45 por ciento abajo de la productividad media y no creció, sino que bajó sustancialmente, en la etapa de crecimiento económico. Fuertes subidas en la productividad del trabajo se observaron en los sectores minero, de la electricidad, gas y agua (que ocupan poco más del 1% de la fuerza laboral) y en medida más atenuada, en los sectores manufactureros, del transporte y financiero (que suman el 28% del empleo total).

Analicemos ahora el comportamiento del sector público. El gasto público no creció

sustancialmente, en porcentaje del PIB, en el periodo 1991-98, sino que se mantuvo alrededor del 31-33%. Este porcentaje empezó a subir solamente en 1999, disparándose hasta el 36% en 2001 a causa del coste del servicio de la deuda y la caída del PIB. Otra vez por comparación, el gasto público en España navega por debajo del 40% del PIB. Los déficits del estado Argentino, hasta 1999,

Page 38: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 35

nunca subieron por encima del 4% del PIB, y la deuda pública llegó al 50% del PIB solamente en 2001. Frente a estos hechos, muchos observadores han concluido que los mercados financieros internacionales tratan de manera “desigual” o hasta “injusta” a Argentina respecto a los países más desarrollados. Como ya hemos dicho, todo es posible. Pero, y para completar el cuadro de los hechos más relevantes, cabe mencionar dos cosas que fácilmente se olvidan. La primera es que, mantener el gasto público total más o menos constante cuando se triplica el empleo público a sueldos constantes o crecientes, se puede hacer de una sola manera: reduciendo brutalmente las inversiones públicas y los servicios públicos productivos. No solamente cuanto se gasta, sino como se gastan los recursos públicos es importante en la determinación de la capacidad de un país de honorar su endeudamiento. La segunda observación, aun más importante, es que alrededor de un 35 o 40% (esto en los años buenos, los economistas argentinos que se dedican a estas estimaciones colocan este valor cerca del 50% en los últimos años) del PIB argentino se produce en condiciones “informales”, es decir: en actividades económicas sobre las cuales la administración pública no recauda impuestos de ningún tipo. Ahora, es bueno recordar que cuando se mide (por ejemplo) la deuda en porcentaje del PIB, se hace esto para calcular un índice de la capacidad de un gobierno de devolver esta deuda. A esta capacidad miran los operadores financieros al establecer una prima de riesgo. Esto implica que, si ponemos en el denominador la capacidad de recaudación fiscal del gobierno, los números de Argentina se hacen mucho menos “Europeos”: el gasto público, casi todo improductivo, llega a más del 50% del “PIB imponible”, los déficit suben al 5 o 6% y la deuda al 70%. Y esto en los años buenos. Si añadimos a estos hechos la reputación, bastante terrible, de Argentina en honrar sus deudas al extranjero, las primás de riesgo post 1998 ya no parecen tan absurdas. Claro es que, si alguien cree en las conspiraciones de enanos suizos, pues seguirá creyéndo en las conspiraciones de enanos suizos.

Estos son algunos de los hechos, frente de los cuales muchas “explicaciones” de

comentaristas de moda pierden sentido: el tipo de cambio fijo, la liberalización salvaje, la globalización de los mercados, la volatilidad irracional de los mercados financieros internacionales, la maldad o idiotez del FMI y del Banco Mundial parecen más el producto de la ideología y de la propaganda que de un análisis objetivo de los datos. Si tuviésemos que aventurarnos en el terreno de explicar el porqué de la crisis, la anatomía de la evolución de la economía Argentina previa a la explosión de fin del 2001 sugiere que si hay que buscar un “culpable” por la larga recesión de Argentina parece mucho, pero mucho más productivo e interesante preguntarse porqué en un cierto punto, las inversiones se estancaron tan dramáticamente y nunca volvieron. Las respuestas no son sencillas, pero seria más útil para todo el mundo, que se buscaran honestamente sin sacarlas como viejos conejos desde el sombrero de algún comentarista profesional.

Page 39: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 36

Miguel Sebastián - David Taguas

LA UTILIZACIÓN DE MODELOS EN EL DISEÑO DE LA POLÍTICA ECONÓMICA

Miguel Sebastián y David Taguas Servicio de Estudios de BBVA

Page 40: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 37

Miguel Sebastián - David Taguas

1. La utilidad de los modelos económicos El desarrollo de modelos económicos se extendió a medida que avanzaba la segunda mitad del siglo XX. En un siglo que se ha calificado como “el siglo de la economía”25, la necesidad de disponer de herramientas de análisis fue paralela al creciente protagonismo de las autoridades monetarias o fiscales y a la creciente internacionalización de las economías, que aumenta el número y la importancia de sus interrelaciones. Los modelos son sustitutivos de los laboratorios, disponibles en las ciencias experimentales. Por ello, permiten la contrastación de las teorías económicas. Además valen para evaluar las medidas de política económica, para predecir los cambios de tendencias económicas y para simular el impacto de innovaciones tecnológicas o institucionales. En lo que se refiere a la política económica, es indudable que la utilización de un modelo económico permite disponer de un marco estable y homogéneo para evaluar con objetividad distintas alternativas, o para simular diferentes escenarios derivados de medidas alternativas. Esto es, se reduce, aunque no se elimina por completo, la subjetividad en el análisis. La utilización de modelos formalizados tiene indudables ventajas frente a los métodos no formalizados, como identifican Zabalza (1989) y Taguas (1997). Así, en primer lugar, un modelo macroeconométrico permite aprovechar rendimientos de escala. Esto es, cuando se dispone de un equipo de economistas, resulta fácil y eficiente distribuir el trabajo en el marco de un objetivo común, como es un modelo económico que se construye, utiliza o evalúa. En segundo lugar, un modelo permite realizar el análisis ex post, esto es, evaluar los errores cometidos, determinando sus causas, lo que ofrece la posibilidad de “aprender de los propios errores”. En tercer lugar, facilita la sistematización y la ordenación de la discusión económica, con lo que resulta más sencillo identificar discrepancias en el análisis de distintos economistas. En este sentido, una externalidad positiva de la sistematización es, sin duda, la transparencia. Los modelos económicos facilitan, en cuarto lugar, la transmisión del conocimiento entre grupos de economistas de la misma o de distintas generaciones. Finalmente, la utilización de modelos económicos, precisamente por el esfuerzo de sistematización al que obliga, constituye una manera de avanzar en el conocimiento de la realidad económica. 2. La evolución de la modelización ecónomica En realidad, un modelo macroeconómico no es más que una representación de las relaciones cuantitativas que se considera que existen entre las variables macroeconómicas, relaciones que están sustentadas en las hipótesis planteadas por la Teoría Económica. En él, los valores numéricos de los parámetros de las ecuaciones de comportamiento se obtienen habitualmente mediante estimaciones econométricas a partir de series temporales. Ahora bien, los modelos macroeconómicos han ido cambiando significativamente a lo largo del tiempo. El desarrollo de la contabilidad nacional, permitiendo disponer de mayor número de series y de mayor frecuencia, los avances en la Econometría y la mayor capacidad computacional de los sistemas informáticos han facilitado en gran medida este desarrollo. En particular, fue clave el avance de la Econometría, una disciplina cuya etapa formativa tuvo lugar en el periodo que se extiende desde 1930 a 1960. Los trabajos pioneros se basaron en la cuantificación de funciones de demanda en Economía agraria, pero ya en ellos surgieron algunos de los problemas que durante décadas han constituido las dificultades básicas a las que se enfrenta la Econometría. El Grupo de Harvard, precursor del NBER, la Sociedad Econométrica de la Universidad de Oslo, el Departamento de Estadística de los Países Bajos fundado por Tinbergen o la Comisión Cowles promovieron el desarrollo de la Econometría en esta primera etapa. La manera de abordar los problemas económicos era similar a la que se utilizaba para resolver un problema de

25 Véase, por ejemplo, Bradford DeLong

Page 41: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 38

ingeniería. Mantener a la economía en una senda estable de crecimiento, de pleno empleo y de baja inflación, era similar a mantener la trayectoria correcta de un cohete espacial, uno de los objetivos que la ciencia perseguía en ese momento. En definitiva, durante este primer periodo, el objetivo de la modelización era diseñar instrumentos, principalmente de política monetaria y fiscal, que contribuyeran a estabilizar la economía. Pero el enfoque de la modelización cambió de forma radical en los años setenta, y lo hizo por razones prácticas y teóricas. Así, el empeño de los grupos de economistas durante los años sesenta había sido el diseño de grandes modelos26, con notable complejidad en su construcción y en su evaluación. Sin embargo, poco a poco se vió que métodos más sencillos, como los modelos de series temporales, permitían obtener resultados más alentadores en términos de predicción, evitando problemas como la diferenciación de variables exógenas y endógenas, la incorporación de restricciones o los problemas de identificación. Además, resultaban más asequibles desde el punto de vista computacional. Ahora bien, al margen de la predicción económica, para la evaluación de las políticas económicas seguía siendo necesario disponer de modelos estructurales. La crítica a los modelos tradicionales surgió entonces en el plano teórico, donde fue determinante la introducción de las expectativas. La realidad económica en los años setenta había entrado en contradicción con el supuesto trade-off entre inflación y desempleo, la llamada curva de Phillips. Los trabajos de Friedman (1968) y de Phelps (1968) que ponían en cuestión la existencia de este trade-off se vieron reforzados por la introducción de las teoría de las expectativas racionales por Lucas (1972). Esta teoría suponía una importante crítica al trabajo econométrico anterior, al poner en duda la estabilidad de las ecuaciones estructurales ante cambios de régimen de política económica. Sólo aquellas medidas que no esperan los agentes resultan efectivas, ya que las decisiones de los agentes neutralizan el efecto de las medidas que son anticipadas. Estos cambios de expectativas son los que permitieron explicar los desplazamientos de la curva de Phillips, y la coexistencia de un mayor desempleo con una mayor tasa de inflación. Pese a las críticas, el avance econométrico continuó en los años ochenta con dos aportaciones fundamentales. La primera, debida a Sims (1980), critica los modelos econométricos tradicionales, señalando los problemas de identificación, especialmente tras la introducción de las expectativas, y defendiendo que la dinámica de los modelos no permite en muchas ocasiones identificar de forma adecuada los parámetros. Este fue el origen del desarrollo de la metodología de los vectores autorregresivos, VAR. Esta se enfrentó en un primer momento a notables problemas, derivados tanto de las dificultades de su aplicación, ya que requería ordenadores de notable potencia, como a las críticas derivadas de su “escasa base teórica”, a pesar de que esta metodología requiere de unas restricciones que deben estar basadas en la teoría económica. Actualmente su utilidad como instrumento para la predicción económica está fuera de duda, así como para identificar la naturaleza de los shocks que afectan a las economías. En este sentido, a partir del trabajo de Blanchard y Quah (1989), se ha popularizado el uso de modelos VAR estructurales para identificar la naturaleza de los choques que afectan a una economía, en particular, si éstos son permanentes o transitorios. La segunda aportación significativa fue la incorporación del concepto de cointegración, que tuvo su origen en los trabajos de Granger (1983) y Granger y Weiss(1983) y culminó con el artículo de Engle y Granger (1987). Esta metodología supuso una notable aportación al trabajo empírico, ya que ofreció respuesta a muchos de los problemas a los que se enfrentaban los economistas aplicados. Permitió centrarse en la relación de equilibrio o de largo plazo, especificando el modelo dinámico como un mecanismo de corrección de error (MCE). El énfasis en el largo plazo, frente a la casi exclusiva dedicación a las políticas de estabilización del ciclo económico durante los años sesenta y setenta, permitió la incorporación del concepto de sostenibilidad. Ya no se trataba sólo de conseguir influir a corto plazo en el ciclo económico, sino que las medidas de política económica no tuvieran efectos desestabilizadores en el medio y largo plazo.

26 Ejemplos de estos modelos son el de la Brookings Institution, el de la Wharton School of Economics, el DRI o el de la Reserva Federal de San Luis.

Page 42: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 39

¿Cuál ha sido la evolución en los años noventa? Progresivamente se ha ido abandonando el objetivo de diseñar modelos de amplia escala, dado el elevado coste de construcción y de mantenimiento que tienen, que obliga a disponer de un grupo amplio de economistas. Se ha avanzado hacia modelos de escala más reducida, pero que tienen un carácter más estructural. Esta modelización tiene varias facetas. En primer lugar, pretende abordar temas concretos, como el análisis de la función de reacción de los Bancos Centrales. Para ello, muchas veces es preciso incorporar a estos modelos herramientas que se obtienen al margen de los mismos. En el caso del comportamiento de los bancos centrales, resulta clave disponer de predicciones de inflación que pueden haber sido obtenidas mediante diversas metodologías, esto es, desde modelos de series temporales, hasta VAR más o menos estructurales. En segundo lugar, en muchas ocasiones, sus parámetros no se estiman, sino que se calibran. En tercer lugar, el interés está no sólo en determinar la magnitud de los efectos de las respuestas de una variable a las medidas de política económica, sino también en analizar el tiempo que ésta tarda en actuar. En este sentido, la obtención de funciones de "impulso-respuesta" resulta un elemento clave en este enfoque. Por último, progresivamente, este tipo de modelos han ido incorporando procesos de formación de expectativas forward-looking, y no backward-looking, como venía siendo tradicional. Ello ha permitido un notable acercamiento a las respuestas de las variables económicas observadas en la realidad. 3-Modelos y predicción económica Recientemente, el Banco de Suecia27 ha elaborado un exhaustivo estudio evaluando el grado de acierto en las previsiones de inflación y crecimiento para EEUU, Reino Unido, Japón, Alemania, Francia e Italia de 250 instituciones durante los años noventa. En conjunto, se evaluaron 52.000 predicciones, usando como criterio de evaluación el error cuadrático medio. Algunos de los resultados fueron sorprendentes. Así, las instituciones menos conocidas fueron las que mostraron mayor número de aciertos, mientras otras, con peso más elevado, como el FMI o la OCDE, se encontraban entre los que obtenían peores resultados. El estudio constató, además, que muchas instituciones eran incapaces de identificar cambios estructurales en las tasas de crecimiento real incluso después de periodos de tiempo prolongados, y que existía un “efecto rebaño” en el comportamiento de las instituciones, esto es, que su actuación responde a la idea de que es mejor “equivocarse con los demás que correr el riesgo de equivocarse solo”. Además, dadas las revisiones en las previsiones, un elevado grado de aciertos de una institución en el pasado no garantiza un buen resultado en el futuro.

Ranking de instituciones de acuerdo con su acierto en las previsiones de PIB e inflación de EEUU en el periodo 1990-2000

Situación en el ranking de previsiones

PIB Inflación Nat. Assn. of Manufacturers* 1 9 Metropolitan Life 2 34 Univ Michigan 3 25 Daimler Chrysler 4 37 Smith Barney 5 14 Otras instituciones: Merrill Lynch 16 18 JP Morgan 19 24 FMI 26 31 OCDE 28

*Excluido del Consensus desde 1995. Fuente: Blix et al (2001), Banco de Suecia

27 Véase Blix et al (2001)

Page 43: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 40

Las dificultades para obtener buenas predicciones de la economía se ha convertido en muchas ocasiones en la principal crítica de los detractores de la formalización econométrica. Incluso entre los que defienden la necesidad de disponer de modelos econométricos surge constantemente el debate sobre la posibilidad de utilizar simultáneamente un mismo modelo para evaluar la política económica y para hacer predicciones sobre su futuro comportamiento. Un ejemplo claro es el de las funciones de reacción de los bancos centrales. Siguiendo el trabajo de Taylor (1993) el tipo de interés se suele especificar en función de las variables macroeconómicas que constituyen el objetivo de los bancos centrales, habitualmente en forma de desviaciones de la inflación y del output de su objetivo y de su tendencia de largo plazo, respectivamente. De esta forma, la autoridad monetaria lleva a cabo una política “relajada” cuando los tipos de interés estén por debajo de lo que señala la función de reacción y “restrictiva” en caso contrario. El dilema surge a la hora de realizar predicciones sobre el comportamiento de los tipos de interés, a partir de una situación de política monetaria que no resulta necesariamente neutral. Muchos defienden que es difícil proyectar los sesgos que puede tener la autoridad monetaria en su actuación. Aunque inevitablemente la predicción en un modelo econométrico se enfrenta a dificultades, entre las que los posibles cambios estructurales o la calidad de las predicciones de los inputs constituyen algunos de los principales problemas, Hendry et al (2001) han tratado de establecer algunas pautas para mejorar la predicción econométrica. Entre ellos señala: i) tener cuidado con los métodos de determinación de los cambios de régimen y tender hacia el uso de cambios en las constantes, ii) evitar la “suavización” de las predicciones, una practica habitual de muchas instituciones, pero que impide detectar a tiempo los cambios estructurales, iii) no incluir como input demasiadas variables derivadas de encuestas, iv) utilizar toda la información disponible para distinguir entre un error de predicción y un cambio estructural, v) tener en cuenta los indicadores de “alerta temprana” y hacer frecuentes lecturas del estado de la economía con datos de alta frecuencia,... 4. El estado de la modelización en la UEM La creación de una nueva área monetaria, la Unión Económica y Monetaria (UEM), en 1999, vino acompañada de la necesidad de disponer de modelos económicos que permitiesen evaluar las políticas económicas y predecir el comportamiento de las principales variables macroeconómicas de la zona del euro. El primero de los problemas al que se enfrentó fue a la disponibilidad de series económicas históricas. En previsión de esta situación, diversas instituciones abordaron la construcción de bases de datos. Entre ellas, el Servicio de Estudios de BBVA comenzó en 1998 a elaborar una base histórica de datos trimestrales desde 1970 para el conjunto de los once países que finalmente se convirtieron en los primeros integrantes de la nueva área monetaria. Un problema adicional ocurrirá en los próximos años con la integración de nuevos países al área, lo que podría obligar a modificar las series históricas28.En particular, la incorporación de los tres países que forman parte de la UE pero no de la UEM (Dinamarca, Suecia y el Reino Unido), podría suponer una severa revisión de las series de datos. Tras la construcción de los datos, el objetivo inmediato fue el diseño de modelos que permitieran realizar predicciones, fundamentalmente, de crecimiento e inflación a un horizonte de uno o dos años, esto es, el que se consideraba relevante para la política monetaria, dada la estrategia anunciada por el BCE y su precursor el IME. Para ello, se utilizó la metodología VAR, en particular de VAR bayesianos siguiendo la propuesta de Litterman (1980) o de Doan, Litterman y Sims (1984). En este caso, para superar el problema de sobreparametrización que habitualmente presentan los modelos con un elevado número de varibles, en lugar de eliminar arbitrariamente algunos regresores, se asigna a cada uno de los coeficientes del modelo una distribución de probabilidad29. El modelo del Servicio de Estudios de BBVA que se denomino BBVA-ARIES está compuesto de once variables divididas en cuatro grandes bloques. El "entorno internacional" a la zona euro está 28 La incorporación de Grecia en 2001 se ha solucionado con un enlace de las series, pero esto no será posible cuando se incorporen nuevos países con mayor peso en el PIB del área. 29 La media y la desviación típica de la distribución de probabilidad se denomina “información a priori” del modelo. Para seleccionar dicha información se adoptó la “prior de Minnesota”, que se basa en tres regularidades empíricas: i) la mejor predicción de una variable es su valor actual, ii)los retardos más cercanos en el tiempo contienen más información que los más lejanos, y iii) los retrardos propios contienen más información que los ajenos.

Page 44: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 41

representado por los precios de las materias primas, el PIB de buena parte del resto del mundo y el tipo de interés a tres meses de EE.UU. Los otros tres bloques de variables los integran variables domésticas. Uno de ellos es el bloque “interior” compuesto por PIB, inflación y salarios. El segundo es el bloque fiscal, integrado por el déficit presupuestario, y que afecta y se ve afectado por el resto de variables económicas y financieras. Por último, el bloque monetario y financiero incluye los tipos de interés a corto plazo de la UEM, la rentabilidad de la deuda alemana a 10 años, el agregado monetario M3 de la eurozona y la evolución del tipo de cambio dólar-euro. En sus cuatro años de funcionamiento, el modelo ha resultado bastante eficiente en las predicciones de actividad e inflación para el conjunto del área. El análisis de coyuntura del crecimiento y de la inflación, paso previo para poder realizar predicciones adecuadas, se abordó con el desarrollo de indicadores coincidentes y adelantados para el PIB y con diversos modelos para la inflación, del tipo univariante, funciones de transferencia o curvas de Phillips. Junto a la predicción y el análisis de coyuntura, resultaba clave disponer de modelos que permitiesen evaluar la política monetaria, atendiendo a aspectos tales como su transmisión o su carácter estabilizador. Obviamente en un área caracterizada por una política monetaria única, la modelización de la política monetaria se convertía en una prioridad. La evaluación y el análisis de otras políticas económicas, como la fiscal, quedaron inicialmente en un plano más secundario. En el propio BCE se abordó la tarea de construir un modelo macroeconómico estructural en una doble dimensión. Por un lado, se construyó un modelo agregado para el área, de tamaño relativamente pequeño, que resultaba consistente en el largo plazo con el equilibrio de un modelo neoclásico. De esta forma, el output de largo plazo se determina a partir del progreso tecnológico y los factores productivos. La dinámica de corto plazo se especifica “ad hoc” y se estima con datos históricos. Por otro lado, se desarrollo un modelo multi-país, en colaboración con los bancos centrales nacionales, en el que cada bloque nacional se construye de forma similar a la del modelo agregado. En el ámbito de la política monetaria, algunos de los primeros trabajos de modelización que se realizaron sobre la UEM buscaron analizar el comportamiento del BCE, apoyándose en la exitosa contribución de Taylor (1993) que logró caracterizar la función de reacción de la Reserva Federal de una forma simple, en la que los tipos de interés a corto plazo dependían de dos objetivos de la política monetaria. Estos eran las desviaciones de la inflación de su objetivo y de la actividad de su tendencia de largo plazo. Estudios posteriores mostraron que la Reserva Federal parecía haber llevado a cabo una política estabilizadora al menos desde 1979. La idea original de Taylor, a pesar de su sencillez, resultó óptima en muchos modelos macroeconómicos y fue extendida en el plano empírico en una doble dirección. Por un lado, se permitió que los bancos centrales ajustaran gradualmente sus tipos de interés hacia el nivel objetivo. Por otro, se estimaron versiones forward-looking de la función de reacción de Taylor, dando entrada en algunos casos a nuevas variables como el tipo de cambio. En realidad, se trata de suponer que los bancos centrales toman sus decisiones basándose en las predicciones de output e inflación para los próximos periodos. Cuando este tipo de reglas se usan para predecir tipos de interés, con todas las cautelas que más adelante se señalan, se requieren utilizar predicciones de output e inflación derivadas de otros modelos, tanto estructurales a la BBVA-ARIES, como de indicadores de actividad o de modelos univariantes para los componentes de la inflación. Peersman et al (1999) y Gerlach et al (1999, 2000) estimaron reglas monetarias para la UEM. El problema de aplicar estas funciones de reacción a la UEM, era estimar sus coeficientes basándose en datos históricos, dada la inexistencia de un banco central europeo antes de 1999 y las divergencias en el comportamiento de los distintos países. En general, se optó por usar datos agregados de la UEM, asumiendo que la política monetaria que en promedio llevaron a cabo los países integrantes de la misma era una buena guía para el futuro. Un supuesto que resulta viable en la media en que se contrastó la convergencia progresiva de la inflación y de la preferencia por la inflación de las autoridades monetarias de estos países a partir de la segunda mitad de los años ochenta, algo que hicieron Doménech et al (2001a). Esta convergencia se acentuó en los años noventa a medida que los países convertían la lucha contra la inflación en una prioridad. En este

Page 45: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 42

sentido, en el Servicio de Estudios del BBVA se estimó una regla monetaria para la UEM, que permitió señalar que la política monetaria había tenido, también en Europa, un papel estabilizador. Adicionalmente, de acuerdo con la evolución observada en otras instituciones que avanzaron hacia el desarrollo de pequeños modelos estructurales, el estudio de la política monetaria europea se abordó con un modelo de dimensión reducida y de carácter forward-looking, como se recoge en Doménech et al (2001b). Este tipo de modelos basados en el enfoque IS-LM, pero que utilizan sólidos fundamentos microeconomicos que refleja el comportamiento optimizador de los agentes económicos ha permitido avanzar significativamente en el diseño, análisis y evaluación de la política monetaria. En concreto, este modelo permite analizar el mecanismo de transmisión de la política monetaria puesta en práctica por el BCE a través de una regla de tipo de interés que estabiliza la inflación y el output. Este tipo de modelos estructurales se ha desarrollado de forma importante en EEUU, pero no para la UEM, especialmente cuando incorporan versiones forward-looking de las ecuaciones que constituyen el modelo. En particular, el modelo desarrollado en el Servicio de Estudios del BBVA incorpora versiones de la curva IS, de la curva de Phillips y de la regla de tipos de interés, usando datos trimestrales desde 1986. Este es el periodo en el que resulta posible defender la estabilidad de la regla monetaria. En el marco de este modelo, se obtuvieron funciones impulso-respuesta que permiten cuantificar la magnitud y la duración de la respuesta del output, la inflación y los tipos de interés a distintos shocks, asumiendo siempre que el BCE se comporta de acuerdo con la regla monetaria propuesta. Aunque queda mucho trabajo por hacer en la modelización de la UEM, se está empezando a construir una sólida base de análisis para los próximos años. En el camino quedan pendientes muchos temas. Así, en primer lugar, el cambio de dimensión de la UEM en la próxima década obligará a modificar las series históricas y a reestimar muchas de las relaciones econométricas. En segundo lugar, la definición de las políticas económicas está aún pendiente en muchos ámbitos, lo que dará lugar a cambios en la modelización.

Referencias BCE (2001) : “A guide to Eurosystem staff macroeconomic projections exercises” Blanchard, O.J. y D. Quah (1989): “The dynamic effects of aggregate demand and supply disturbances" American Economic Review, 83, 653-658 Blix, M., J. Wadefjord, U. Wienecke y M. Adahl (2001): “How good is the forecasting performance of major institutions?”, Economic Review, 3/2001, Banco de Suecia Doan, T.A., R.B. Litterman y C.A. Sims (1984): “Forecasting and conditional projection using realistic prior distributions”, Econometric Reviews, 3, 1-144 Doménech, R., M. Ledo y D. Taguas (2001a): “Some new results on interest rate rules in EMU and in the US” Journal of Economics and Business, 54(4), 4. Doménech, R., M. Ledo y D. Taguas (2001b): “A Small Forward-Looking Macroeconomic Model for EMU”, documento de trabajo Servicio de Estudios BBVA (disponible en www.bbva.es) Engle R.F. y C.W.J. Granger (1987): "Cointegration and Error Correction: Representation, Estimation and Testing", Econometrica, 251-76 Friedman, M. (1968-): "The role of monetary policy:” Presidential Address to AEA, 1968, AER Gerlach, S. y F. Smets (1999): “Output gaps and monetary policy in the EMU Area". European Economic Review, 43, 801-812. Gerlach, S. y G. Schnabel (2000): “The Taylor rule and interest rates in the EMU area.” Economics Letters, , 67, 165-171. Granger, C.W.J (1983): “Co-integrated variables and error-correcting models” USCD discussion paper 83-13 Granger, C.W.J. y A. Weiss (1983): "Time series analysis of error-correction models," Studies in Econometrics, Time Series and Multivariate Statistics, en honor de T.W. Anderson. Edited by S. Karlin, T. Amemiya, and L.A. Goodman, Academic Press, 1983. Hendry, D.F. y M.P. Clements (2001): “Economic Forecasting: some lessons from recent research”, documento de trabajo nº 82, BCE

Page 46: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 43

Litterman, R.B. (1986): “Forecasting with Bayesian vector autoregression- five years of experience”, Journal of Business and Economic Statistics, 4 , 25-38. Lucas, R.E. (1972): “Expectations and the Neutrality of Money", 1972, Journal of Economic Theory 4, 103-124. Peersman, G. y F. Smets (1999): “Uncertainty and the Taylor rule in a simple model of the euro-area economy". presentado en la Conferencia de la Reserva Federal de San Francisco ``Monetary policy and monetary institutions", 5-6 Marzo 1999. Phelps, E.S. (1968): “Money-wage dynamics and labor-market equilibrium” Journal of Political Economy, 76, pps. 678-711 Taylor, John B. (1993): “Discretion versus policy rules in practice" Carnegie-Rochester Conference Series on Public Policy, 39, 195-214. Sims, C.A. (1980): "Macroeconomics and reality", Econometrica 48, 1-48 Taguas, D. (1997): “El uso de los modelos en el diseño de la política económica”, Seminario sobre medida de los impactos económicos de los programas de inversión en el territorio, Generalitat de Cataluña, cuadernos de trabajo, 48. Zabalza, A.(1989): “Uso de modelos para el análisis y la predicción económica”, Revista Española de Economía, vol 5, nº 1 y 2.

Page 47: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 44

IV. INFLATION / INFLACIÓN

6. Causas y remedios del diferencial de inflación, José Luis Feito

Page 48: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 45

José Luis Feito

CAUSAS Y REMEDIOS DEL DIFERENCIAL DE INFLACIÓN

José Luis Feito

Page 49: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 46

José Luis Feito

ÍNDICE

INTRODUCCIÓN I. DIAGNÓSTICOS ERRÓNEOS Y TERAPIAS EQUIVOCADAS

1. “La diferencia de inflación es una consecuencia ineludible e inocua de la convergencia hacia la renta per cápita de la zona euro”

2. “La política adecuada para cerrar el diferencial de inflación consiste en liberalizar más

intensamente nuestros mercados de bienes y servicios”

3. “La política antiinflacionista óptima consiste en fomentar el avance de la productividad”

4. “La inflación es siempre y en todo lugar un fenómeno monetario por lo que su única corrección o suavización posible está en manos del BCE”

II. LA COMBINACIÓN DE LA POLÍTICA MONETARIA COMÚN Y LA POLÍTICA FISCAL ESPAÑOLA III.CONCLUSIONES

Page 50: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 47

INTRODUCCIÓN La persistencia de ritmos de inflación anuales sistemáticamente superiores a los registrados

en promedio por la zona euro es, sin duda alguna, el rasgo más inquietante del funcionamiento de la economía española desde la puesta en marcha de la unión monetaria europea. Es especialmente preocupante porque, como se puede apreciar en el Cuadro 1, dichas diferencias no han sido provocadas por una desaceleración de la inflación en el resto de países de la eurozona sino sobre todo por un aumento continuo del ritmo de crecimiento anual de los precios en nuestro país.

Cuadro 1. Inflación media anual (%)

1998 1999 2000 2001 2002 España 1,8 2,3 3,4 3,6 3,9 Zona euro 1,1 1,1 2,3 2,5 2,2 _________________________________________________________________________________

Fte.: Eurostat

Aun cuando los análisis y discusiones políticas sobre nuestro diferencial de inflación se han intensificado recientemente, siguen existiendo discrepancias y confusiones notables sobre las causas y posibles soluciones de dicho desequilibrio. En la primera parte de este trabajo se examinan críticamente algunos análisis y remedios de dicho diferencial tan populares como equivocados. En la segunda parte se analiza el determinante fundamental del diferencial de inflación: la combinación de la política monetaria del Banco Central Europeo (BCE) y la política fiscal española. En la última sección se resumen las principales conclusiones del artículo. I. DIAGNÓSTICOS ERRÓNEOS Y TERAPIAS EQUIVOCADAS

Se consideran a continuación cuatro análisis defectuosos de las causas y remedios del diferencial de inflación. El primero de ellos, que quizá cuente hoy con menos defensores que los que tuvo hace uno o dos años, sostiene que la persistente diferencia de inflación frente a los principales países de la eurozona es, en su totalidad o en su mayor parte, un fenómeno de equilibrio atribuible a nuestro mayor ritmo de crecimiento económico; el corolario evidente de este análisis es que mientras sigamos creciendo por encima de la media de la eurozona la inflación no constituye un problema para la política económica. El segundo análisis considera que las causas del diferencial residen en las imperfecciones de nuestros mercados de bienes y servicios y concluye consecuentemente que una mayor liberalización de dichos mercados resolvería el problema. El tercer análisis estima que la raiz del diferencial de inflación se encuentra en el bajo crecimiento de la productividad registrado durante estos últimos años y consiguientemente propone para corregirlo una serie de medidas encaminadas a fomentar el ritmo de avance de dicha productividad. El cuarto análisis invoca el principio de que la inflación es siempre y en todo lugar un fenómeno monetario para abandonarse al nihilismo terapéutico y concluir que no está a nuestro alcance ni resolver ni suavizar el problema.

1. “La diferencia de inflación es una consecuencia ineludible e inocua de la convergencia hacia la renta per cápita de la zona euro”

Los partidarios de esta visión sostienen tácita o explícitamente las dos tesis siguientes. En

primer lugar, si un país crece más rápidamente que un conjunto de países de renta más elevada con los cuales comparte una moneda común ha de registrar inevitablemente una inflación superior a la de dicho conjunto de países. En segundo lugar, dicho diferencial de inflación es inofensivo. Ni una ni otra tesis son necesariamente ciertas en los términos expuestos. La validez de una y otra exige, como veremos a continuación, que se cumplan condiciones adicionales a las especificadas en la proposición anterior.

En cuanto a lo primero, es perfectamente posible que un país con menor renta per cápita que los otros miembros del área monetaria crezca más deprisa que ellos sin soportar una inflación significativa o sistemáticamente mayor, especialmente si las diferencias de renta entre uno y otros países no son muy acusadas (v.g. si no se trata de comparar países en vías de desarrollo con países

Page 51: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 48

desarrollados). Véase, por ejemplo, la experiencia de Irlanda y Finlandia, países cuyas rentas per cápita en 1991 alcanzaban el 75,2 % y el 93,8 % respectivamente de la renta per cápita media de la eurozona, a lo largo de la década de los noventa:

Cuadro 2. Crecimiento e Inflación: 1991-2000

(% variación media anual)

PIB IPC Irlanda 7,3 3,0 Finlandia 2,1 2,4 Eurozona 2,0 2,9 _____________________________ Fte.: European Economy, Nº 4, 2002

Ciertamente se pueden considerar subperiodos dentro de la década citada más o menos

favorables a la inexistencia de una correlación positiva entre los diferenciales de crecimiento económico y los diferenciales de inflación de un país de renta per cápita inferior a la del conjunto de países del área monetaria. Pero los datos del Cuadro 2 son suficientes para ilustrar un error que se desliza sigilosa pero frecuentemente cuando se invoca la hipótesis de Balassa-Samuelson para justificar la persistencia de diferenciales de inflación entre países desarrollados. Este error consiste en suponer que los niveles de precios de consumo serán obligatoriamente idénticos entre países de igual renta per cápita de forma que los precios del país que va convergiendo crecerán siempre más deprisa que los de los países con cuyas rentas se converge. La igualdad de niveles de precios para iguales rentas per cápita exige que las estructuras productivas y los gustos de las respectivas sociedades sean suficientemente similares como para que las ponderaciones de los bienes comerciables y los no comerciables en los respectivos índices de precios de consumo no difieran significativamente, lo que obviamente no tiene por qué ocurrir necesariamente 1). Así, durante la década considerada, Irlanda y Finlandia pasaron de niveles de renta per cápita que suponían el 75,2 % y el 93,8 % de la media de los países de la eurozona a niveles del 118,6 % y 103,2 % de dicha renta media respectivamente sin que se alterara prácticamente la relación entre su nivel de precios y el de la zona euro.

La segunda cuestión es el carácter inocuo de diferenciales de inflación acumulados al abrigo de un crecimiento del país de menor renta per cápita superior al de los países de renta más elevada con los que se comparte una moneda común. De nuevo, aquí se conculca con frecuencia el teorema de Balassa-Samuelson cuando se esgrime para justificar como inofensivo, como fenómeno de equilibrio, cualquier diferencial de inflación que vaya asociado a un diferencial de crecimiento económico a favor del país considerado. El mayor crecimiento económico y el diferencial de inflación pueden estar originados por un exceso de demanda más abultado que el de nuestros socios comerciales, en cuyo caso antes o después el avance en el escalafón de rentas per cápita se interrumpirá y se pondrá en marcha un proceso de ajuste que se comerá la parte de la convergencia atribuible al exceso de demanda. El diferencial de inflación, pues, puede ser de equilibrio o resultar de un exceso de demanda aunque vaya acompañado de un crecimiento superior al de los restantes países del área monetaria.

El citado teorema Balassa-Samuelson establece los supuestos y condiciones que se han de cumplir para que el diferencial de inflación sea una manifestación de un proceso de convergencia sostenible y por lo tanto no ponga en peligro el crecimiento futuro del país 2). La condición esencial para despreocuparse del diferencial de inflación de un país como España sería que dicho diferencial estuviera provocado por un ritmo de crecimiento de la productividad total de los factores en nuestro sector de bienes comerciables mayor que la media correspondiente al resto de países de la eurozona. Este diferencial del ritmo de avance de la productividad permitiría que nuestro sector de comerciables soportara crecimientos de los salarios y otros costes de producción

1) Para un estudio empírico de esta cuestión véase ROGOFF, K., “The Purchasing Power Parity Puzzle”, Journal of Economic Literature, vol. XXXIV, nº 2, junio, 1996. 2) Para más detalles en relación con los aspectos teóricos y la evidencia empírica disponible sobre la hipótesis Balassa-Samuelson, permítaseme remitir al lector a FEITO, J.L., “La política anticíclica española dentro del euro”, Círculo de Empresarios, Madrid, 2002.

Page 52: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 49

mayores que los de los otros países sin que por ello se dañara la competitividad exterior de la economía. Los mayores crecimientos salariales se extenderían al sector de no comerciables donde, sin embargo, el avance de la productividad no sería muy diferente del registrado por los otros países del área monetaria. En consecuencia, si se cumplieran los postulados del citado teorema, la inflación de los bienes comerciables sería similar en los diversos países de la eurozona, pero el ritmo de aumento de los precios no comerciables sería mayor en nuestro país de manera que se registraría un diferencial de inflación cuyo factor causal último sería la beneficiosa diferencia de ritmos de avance de la productividad en el sector de bienes comerciables.

Se ha de señalar que el hecho de que el diferencial de inflación esté en su mayor parte determinado por la mayor inflación del sector de bienes no comerciables no supone una condición suficiente para la validez de la hipótesis Balassa-Samuelson. Podría ocurrir, por ejemplo, que nuestra inflación en el sector de bienes comerciables fuera similar a la de los otros países pero que los costes laborales unitarios en dicho sector fueran superiores y se estuviera deteriorando nuestra competitividad exterior. Esto es, los salarios estarían creciendo más rápidamente que los de nuestros socios comerciales sin que dicha diferencia fuera compensada por un mayor crecimiento de nuestra productividad; o bien los crecimientos salariales podrían ser similares pero el ritmo de avance de la productividad en nuestro sector de bienes comerciables podría ser más bajo que el de los otros países de la eurozona. Por otro lado, si la inflación de los comerciables es en nuestro país apreciablemente superior a la media de la eurozona, el carácter benigno de la inflación sería poco probable. La inflación de los comerciables, medida por el IPC, será siempre algo superior en el país de mayor inflación de los no comerciables ya que un índice de precios al por menor como el IPC implica la incorporación de servicios no comerciables como el transporte, distribución, etc. al precio de los comerciables. Ahora bien, si la inflación de los comerciables es significativamente superior a la de otros países, lo más probable es que exista un exceso de demanda que esté alimentando la inflación de los no comerciables e indirectamente la de los comerciables por encima de lo que justificaría el ritmo de avance de la productividad. En este caso, aun cuando nuestra productividad creciera más rápidamente que la media de la eurozona, habría un exceso de inflación superior al que se podría justificar como un fenómeno de equilibrio tipo Balassa-Samuelson. La inflación de los comerciables puede ser también superior a la de los otros países por efectos derivados de la distinta composición del sector de comerciables en nuestro país en comparación con la media de la eurozona; estas diferencias, sin embargo, no serán persistentes.

La aplicación del modelo Balassa-Samuelson al caso español se complica porque nuestro principal sector productor de comerciables es el turismo, cuyos precios se incluyen entre los servicios del IPC y por tanto se incorporan habitualmente a la inflación de los no comerciables. Se trata, además, de un sector con cierto poder de mercado, sobre todo en situaciones en las que se cierran destinos alternativos como ocurrió durante las guerras de la antigua Yugoslavia o en los momentos de tensión en algunos países del norte de Africa. Exceptuando estas situaciones, siempre transitorias, el margen existente para que la productividad de nuestro sector turístico sea tan superior a la de nuestros competidores como para compensar amplias diferencias de crecimiento salarial es reducido. A efectos de verificar la validez de la hipótesis Balassa-Samuelson, lo correcto sería incluir la inflación del sector turístico en la de los comerciables. En cualquier caso, la evidencia empírica refuta contundentemente la existencia de efectos Balassa-Samuelson detrás del diferencial de inflación español generado desde el comienzo de la unión monetaria en 1997 y sobre todo desde 1999. No podía ser de otra manera teniendo en cuenta que el principal impulso del vigoroso crecimiento de nuestra economía durante estos años no ha procedido de una aceleración del ritmo de avance de la productividad de los factores productivos sino de un aumento notable de la cantidad de dichos factores empleados en la producción. Los resortes de nuestra expansión económica han sido fundamentalmente el excepcional aumento del empleo propulsado por la fuerte inmigración, el incremento de la tasa de participación y la absorción de buena parte del paro masivo existente a mediados de los años noventa del pasado siglo, así como la no menos excepcional reducción de los tipos de interés reales y la consiguiente aceleración de la formación de capital. Cuando tiene lugar un proceso de estas características es habitual que se registre una ralentización cíclica del crecimiento de la productividad de los factores productivos. La productividad del trabajo se desacelera por la masiva incorporación al empleo de inmigrantes, trabajadores procedentes del paro o sin experiencia laboral previa cuya productividad es muy inferior a la media de los trabajadores empleados. Por otra parte, la productividad del capital tiende a ser proporcional al nivel de los tipos de interés reales a largo plazo. Esto es, con tipos de interés reales muy bajos se ponen en marcha proyectos de inversiones de baja productividad

Page 53: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 50

que no serían viables en otras circunstancias (v. g. la extraordinaria expansión de la inversión residencial).

Un proceso de crecimiento impulsado por estos factores puede ser más rápido que el de otros países que no partieran de un exceso de oferta de trabajo y de tipos de interés reales tan abultados como los nuestros sin por ello provocar un diferencial de inflación sensible y persistente. Evidentemente, si la intensidad de la bajada de tipos de interés no es suficientemente compensada por la política fiscal, se alimentará un fuerte crecimiento de la demanda que, si bien inicialmente se transforma en una aceleración del crecimiento económico, se traslada en proporción creciente a los precios consolidando así una inflación cada vez mayor que la media de la eurozona. La evidencia en contra del carácter benigno de nuestro diferencial de inflación se refuerza si recordamos que a veces dicho diferencial puede ser un indicador deficiente de los excesos de demanda relativos. Esto sucedería si, como viene ocurriendo hasta la fecha, la deuda de las familias españolas creciera más velozmente que la media correspondiente de la eurozona y dicha deuda se dedicara en mayor proporción que en los otros países a la adquisición de activos cuya variaciones de precios no se reflejan en el IPC (v.g. la vivienda).

2. “La política adecuada para cerrar el diferencial de inflación consiste en liberalizar más intensamente nuestros mercados de bienes y servicios”

Quizá los partidarios de esta solución preferirían eliminar el adverbio “más intensamente” de la proposición anterior pues muchos de ellos piensan que las operaciones de liberalización de nuestros mercados de bienes y servicios han sido más un artificio publicitario que una verdadera intensificación de la competencia en dichos mercados. Creo que se equivocan, pero en cualquier caso esta discusión es irrelevante para el asunto que nos ocupa porque el grado de imperfección de nuestros mercados de bienes y servicios puede incidir sobre el nivel de precios de dichos mercados, y como veremos a continuación puede incidir tanto a la baja como al alza, pero no sobre el ritmo de inflación tendencial de la economía. En ocasiones, la liberalización puede ciertamente provocar una bajada del nivel de precios de los bienes o servicios correspondientes, aunque raramente dichos efectos serán significativos de forma inmediata. Aun así, y suponiendo que los bienes y servicios afectados tuvieran una ponderación significativa en el IPC, para que se ralentizara la inflación debería endurecerse la combinación de políticas monetaria y fiscal a fin de impedir que el poder adquisitivo liberado por aquellas bajadas de precios se destinara a demandar mayores cantidades de esos u otros bienes de consumo. La existencia de poder de mercado es estrictamente equivalente a un impuesto indirecto sobre el bien en cuestión, y de la misma manera que bajadas o subidas de varios impuestos específicos pueden bajar o subir en un primer momento la inflación interanual pero dicha inflación vuelve a subir o bajar cuando desaparecen dichos efectos, la liberalización de mercados no tiene efectos permanentes sobre la inflación. Si bien a pocos economistas, pocos porque siempre puede haber sorpresas en nuestro gremio, se les ocurriría postular una política de bajada de impuestos indirectos para luchar contra la inflación (de hecho, si no se altera la política financiera, la inflación terminaría aumentando), es sorprendente la abundancia de profesionales que apoyan la liberalización de los mercados como la más eficaz política antiinflacionista. Se ha de hacer notar además que en ocasiones la liberalización puede subir el nivel de precios del mercado. Esto suele ocurrir cuando se trata de mercados sujetos a fuertes regulaciones y controlados en el pasado por empresas públicas o dependientes de una u otra manera de la tutela gubernamental. Este es el caso de la mayor parte de los mercados regulados con mayor peso en el IPC como la electricidad, el agua, el gas, la telefonía, etc. Lo habitual en estos mercados es que la intervención gubernamental se ejerza para situar el precio de estos servicios por debajo del que regiría en un mercado más liberalizado. Es curioso que se predique la intensificación de la competencia de estos mercados como la mejor medicina antiinflacionista cuando la mayoría de estos precios apenas han subido y de hecho algunos han bajado intensamente desde 1996. En mi opinión, una mayor liberalización llevaría inicialmente a mayores niveles de precios de la bombona de butano, de la telefonía local, del agua y quizá también de la electricidad, aunque probablemente se abriría una dinámica que en el futuro podría recortar las subidas iniciales. En cualquier caso, estamos hablando de niveles de precios y no de inflación, y de la misma manera que las fuertes bajadas de precios regulados en 1997 y 1998 ocasionaron bajadas efímeras y

Page 54: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 51

rápidamente reversibles de la inflación, cualquier impacto de una mayor liberalización sobre la inflación tendencial de nuestra economía sería igualmente efímero 4). La experiencia comparativa internacional al respecto avala plenamente los razonamientos anteriores, como se puede apreciar en el siguiente cuadro:

Cuadro 3: Inflación de servicios (%variación media anual)

1998 1999 2000 2001 2002 España 3,6 3,4 3,8 4,2 4,5 Eurozona 1,9 1,5 1,7 2,5 3,2 EEUU 2,9 2,7 3,5 3,6 3,6

_____________________________________________________ Fte: Boletín Inflación y análisis, Instituto Flores de Lemus, Nº 98

Es difícil sostener que España ha liberalizado menos sus sectores de servicios que la media de la zona euro, dominada por la experiencia de Alemania, Francia e Italia; y es aún más difícil concebir que los mercados de servicios son menos competitivos en Estados Unidos que en Europa. Los datos del Cuadro 3 no son sorprendentes si se tiene en cuenta que la verdadera causa de la inflación de servicios y de los diferenciales de inflación correspondientes reside en la presión del exceso de demanda en cada caso.

Quizá sea innecesario añadir que lo dicho en las líneas anteriores no niega la importancia de la liberalización de los mercados de bienes y servicios para fomentar el crecimiento económico a largo plazo. Eso sí, se ha de ser consciente de que se conseguirá mucho si finalmente se logra aumentar algunas décimas el crecimiento potencial de la economía e igualmente se ha de tener en cuenta que éste es un proceso habitualmente lento por lo que estos aumentos suelen tardar en hacerse estadísticamente visibles. Nada de esto justifica, sin embargo, el utilizar la inflación como coartada ante la opinión pública para aumentar la competencia de nuestros mercados, porque ¿qué ocurrirá cuando la inflación sea baja y la diferencia de inflación nula o negativa? ¿Cómo explicar entonces a la opinión pública que nuestros mercados no tienen por qué ser aún todo lo competitivos que debieran? ¿Cómo justificar la continuación de la política de liberalización?

3. “La política antiinflacionista óptima consiste en fomentar el avance de la productividad”

Quienes propugnan medidas de fomento de la productividad para luchar contra la inflación confunden los problemas del ciclo a corto plazo con los del crecimiento a largo plazo. Cualquiera de las medidas que se quieran proponer para aumentar el ritmo tendencial de crecimiento de la productividad, suponiendo que sean acertadas, despliegan sus efectos a largo plazo y en el mejor de los casos sólo conseguirían aumentos del crecimiento del output de mucha menor envergadura que los potenciales incrementos anuales de la demanda nominal. Consideremos una economía en la cual el gasto agregado nominal crece a un ritmo del 7 % anual y el volumen de producción crece al 3 % de manera que el deflactor del output y la inflación crecen al 4 %; supongamos también que el crecimiento del output resulta de aumentos del empleo y de la productividad del 2 % y 1% respectivamente. Si el ritmo de crecimiento anual está cerca de su potencial, la instrumentación de medidas de fomento de la productividad, suponiendo que sean extraordinariamente acertadas, permitiría a lo sumo aumentar en el futuro lejano unas décimas el crecimiento del producto; esto, claro está, suponiendo que dichas medidas no ocasionen una reducción de la utilización de trabajadores por unidad de producto. A corto plazo, la inflación seguirá siendo la misma siempre y cuando las fuerzas que propulsan la demanda agregada no se alteren, lo que entre otras cosas implica que si las políticas de productividad propuestas entrañan un aumento de algunas partidas de gasto público (educación, inversión pública, subvenciones a I+D, etc.) deberán ir acompañadas de recortes similares de otras partidas. Cuando llegue ese largo plazo en el cual las políticas de fomento de la productividad rindan sus frutos, la inflación anual

4) De hecho, existen bases teóricas sólidas para sostener que los aumentos (caídas) de la demanda agregada se transforman en alzas (bajas) de precios más rápidamente cuanto más competitivos sean los mercados de bienes y servicios.

Page 55: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 52

dependerá de la diferencia en ese momento entre el gasto agregado y el incrementado en unas décimas producto potencial.

En suma, el debate sobre las medidas más adecuadas para impulsar el avance de la productividad y el crecimiento económico es sin duda importante pero poco relevante para inferir causas y remedios de la inflación. La proposición que resulta de la intersección de la discusión de los problemas a largo y corto plazo es que cualquier política encaminada a fomentar la productividad y el crecimiento potencial debe ser consistente con el mantenimiento de la estabilidad macroeconómica.

4. “La inflación es siempre y en todo lugar un fenómeno monetario por lo que su única

corrección o suavización posible está en manos del BCE”

No es necesario desperdiciar muchas líneas para delatar la confusión entre el monetarismo y el aserto de que la política monetaria determina la inflación a cualquier plazo y sea cual sea la política fiscal. Para empezar, el citado aserto de que la inflación es un fenómeno monetario es consistente tanto con el monetarismo como con el keynesianismo más extremo dependiendo de que se considere el dinero causa o efecto de los movimientos de precios. Que la inflación sea un fenómeno monetario, en el sentido de que sea causada por la evolución de la cantidad de dinero - el principio cardinal del monetarismo - no implica que a corto plazo esté determinada únicamente por la política monetaria del Banco Central ya que en este intervalo de tiempo la cantidad de dinero está influida por múltiples factores ajenos al Banco emisor, entre ellos la política fiscal.

A corto plazo, el Banco Central puede controlar únicamente la base monetaria pero no la cantidad de dinero y mucho menos el producto nominal. El monetarismo no niega que, a corto plazo, la cantidad de dinero pueda desbordarse por encima de los objetivos del Banco Central por el aumento del crédito al sector público. Ni tampoco niega que, a corto plazo, la cantidad de dinero pueda estar determinada endógenamente, por ejemplo por una fuerte expansión crediticia impulsada por expectativas optimistas de crecimiento de beneficios o de otras rentas, expectativas que pueden responder en parte a estímulos fiscales. Esto es, el multiplicador que transforma la base monetaria del BCE en la oferta monetaria de la economía española será tanto mayor cuanto más expansiva sea la política fiscal. En fin, ningún monetarista niega que en el proceso de transmisión entre dinero y precios los factores fiscales y otras variables desempeñan una función relevante. De hecho, y como es bien sabido, de la combinación del modelo monetarista más extremo con la hipótesis de expectativas racionales se pueden derivar resultados antimonetaristas en los que la eficacia de la política monetaria antiinflacionista queda completamente subordinada al régimen fiscal 5).

Nótese que con la discusión anterior no se trata de revivir la vieja polémica entre keynesianos y monetaristas sobre la eficacia relativa de las políticas monetaria y fiscal como instrumentos de control del ciclo: ya no existen keynesianos que nieguen que la responsabilidad estabilizadora le incumbe esencialmente a la política monetaria. Se trata simplemente de asentar el hecho elemental, recogido en todos los modelos conocidos, de la influencia del comportamiento presupuestario en la determinación del volumen de demanda agregada a corto plazo.

II. LA COMBINACIÓN DE LA POLÍTICA MONETARIA COMÚN Y LA POLÍTICA FISCAL ESPAÑOLA

Negar un supuesto monetarismo que ningún monetarista sostiene no implica, ni mucho

menos, negar la influencia decisiva de los impulsos monetarios en la génesis de cualquier exceso de demanda agregada. Indudablemente, el alza de la inflación en España y la persistencia de diferencias de inflación frente a la eurozona injustificadas como un fenómeno de equilibrio se han debido sobre todo al largo aliento de los fuertes impulsos expansivos provocados por la puesta en marcha de la Unión Monetaria Europea y a la Política Monetaria Común.

En efecto, la entrada de la peseta en el euro a un tipo de cambio muy competitivo y las notables bajadas de tipos de interés anteriores a la constitución del BCE propulsaron la expansión de la demanda y de la oferta agregada en nuestro país más intensamente que en los otros grandes países del euro configurando así una situación en la que la política monetaria del BCE ha sido permisiva para nosotros y ha fomentado un crecimiento excesivo de nuestra demanda agregada. Las tensiones inflacionistas inherentes a esta situación se apaciguaron notablemente como

5) Véase SARGENT, T.S. y WALLACE, N., « Some Unpleasant Monetarist Arithmetic », Federal Reserve Bank of Minneapolis Quarterly Review, 1981, 5 (otoño), pp 1-17.

Page 56: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 53

consecuencia de las fuertes bajadas del precio del petróleo y otras materias primas inducidas por la crisis asiática en 1997 y 1998. Por el contrario, la multiplicación del precio de estos productos importados a lo largo de los años siguientes, agravada por la intensa devaluación del euro frente al dólar, fortaleció las presiones inflacionistas durante este período. La devaluación del euro y la subida del precio del petróleo en los años 1999 y 2000 provocaron una inercia inflacionista desigual en los países de la eurozona dependiendo de su dependencia energética y de su situación cíclica esto es, del exceso de demanda agregada correspondiente así como del grado de indiciación de sus mercados de trabajo. El impacto inmediato de una subida de precios del petróleo no está subordinado únicamente a la mayor o menor dependencia energética sino a la disponibilidad de las empresas a repercutir esta subida en sus precios de venta, disponibilidad dominada sobre todo por sus expectativas de demanda. El impacto inducido en ulteriores ejercicios está regulado principalmente por el grado de indiciación del sistema de determinación salarial que puede transformar la subida coyuntural de la inflación en una subida perdurable durante algunos ejercicios. Para ello, ciertamente, la combinación de política monetaria y fiscal tiene que generar el crecimiento de la demanda agregada necesario para acomodar ese mayor ritmo de inflación.

Durante todos estos años, la política fiscal ha sido sin duda ejemplar por cualesquiera estándares históricos que queramos aplicar, pero insuficientemente restrictiva como para compensar los impulsos inflacionistas originados por la política monetaria común. La política fiscal española fue ciertamente anticíclica como consecuencia de los esfuerzos de ajuste realizados para estar entre los países fundadores de la unión monetaria europea a finales de 1997. Después, si bien se permitió operar a los estabilizadores automáticos como no se había hecho nunca antes en otras etapas expansivas de nuestra economía, hubo algunas actuaciones presupuestarias discrecionales por el lado de los gastos y los impuestos que mermaron dichos estabilizadores, sobre todo en los años 1999 y 2000. Por actuaciones fiscales discrecionales han de entenderse subidas de gastos o reducciones de ingresos no inducidas por el crecimiento económico. Estas interferencias con los estabilizadores automáticos indudablemente añadieron algunas décimas al crecimiento económico pero a costa de añadir, o de no restar, algunas más a la inflación. Ciertamente, un Gobierno tiene pleno derecho para cambiar la base sobre la que operan los estabilizadores automáticos y por ejemplo efectuar una bajada de impuestos (o una subida, si considera que la sociedad tiene vocación para el martirio). Pero si al mismo tiempo quiere contrarrestar los impulsos inflacionistas de una política monetaria excesivamente expansiva debe compensar esas medidas con otras actuaciones discrecionales de suficiente envergadura en sentido opuesto. Es cierto que a pesar de estas interferencias en el funcionamiento de los estabilizadores automáticos la política fiscal española no se ha alejado mucho de la neutralidad y es plenamente consistente con los requerimientos del pacto de estabilidad y crecimiento. Desgraciadamente, ante lo que para nosotros resulta ser una política monetaria fuertemente expansiva, esta política fiscal ha sido insuficientemente anticíclica. La dinámica de la inflación y la del ya elevado y sin embargo todavía creciente endeudamiento de las familias exige que la política fiscal sea más restrictiva a fin de mermar el exceso de demanda que alimenta uno y otro desequilibrio. En suma, cuanto más rigurosa sea hoy la política fiscal y menores sean los desequilibrios acumulados mayor margen tendremos en el futuro para hacer frente a situaciones en las que la política monetaria común sea para nosotros excesivamente restrictiva. III. CONCLUSIONES

Los diversos analistas que han pronunciado juicios de política económica sobre nuestro diferencial de inflación se pueden clasificar en tres grupos. En primer lugar, están los que consideran que dicho diferencial es inofensivo; que constituye un fenómeno de equilibrio derivado de nuestro acelerado proceso de convergencia con la renta per cápita media de la eurozona y que por tanto no debe constituir motivo de preocupación especial para la política económica. Dentro de este grupo se debe incluir a los que estiman que la inflación está milimétrica y únicamente determinada por la política monetaria del BCE, de manera que aunque el diferencial debe ser un motivo de preocupación para los ciudadanos no lo es para la política económica porque no contamos con los instrumentos para corregirlo. En segundo lugar, están quienes piensan que la medicina antiinflacionista adecuada consiste en inyectar mayores dosis de liberalización en nuestro mercado de bienes y sobre todo de servicios junto con aquellos que ven el remedio más eficaz en la instrumentación de medidas de fomento de la productividad. Según estos analistas, las políticas

Page 57: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 54

actuales de liberalización y fomento de la competitividad o no son tales o son mejorables, lo primero a mi juicio no es cierto y lo segundo siempre se puede decir de casi todos los actos humanos. Un elemento común a los analistas que se ubican en los grupos anteriores es el ambiguo papel que asignan a la política fiscal. Si la inflación no es un problema o si depende única y exclusivamente de la política monetaria del BCE o si está determinada fundamentalmente por las imperfecciones de nuestros mercados de servicios o por el lento avance de la productividad, entonces ¿qué más dá tener equilibrios presupuestarios o déficit de mayor o menor envergadura? Si una política fiscal más expansiva se transforma íntegramente en mayor crecimiento económico y una política fiscal más restrictiva no implica una menor inflación ¿qué sentido tiene el rigor presupuestario? Por el contrario, si admiten que cuanto más restrictiva sea la política fiscal menor será la inflación, aunque también pueda ser algo menor el crecimiento económico a corto plazo, entonces entraríamos en el terreno del tercer grupo de analistas entre los que se cuenta el autor de estas líneas. En mi opinión, el diferencial de inflación y el crecimiento del endeudamiento de las familias, los dos desequilibrios fundamentales de la economía española, tienen ambos su origen en el exceso de demanda ocasionado por una política monetaria expansiva y una política fiscal insuficientemente restrictiva. Es urgente frenar el avance de dichos desequilibrios aunque ello pueda entrañar crecer algo menos hoy porque en caso contrario creceremos mucho menos mañana. Para eliminar el exceso de demanda, sólo existe un remedio seguro: llevar a cabo una política fiscal más restrictiva. Es cierto que la política fiscal española desde 1997 ha sido incomparablemente mejor que la instrumentada en cualquier otro periodo de nuestra historia reciente y mejor que la de la mayoría de los otros países de la eurozona. Es igualmente cierto que ha sido insuficientemente anticíclica para impedir la gestación de desequilibrios cuya continuación podría terminar forzando un ajuste que se erosionaría parte de la convergencia de renta conseguida hasta la fecha.

Page 58: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 55

V. FORECASTING / PREDICCIÓN 7. Forecasting structural breaks, Clive Granger. 8. Forecasting Pitfalls, David Hendry. 9. The EFN experience in forecasting Euro area macroeconomic

variables, Massimiliano Marcellino. 10. Forecast Uncertainty, its Representation and Evaluation,

Kenneth Wallis. 11. Econometric Models and Forecasting, Arnold Zellner.

Page 59: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 56

Clive Granger

FORECASTING STRUCTURAL BREAKS

Clive W.J. Granger Department of Economics

University of California, San Diego La Jolla, CA 92093-0508

Tel: (858) 534-3856 Fax: (858) 534-7040

e-mail: [email protected]

Page 60: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 57

Clive Granger 1. Introduction Economies will occasionally encounter severe shocks, or breaks, which are given various alternative names such as structural breaks and financial crisis. Examples are when Spain joined the European Community, when Germany re-united, when Mexico last devalued the peso, the various Asian financial crises in 1997, and the first oil price shock in 1972. These examples suggest that there are many types of breaks of varying severity and some will simultaneously affect several countries other than just one. An occasionally useful analogy for breaks and structural changes is an earthquake. If you ask someone living locally how many earthquakes occur in Los Angeles in a typical month, you will be told some number less than one. In fact, there are several hundred a month, but most are so small they are not detected by people, just by specialized scientific equipment. The distribution of the number of earthquakes of different magnitudes is long tailed with many small ones and with frequency declining as size increases. There are very few really large ones. Such distributions occur frequently, an observation called “Zipf’s Law.” It also occurs for the absolute values of stock returns. What is generally classified as a structural change is a break of sufficient magnitude that the economy runs by somewhat different rules, or at least with different parameters, when comparing before and after the break. Formally, if the conditional distribution of a variable of interest tY , given

an information set 1−tJ , is

),|( 1 ttt JYF θ−

where tθ is some vector of parameters, then one can think of

01

00

tt

ttt

≥=<=

θθθ

so that the parameters are initially constant, but that some of them move to new values after the break, which occurs at time 0t . The parameters that do not change might be called “super-exogenous,” following Engle, Hendry, and Richard (1983). The difficulty in defining a structural break is discussed carefully in the book edited by Hackl and Westland (1999) (henceforth H-W). The diversity between types of breaks is seen by considering their causes:

a. Major policy changes; such as going from a fixed to a floating exchange rate, or a constrained inflation to no constraints, for example. However, less important policy changes such as changes in the laws and rules of society, occur very frequently but do not produce breaks, just add to the background noise of the economy.

b. Large institutional changes, such as a major change in political orientation, collapse of a banking system, or assimilation by a larger country.

c. Speculative attack, leading to a financial crisis, the possible cause of major devaluations. d. Collapse of related economy, producing problems of contagion. e. Non-economic breaks, such as floods, earthquakes, typhoons, and terrorist attacks. f. Changes of public confidence, such as at the start and possibly the conclusion of

hyperinflation. Virtually all of these breaks can occur in a major form but also in a variety of lesser forms. Which ones are declared to be breaks in a data set depends on the criterion used for the distinction. A number of techniques to estimate the number and location of “breaks” in a time series are available. For example, see Bai (1997) . Not all of the “found breaks” correspond to “named events” according to economists or newspaper accounts.

Page 61: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 58

The occurrence of breaks in economic series can have important consequences for the analysis of the series. Variables can be classified as having unit roots or long memory properties because of the presence of breaks in means, or of GARCH type volatility clustering when the break occurs on volatility. 2. The Effects of Breaks on Forecasting Consider a simple, bivariate error-correction model

t

t

Ytttt

Xtttt

eYXZY

eYXZX

+∆+∆+=∆

+∆+∆+=∆

−−−

−−−

121212

111111

βαγ

βαγ

where

tXe has variance 2Xσ ,

tYe variance 2Yσ , and 1γ and 2γ cannot be zero at the same time.

Here

ttt AYXZ −= is the error-correction term and has to be I(0) for X∆ and Y∆ to be I(0) and for both equations to be balanced. Provided that all coefficients can be well estimated and stay constant over time, useful forecasts of ktkt YX ++ ∆∆ , with k > 1, can be formulated from the model. However, if there is a “structured break,” so that some of the parameter values change for some reason, it will be difficult to forecast beyond the break. Clemens and Hendry (1999) discuss these topics in detail. In particular, the cointegration term A in tZ could “break.” As post-break data accumulates, new parameter values can be estimated, a new form of the model obtained, and then used to forecast. Until this occurs, ad-hoc forecasts such as random walks for tt YX , may be difficult to beat. On occasions, what might seem to be an unexplained structural break for one model is shown to be merely mis-specification that can be removed by the use of a wider class of models. For example, rather than having the parameter A taken as a constant, it could be time-varying tA or

depending on another variable )( tqA where tq is observed but not previously used. tq could be a

capacity measure with )( tqA being fairly constant except when capacity becomes near to the full value. There are a number of time series and econometric models that incorporate breaks, such as:

a. The Threshold Autoregressive model (TAR). For example, ttt XtX εα += −1)( where tε is

zero mean white noise and 1)( αα =t if 02 >−tY , and 2)( αα =t if 02 ≤−tY , for 21 αα ≠ , where Y is some other variable which causes the switch in the parameter value.

b. The Smooth Transition Autoregression model (STAR). For example,

tXtttt eYSXmXdmX ++++= −−− )()( 2111100 α

Page 62: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 59

where

)exp(11)(

dYYS

++=

α;

as Y becomes large the AR model smoothly switches from one form to another. While it can be argued that the TAR is most likely to be appropriate for an individual decision

maker with a particular switch point, the STAR is a better description for a population with different switch points, for example, such as when a major oil price increase occurs, it affects different parts of the economy with various lags.

c. Regime Switching Models. A regression model of the form

tttt esXsYssmY )()()()( 1211 σββ +++= −−

can have some, or all, parameters changing depending on which regime the economy is in. If there are just two regimes, 1s and 2s (say high inflation and low inflation), then the model will change. One needs a process to control the changing of regimes. A simple one is to make the switch entirely random, with no memory, so that values for the switch probabilities are given

etc. ,) to( prob 1221 pss = What may be called “second-generation models” use economic variables to represent the switching probabilities so that ))exp(1(1 112 −−+= tcWp , a so-called logistic formulation, and similarly for other switching probabilities provided they obey the obvious “adding-up” constraints. More than two regimes can be used if required. All of these models can be easily estimated and then used to form forecasts of structural breaks.

d. Catastrophe Theory Models. A class of models, from pure mathematics, is known as catastrophe models which are largely deterministic with only small added stochastic terms. As an analogy, consider someone who walks to work every morning on a Scottish island that is particularly foggy. He carefully follows a narrow path each day and arrives safely. However, one day he is scared by a loud sound, takes a step to one side into the fog, and falls over a steep cliff. The basic idea is that the economy can be moving along steadily when unexpectedly it can take a deviation from the expected path due to a nonlinearity in the generating mechanism. These models have not been popular amongst academics in recent years.

3. Forecasting Breaks Some breaks could be forecast as occurring on a specific future date, such as a major policy change after a forthcoming election, but most breaks cannot be forecast this way. A useful analogy again is with earthquakes. One does not forecast that there will be an earthquake in Seville on 14AUG03, but one might say that the probability of an earthquake occurring next month is 0.4 compared to a probability of 0.1 in previous months. Probability forecasts are frequently used for various types of structural breaks. The method used is based on the logistic form

++= ∑

=

p

jtjj Xam

1,exp1/1y probabilit

where pjX jt ,...,1, = are potential leading indicators selected by economic theory, common sense, or personal preference. To estimate the coefficients, one needs examples of many crises, and for this a panel of countries will be required. For example, when considering financial crises, no single country has had more than two or three. But a panel of, say, thirty countries will contain twenty-for or so countries with one or more crises. It is important to include some countries that did not experience

Page 63: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 60

crises in the panel to obtain good estimates of the probabilities. A project, partially supported by the International Monetary Fund, at the University of California, San Diego with Ms. Pauline Kennedy considered the forecasting of financial, banking, and, in particular, exchange rate crises. Using monthly data, whenever available, for a panel of countries, the initial task was determining the initial starting time of the crisis. Various alternative definitions based on reports in the financial press, timing of devaluations, and large changes in money supply figures, produced largely consistent dates for the crisis start point. Economic theory suggested a variety of leading indicators and the hope was that a multi-month predictive lead time could be achieved. Previous studies had suggested that this was possible, but our own study found neither supporting evidence for a large lead-time nor the suggested leading indicators being useful. However, once we introduced daily data, whenever available, stronger (if less useful) results were obtained. The higher-frequency data was stock market indices, daily exchange rates, and weekly interest rates. The first two were available for most countries, at least for recent years, and although the series themselves did not prove good indicators, their volatilities were quite helpful. However, crises could only be well forecast, in probability terms, using these volatilities, for one week ahead, somewhat for two weeks, and only slightly for three weeks. The amount of lead-time that these forecasts give may be insufficient for policy makers to react quickly enough to prevent a speculative run on their currency. There is some evidence that stock market volatility can be used as a forecast of breaks in the stock market indices. See Vanderwalle, et al. (1999). Forecasting breaks is clearly an important topic that is in its early stages. It may never be possible over long periods and with high confidence, but it is clear that it is not an impossible task.

References Bai, J. (1977): “Estimating Multiple Breaks On At A Time.” Econometric Theory 13, 315-352. Clement, M. and D. Hendry (1999): “Forecasting Non-Stationary Economic Time Series.” MIT

Press: Cambridge, MA. Engle, R., D. Hendry, and J.-F. Richard (1983): “Exogeneity.” Econometrica 51, 277-304. Hackl, P. and A.H. Westlund (eds.) (1991): “Economic Structural Change.” Springer-Verlag:

Berlin. Vanderwalle, N., M.A. Ausloos, P. Boveroux, and A. Minguet (1999): “Visualizing the Log-Periodic

Pattern Before Crashes.” The European Physical Journal B 9, 355-359.

Page 64: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 61

David Hendry

Forecasting Pitfalls David F. Hendry*

Economics Department, Oxford University December 7, 2002

Abstract

The paper highlights the pitfalls of forecasting by considering a trip by car-but with inaccurate

maps in a world where roads are unexpectedly shut or opened. Behind the scenes lies a new theoretical framework for economic forecasting which acknowledges that economic models are simplified representations of an economy prone to sudden shifts. That approach explains the prevalence of forecast failure; accounts for the results of forecasting competitions; and explains the surprisingly good performance of ‘consensus’ forecasts. The paper offers a non-technical discussion of that theory, and draws some lighthearted conclusions on how to avoid some of the pitfalls awaiting unwary forecasters.

*I am grateful to the UK Economic and Social Research Ccouncil for financial support under grant L138251009, and to Guillaume Chevillon, Michael Clements, Michael Massmann, Grayham Mizon and participants in the Oxford Economics Faculty Workshop for helpful comments on an earlier draft. Prepared for a public lecture, Brisbane. The paper draws on earlier work with Neil R. Ericsson.

Page 65: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 62

David Hendry 1 Introduction

“Trying to predict the future is a mug’s game. But ... we need to have some sort of idea of what the future’s actually going to be like because we are going to have to live there, probably next week.” in Douglas Adams, Predicting the Future, The Independent on Sunday, November 1999 (reprinted in The Salmon of Doubt, Mac Millan, 2002).

One of my more amusing taxi rides was early one morning in Oslo, en route to lecture at

Norges Bank on Economic Forecasting. I was asked the purpose of my journey by the driver, who instantly expressed infinite scepticism as to the ability of anyone to forecast, hence my lectures must be pointless. I gently enquired why he was out that morning, and on his expected reply ‘to make a living’, I asked if he had not therefore forecast that there would be customers seeking his service? The ensuing discussion revealed that he was in fact pretty good at forecasting when and where to seek trade, but had never thought of it that way. He even conceded that perhaps there was a point to forecasting. In fact, we all forecast many things many times every day, albeit probably unconsciously. Forecast errors can be expensive: missed appointments, ‘accidents’, and inadvisable asset purchases for individuals, possibly bankruptcy by failing to forecast a major change in the demand for its output for companies. Thus, the study of forecasting potentially offers handsome dividends—but is riddled with pitfalls.

Historically, the theory of economic forecasting has been based on two key assumptions—that the forecasting model is a good representation of the economy, and that the structure of the economy re-mains relatively constant. In reality, forecasting models are crude approximations, while the economy is subject to major intermittent unanticipated shifts. Thus, in practice, inaccurate forecasts have been all too common.

This paper highlights the pitfalls of forecasting by considering a trip by car—but alas, the maps are inaccurate and the driver lives in a world where roads are unexpectedly shut or opened, created or destroyed. We will consider the factors that influence how close the driver’s forecasts of her journey time are to the outcomes. Throughout, I assume forecasts are instrumental to a decision, not an end in themselves: we rarely care if we do not have the most accurate, forecast possible, provided it is good enough for the purpose at hand. This assumption determines the form and focus of any forecast, as well as how to evaluate it.

Section 2 provides some necessary background, before section 3 spells out the problems confronting our poor driver on her journey. Then section 4 illustrates that economic data do take the form likely to disrupt ‘the best laid plans of mice and men’, whichever of the methods discussed in section 5 one chooses to implement. The key section is 6, which provides advice to forecasters on avoiding pitfalls. The title Forecasting Pitfalls is deliberately ambiguous, as success in doing so may be the key to a viable future for economic forecasting, so section 7 addresses that dimension. Section 8 concludes. 2 Background

Economics n. “An arcane language, used by its own cognoscenti for reviewing past events in the production and distribution of wealth. There are some who would define economics as a science rather than a language; but, in the absence of any evidence that future events can be predicted by economists on the basis of fixed laws, this approach can hardly be supported by the objective lexicographer.” Peter Bowler, The Superior Person’s Book of Words, p.37.

Behind the scenes of the paper lies a new theoretical framework of economic forecasting

which acknowledges that economic models are greatly simplified representations of an economy which is dynamic and prone to sudden shifts. This newer approach has achieved a number of

Page 66: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 63

successes: it ex-plains the prevalence of forecast failure; accounts for the results observed in forecasting competitions; shows why some apparently ad hoc approaches do well in practice; and reveals the basis for the surpris-ingly good performance of ‘consensus’ forecasts. Moreover, it suggests that some of the ‘folklore’ of forecasting is incorrect, including the belief that ‘simple methods do best’, and more surprisingly, that forecast failure is due to ‘poor methods’, ‘inaccurate data’, ‘incorrect estimation’, or ‘data-based model selection’. My aim is to explain the underlying theory, but without the technical trappings that made it possible (see Hendry and Ericsson, 2001).

A forecast is any statement about the future, so forecasting is potentially a vast subject. There are two basic methods of forecasting. In the first, we have a crystal ball that can ‘see’ into the future; in the second, we extrapolate from present information. Unfortunately, as the Washington Post headlined in relation to the probability of a recession in the USA last summer, “Never a crystal ball when you need one”30. Indeed, demonstrably functional examples of the first method appear unavailable to humanity, so we are forced to focus on the second, dramatically inferior, method. Here, we restrict ourselves to systematic forecasting rules. Even so, there exist dozens of methods of extrapolating, as well as numerous choices of what to forecast: section 5 discusses these. In the last decade, interest in economic forecasting has increased markedly. New theories of fore-casting and new methods for their evaluation have been developed, and much more empirical evidence has been acquired. Drawing on these recent developments, this paper explains some of the central issues in economic forecasting.

As is often remarked, the problem with forecasting is that the future is uncertain. Forecast uncertainty is intrinsic to the task, but arises from two sources: one that we know is present and for which we understand the probabilities involved; and one due to factors that we do not even know exist.

“Because of the things we don’t know [that] we don’t know, the future is largely unpredictable.” Maxine Singer, Thoughts of a Nonmillenarian, p. 3931.

In tossing a pair of dice, the two sources might correspond to the following:

• the probability that a certain pair of numbers will appear face up on any given throw, and: • the uncertainty arising from not knowing that the dice are loaded. Clements and Hendry (1999) summarize the latter type of problem in relation to the above quote by Singer (1997). Once the unpredictable has occurred, we can usually account for its effects. As a result, we can explain the past quite well. Indeed, most schoolchildren seem to learn history as if its outcomes were inevitable, rather than being a single and highly improbable sequence of events from a complicated process in which contingency has played a large role. New unpredictable events will always intrude in the future, making the future appear much more uncertain than the past. As the old joke goes, when the historian on an Oxford College Investment Committee was asked about whether it should change its strategy given recent trends in asset markets, he replied ‘but the last 1000 years have been an exceptional period’. There is every likelihood that the future will see more large, unanticipated shocks – indeed, the recent collapse of the telecoms industry is a reminder that new uncertainties occur.

Statistics seeks to render ‘regular’ on average events that are individually unpredictable: that render-ing underlies the theory of economic forecasting. For example, the age at which any individual person will die is uncertain, whereas the average age at death in a large population is highly predictable, and forms the basis of the life-insurance industry. To achieve their objectives, statisticians create models of the processes in question, check how well their models characterize the

30 Robert J. Samuelson, 16 June,2001.p.A23 31 This contrasts with the earlier view: “The one who does not know, and does not know that he does not know; shall remain in blackest ignorance for ever and ever.” Khajeh Abdullah Ansari, Robai, 1550 (approx). Translated by Prof. Hashem Pesaran, Cambridge University.

Page 67: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 64

evidence, and solve the models for their average outcomes. Economic forecasting uses a similar principle: investigators develop models of the economy that seek to average over likely future ‘shocks’ and so deliver a useful statement about the average future. This procedure works well for ‘measurable uncertainty’—that is, for the regularly occurring events that are individually unpredictable, but nevertheless average out. Singer’s quote suggests that unmeasurable (or at least unmeasured) uncertainty is also important in explaining the actual uncertainty about the future.

To illustrate, imagine in 1945 predicting the number of coal miners in the UK over the period 1975–1985. Because the Oil crisis, OPEC, and the discovery of North Sea Oil and Natural Gas were all not envisaged, almost any forecast would have been woefully inaccurate. Still, the United Kingdom might have decided to protect the coal industry, leaving some forecasts quite accurate. Or, history might have taken an entirely different course, with nuclear fusion being implemented at an incredibly cheap price. Or there might have been no recoverable oil in the UK sector of the North Sea...... It is hard to imagine how anyone could conceive of the myriad possibilities that discoveries might bring. Singer alludes to this second aspect of uncertainty, which, by its very nature, is almost impossible to model, and is the source of the main pitfalls. In economics, events equivalent to earthquakes in geology seem to occur all too often, rendering both short-run and longer-term forecasts seriously inaccurate: Barrell (2001) discusses six episodes of sudden shifts in the 1990s alone. UK forecasts one-year ahead made in August 1992 would have required major revisions by the end of September, on its abrupt departure from the ERM. In the next section, an analogy will help to develop this background to economic forecasting. 3 The pitfalls

“Forecasters have sometimes described their task as similar to driving in a thick fog using only the rear-view mirror, but I think that is an understatement. To make the metaphor more exact, add misted windows, an unreliable clutch, a blindfold, and handcuffs, not to mention the unsignposted cliff a hundred meters down the road.” Diane Coyle, in Making Sense of Published Economic Forecasts.

This section motivates the need for forecasting and clarifies several aspects of forecasting,

including the uncertainty inherent in forecasting, the effects of shifts in underlying economic behavior, and the costs of making forecast errors. To highlight the problems faced in economic forecasting, I draw on a commonplace activity—travelling by car.

Planning a car-trip typically involves deciding on a destination, then consulting a (physical or cognitive) map to see how to get there. Maps seek to schematically represent connections between locations, but otherwise can seriously mislead: roads shown in red on a map are not red in reality, nor is the width of a road to scale. Nevertheless, maps that accurately portray connections are invaluable when planning a trip. The economic equivalent of a road map is an econometric model, which seeks to embody our best knowledge of the linkages in an economy. Evaluating a map’s accuracy involves checking whether or not the roads do link up as marked on the map. Evaluating an econometric model is similar in principle, but not so easy in practice. Maps can be on the wrong scale, with too much—or too little—detail: for example, tourist maps sometimes offer a 3D impression of buildings. That maps are designed for particular purposes is reflected in the fact that models are of different types and are valuable for different purposes: if the aim is forecasting, models have to be targeted to that end.

Many factors will influence journey time, including the distance to be driven, the type of car, the road quality, the driver’s skill (and personality), the traffic density, the time of day for travelling, and the weather. Given these, plus weather and traffic reports, an initial estimate of the trip’s duration can be made. In many instances, that estimate will be sufficiently accurate to ensure arrival at the destination in good time. Many small factors will cause variation around this estimate: bad luck in being stopped at a sequence of traffic lights, or heavier traffic than usual, and so on. The variability around the average journey time is measured by the variance of the forecast error or, more usefully, its square root, the forecast-error standard deviation. This particular measure—the forecast error standard deviation—can be expressed as a percentage of the journey time. A large value, such as 50%, denotes an unreliable route, where a journey may well take between one-and-a-half times and half as long as expected. A small value, say 5%, is what most motorists would like, to ensure arrival within roughly ± 5 minutes on a journey of about an hour.

Page 68: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 65

Similarly, with economic forecasts, a large standard deviation for a forecast entails an unreliable forecast. To illustrate, consider forecasting Gross Domestic Product (GDP): many factors influence its value, such as consumers’ spending, company investment, government decisions, and exports. Over the last 200 years, per capita GDP in many developed countries has grown at about 2% per annum, with standard deviations around that mean growth of about 3% per annum. Absent a model, and the forecast interval would have to be 2% ± 6% to ensure almost always covering the outturn. A forecast interval six times larger than the average growth rate may seem poor, but substantially smaller values may be difficult to achieve in practice. Let us now see why, drawing on our analogy to car travel.

Motorists are well aware that unexpected events can upset carefully laid plans. A pothole that punctures a tyre, a crash in the traffic ahead, or unexpectedly bad weather all can create an extended delay, as can more extreme events, such as a bridge collapsing or an earthquake. These events occur intermittently, and they can be viewed as rare realizations from a set of adverse factors. Their effect is to shift the mean of the journey time from its norm to a much larger value; and that shift is important to our explanation of forecast failure in economics. If an alternative route is not available, or the car is stuck in the jam before being alerted of the possible delay ahead, the forecast error will be large. Such effects are called location shifts, as they shift the location (mean) of the variable (here, the journey time) from one value (the norm) to another (after the adverse event), and the new value persists. Economists have sought to develop methods for handling location shifts when forecasting, and economic models can be viewed as an attempt to forecast the effects of a specific, but important, class of location shifts, namely changes in economic policy regimes.

The car analogy also highlights how minor surprises can have sudden and large effects: serious traffic delays can occur, even without an extreme event as a cause. For example, when a moderate volume of traffic passes through a roadwork that reduces the number of lanes, no problems may arise. If the traffic volume increases only somewhat, horrendous congestion may result. Such effects are classified as ‘non-linearities’ and ‘regime switches’. Up to a point, increasing the traffic density has only a modest effect on travel time; but beyond that point, increasing the traffic density leads to serious delays, with gridlock as an extreme outcome. Similar situations arise in economics, causing difficulties for economic forecasters. Within a certain range, an exchange rate might respond roughly proportionally to a balance-of-payments deficit; but the exchange rate might suddenly nose-dive as concerns over bank solvency develop. As another example, booms and busts in the economy may derive from non-linearities that generate regime switches: the end of the dotcom investment boom is a recent example.

We now extend the travel analogy to consider additional problems in economic forecasting. Imagine that the road map is not actually correct: perhaps it is out-of-date, and some roads shown on the map no longer exist. Serious forecast errors can result from following a road that unexpectedly terminates in a field, as once happened to Ken Wallis, Jean-Francois Richard and myself in Austria alongside the Danube: at least it did not end in the river! Modern economies are sufficiently complicated that no one could hope for a ‘correct’ roadmap thereof: actual econometric models incorrectly omit important linkages and include ones that (unknowingly) are irrelevant. This class of problems is called model mis-specification, and it adds to the forecasters’ difficulties. In particular, model mis-specification complicates calculating the likely magnitudes of forecast errors. Sometimes, no problems ensue, as when non-existent roads are not part of the route. Other times, large errors occur. However, if the mistakes themselves were ‘regular’, then forecasts of journey times could be adjusted: for example, if 1 in 10 roads were falsely shown, inducing an average increase in journey times of 10% (say), then unbiased forecasts could be obtained by increasing all forecasts by 10%. Thus, by itself, mis-specification is not that problematic.

Returning again to the analogy of driving by car, now consider a world that changed so fast that, by the time any map was available, some roads had vanished and new ones had appeared but were unrecorded. Route planning would become exceptionally hazardous, and large forecast errors would abound. Estimating the forecast errors’ variance would itself be hazardous, as the forecast errors would depend on which roads had vanished and which replacements could be used as substitutes. No simple corrections for mis-specification could be calculated. The economic forecaster confronts a similar environment. For this and other reasons, some forecasting agencies maintain several models: the Bank of England’s approach to modelling and forecasting includes using a suite of models rather than a single model. Very different forecasts from their models warn

Page 69: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 66

that some of the models must be at odds with reality: later outcomes may help isolate the source of the problem.

Good guides to the future are sparse when the future is not like the past. Economists refer to this situation as non-stationarity: the distributions of events change over time. A stationary series is one where those features are constant – and hence it is ahistorical in the sense that actual dates do not matter. Non-stationarity is clearly a characteristic of economies: technology, legislation, politics, and society all change over time, markedly affecting living standards, the variability of unemployment, the level of inflation, and so on, as the next section illustrates. Modern econometrics devotes considerable effort to developing models of non-stationarity, and those models fall into two distinct classes. The first includes models of regular and persistent changes (called ‘stochastic trends’ because there are fluctuations around the average growth). The second class includes models of ‘structural breaks’, which are large sudden, and usually unanticipated, changes. The models with location shifts, described above, are an important member of this class. Clements and Hendry (1998, 1999) provide a detailed analysis of economic forecasting when both types of change are present, along with the problems of mis-specification and data measurement error already mentioned. Structural breaks appear to explain why it is so hard to reduce forecast-error standard deviations: the outcome is sometimes very far from the forecast. The 1929 crash and ensuing Great Depression are a classic example of when large forecast errors occur.

While the causes often seem obvious in retrospect, many forecast errors result from unanticipated events, both large and small. Thus, Diane Coyle (2001) correctly chastised Nigel Lawson when Chan-cellor of the Exchequer for blaming his mistakes on Her Majesty’s Treasury for mis-forecasting over the late 1980s. Even today, the economics profession is not unanimous on which factors induced those forecast errors, although many believe that financial deregulation was responsible, as it led to an unexpectedly sharp reduction in credit rationing. Unanticipated events, like the sudden rise of oil prices in 2000, frequently occur; and they thereby disrupt forecast accuracy. However, not all methods of fore-casting are equally disrupted: section 5 discusses how forecasting is done, and notes which methods might be less prone to pitfalls. First we need to see the source of the problem, manifest in almost any economic time series. 4 Economic data

“The scientists have their machines, while the economists are still waiting for their data.....Econometrics is an attempt to compensate for the glaring weakness of the data base avail-able to us by the widest possible use of more and more sophisticated statistical techniques”, Wassily Leontief (1971), in ‘Theoretical assumptions and nonobserved facts’, American Economic Review.

To forecast the future values of any economic time series, one needs to know how such series behave in general. There are ten general features of many economic time series: (i) very smooth and ‘exploding’ in their original levels.

Figure 1 illustrates (i), in panels of four, denoted a, b, d, c, respectively clockwise from the top

left, commencing with the smoothest through to the least smooth. These four graphs show money, prices, constant-price (real) GDP and employment in the UK, over 1870-1990. As can be seen, the first has grown almost 600-fold over the century and a quarter, the second 55-fold, and the third just over 10 fold. Since total employment has barely doubled, per capita output has risen 5-fold: 2.5% pa has massive long-run effects – just imagine living on 20% of your present income. Equally, pity the poor

Page 70: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

1900 1950 20000

100000

200000

300000money

1900 1950 2000

0.5

1.0

1.5prices

1900 1950 2000

100000

200000

300000GDP

1900 1950 2000

15000

20000

25000employment

Figure 1 Levels of money, prices, real GDP and employment.

forecaster: in the century from 1870 to 1970, the price level rose just over 7-fold, then rose another7-fold over the next twenty years!

(ii) Relatively smooth when graphed in logs;(iii) usually trending linearly in log levels.

Figure 2 shows (ii) and (iii), using the logs of the same four variables. The trends are more nearlylinear, albeit perhaps increasing over time for the first three. ‘Business cycle’ deviations around thetrend are clearly visible in the last two panels (and show up in the 5-year averages noted below).

(iv) Somewhat erratic when graphed in (log) changes;(v) but such differences are less trending.

Figure 3 illustrates (iv) and (v) for the annual changes of the same four variables.

(vi) Smoother for multi-period differencing;(vii) but rather erratic in second differences.

Figure 3 also illustrates (vi); whereas figure 4 illustrates (vii).

(viii) Prone to jumps in location (and trend);(ix) so means and variances of data not constant over time;

Figure 5 illustrates both (viii) and (ix) for UK unemployment, as did figure 3 for the annual changesin the other four variables.

Figure 6 shows the consequence of attempts to forecast the start of the interwar period, and the earlyyears of the Thatcher experiment. Panels a and c show the ex ante forecasts, whereas b and d add in theoutturns that eventuated – clearly, both sets of forecasts failed badly. This is included to emphasize thatforecast failure is easy to generate, not to suggest that anyone might in fact have foreseen the large risesin unemployment witnessed in both periods.

Page 71: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 68

(x) high sample correlations with other series.

One must allow for all ten properties when both model building and forecasting, but the most important for the latter are the location shifts. The changes in the locations, trends and variabilities of all these series over time are all examples of non-stationarity. We have now seen the problem for forecasting: the

Page 72: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 69

future is not like the past at the phenomenological level. Success will entail modelling the evolution, and the breaks....

Page 73: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 70

5 Forecasting methods

“Here is Edward Bear, coming downstairs now, bump, bump, bump, on the back of his head, behind Christopher Robin. It is, as far as he knows, the only way of coming downstairs, but sometime he feels there really is another way, if only he could stop bumping for a moment and think of it.” From Winnie-the-Pooh by A.A. Milne (1926), Methuen and Co. Ltd.

That is how forecasters feel most of the time32. So let us step back and look at some possible methods.

Since forecasts are a human construction, many methods are available for making them. However, the success of any approach requires that:

32 I first read this quote as a lead to Nerlove and Wallis (1966).

Page 74: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 71

(a) there are regularities to be captured; (b) those regularities are informative about the future; (c) the proposed method captures such regularities; and (d) excludes non-regularities.

The first and second are properties of the economy that may, or may not, be present; the third and fourth are properties of the forecasting method. The first seems clearly true, however, since today looks a lot like yesterday even if some things have changed, and unanticipated events occur. The second is less obvious, but we must assume some persistence. Ensuring the third without violating the fourth can be difficult in practice, and helps determine which methods will prove successful in practice.

Widely used methods of forecasting include:

• guessing, • ‘rules of thumb’ or ‘informal models’, • naive extrapolation, • leading indicators, • surveys, • time-series models, and • econometric systems. In order to produce good forecasts, the first only requires luck; the second an intuitive ‘feel’ for

the variables to be forecast (flying by the seat of your pants – rather than your brain?)33 ; the third merely needs that present trends continue (see Irvine Fisher below: do you have any friends who bought their house at the peak of the last boom?); the fourth that what led yesterday will still lead today (what foot-ball team do you support that achieves that?); the fifth that the individuals asked form serious plans and truthfully reveal them (noting mis-predictions of election outcomes); sixth that the evolution of the process is relatively regular (see the graphs above); and the seventh that.... well, rather a lot of assumptions are satisfied.

Nevertheless, formal econometric systems of national economies consolidate existing empirical and theoretical knowledge of how economies function, provide a framework for a progressive research strategy, and help explain their own failures as well as provide forecasts. Economic forecasting based on econometric and time-series models are our primary methods.

In the earlier analogy, the forecast of the journey duration by car was based on the distance (mea-sured on the map) and average speed (dependent on road quality and traffic conditions), mediated by any likely special factors. Such an approach is inherently ‘causal’ or structural: the effects that are likely to influence the forecast are quantified in the context of a model. Its advantage is an accurate forecast when all the factors are known: its drawback is that if the map is inaccurate, so may be the forecasts. Econo-metric models in effect are of this type. However, a poor model need not lead to inaccurate forecasts. For example, the Ptolemaic system is hardly a realistic model of planetary motions, but nonetheless it predicted lunar eclipses reasonably well (see e.g., Harré, 1985). A map likewise may always have been incorrect, so forecasts for trip times are wrong, but no worse than usual. Alternatively, a map may have become incorrect because a bridge was closed: that sort of event leads to ‘forecast failure’, where a previously well-performing approach suddenly does much worse.

For repeated journeys, an alternative forecasting method is available, which does not rely on

a map at all: forecast the journey’s time by how long it took on the previous occasion. If the road network does not change greatly, and if no special factors disturbed the previous journey, then such a pure extrapolation could be quite accurate, and it is independent of how good or bad the map is. If the relation between the map and reality is poor, or if their relationship continually alters, then extrapolating from the previous outcome may be as accurate as one can achieve. In essence, that

33This is clearly unfair on the immense skills of, say, Alan Greenspan in absorbing a vast array of disparate information to ‘foresee’ local economic trends.

Page 75: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 72

is what time-series models do: the simplest case, a random walk, precisely forecasts the previous value (more general models equilibrate towards a mean).

These situations parallel those faced by economists when forecasting: models are far from accurate representations of the economy, and their accuracy can change abruptly. A model that closely represents the economy is a good basis for forecasting only if the future economy is ‘close’ to the current one. The culprit of forecast failure is not rapid evolution per se, as commonly occurs in technology, but abrupt changes, as may derive from legislative and political developments. In such a setting, a model structured around past economic behavior may not be the best forecasting device available. Rather, a ‘naive predictor’ that simply extrapolates from previous outcomes may be more successful. If the economy stays on track, such extrapolative forecasts can be reasonably accurate. If the economy crashes, any extrapolative forecast will miss the crash itself, as typically will other types of forecasts. However, after the crash has occurred, the extrapolative forecast tends to come back on track, whereas many other types of forecasting models continue to mis-forecast systematically. Regretably, some extrapolative forecasts have little to commend them: a stockbroker who continually chants the mantra that ‘the bull market will go on’, can become famous before she gets it badly wrong, then return rapidly to guru status by repeatedly intoning ‘the bear market will go on’.....

Nevertheless, to be competitive, forecasts from economic models must adjust rapidly to major changes, even when those changes were themselves unpredictable. A serious criticism of historical forecast errors is how systematic they have been—not so much that the forecast errors were sometimes large. For the United Kingdom, long sequences of under-prediction and over-prediction have been recorded: Chancellor Lawson may have been right to complain about those. Still, while avoiding such errors would be an improvement over having them, simply adapting does not actually provide knowledge of the future, it merely eliminates tracking error.

Reverting to our analogy, modern technology has developed instruments for informing drivers about congestion on the road ahead, so drivers could anticipate looming problems by selecting a diversion be-fore becoming stuck in a traffic jam, whatever its source. In effect, the driver temporarily alters the map, pencilling in the blockage ahead. The extent to which this will improve forecasts of journey time will depend on how accurately drivers’ can estimate the effects of the congestion spilling over on to alter-native routes etc. Such flexibility enhances the probability of correctly forecasting the overall journey time. Of course, really major shocks (such as an electrical storm) might disrupt even that provision of information. The analogue in economics is the ability to predict the changes in the economic system that will result from the structural changes elsewhere.

This leaves the forecaster with two possibilities: avoid the pitfalls, or forecast them. We consider these in turn. 6 Advice to forecasters on avoiding pitfalls

“Oddly, the industry that is the primary engine of this incredible pace of change—the computer industry—turns out to be rather bad at predicting the future itself. There are two things in particular that it failed to see: one was the coming of the Internet, ...; the other was the end of the century.” Douglas Adams (2002).

Adams goes on to quote (from The Experts Speak – And Get It Wrong by Christopher Cerf and

Victor Navasky) a range of famous authoritative predictions that ‘turned out to be wonderfully wrong, almost immediately’, including Irving Fisher, October 17, 1929: ‘stocks have reached what looks like a permanently high plateau’; and in 1897, Lord Kelvin (he who estimated that the sun could not be more than 100 million years old – without a confidence interval of ± 4 billion) stated that ‘radio has no future’; as well as IBM’s chairman (Thomas J. Watson) in 1943 that the world will never need more than five computers: and the President of Digital Equipment Corporation (DEC) in 1977: ‘There is no reason for any individual to have a computer in their home’.

In this section we will describe how to avoid the six main pitfalls from the viewpoint of the forecaster (rather than of the user): caveat emptor.

The quotes from Adams reveal the first pitfall, and hence how to avoid it:

Page 76: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 73

never be precise. It is essential when forecasting to be imprecise about the magnitude, and preferably the timing, of what is forecast. The great seers of the past were well aware of the need for imprecision, indeed, preferably ambiguity, so any outcome would be consistent with their forecast or prophecy: viz., the oracle at Delphi (now, incidentally, embodied in a method of forecasting – you got it at once – the Delphic method)34.

The second pitfall evident in the quotes can be avoided by:

always make more than one statement. If Kelvin had also remarked at some other time and place, ‘radio has a great future’, he would not be castigated now. Tell different audiences different messages, and some will be able to confirm that you were right: is that what the internal e-mails at stockbrokers were really for – a two-way bet?

To avoid the third pitfall: never make unconditional statements. Instead, try ‘radio has no future unless ...’ (the price of sets falls by 95%, the quality of broadcasts triples, and leisure time doubles to suggest a few potential qualifiers....). Or as La Palice (1470-1525) expressed the matter, ‘Un quart d’heure avant sa mort, il etait encore vivant.’

Adams ends his article with the remark: “Predicting the future is a mug’s game, but any game is improved when you can actually keep the score”. But that is actually my fourth pitfall – to avoid it: never allow post-event evaluation: —unless you can claim complete success. As FDR was told when re-visiting a town during his whistle-stop re-election campaign on wishing to show that he had achieved in office what he had promised: ‘Mr. President, you must deny you have ever been here before’. In fact, Adams’s genius is to ask “will the e-commerce bubble burst?” – in November 1999 remember – leaving us admiring his perspicacity, not a bland “the e-commerce bubble will burst in January 2000”, which could, of course, have been badly wrong.

Alternatively, you may have to rely on Hendry’s first forecasting theorem: any forecast can be made to look good or bad by an appropriate choice of metric. You may already know this method of presentation – the Russian and American Ambassadors ran in a race: the American came second and the Russian came second last – but does not mention that only those two took part.... Figure 8 illustrates this theorem.35

34 Sen (1986) concludes that ‘The imprecisions of economic predictions have to go hand in hand with a precise recognition of these imprecisions’. 35 The theorem assumes—realistically—that forecast errors are not everywhere zero.

Page 77: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 74

In terms of accuracy, for forecasting levels, b wins; but for growth, a wins:

“..the Dodo suddenly called out ‘the race is over!’ and they all crowded round it panting, and asking ‘But who has won?’ This question the Dodo could not answer without a great deal of thought,... At last the Dodo said ‘Everyone has won, and all must have prizes.’ ” Lewis Carroll, Alice’s Adventures in Wonderland, 1865 (p.33).

Next: don’t stand out from the crowd. Diane Coyle was the presenter for many years of the Golden Guru award for each year’s best forecast of the UK misery index (measuring inflation, unemployment, and economic growth). In Coyle (2001), she notes that forecasters have herded together on these three key measures, with the Golden Guru usually being won by only a narrow margin, and with very few repeat winners36. Finally: never predict large shifts. This is similar to the preceding advice, but emphasizes the need to avoid forecasting at all – just say where we are. The ‘bus-stop game’ in Hendry (2001a) illustrates why that strategy works. Such ad-vice may seem at odds with the main problem confronting economic forecasting, namely large shifts, but assumes we are not be able to forecast the big changes anyway. Figure 9 illustrates the apparent effectiveness of forecasts that never have any ‘future’ content. I have marked what the forecast for 1947–48 might have been, given a ‘history repeats itself’ notion based on the experience in 1920–21: 40% government deficit-GNP ratio removed in 3 years; troops demobilized; European trade collapses; pre-war parity sought—and output crashes in the ensuing post-war slump. No amount of missing the target by forecasting the previous value would ever overwhelm one huge error like X. This suggests that the valuation criterion itself is inappropriate, a pitfall discussed earlier. Nevertheless, perhaps it is worth trying to anticipate events....

36Coyle proceeds to apologize for perpetrating in the Golden Guru contest the notion that the difference between 2.2% and 2.5% measured GDP growth in a given year is at all meaningful. However, Coyle also stresses that journalists could improve their presentations of forecasts by avoiding spurious precision and by explaining the uncertainties involved.

Page 78: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 75

7 Forecasting the pitfalls

“Toad-stone: popular name for the mineral bufonite, supposed to be a natural concretion found in the head of the common toad – and predicted to offer protection from poison”. From Robert Hunter, Encyclopaedic Dictionary, 1894, reported in Forgotten English,by Jeffrey Kacirk, 200137. “Sweet are the uses of adversity, which like the toad, ugly and venomous toad wears yet a precious jewel in his head”. (in Shakespeare’s As You Like It.)

A regime shift would reveal significant predictive failure here, namely wear the stone and

drink poison—shades of Voltaire: “An incantation can kill a flock of sheep, if accompanied by a sufficiently large dose of arsenic”. In economics, policy-regime shifts are among the most important members of this class, although ‘economic crises’ follow a related close second. Forecasts made before a break and in ignorance of its impending occurrence are bound to suffer its full effects. Consequently, attempts to forecast future ‘rare events’, especially those which entail location shifts, could pay handsome dividends. Thus, we turn to the second sense of our title: how can we forecast the pitfalls that might confront us?

Sen (1986) suggests two main difficulties confronting successful economic ‘prediction’: choice and interaction. The former entails that different economic agents can choose differently in near identical situations, and the latter that interactions between millions of decisions can lead to unexpected out-comes.

Several possible approaches are available for accounting for rare events in modelling; rather fewer for forecasting rare events directly, thereby avoiding the resulting large forecast errors. Note that modeling rare events is particularly onerous because there are so few observations on the rare events them-selves. Models of past shocks fall into three groups, where the events are modelled:

(a) as one-off aberations (usually removed by indicator variables: see e.g., Hendry, 2001b); (b) by adding observable factors to account for the shifts (as with financial liberalization: see e.g., Muellbauer, 1994); and (c) as part of more regular ‘regime shifts’ (as in Markov switching: see e.g., Hamilton, 1989, and Krolzig, 1997).

37 Toad fairs were common in the early 1800s in Dorset: the toadman made predictions based on the patterns a handful of dried toad bones made when they fell

Page 79: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 76

A natural step in approach (a) is to document the rare events, to see how often they occurred and how big they were historically. Then one could seek to modify the forecasts accordingly. Two forecasts might be produced, one accounting for, and the other neglecting, some large potential shock, such as another oil crisis. Each person can then select the forecast that he or she deems most likely. Or, the two forecasts can be averaged, weighted by how likely the shock (or its absence) is believed to be. To illustrate that by our analogy, one might expect a 4-hour journey without delays and a 6-hour journey (equally likely) with delays, and so schedule 5 hours total in order to allow for both possible outcomes. Note that actual outcomes always differ from the weighted forecast in this case—the actual journey time is either 4 hours or 6 hours and never the 5 hours planned. Whether or not such discrepancies between forecasts and outcomes matter depends on the costs of forecast errors.

Route (b) is the most satisfactory in intellectual terms, as insights are gleaned into how economies function—but only after the event. To be of value in forecasting, all new shifts would need to be forecast, as well as prior explanations provided.

As an example of (c), Osborn, Sensier and Simpson (2001) treat recessions as sufficiently rare

that adding ‘leading indicators’ to a regime-shift model might help in their prediction, and claim some success in practice.

Unfortunately, many rare events are not part of a sequence like business cycles on which a small sample of observations is available: examples include the 1984 Banking Act and the 1986 Building Societies Act in the UK, both of which had massive unforseen consequences which later could be modeled as in (b). Even so, ‘rare events’ should be partly predictable since they have causes, and some of those causes may be discernible in advance. Environmental rare events such as hurricanes, earthquakes and volcanic eruptions usually issue ‘advance signs’ that are harbingers of impending problems. Recent advances in (say) earth sciences for forecasting volcanic eruptions seem to have considered both leading indicators (e.g., the temperature of the vented steam, where rises indicate increased activity), and ‘pressure analysis’, which uses low-frequency sounds as an indicator of internal pressure that will lead to an explosion (the lower the sounds, as in an organ-pipe, the greater the pressure). If economic counterparts have corresponding attributes, then a search for ‘early-warning signals’ is merited. One route may be by monitoring high-frequency data, which should reflect location shifts much sooner in real time, although there is the corresponding drawback that such data tend to be noisier. Nevertheless, ‘early-warning’ signals merit serious consideration, so high-frequency readings on the state of the economy must play a role in this area. 7.1 Forecasting crises

“...whereas the weather forecast has no effect on the weather, the economic forecast may often affect the economy...” Sir John Mason, in discussion of Hendry (1986).

An extreme pitfall is a crisis – an event which occurs remarkably frequently, given the

examples of crises in the 1990s that Barrell (2001) discusses. Say we try to ‘predict’ their impending occurrence, then we face the above problem, first discussed by Morgenstern (1928), and partially resolved by Marget (1929): Monday: garage mechanic ‘Your brakes are about to fail’; driver ‘Better fix them’; Wednesday, back at garage: driver – ‘Why did you change my brake pads: yesterday’s emergency stop was fine?’.

We all see the silliness of this interchange—until it comes to predicting crises. If we succeeded, and altered policy such that no crisis eventuated, would that be a forecast failure? We could, of course, emphasize the conditional nature of the crisis forecast, implicit in the mechanic’s comment (‘unless you fix the brakes, you will have an accident’), and most Central Banks PR certainly tries to (‘we averted the recession by lowering interest rates’). Nevertheless, the combination of failure to forecast crises that later occur (East Asia in 1997), and forecasting ones that do happen conspire to overwhelm the few successful positive predictions (no points are awarded for the mantra ‘no crisis ahead’ even when it is correct). Most such attempts in fact focus on ‘pressure analysis’, so can claim a good pedigree, but as yet have not delivered much in the way of ‘best in show’ accolades.

Page 80: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 77

8 Conclusion

“When weather forecasters go awry, they get a new super-computer; when economists mis-forecast, we get our budgets cut”. DFH (originally quoted following the unpredicted 1987 storm).

There are many pitfalls in all forms of forecasting, most well exemplified by economic

forecasting. Many are unavoidable, because they are due to events outside the purview of almost anybody: September 11, 2001 is a tragic example. However, a recent general theory of economic forecasting provides a framework for analyzing methods in the context of a world where such unanticipated location shocks occur, and models are inexact representations of the economy. That theory helps explain many historical episodes of forecast failure, and suggests genuine ways of avoiding systematic forecasting errors, none of which relies on the lighthearted advice to forecasters provided above.

The car journey analogy highlighted many of the pertinent issues, and suggested why some methods might work even when maps were unreliable guides to an ever-changing route network. If econometric models are to succeed as forecasting devices, they must be adaptive, and could try to forecast some of the pitfalls that lie ahead.

References Adams, D. N. (2002). The Salmon of Doubt. London: MacMillan. Barrell, R. (2001). Forecasting the world economy. in Hendry, and Ericsson (2001), pp. 149–169. Clements, M. P., and Hendry, D. F. (1998). Forecasting Economic Time Series. Cambridge: Cambridge University Press. Clements, M. P., and Hendry, D. F. (1999). Forecasting Non-stationary Economic Time Series. Cam-bridge, Mass.: MIT Press. Coyle, D. (2001). Making sense of published economic forecasts. in Hendry, and Ericsson (2001), pp. 54–67. Hamilton, J. D. (1989). A new approach to the economic analysis of nonstationary time series and the business cycle. Econometrica, 57, 357–384. Harré, R. (1985). The Philosophies of Science. Oxford: Oxford University Press. Hendry, D. F. (1986). The role of prediction in evaluating econometric models. In Proceedings of the Royal Society, Vol. A407, pp. 25–33. Hendry, D. F. (2001a). How economists forecast. in Hendry, and Ericsson (2001), pp. 15–41. Hendry, D. F. (2001b). Modelling UK inflation, 1875–1991. Journal of Applied Econometrics, 16, 255–275. Hendry, D. F., and Ericsson, N. R. (eds.)(2001). Understanding Economic Forecasts. Cambridge, Mass.: MIT Press. Krolzig, H.-M. (1997). Markov-Switching Vector Autoregressions: Modelling, Statistical Inference and Application to Business Cycle Analysis. Berlin: Springer–Verlag. Lecture Notes in Economics and Mathematical Systems, 454. Leontief, W. (1971). Theoretical assumptions and nonobserved facts. American Economic Review, 61, 1–7. Marget, A. W. (1929). Morgenstern on the methodology of economic forecasting. Journal of Political Economy, 37, 312–339.

Page 81: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 78

Milne, A. A. (1926). Winnie-the-Pooh. London: Methuen and Co. Ltd. Morgenstern, O. (1928). Wirtschaftsprognose: eine Untersuchung ihrer Voraussetzungen und Möglichkeiten. Vienna: Julius Springer. Muellbauer, J. N. J. (1994). The assessment: Consumer expenditure. Oxford Review of Economic Policy, 10, 1–41. Nerlove, M., and Wallis, K. F. (1966). Use of the Durbin-Watson statistic in inappropriate situations. Econometrica, 34, 235–238. Osborn, D. R., Sensier, M., and Simpson, P. W. (2001). Forecasting and the UK business cycle. In Hendry, and Ericsson (2001), pp. 104–123. Sen, A. K. (1986). Prediction and economic theory. In Proceedings of the Royal Society, Vol. A407, pp. 3–23. Singer, M. (1997). Thoughts of a nonmillenarian. Bulletin of the American Academy of Arts and Sciences, 51(2), 36–51.

Page 82: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 79

Massimiliano Marcellino

THE EFN EXPERIENCE IN FORECASTING EURO AREA MACROECONOMIC VARIABLES38

Massimiliano Marcellino

IEP - Bocconi University, IGIER and CEPR

November 2002

38 I am very grateful to all members of the European Forecasting Network (EFN) for their efforts in the preparation of the reports that are the basis for this paper. In particular, I would like to thank Mike Artis, Anindya Banerjee, Dick van Dijk, Christian Dreger, Toni Espasa, Lionel Fontagné, Sean Holly, Raul Ramos and Jordi Surinach, who also provided some of the forecasts analyzed in the paper.

Page 83: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 80

Massimiliano Marcellino

1. Introduction With the creation of the European Monetary Union, the focus of the economic policy debate and of macroeconomic analyses is shifting more and more from the single member countries to the Union as a whole. This poses the question of the proper econometric methods for empirical analyses in the new context. This paper contributes to the debate by summarizing the relative forecasting performance of a set of alternative models, resulting from the detailed analysis presented in the first report of the European Forecasting Network (available on the web site, www.efn.uni-bocconi.it). The European Forecasting Network (EFN) is a research group of European institutions, founded in 2001 and co-financed by the European Commission. The Instituto Flores de Lemus - Universidad Carlos III is joined in this project by IGIER – Università Bocconi, Centre d´Etudes Prospectives et d´Informations Internationales (CEPII), the Halle Institute for Economic Research, the Department of Economics - European University Institute, the Econometric Institute - Erasmus Universiteit, Anàlisi Quantitativa Regional - Universitat de Barcelona, and the Department of Applied Economics (DAE ) - University of Cambridge.

The EFN not only analyzes the current economic situation in the Euro area and provides forecasts for key macroeconomic variables, it also gives policy advice and develops in-depth studies of topics of particular relevance for the working of the European Monetary Union.39

In Section 2 we first briefly discuss the medium-scale structural model that is used to produce most forecasts in the EFN Reports. Next, we consider two classes of univariate models, linear ARIMA and nonlinear threshold autoregressions (TAR), and three classes of multivariate models: VARs, factor models, and leading indicators. Small scale VARs have been often used for forecasting purposes, and are the natural generalization of the ARIMA models. Yet, only a few variables can be included in a VAR, while the available information set is rather large. To exploit all the available information we exploit dynamic factor models, where the variables are driven by a few common factors, which are estimated and then used for forecasting. An alternative statistical procedure, based on the correlation structure of the large dataset is adopted for the specification of the leading indicator models.

All models are estimated with a quarterly ECB dataset for the Euro area (see Fagan, Henry and Mestre (2001)), that includes several macroeconomic variables, such as GDP, producer and consumer prices, labour market variables, short and long interest rates, trade variables, exchange rates, etc. The sample period starts in 1991: I and ends in 2001:II. We decided to focus on such a short sample due to both data availability problems and to include only the period where the monetary union was already driving the economic policy of the future member countries. Also, series prior to 1991 do not reflect the ESA95 conventions, because they correspond to an older system of national accounts. Furthermore, series for the unified Germany are available since 1991, and given the weight of the German economy in the Euro area -which is nearly one third of overall GDP- the shift would appear in the European series as well.

In Section 3 we report the results of the forecasting exercise, which is conducted in a pseudo real time framework. All models are recursively estimated over the period 1997:IV-2001:II and each quarter 2, 4 and 8 period ahead forecasts are computed. The forecast errors are computed, and the models are compared on the basis of the mean square and mean absolute forecast errors. More sophisticated forecast comparison techniques are not applicable because of the short forecast sample. We can anticipate that the structural model produces the most accurate forecasts for most variables and forecast horizons.

Section 4 provides some concluding remarks.

39 The EFN publishes two semi-annual reports, in the spring and in the fall. Further information on the EFN can be obtained from our web site, www.efn.uni-bocconi.it or by e-mail at [email protected] .

Page 84: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 81

2 Forecasting methods In this section we describe the forecasting methods to be compared. We start with the structural model, then consider the univariate methods, and finally the multivariate time series methods.

2.1 The structural model

The model is described in detail in Annex 2 of the EFN Spring 2002 Report: here we only mention its main characteristics. The underpinning theoretical framework refers to an open economy, where markets are competitive. Agents have been aggregated into the sectors of households, firms, government and foreign countries. Within each sector individuals are assumed to be homogeneous. The model includes the goods, labour and financial asset markets, financial assets consist ing of money and bonds. Private households and firms maximize individual utilities or profits, respectively. Because the model is not designed to evaluate fiscal policies, government is broadly treated as exogenous. At the present stage foreign variables are treated as exogenous. Most equations are fairly standard from an economic point of view, but their specification is carefully checked from a statistical point of view, to make sure that they provide a congruent representation for the variables under analysis.

2.2 ARIMA models

Since the pioneering work by Box and Jenkins (1970), the good performance of these simple univariate models for forecasting economic variables has been confirmed in several studies, see e.g. Meese and Geweke (1984), or Marcellino, Stock and Watson (2001) for the Euro area. Models with up to 4 AR and MA terms were in general the starting point of the specification search, with lags being sequentially deleted when not statistically significant according to the t-test, with decision on alternative reductions based on the BIC criterion. The statistical congruence of the starting model was also verified, and additional lags added in case of rejection. See the EFN Spring 2002 Report for details. 2.3 TAR models In the case of the ARIMA model the relationship between the current value of a variable and its lags is supposed to be linear and constant over time. Yet, in particular when modelling financial variables but also in the case of real variables such as unemployment and industrial production, non-linear and time-varying relationships are often found. We experimented with different classes of non-linear models, and the best one turned out to be the threshold autoregression (TAR). A TAR can be specified as

>++++

≤++++=

−−

−−

, if ...

, if ...,21,20,2

,11,10,1

1

1

cyyy

cyyyy

ttitkit

ttitkit

tk

k

εφφφ

εφφφ, (1)

where tε ~ N(0, 2σ ). For output, private consumption, government consumption, gross fixed capital, exports, imports, labour costs, unit labour costs, world trade imports, the GDP deflator, the effective real exchange rate, the effective nominal exchange rate and M3, ty is taken to be the quarterly

growth rate ty = 100 × log( ty / 1−ty ) with ty denoting the level of the variable and log represents the natural logarithm. For inventories, the unemployment rate, the short-term interest rate, and the long-term interest rate, ty is taken to be the level of the series. The harmonized consumer price index is not modeled due to the short sample size available. The precise specification of the models is reported in EFN Spring 2002 Report. Given estimates of the model based upon observations for t =1,…,T , 1- to 8-step ahead forecasts

ThTy +ˆ are obtained with Monte Carlo simulation, using 10000 future paths of y iT + , i =1,…,8 where the

Page 85: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 82

shocks it +ε are drawn from a normal distribution with standard deviation set equal to the standard deviation of the residuals. Forecasts of the h-quarter growth rates for h = 2, 4 and 8 are obtained by

summing the forecasts of the relevant quarterly growth rates, i.e. ∑ = ++ =h

i TiTh

ThT yy1 ,

ˆˆ ,

where hThTy +ˆ denotes the forecast of the h-quarter growth rate =+

hThTy 100× log( ThT yy /+ ).

2.4 VAR models

In these models, popularized by the work of Sims (1980), each variable depends on a certain number of lags of the other variables under analysis. Hence, they provide the natural extension of ARIMA models. Though less flexibility in the specification can be allowed, in particular because of the short sample size available and of numerical problems in the estimation of a multivariate MA component, the use of other variables as regressors could improve the forecasting performance. The chosen specifications of the VAR models are reported in the EFN Spring 2002 Report. 2.5 Factor models Since this methodology is relatively new, it is worth analyzing it in some detail. Let Xt be the N-macroeconomic variables to be modelled, the 53 variables in the Euro area dataset in our case,

observed for t=1,...,T. Xt admits an approximate linear dynamic factor representation with r common factors, ft , if:

( )it i t itX L f eλ= + (2)

for i=1,...,N, where eit is an idiosyncratic disturbance with limited cross-sectional and temporal dependence, and ( )i Lλ are lag polynomials in non-negative powers of L; see in particular, Stock

and Watson (1998). If ( )i Lλ have finite orders of at most q, equation (1) can be rewritten as,

t t tX F e= Λ + (3)

where ' '( , , ) 't t t qF f f −= K is r×1, where r≤(q+1)r , and the i-th row of Λ is 0( , , )i iqλ λK . The factors provide a summary of the information in the data set, and can therefore be expected to be useful for forecasting. From a more structural point of view, the factors can be considered as the driving forces of the economy. In both cases, it is extremely important to have accurate estimators of the factors. Stock and Watson (1998) show that, under some technical assumptions (restrictions on moments and stationarity conditions), the column space spanned by the dynamic factors ft can be estimated consistently by the principal components of the T×T covariance matrix of the X's. A condition that is worth mentioning for the latter result to hold is that the number of factors included in the estimated model has to be equal to, or larger than, the true number. In what follows, we assume the presence of at most six factors. The principal component estimator of the factors is computationally convenient, even for very large N. Moreover, it can be generalised to handle data irregularities such as missing observations using the EM algorithm. In practice, the estimated factors from the balanced panel are used to provide an estimate of the missing observations, the factors are then extracted from the completed data set, the missing observations are re-estimated using the new set of estimated factors, and the process is iterated until the estimates of the missing observations and of the factors do not change substantially. Finally, it is worth noting that, under additional mild restrictions on the model, the principal component based estimator remains consistent even in the presence of changes in the factor

Page 86: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 83

loadings, i.e. tΛ=Λ . In particular, Stock and Watson (1998) allow either for a few abrupt changes, or

for a smooth evolution as modelled by a multivariate random walk for tΛ . Once estimated factors are available, they can be used as regressors in a forecasting equation for the variable of interest. Stock and Watson (1998) provide conditions under which these estimated factors yield asymptotically efficient forecasts, in the sense that the mean square forecast error converges to the value that is obtained with known factors. We consider three different factor-based forecasts. First, in addition to the lagged dependent variable, up to 4 factors and 3 lags of each of them are included in the model (fdiarlag), and the variable selection is again based on BIC. Second, up to 6 factors are included, but not their lags (fdiar). Third, only up to 6 factors appear as regressors, but no lagged dependent variable (fdi). For each of these 3 forecasts, the factors are extracted from the balanced panel, that in this application performs better than the unbalanced panel. In order to evaluate the forecasting role of each factor, we also consider forecasts using a fixed number of factors, from 1 to 4 (fdiar_01 to fdiar_04 and fdi_01 to fdi_04). Finally, when no factors are retained in the specification, we obtain simple AR models but, possibly, with a different number of lags in each period (far). The preferred factor model for each variable, based on their forecasting performance, are listed in the EFN Spring 2002 Report.

2.6 Leading indicator models

According to Clements and Hendry (1998), p. 207 “an indicator is any variable believed informative about another variable of interest”. In this context, a leading indicator is any variable whose outcome is known in advance of a related variable that it is desired to forecast. Usually, there are several leading indicators for every variable that it is desired to forecast and, for this reason, composite leading indicators are constructed. A composite leading index is a combination (e.g. a weighted average) of this set of simple leading indicators. Composite leading indicators are useful to provide estimates of the current state and short-term forecasts of the analysed economy. The main advantage of composite leading indicators in relation to other methods is that it is not necessary to obtain forecasts for exogenous variables as their lagged values are known in advance. Of course, leading indicators will only provide reasonably accurate short term forecasts. However, we extend the analysis up to two years as an additional benchmark for the results using other procedures. The procedure for the selection of the simple leading indicators for each endogenous variable and the resulting models are detailed in the EFN Spring 2002 Report 3. Forecast Evaluation In order to evaluate the relative forecasting accuracy of the models, a pseudo-real time forecasting competition was run. All models were estimated until 1997:IV and forecasts for 2, 4 and 8 period ahead were computed. The forecasts are for the growth rates of all variables (log( hty + / ty )), except for unemployment and interest rates where levels are used. The specifications can be different for different forecast horizons in the case of factor models and leading indicators. Then models are re-estimated in each quarter, and forecasts are computed. Given the availability of actual values until 2001:II, a series of forecast errors for each variable and forecasting method can be computed, .ˆ hththt yye +++ −= We then compute the root mean square and the mean absolute forecast error (RMSE and MAE), and use them to rank the models. More sophisticated comparison techniques are not applicable due to the short sample size. In the EFN Spring 2002 Report we report the RMSE and the MAE for, respectively, 2, 4 and 8 period ahead forecasts. Focusing on the MSE, the structural model is the best for 11 out of the 18 variables under analysis when h=2, and for 12 and 8 when, respectively, h=4 and 8. A similar pattern emerges when the ranking is based on the MAE. Moreover, when the structural model is not the best, in general it is ranked second or third. In these cases the best model is usually either nonlinear or factor based, and both characteristics are difficult to be included in the structural model.

Page 87: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 84

4. Conclusions

We have summarized the main results of a thorough forecast comparison exercise in order to evaluate the relative forecasting capabilities of the structural model that is used to produce the forecasts in the EFN reports. On the basis of the results on the past forecasting performance of the model, we think that it can be used to produce reliable forecasts of the future behaviour of the key macroeconomic variables in the Euro area. It is worth stressing again that this is an economic theory driven model but with a thorough econometric specification of the short term adjustment. The careful combination of economics and econometrics can explain its good performance. References Box, G.E.P. and Jenkins, G.M. (1970), Time series analysis, forecasting and control, San Francisco:

Holden Day. Clements, M.P. and Hendry, D.F. (1998), “Forecasting Economic Processes”, International Journal of

Forecasting, 14, 139-143 Fagan, G., Henry, J. and Mestre, R. (2001), “An area-wide model for the Euro area”, European

Central Bank Working Paper , n. 42. Marcellino, M., Stock, J.H. and Watson, M.W. (2001), “Macroeconomic forecasting in the Euro area:

country specific versus Euro wide information”, European Economic Review, forthcoming. Meese, R. and Geweke, J. (1984), “A comparison of autoregressive univariate forecasting procedures

for macroeconomic time series”, Journal of Business and Economic Statistics, 2, 191-200. Sims, C. (1980), “Macroeconomics and Reality”, Econometrica, January 1980, 1-48. Stock, J.H. and Watson, M.W. (1998), “Diffusion Indexes," NBER Working Paper, n. 6702.

Page 88: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 85

Kenneth F. Wallis

FORECAST UNCERTAINTY, ITS REPRESENTATION AND EVALUATION

Kenneth F. Wallis University of Warwick

15 January 2003

Page 89: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 86

Kenneth F. Wallis Introduction

Forecasts of future economic outcomes are subject to uncertainty. It is increasingly accepted that forecasters who publish forecasts for the use of the general public should accompany their point forecasts with an indication of the associated uncertainty. How and why this is done is the subject of the first main section of this article. It is equally important that forecasters’ statements about the underlying uncertainty should be reliable. How this can be assessed is discussed in the second section of the article, which draws on Wallis (2003). It concludes with an evaluation of the one-year-ahead forecasts of inflation and their associated uncertainty published by the Monetary Policy Committee of the Bank of England since 1997. Not only this example but also this Bulletin’s original focus on inflation forecasts lead us to take inflation as the relevant variable being forecasted whenever an illustration might help the discussion. The discussion is nevertheless quite general. Reporting forecast uncertainty

Forecast standard errors are the first representations of uncertainty that the student of forecasting is likely to meet. Statistics and econometrics textbooks describe various ways of constructing point forecasts from a wide range of models – time series models, regression models, macroeconometric models, and so forth. They then often proceed to the calculation of an estimate of the forecast mean squared error, or its square root, the forecast standard error, to give an indication of the likely inaccuracy of the point forecast. The unknown future value of the random error term in the statistical model is the main contribution to this measure. If the model has parameters whose unknown values have been estimated from past data, then the sampling error in these estimates also makes a contribution. The model may contain explanatory variables whose future values will influence the outcome for the variable of interest. For example, movements in the exchange rate affect the inflation rate in small open economies. Then the forecaster has a choice between presenting inflation forecasts that are conditional on specified values for the exchange rate, or presenting unconditional forecasts of inflation that incorporate forecasts of the exchange rate. In the latter case the uncertainty of the exchange rate forecast makes a further contribution to the uncertainty of the inflation forecast. Methods of calculating forecast standard errors are available in textbooks and computer software for static and dynamic models, univariate and multivariate models, linear and non-linear models, and so on: Ericsson (2002) provides a recent survey. Model-based estimates of forecast uncertainty are clearly conditional on the chosen model. However the choice of an appropriate model is itself subject to uncertainty. Sometimes the model specification is chosen with reference to an a priori view of the way the world works, sometimes it is the result of a statistical model selection procedure. In both cases the possibility that an inappropriate model has been selected is yet another contribution to forecast uncertainty, but in neither case is a measure of this contribution available, since the true data generating process is unknown. A final contribution to forecast uncertainty comes from the subjective adjustments to model-based forecasts that many forecasters make in practice, to take account of off-model information of various kinds: their effects are again not known with certainty, and measures of this contribution are again not available. In these circumstances some forecasters provide subjective assessments of uncertainty, while others turn to ex post assessments. The historical track record of forecast errors incorporates all sources of error, including model error and the contribution of erroneous subjective adjustments. Past forecast performance thus provides a suitable foundation for measures of forecast uncertainty. For example, the UK government’s budget forecasts of key macroeconomic indicators are accompanied by statements of the mean absolute errors of the past ten years’ forecasts. The use of past forecast performance as an indicator of likely future performance is just another example of a forecasting problem, however, now addressed to measures of the dispersion of forecasts, but subject to the same difficulties of forecast failure as point forecasts. Projecting forward from past performance assumes a stable underlying environment, and difficulties arise when this structure changes. If changes can be

Page 90: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 87

anticipated, subjective adjustments might be made, just as is the case with point forecasts. For example, in discussing the margin of error of past forecasts, the UK government’s statement that accompanied the June 1979 budget, immediately following the election of Mrs Thatcher’s first government, noted the “possibility that large changes in policy will affect the economy in ways which are not foreseen”. A more recent example is the introduction in several countries of a monetary policy regime of direct inflation targeting. One way to calibrate the variance of inflation in the new regime, as an alternative to the “old regime” track record, is to undertake a stochastic simulation study of the performance of a macroeconometric model augmented with feedback rules for interest rates: Blake (1996) provides a good example. His estimates remain conditional on the model specification, however. And as time goes by a track record on the new regime is accumulating. A forecast interval is the simplest way of reporting uncertainty, once measures are available. This is usually given as a band of plus and minus one or two standard errors around the point forecast. When forecasts are being published for a number of periods into the future these error bands might appear as additional lines on a time series plot, on either side of the point forecast.

Probabilities can be attached to these intervals if an underlying probability distribution is assumed. It is conventional to assume that the basic random disturbances follow a normal distribution, unless there are strong reasons to think otherwise, such as the excess kurtosis that is a feature of many financial series. In simple models it then follows that the forecast error is normally distributed, and probabilities of 68 percent or 95 percent can be associated with intervals of plus and minus one or two standard errors respectively. In more complicated models other distributions are needed. If parameter estimation errors are taken into account then Student’s t-distribution is relevant, while in complex non-linear models the forecast distribution can be estimated non-parametrically by stochastic simulation methods. Subjective adjustments to the distribution may also be made by forecasters, as in the case of point forecasts. Probabilities can then be calculated and reported for forecast intervals centred on the point forecast as above, or for any other interval of interest. In a monetary policy regime of inflation targeting, for example, the target is typically expressed either as a range of values for inflation, or as a point target and an associated monitoring interval. The forecast probability that inflation will fall within the target range can then be reported. This is sometimes referred to as an “event probability” forecasting problem: the forecast is stated as the probability of occurrence of the future event “inflation on target”. Another example is the probability of recession, that is, the probability of two successive quarters of negative GDP growth occurring within the forecast horizon.

A density forecast is implicit in all these calculations, and it is increasingly common to publish it

explicitly. A density forecast is an estimate of the complete probability distribution of the possible future values of the variable in question, and so provides a full description of the uncertainty associated with a forecast. Examples are found in the forecast publications of central banks, including the Bank of England and the Sveriges Riksbank, other agencies such as the US Congressional Budget Office, and independent groups such as the National Institute of Economic and Social Research. Once the complete density is available, users can calculate the forecast probabilities for any interval or combination of outcomes that is of interest to them. Tay and Wallis (2000, 2002) present a survey of the use of density forecasts in macroeconomics and finance.

In these examples the density forecast is based on a probability distribution of known

functional form which is assumed constant over time, although the parameters describing its location, scale, skewness, and so forth vary over time. Algebraic formulae are not usually helpful in conveying the main features of a forecast, however, and graphical presentations can be more informative. One way of presenting a density forecast is in terms of selected quantiles, which is equivalent to reporting several forecast intervals, corresponding to selected probabilities, usually chosen to be round numbers. These can be reported in a table, or as yet further lines on a time series plot of forecasts for several periods into the future, generalising the plot of an interval forecast described above. With selective shading of quantiles “to draw attention away from point forecasts and toward the uncertainty in forecasts” this was first proposed by Thompson and Miller (1986). Since the dispersion of the distribution increases and the intervals “fan out” as the forecast horizon increases, such plots have subsequently become known as “fan charts”.

Page 91: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 88

An alternative presentation of the distribution is as a histogram. The bins are typically evenly spaced, 0-0.5, 0.5-1.0, 1.0-1.5, 1.5-2.0, … in the case of inflation, for example, and the corresponding probabilities are presented in either a table or a graph. The histogram form is used in many survey-based density forecasts, where respondents are asked to report their probabilities that inflation will fall in the specified ranges. The collective responses have no particular functional form and are in turn reported numerically. The oldest example in macroeconomics is the ASA-NBER survey initiated in the United States in 1968, now managed by the Federal Reserve Bank of Philadelphia with the revised title, the Survey of Professional Forecasters. Diebold, Tay and Wallis (1999) describe the main features of the survey and provide an evaluation of its density forecasts of inflation. Several central banks now carry out similar surveys on a regular basis.

Decision theory considerations provide an argument for the publication of density forecasts

rather than point forecasts. The decision theory formulation begins with a loss function L(d,y) that describes the consequences of taking decision d today if the future state variable has the value y . If the future were known, then the optimal decision would be the one that makes L as small as possible. But if the future outcome is uncertain, then the loss is a random variable, and a common criterion is to choose the decision that minimises the expected loss. To calculate the expected value of L(d,y) for a range of values of d , in order to find the minimum, the complete probability distribution of y is needed in general. The special case that justifies restricting attention to the point forecast is the case in which L is a quadratic function of y . In this case the certainty equivalence theorem states that the value of d that minimises expected loss E[ L(d,y) ] is the same as the value that minimises L{d, E(y)} , whatever the distribution of y might be. So in this case the forecast that minimises the mean squared forecast error, namely the conditional expectation, is all that is required. In practice, however, macroeconomic forecasters have little knowledge of the identity of the users of forecasts, not to mention their loss functions, and the assumption that these are all quadratic is unrealistic. In this framework the general decision-maker requires the complete distribution of y . Don (2001) argues against the publication of density forecasts on the grounds that statistical forecast errors tend to be a misleading guide to the effects of the multitude of untested assumptions, and that subjective assessments are highly impractical. He contends that forecast uncertainty can be communicated more properly by providing uncertainty variants with the forecasts, and by presenting a number of scenarios rather than a single forecast. Variant forecasts that highlight the sensitivity of the central forecast to key assumptions are commonly published by forecasting agencies. The US Congressional Budget Office, for example, recently presented baseline economic and budget projections assuming a 2.1 percent annual growth rate of potential output, together with “high growth” and “low growth” variants that assume 2.6 and 1.6 percent growth, respectively. The Bank of England has on occasion shown the sensitivity of its central projection for inflation to various alternative assumptions preferred by individual members of the Monetary Policy Committee: with respect to the behaviour of the exchange rate, the scale of the slowdown in the global economy, and the degree of spare capacity in the domestic economy, for example. The practice of the CPB Netherlands Bureau for Economic Policy Analysis of publishing a small number of scenarios rather than a single forecast is advocated by Don (2001), who has been the Bureau’s Director since 1994. Two scenarios are published for the medium-term outlook, one “favourable” and one “cautious” in terms of the exogenous assumptions that are fed in to the model of the domestic economy. “The idea is that these scenarios show between which margins economic growth in the Netherlands for the projection period is likely to lie, barring extreme conditions. There is no numerical probability statement; rather the flavour is informal and subjective, but coming from independent experts” (Don, 2001, p.172). This statement almost describes an interval forecast, but the word “likely” is not translated into a probability statement, as the author notes. The practical difficulty facing the user of these scenarios is not knowing where they lie in the complete distribution of possible outcomes. What measure should be attached to the words “favourable” and “cautious”? Some authors may have in mind more extreme language, “pie in the sky” and “gloom and doom”; others may prefer “modest optimism” and “modest pessimism”. But ambiguity remains in the absence of a probability statement. Its absence also implies that ex post evaluation of the forecasts can only be undertaken descriptively, and no systematic statistical evaluation is possible. How to assess the reliability of statements about forecast uncertainty, assuming that these are quantitative, not qualitative, is the subject of the remainder of this article.

Page 92: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 89

Evaluating interval and density forecasts There is a large, well-established literature on the ex post evaluation of ex ante point forecasts, and a much smaller, but growing literature on the evaluation of interval and density forecasts. As always, studies of the quality of forecasts may be of interest for their own sake, or they may be explicitly focussed on the improvement of performance in the future. Decision theory considerations suggest that forecasts of all kinds should be evaluated in a specific decision context, in terms of the gains and losses that resulted from using the forecasts to solve a sequence of decision problems. As noted above, however, macroeconomic forecasts are typically published for general use, with little knowledge of users’ specific decision contexts, and evaluations are in practice based on the statistical performance of the forecasts. Given a time series of interval forecasts with announced probability π that the outcome will fall within the stated interval, and the corresponding series of observed outcomes, the first question is whether this coverage probability is correct ex post. Or, on the other hand, is the relative frequency with which outcomes were observed to fall inside the interval significantly different from π ? This is a simple example of a test of a binomial proportion, which can be carried out exactly using the binomial distribution, or by using the normal approximation which is valid in large samples. Christoffersen (1998) argues that this unconditional test is inadequate in a time series context, and develops a test of correct conditional coverage, which combines a test of unconditional coverage with a test of independence. This additional requirement is exactly analogous to testing for the absence of autocorrelation in the forecast errors of a series of point forecasts. Christoffersen develops appropriate procedures in the framework of likelihood ratio tests, while Wallis (2003) recasts these in the framework of Pearson chi-squared statistics and considers their extension to density forecasts. For series of density forecasts and observed outcomes the statistical problem is again to assess the degree of correspondence or goodness of fit between observed data and forecast distributions. The two classical non-parametric approaches to testing goodness of fit are based on grouping the data into classes or calculating the sample distribution function, possibly after transforming the data, and in each case comparing observation to hypothesis. The first approach is readily applicable to density forecasts that are presented as sets of intervals based on quantiles. Although the location of the intervals changes for each individual forecast, the quantiles define constant probabilities of outcomes falling in these intervals, to be compared to the observed relative frequencies. The best-known procedure in this situation is the Pearson chi-squared goodness-of-fit test, which generalises the binomial test of the previous paragraph to the multinomial case.

Page 93: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 90

Figure 1

Bank of England Monetary Policy Committee one-year-ahead inflation forecasts Cumulative distribution functions of sample z-values and uniform distribution

Page 94: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 91

The second approach is usually based on the probability integral transformation of the data. For a density forecast whose cumulative distribution function (c.d.f.) is F(.) this is simply defined as z = F(y) , where y is the observed outcome: z is the forecast probability of observing an outcome no greater than that actually realised. If a series of density forecasts have the correct distributions, then the corresponding z-series is distributed uniformly between 0 and 1. In effect, this is telling us that we should expect to see all the percentiles of the forecast densities occupied equally in a long run of correct forecasts. The best-known procedure for assessing discrepancies between the sample c.d.f. of the z-values and the null hypothesis c.d.f. of the uniform distribution is the Kolmogorov-Smirnov test. If we return to the approach of grouping the data then a chi-squared goodness-of-fit test based on the transformed data is exactly equivalent to that based on the original data described in the previous paragraph. Both approaches are illustrated in the following evaluation of the Bank of England’s inflation forecasts. Bank of England Monetary Policy Committee inflation forecasts A density forecast of inflation has been published in the Bank of England’s quarterly Inflation Report since February 1996. It became the responsibility of the Monetary Policy Committee (MPC) when the Bank was given operational independence in 1997 and the MPC was established. Our evaluation follows the practice of the evaluations published from time to time in the Inflation Report, by analysing the MPC’s forecasting record beginning with its first inflation projection published in August 1997, and by focussing on the one-year-ahead forecasts. Strictly speaking, the forecasts are conditional projections, based on the assumption that interest rates remain at the level just set by the MPC. They begin with a current-quarter forecast, and extend up to eight quarters ahead. Nevertheless it is argued that the one-year-ahead projections can be evaluated as unconditional forecasts, since inflation does not react quickly to changes in the interest rate, and the actual changes have been relatively small over the period considered. The definition of inflation is the annual percentage change in the quarterly Retail Prices Index excluding mortgage interest payments (RPIX, Office for National Statistics code CHMK), and the most recent observation available at the time of writing is for the third quarter of 2002. This updates the dataset used by Wallis (2003), which ends in the second quarter of 2001. The density forecast, like that of the Sveriges Riksbank, assumes the functional form of the two-piece normal distribution (Blix and Sellin, 1998; Britton, Fisher and Whitley, 1998; Wallis, 1999). This has three parameters, which determine its location, scale and skewness. It is a convenient way of representing departures from the symmetry of the normal distribution since probability calculations can still be based on standard normal tables, with suitable scaling; however, it has no convenient multivariate generalisation. The density forecast describes the subjective assessment of inflationary pressures by the MPC, and although the prevailing level of uncertainty is initially assessed with reference to past forecast errors, the final calibration of the distribution represents the Committee’s judgement. In particular, the degree of skewness shows their collective assessment of the balance of risks on the upside and downside of the forecast. For given inflation outcomes it is not possible to read off values of the probability integral transform from the charts presented in the Inflation Report, even approximately. Instead, they can be calculated from the forecast parameters published on the Bank’s website, using formulae given by Wallis (1999). The forecast parameters, inflation outcomes and associated z-values for the 17 available observations are shown in Table 1. The Inflation Report is published in mid-quarter, and the inflation outcome refers to the corresponding quarter one year later. With respect to the asymmetry of the forecast densities, it is seen that eleven of them exhibited positive skewness, with the mean exceeding the mode, whereas two were symmetric and four were negatively skewed. The balance of risks was thought to be on the upside of the forecast more often than not. The number of classes into which the data can be grouped is necessarily small, given our small sample, and we consider the four classes defined by the quartiles of the forecast densities. This almost reduces the density forecast to an interval forecast based on the interquartile range, with a hypothesised coverage of 50 percent, but we also distinguish between the upper and lower tails of the distribution, and between forecasts within the interval above and below the median. Equivalently basing the grouping on the z-values given in the final column of Table 1, we see that with a maximum observed value of 0.72 there are no outcomes in the uppermost quarter of the forecast

Page 95: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 92

densities, suggesting that the MPC’s concern with the upside risks was overexaggerated. The frequencies of observations in the four classes are 4, 7, 6, 0. For class frequencies ni, i = 1,…4, Σni = n, the chi-squared statistic for testing goodness-of-fit is

X2 = Σ(ni − n/4)2 /(n/4) .

For these data this gives the value 6.76, which has asymptotic p-value 0.08, indicating that the data offer relatively little support for the hypothesis of correct distributions. The sample cumulative distribution function of the z-values, as used in the second approach to testing goodness of fit described above, is presented in Figure 1. It is seen that this lies well above the 45° line, the c.d.f. of the uniform distribution, in the upper ranges, indicating that the density forecasts place too much probability on the higher values of inflation. The Kolmogorov-Smirnov test statistic is the maximum absolute distance between the two plots, which occurs at the final step, giving the value 0.28. This almost exactly coincides with the 10 percent critical value for this sample size given by Miller (1956), again indicating relatively little support for the null hypothesis. A more informative decomposition of the chi-squared goodness-of-fit statistic proposed by Anderson (1994) is developed and applied to a shorter series of these data by Wallis (2003), and we now apply it to the updated sample. With the data grouped into four classes that are equiprobable under the null hypothesis, the decomposition expresses the overall chi-squared statistic with three degrees of freedom as the sum of three independent chi-squared statistics each with one degree of freedom. They focus on departures from the null hypothesis with respect to specific features of the distribution, namely its location, scale and skewness. In effect, the three restrictions implicit in n1 = n2 = n3 = n4 , corresponding to the null hypothesis of equal class frequencies, are transformed into three equivalent orthogonal restrictions, each tested individually. The first is n1 + n2 = n3 + n4 or n1 + n2 = n/2 , and departures from this indicate a shift in the location of the distribution. The second is n1 + n4 = n2 + n3 or n2 + n3 = n/2 , which refers to the dispersion of the distribution, asking whether the hypothesised interquartile range contains one-half of the observations. Finally departures from n1 + n3 = n2 + n4 reflect skewness in the empirical distribution. Each of the component chi-squared statistics with one degree of freedom is the square of the usual standard normal test statistic of a sample proportion. For the Bank of England density forecasts the overall chi-squared statistic of 6.76 has the three components 1.47, 4.76 and 0.53 respectively, indicating that the significant departure occurs with respect to the dispersion of the forecast densities. That this is overestimated is confirmed on calculating the standard deviation of the forecast errors, defining the forecast error as outcome minus forecast mean. Their sample standard deviation is 0.34 , substantially less than the values used to calibrate the density forecasts reported in column (3) of Table 1. The overall conclusion from this analysis of the first four years of Monetary Policy Committee density forecasts is that the MPC significantly overstated forecast uncertainty, and their excessive concern with large positive shocks to inflation was not justified. Whether exaggerated views of the underlying uncertainty led to undue caution in setting interest rates is an open question. Nevertheless this evaluation indicates possible directions of improvement in future forecast performance. Despite these shortcomings, improved communication of forecast uncertainty by the publication of density forecasts and by other means discussed above is a welcome development, and other forecasters should be encouraged to adopt these practices. Public discussion of macroeconomic point forecasts too often treats them as exact, and to acknowledge explicitly that they are not can only improve the policy debate.

Page 96: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 93

Table 1. Bank of England Monetary Policy Committee Inflation Forecasts One-year-ahead forecasts and outcomes (n = 17)

Inflation Report

(1) Mode

(2) Mean

(3) Std. Dev.

(4) Outcome

(5) z

Aug 97 1.99 2.20 0.75 2.55 0.69 Nov 97 2.19 2.84 0.61 2.53 0.37 Feb 98 2.44 2.57 0.60 2.53 0.49 May 98 2.37 2.15 0.61 2.30 0.57 Aug 98 2.86 3.00 0.60 2.17 0.08 Nov 98 2.59 2.72 0.62 2.16 0.18 Feb 99 2.52 2.58 0.62 2.09 0.22 May 99 2.23 2.34 0.59 2.07 0.33 Aug 99 1.88 2.03 0.56 2.13 0.59 Nov 99 1.84 1.79 0.55 2.11 0.72 Feb 00 2.32 2.42 0.56 1.87 0.16 May 00 2.47 2.52 0.55 2.26 0.32 Aug 00 2.48 2.48 0.55 2.38 0.43 Nov 00 2.19 2.24 0.56 1.95 0.31 Feb 01 2.09 2.04 0.55 2.37 0.72 May 01 1.94 1.89 0.55 1.86 0.47 Aug 01 1.96 1.96 0.55 2.00 0.53

Source (1)-(3): Bank of England spreadsheets, see

http://www.bankofengland.co.uk/inflationreport/irprobab.htm (4): annual percentage growth in quarterly RPIX, ONS code CHMK (5): author’s calculations

References Anderson, G.J. (1994). Simple tests of distributional form. Journal of Econometrics, 62, 265-276. Blake, A.P. (1996). Forecast error bounds by stochastic simulation. National Institute Economic Review, No.156, 72-79. Blix, M. and Sellin, P. (1998). Uncertainty bands for inflation forecasts. Working Paper No.65, Sveriges Riksbank, Stockholm. Britton, E., Fisher, P.G. and Whitley, J.D. (1998). The Inflation Report projections: understanding the fan chart. Bank of England Quarterly Bulletin, 38, 30-37. Christoffersen, P.F. (1998). Evaluating interval forecasts. International Economic Review, 39, 841-862. Diebold, F.X., Tay, A.S. and Wallis, K.F. (1999). Evaluating density forecasts of inflation: the Survey of Professional Forecasters. In Cointegration, Causality, and Forecasting: A Festschrift in Honour of Clive W.J. Granger (R.F. Engle and H. White, eds), pp.76-90. Oxford: Oxford University Press.

Page 97: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 94

Don, F.J.H. (2001). Forecasting in macroeconomics: a practitioner’s view. De Economist, 149, 155-175. Ericsson, N.R. (2002). Predictable uncertainty in economic forecasting. In A Companion to Economic Forecasting (M.P. Clements and D.F. Hendry, eds), pp.19-44. Oxford: Blackwell. Miller, L.H. (1956). Table of percentage points of Kolmogorov statistics. Journal of the American Statistical Association, 51, 111-121. Tay, A.S. and Wallis, K.F. (2000). Density forecasting: a survey. Journal of Forecasting, 19, 235-254. Reprinted in A Companion to Economic Forecasting (M.P. Clements and D.F. Hendry, eds), pp.45-68. Oxford: Blackwell, 2002. Thompson, P.A. and Miller, R.B. (1986). Sampling the future: a Bayesian approach to forecasting from univariate time series models. Journal of Business and Economic Statistics, 4, 427-436. Wallis, K.F. (1999). Asymmetric density forecasts of inflation and the Bank of England’s fan chart. National Institute Economic Review, No.167, 106-112. Wallis, K.F. (2003). Chi-squared tests of interval and density forecasts, and the Bank of England’s fan charts. International Journal of Forecasting, forthcoming.

Page 98: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 95

Arnold Zellner

ECONOMETRIC MODELS AND FORECASTING By

Arnold Zellner∗ University. of Chicago

The Editor, Antoni Espasa, has requested me to provide an overview of econometric models and forecasting (EMF)for the 100th anniversary issue. What I shall do in response to his request is (1) to summarize some features of the history of EMF and (2) provide my view of the current and future state of EMF.

[email protected] http://gsbwww.uchicago.edu/fac/arnold.zellner

Page 99: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 96

Arnold Zellner I. Overview of the History of EMF

While modeling and forecasting have a long history, most would agree that modern

econometric modeling had its origins in the 1920s in connection with regression models utilized in analyzing demand and supply problems. A central issue was whether to regress price on quantity or quantity on price and whether the resulting estimated equation was a demand or supply equation. The problem was how to handle instantaneous feedback or endogeneity of the price and quantity variables and the identification issue. While no solution to this methodological problem was available, agricultural economists and others built and utilized demand and supply models in analyzing a wide range of problems and in making forecasts of future outcomes using “ordinary” least squares methods that Jan Tinbergen also used in analyzing his structural multi-equation macroeconomic models of the Dutch, British, German and U.S. economies in the 1930s, since, as he mentioned to me, “That was the only method that I knew.” Trygve Haavelmos’s impressive 1944 monograph provided a formal mathematical structure for analyzing stochastic structural econometric models. Building on Haavelmo’s work, Lawrence Klein, at the Cowles Commission, U. of Chicago in the 1940’s formulated and fitted multi -equation macro econometric models of the U.S. economy, the equations of which he very cleverly derived using economic theory. In a later publication, he and Arthur Goldberger published a monograph in which they presented and estimated a 19 equation structural model of the U.S. economy using modern statistical techniques.

Early in the history of these models, Carl Christ, Milton Friedman and others inquired about the

forecasting performance of Tinbergen’s, Klein’s and others’ econometric models. In Christ’s work, he compared the forecasting performance of random walk models with that of some of the innovative structural econometric models and found that the structural models did not perform as well as random walk models in forecasting, a result that indicated, according to Christ, Friedman and others, that more work was necessary to improve the forecasting performance of these structural models. Also, Irma and Frank Adelman used simulation experiments to investigate the dynamic properties of the Klein-Goldberger 19 equation structural model and discovered some unusual features of the model in their innovative simulation study. Similarly in simulation experiments with the Federal Reserve-MIT-PENN macro econometric model containing 171 equations, Stephen Peck and I found that some of its reactions to changes in policy variables, e.g. the money supply were rather unusual. Thus, early in the history of econometric modeling, it was recognized that it is important to check models’ performance in forecasting and models’ properties for reasonableness in strenuous simulation experiments.

After the work mentioned above, many other structural econometric modeling projects have been undertaken but unfortunately, no fully satisfactory structural macro econometric model has appeared that explains the past well and forecasts accurately. Indeed, on recent visits to the Bank of England, the Federal Reserve Bank of New Zealand and the Atlanta Federal Reserve Bank, I learned that their research staffs have abandoned use of large scale structural macro econometric models. Similarly, the U.S. Federal Reserve authorities in Washington, D.C. decided to shut down the Federal Reserve-MIT-PENN model after years of lack luster performance in forecasting and explaining developments in the U.S. economy. In particular, there has been great difficulty in forecasting turning points in economic activity. Currently, there is a great need for a structural macro econometric model that performs well in explanation and prediction and is helpful in policy-making.

Given that macro econometric models’ performance left much to be desired, many turned to use statistical models, e.g. Box-Jenkins univariate ARIMA models or multivariate versions of these time series models, implemented by Robert Litterman, Christopher Sims and others under the name, vector autoregression models or VARs. In these models, each variable is related to lagged values of itself and of other variables in the model. For example, in Litterman’s model, he had seven “quarterly” variables, including consumption, price level, interest rate, etc. and used six lags on each variable. Thus each equation of his model had a dependent variable, e.g., c(t) and six lagged values of it, c(t-1), c(t-2),…,c(t-6), and six lagged values of each of the other six variables in the model. As a result, each equation contained one dependent variable, 42 lagged, highly correlated variables and an intercept term. With so many correlated input variables and parameters to estimate, the model’s

Page 100: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 97

forecasting performance was not very good. In an effort to improve the model, Litterman introduced a clever prior distribution for the parameters and called this enhanced model, a Bayesian vector autoregression (BVAR). While use of the Litterman prior distribution provided some improvement relative to the unrestricted VAR, Stephen McNees in his review article concluded that the forecasting performance of the BVAR and many other models is not satisfactory, a view shared by others. For example, after missing the 1990-1991 downturn, the Federal Reserve Bank of Minneapolis began work to improve its BVAR and other users of BVARs have mentioned similar experiences. Also, when Ray Fair presented a talk about his very impressive macro econometric model of the U.S. economy at a Chicago research workshop a few years ago, I asked him whether his model caught the 1990 downturn. He responded, “Damn it Arnold, you had to ask that question. My model missed it along with all the others.” See his 1994 book for a review of his model that he formulated in the Cowles Commission tradition.

Note that in a VAR or a BVAR, there are no interactions between or among the current endogenous variables, as in structural econometric models. See articles by Franz Palm and myself showing the relationship between multivariate time series models, e.g. VARs, etc. and structural econometric models. In these articles, it is shown that marginal processes for individual variables in a VAR are very high order ARMA processes, quite different from those identified by time series workers from the data using Box-Jenkins and other techniques. This has come to be known as the Autoregressive Paradox and probably indicates that the VAR models are over-parameterized.

Further, in recent years some have introduced “structural” VARs in which interactions between or among current endogenous variables are permitted. This indeed complicates the VAR model in many ways. That is, one has to decide how to “normalize” the coefficients of the current endogenous variables and estimation and forecasting techniques that take account of this structural dependence must be utilized, as recognized by structural econometric model builders many years ago. Further, the structural VAR model builders apparently have not recognized that some variables in their models, e.g. weather variables, etc., are probably “exogenously” determined. As Palm and I showed years ago, the assumption that some variables in the VAR are exogenously determined implies many zero restrictions on the parameters of an unrestricted VAR. Thus, it appears that the structural VAR’ers are headed in the direction of becoming old line, Cowles Commission, structural econometric modelers. Also, they and others have been experimenting with various types of time varying parameter models, Markov switching models, etc. in efforts to deal with structural changes or breaks that occur quite frequently. In a paper by Chung-ki Min and myself, we show how to compute posterior odds on fixed parameter versus time varying parameter models and use them to combine forecasts provided by alternative models. It was found that that use of model-combining, time varying parameters and, particularly, Stein shrinkage techniques led to improved forecasting results for rates of growth of 18 countries in forecasting experiments. Another emphasis that has appeared in the writings and works of Leontieff, Orcutt and others is data disaggregation in modeling. Leontieff’s input-output models and Orcutt’s structural system simulation models are examples of efforts to exploit the extra information in disaggregated data in order to improve models and their forecasts. Unfortunately, for a variety of reasons, these early attempts to disaggregate did not produce models that forecasted very well. However, later in work by Antonio Espasa and his colleagues, it was found that disaggregation of price indices into components, e.g. import prices, consumer prices, producer prices, etc., modeling and forecasting the price components and aggregating the forecasts to obtain a forecast of the total price index has led to improved forecasts. Theoretical work by Enrique de Alba and me indicates that there is often a gain in forecasting precision associated with disaggregation along the lines utilized by Espassa and his colleagues. See also, empirical work on forecasting the median output growth rate for 18 countries by Justin Tobias and me for additional empirical evidence that it often pays to disaggregate in terms of improving forecasting precision. An important current problem, discussed below, is how best to disaggregate in macro econometric modeling. II. My View of the Present and Future of EMF

As of the present, it appears that there is not a single structural macro econometric model that is (1) generally accepted as being a reasonable representation of an economy and (2) that performs satisfactorily in point and turning point forecasting. Researchers world wide are using

Page 101: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 98

special models for special problems and experimenting with various simplified macro econometric models of economies in their intensive efforts to find a model that works well in explanation and forecasting. For a recent, excellent account of such activities at the Bank of England, see the article, “Macroeconomic Models at the Bank of England,” by Paul Fisher and John Whitely.

A major challenge to researchers is how to produce a satisfactory macro econometric model. To help solve this problem, Franz Palm and I have suggested the Structural Econometric Modeling, Time Series Analysis (SEMTSA) approach. Briefly, this involves developing the components of models, usually transfer function models for individual variables and testing them in point and turning point forecasting experiments. Given that the components work well, we then combine them to provide a complete model using relevant economic theory, that is tested further in simulation experiments and forecasting.

On the issue of aggregation and disaggregation, it is important to disaggregate, as mentioned above. Since there are many ways to disaggregate and many will not lead to models that will forecast well, the key problem is how to disaggregate appropriately. A few years ago, it occurred to me that it may be worthwhile to disaggregate by industrial sectors, e.g. agriculture, mining, construction, retail, etc., and to use a traditional Marshallian model for each sector. This traditional Marshallian model includes (1) a demand relation for output, (2) a supply function for output and (3) an entry-exit relation for firms. Note that on aggregating over firms’ supply equations, the number of firms in operation appears in the sector supply equation and thus there is a need for a third equation representing entry and exit of firms, the fundamental mechanism for producing long run equilibrium in a Marshallian industry model. Almost all theoretical and empirical macroeconomic models do not include entry-exit relations. In some models, there is just a representative firm and one wonders what happens if this firm shuts down.

In recent work by Bin Chen and myself, the demand, supply and entry equations, mentioned above, have been solved for a transfer function equation for the rate of change of real sales for each of 11 sectors of the U.S. economy. These equations, that include lagged real sales variables and rates of growth of exogenous variables and also exhibit “chaotic” properties have been fitted using annual data for 11 sectors of the U.S. economy, 1952-1979, and used to forecast sector and total real GDP growth rates for 1980 and subsequent years to 1997 with estimates updated year by year. Comparing forecasts of aggregate real GDP growth rates derived from aggregate data with those derived from the forecasts of individual sectors’ real GDP, it was found that the latter forecasts were much better, further evidence that many times it pays to disaggregate.

Current work in progress by Guillermo Israilevich and myself involves adding equations for labor markets, capital markets, money markets, a government sector, etc., to complete the Marshallian Macroeconomic Model. Simulation experiments have been done to explore its properties and future forecasting experiments are planned. By building on and bringing together the extensive work already done on modeling sectors of the U.S. economy, it is hoped that a structural macro econometric model that works well in explanation, forecasting and policy analysis will emerge. Selected References Adelman, I. and F. Adelman (1959), The Dynamic Properties of the Klein-Goldberger Model, Econometrica 27, 569-625. Christ, C. (1951), A Test of an Econometric Model for the United States, 1921-1947 in Conference on Business Cycles, New York: National Bureau of Economic Research, 35-107, with discussion by M. Friedman. de Alba, E. and A. Zellner (1991), Aggregation, Disaggregation, Predictive Precision and Modeling, ms., H.G.B. Alexander Research Foundation, Graduate School of Business, U. of Chicago. Espasa, A. (1994), Comment, J. of Forecasting, 13, 234-235.

Page 102: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 99

___________ and M. Matea (1990), Underlying Inflation in the Spanish Economy: Estimation and Methodology, working paper, Bank of Spain. Fair, R. (1994), Testing Macroeconometric Models, Cambridge, MA: Harvard U. Press. Fisher, P. and J. Whitely (2000), Macroeconomic Models at the Bank of England, in Sean Holly and Martin Weale, eds., Econometric Modelling: Techniques and Applications, Cambridge: Cambridge U. Press, 158-187. Haavelmo, T. (1944), The Probability Approach in Econometrics, Econometrica, Vol. 12, Supplement, 118pp. Klein, L. (1950), Economic Fluctuations in the United States 1921-1941, New York: Wiley. ________ and A. Goldberger (1955), An Econometric Model of the United States 1929-1952, Amsterdam: North-Holland. Litterman, R. (1986), Forecasting with Bayesian Vector Autoregressions: Five Years of Experience, J. of Business and Economic Statistics, 4, 25-38. McNees, S. (1986), Forecasting Accuracy of Alternative Techniques: A Comparison of U.S. Macroeconomic Forecasts, J. of Business and Economic Statistics, 4, 5-23. Min, C. and A. Zellner (1993), Bayesian and non-Bayesian Methods for Combining Models and Forecasts with Applications to Forecasting International Growth Rates, J. of Econometrics, 56, 89-118, reprinted in Zellner, A. (1997), Bayesian Analysis in Econometrics and Statistics, Cheltenham, U.K.: Edward Elgar Publ. Ltd. Sims, C. (1980), Macroeconomics and Reality, Econometrica, 48, 1-48. Tinbergen, J. (1939), Statistical Testing of Business Cycle Theories, Geneva: League of Nations. Zellner, A. (1994), Time Series Analysis, Forecasting and Econometric Modeling: The Structural Econometric Modeling, Time Series Analysis (SEMTSA) Approach, J. of Forecasting 13, 215-233. Zellner, A, and B. Chen (2001), Bayesian Modeling of Economies and Data Requirements, Macroeconomic Dynamics, 5, 673-700. _________ and C. Min (1999), Forecasting Turning Points in Countries’ Growth Rates: A Response to Milton Friedman, J. of Econometrics, 40, 183-202. _________ and F. Palm (1974), Time Series Analysis and Simultaneous Equation Econometric Models, J. of Econometrics, 2, 117-54. ________ and _____, eds., (2002) The Structural Econometric Modeling, Time Series Analysis Approach, ms., to be published by Cambridge U. Press. ________ and S. Peck (1973), Simulation Experiments with a Quarterly Macro Econometric Model of the U.S. Economy, in Power, A. and R. Williams, eds., Econometric Studies of Macro and Monetary Relations, Amsterdam: North-Holland, 149-168, reprinted in Zellner, A. (1987), Basic Issues in Econometrics, Chicago: U. of Chicago Press. _______ and J. Tobias (2000), A Note on Aggregation, Disaggregation and Forecasting Performance, J. of Forecasting, 19, 457-469.

Page 103: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 100

VI. BUSINESS ECONOMY AND FORECASTING IN LARGE CORPORATIONS / LA ECONOMÍA DE LAS EMPRESAS Y PREDICCIÓN EN LAS GRANDES EMPRESAS

12. The Value of Business Forecasting at a Corporate Level in Non-Financial Companies: Consistency, Anticipation and Monitoring, Juan Carlos Delrieu.

13. La Economía de las Empresas, Vicente Salas.

Page 104: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 101

Juan Carlos Delrieu

THE VALUE OF BUSINESS FORECASTING IN NON-FINANCIAL COMPANIES: CONSISTENCY, ANTICIPATION AND MONITORING

Juan Carlos Delrieu

CEMEX’s Chief Economist Director

23.12.2002

Abstract The focus of this article is the forecasting function at a corporate level in multinational non-financial companies. In contrast with the forecasting function in public institutions, the private sector tends to be characterized by key ingredients such as business dilemmas, uncertainty, risks, the need to be in touch with the world economy and market events in “real-time”, and above all, competition. The corporate economist faces a real challenge in getting top management support, and should be prepared at all times to read the signs of the business environment and the economy to assess from a consistent conceptual framework, the best future macro- and microeconomic scenarios for the main value drivers of the firm with a clear understanding of the risks inherent in the extreme values and the contingency planning involved.

Page 105: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 102

Juan Carlos Delrieu 1. Introduction

Forecasting is an integral part of business management decision-making. An organization

establishes goals, seeks to predict environmental factors, and then selects actions that will hopefully result in the achievement of such objectives. For multinational companies or large-scale enterprises the need for forecasting is even more important given the high degree of uncertainty surrounding the current global economic environment. There are a set of uncontrollable external events related to the global and local economies, public policies, customers and competitors in which forecasting plays a special value. Because of the cost of forecasting, sales forecasts and customer orientation are the basic roles of the forecasting function in small and medium size companies. Large firms and multinational enterprises not only develop sales forecasts at a local business units level but also concentrate a great effort on defining the global and local economic trends, analyzing the impact of public policies and anticipating competitor’s reaction at a corporate level. In this article the focus will be on the forecasting function at a corporate level in multinational non-financial companies.

A distinction should be made between uncontrollable external events and controllable internal events (such as manufacturing decisions within the firm, operational costs or marketing). A company’s success depends on both types of events, but forecasting applies fundamentally to the former, while decision-making applies directly to the latter. Planning is the link that integrates them and budgeting processes is one of the most representative tasks, which imply to define a macroeconomic scenario with the purpose of encompassing sales projections, price levels and the cost of productive factors used in the production process in order to project a credible and mutually consistent free cash-flow estimations for the company.

Anyway, there are other important reasons to explain the need for creating a forecasting system in a company, despite the costs and expenditures involved. The first of such reasons is the increasing complexity of the global economic environment. Second, as industrial companies have grown larger and larger, organizations have moved toward more systematic decision making that involves explicit justification of individual actions, and formal forecasting is one way to substantiate such actions as decision makers have found it increasingly harder to consistently weight all the factors involved. Third, and perhaps most important, is the development of forecasting methods and knowledge concerning their applications so that practitioners and not only expert technicians may apply them directly.

In contrast with the forecasting function in public institutions, the private sector tends to be characterized by key ingredients such as dilemmas, uncertainty, risks, the necessity to be in touch with the world economy or market events in “real-time”, and specially competition, which define in most part of the decision-making process. Additionally, a firm must consider not only the assumption of continuity, which is the basic hypothesis of most quantitative methods of forecasting, but also the emergence of breakthrough events in order to be prepare for the future. In that general sense, forecasting is a function that obviously adds a significant business value to the enterprise not only as a means to anticipate the future but also as a form of analysis consistent with the economic environment surrounding results. Despite the important role the forecasting function plays, many companies are still reluctant to emphasize the relevance of an Economic Research Department and forecasting responsibilities. Consequently, the real challenge of the business forecasting function is to get the top management support.

This article is divided into two main subjects. First, some stylized facts that enable addressing some of the most important challenges that business forecasting faces in the real world. The second part consists of an analysis of the relationship among forecasting and the three most important areas of a typical Corporate Planning Office: Business Management which is related to the short and medium term forecasts; Business Development usually linked to the medium and long term forecasts and Strategy under a very long term perspective. Finally, there is a brief summary of the global economic trends and their association with the future of business forecasting.

Page 106: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 103

2. Describing a Reality As one of the most critical aspects of planning for many manufacturing companies, sales

forecasts provide inputs for production planning, inventory management, purchasing, capital budgeting, and resource allocation decisions. However, many companies, especially in Europe, still struggle to produce accurate sales forecasts. Although in recent years, the forecasting function has come a long way, top management support of this field is still moderate at best. The latest survey of the Institute of Business Forecasting (Jain, 2002) reveals that the top management of less than half of the US companies (46%) is highly supportive of this function, as Makidriakis et al (1983) stressed two decades. Moreover, only 2.5% of the manufacturing managers in the US report that they make regular use of simulation and other advanced quantitative techniques for forecasting (Sanders, 1997).

So, despite the advance in technology, software and theoretical methods, why shouldn’t forecasting deserve more attention from the business perspective? Research studies have cited a number of factors impacting companies’ ability to produce accurate sales projections: forecasting models, processes, and management support are the most important reasons to understand the limited use of business forecasting. For this reason, the rest of this section is divided into three parts: first, a benchmarking approach across different US industries, then the most important challenges that usually emerge in considering business forecasting, and finally some recommendations to increase the incentives in order to improve forecasting accuracy in manufacturing companies. 2.1 The status of business forecasting in manufacturing companies: A benchmarking approach

Most of the following results based on a recent survey of 618 large US manufacturing companies, that was just published by International Business of Forecasting (Jani, 2002), support, to some extent, the findings drawn from the results of a survey of 350 executives primarily responsible for forecasting at US manufacturing firms (Sanders, 1997).

The success of the forecasting function is highly dependent on the level of management support and on where forecasting resides. Most companies at least acknowledge the need for forecasting, though the degree of top management support varies. Among different industries, the upper management is most supportive in the Oil/Petroleum industry (100%) and less supportive in Industry Products (29%). At the same time, the survey shows that, on average, the largest percent of the companies place the forecasting function within the Operation/Production area (20%), followed by Marketing and Finance (14%). By and large, companies avoid placing this function in Strategic Planning (6%). However, only 10% of the companies have a separate and independent forecasting department.

The forecasting horizon is also crucial to evaluate the success of forecasting. On the whole, 18% of the companies put more emphasis on monthly forecasts than on long-term predictions. However, Oil/Petroleum, Gas/Electricity and Industrial Products are some industries with a special focus on the short-term view, although they normally use other tools for long-term projections (Strategic Thinking and Scenario Planning). Conversely, yearly forecasts are used in 34% of the companies, mostly in cyclical industries such as Consumer Products, Food/Beverages, Retail and Transportation or in industries in which the flow of information is not enough to have clear picture under a short-term perspective such as in Technology industries.

But probably, the most interesting issue is to have a benchmark in forecasting methods because they are the heart of forecasting. In the survey conducted by Janic (2002) there are basically three kinds of methods: Time Series, Cause and Effect or Econometric Models and Judgmental methods. Among all the three types of models, Time Series is the one used most often (61%), followed by Econometric Models (23%). The Time Series models are also the most popular in all the industries except Gas/Electricity where 63% of the companies in this field use Cause and Effect methods. Only in Computer/Technology are Judgmental models used more than quantitative techniques.

Among the Time Series models, the simplest methods are Averages and Simple Trends, which are the ones used most often (30%). Conversely, the Box-Jenkins methodology is not only the most

Page 107: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 104

difficult but also the least used (7%). However, Oil/Petroleum and Transportation are industries that use the Box-Jenkins approach (or ARIMA models) far above the average.

Within the Cause and Effect category, the Regression models, as the simplest technique, is widely used in most of the industries. However, Transportation, Gas/Electricity and Oil/Petroleum are the three large users of more comprehensive and sophisticated Econometric models. Obviously, the percentage of forecasters with a background of Statistics/Math is the highest in these industries.

According to these surveys, utilities companies have the most sophisticated models and specialists, with greater emphasis on the short-term perspective, and very high support from the top management. However, these specialists do not rank very high in the organizational hierarchy: normally, there is no VP position for forecasters or chief economists in this kind of companies. On the contrary, in cyclical companies with a greater focus on the medium-term perspective and simpler quantitative methods of analysis and forecasting, the forecasting teams have access to very high organizational positions. One possible explanation for this apparent paradox is that large companies require more flexible specialists responsible not only for forecasting but also for other areas related with the global business environment, such as economic analysis, macroeconomics, industrial organization, political context, lobbying, and communication skills, among others requirements. 2.2 The Occasion for Inquiry

Certainly, the more complex a forecasting technique is, the less frequently it is used, which could be one of the reasons why the full potential of forecasting in most of the firms had not been realized. However, there are other problems that could influence forecasting accuracy. They can be separated into two groups: the first is related with the forecasting process itself, and the second focuses on the organizational structure.

The most important challenge in forecasting processes is the fact that forecasting often has little impact on decision making. This may be caused by at least two reasons: - A lack of relevance of the forecasts: forecasters tend to concentrate on well-behaved situations

that can be forecast with standard methods, and ignore the more dynamic change situations that usually tend to be the most interesting for decision-makers.

- An interpersonal challenge: those who prepare the forecasts and those who use them fail to communicate effectively.

The most obvious solutions to these difficulties would be using improved methods, training, or

hiring experts. However, when forecasting ability is slightly improved, other managerial problems of implementation surface to prevent the full realization of the forecasting promise. In many situations, there is an incentive for the forecast to represent personal, political or self-serving organizational goals. This incentive could be systematic, such as a reward system or some evident manipulation by those in control of forecasting. Whatever the cause, forecasting is often caught up in the middle of organizational conflicts of interest and emerges biased in its representation of future outcomes, considerably decreasing its accuracy. Other reasons could be associated with an emerging sense of frustration given the lack of a clear career within the company and consequently an increasing turnover among forecasters.

2.3 Meeting the Challenge: Correcting Business Forecasting Problems Besides improving methods and increasing expertise, another way to get better forecasting

accuracy is to develop check and balances within the organization. This redundancy in forecasting can contribute to eliminate bias and mistakes in forecasts. Using a composite forecasting method (including other quantitative outcomes and some qualitative assessments) or even reconciliatory top-down and bottom-up forecasting processes may serve as a basis for gaining commitment from decision makers: getting top management backing would be easier if the forecaster has the support of the various departments such as production, sales, marketing and finance.

At the same time, defining the forecaster’s job and the forecasting function to improve forecasting are just as important as getting top management support. The company needs to create the right incentives to avoid the sense of frustration among forecasters to sustain the forecasting function with very high forecasting accuracy.

Page 108: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 105

Above all, there are other qualitative suggestions that experience has shown to be crucial in

order to be accurate as a forecaster (and also as an economist at a corporate level (Small, 1999)): - Networking. It is the best way to qualify quantitative projections and to have the most insightful

information. Periodically visiting the countries or markets included in the forecast, maintaining a close relationship with other areas in the company such as sales or production departments and attending international conferences to extend the internal and external networking are crucial forecasting elements.

- Information . Building a uniquely relevant resource of information in the Company in order to be the best informed about the economic situation with the best economic and statistical information.

- Insight. Developing the experience and familiarity with the business being focused. Understanding top management needs and concerns beyond the forecaster’s area of responsibility.

- Communication. Translating the value of forecasting into meaningful conclusions for executives who are running the company. Providing graphical and statistical representations of forecasts that highlight key implications helps forecast developers and users to understand projections quickly an clearly.

3. The Role of Business Forecasting

The role of forecasting at a Corporate level in multinational manufacturing companies is usually managed in the Economic Research Department, basically because getting good business forecasts could turn out as an almost an impossible job without a reasonable assessment of the global economic context. In that sense, forecasting is just one level of responsibility (probably the most important) within the economic department. In particular, the corporate economist should be prepared to read the signs of the business environment and the economy to assess from a consistent conceptual framework, the best future macro- and microeconomic scenarios for the main value drivers of the firm with a clear understanding of the risks inherent in the extreme values and the contingency planning involved.

Turning into a more operational mode, an ideal corporate economic department, should be prepared to address a twofold function (see figure 1): on the one hand, it must be able to forecast, accurately and within the boundaries of a probability distribution, the most plausible trends and cycles for the key value drivers for budgeting and development purposes. On the other hand, and under a microeconomic perspective, those forecasts should be combined with a strong arm in applied research, strong enough to support the economic components of the Corporate Strategy with scientific proof. In the same vein, an Economic Department at a corporate level should support the Planning process by constructing strategic scenarios and what-if type analyses. But at the same time, it should be able to take the role of a lobbyist, taking part in the teams that make the necessary connections with all the stakeholders.

Consequently, forecasting is just one function of an Economic Studies department. Particularly, focusing only on the role of forecasting, two different dimensions of forecasting techniques used in can be found: the horizon range of forecasting and the degree of uncertainty and number of discontinuities considered to analyze how the forecasting techniques should be used in multinational companies (see figure 2). However, it is much more interesting to develop the role of forecasting according with those corporate areas needing business forecasting: Business Management (sales/budgeting), Business Development (M&A processes) and Strategy, which usually conform the typical structure of a Corporate Strategic Planning Office.

3.1 The relationship between Forecasting and Business Management The most important task in Business Management is preparing the company’s consolidated

annual budget. The Budget itself is a future-oriented concept, which becomes increasingly relevant in the private sector because the company may be either rewarded or penalized according to the projected cash flow in the financial markets through out the year. The process is so important that every company defines a macroeconomic scenario, one way or another, which will later encompass sales projections, price levels and the cost of productive factors used in the production process. This

Page 109: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 106

process usually focuses on the short and medium-term perspective as the company’s real need is to project a credible free cash-flow estimation on an annual basis.

Forecasting has an important role in this cycle. Two factors are particularly critical: market size and market share, since they determine such things as capacity requirements, distribution and logistics methods. In multinational companies, exchange rate forecasts are also essential to consolidate those flows exposed to variations in foreign exchange rates.

The process usually starts by defining the global economic environment (near-term economic and geopolitical situation) in order to evaluate international trade growth, oil prices and the main trends in financial variables such as interest rates and exchange rates. Under these global assumptions plus other domestic considerations mainly related to the political context, it is feasible to build an econometric model and then find the relationship between this scenario and the variables of interest for the company: sales, market share and exchange rates. Once the forecaster has closed the initial stage of the forecasting process, the information gathered in the course of personal “missions” to the country or market, customer intelligence from the sales force and the opinion of external advisors should be used to qualify the set of quantitative projections (Alvarez et al, 1996). At other times a composite forecasting method that combines different quantitative projections plus the judgmental opinion is also convenient. Only under this framework will a forecasting and the environment around it be mutually consistent.

Anyway, this process it is not enough because two other different and supplementary approaches can be undertaken based on quantitative tools. Under a very short-term perspective, economic analysis provides the best approach to monitoring how fast external conditions change. That’s why it is very useful to analyze forecast errors, as proposed by Espasa (1992). When these forecasting errors, that normally come from single-variable ARIMA models (Box-Jenkins methodology) or from leading indicator models on a monthly basis, show a persistent sequence of negative or positive signs, it is the best indication of an eventual change of the trend or an inflexion point. To alert to the top-management and Corporate Planning Office about this situation could have an important value for the company, especially if it happens before competitors have noticed.

The other element of interest is macroeconomic risk management, in the sense of identifying and controlling variations and foreseeable uncertainty. It is highly convenient to develop a consensus outlook for the global economic context, keeping a close watch on a handful of key variables that affect portfolio and establishing signposts for critical events and potential worst-case scenarios. Each identified risk would be assigned a probability, and then methods such as scenario evaluations, simulations throughout quantitative models or decision trees would be used to estimate potential impact and prioritize risks. Building and monitoring an economic risk index or evaluating the probability of a violent exchange rate variation are some interesting examples of this approach. 3.2 The relationship between Forecasting and Business Development

The role of the economic analysis team becomes particularly relevant when it comes to strategic business development projects, -which in turn, feed the mergers and acquisitions unit-, as of two main dimensions: attractiveness analysis and long term macroeconomic and industry forecasts.

In terms of the long term dimension, a coherent and comprehensive set of scenarios for the main variables of an economy (GDP, prices, volumes, and real exchange rates) becomes the backbone of a proposed business purchase, without which it would be impossible to justify a growth target and the present value of the supposed synergies. The relationship between political cycles and macroeconomics (Alesina et al, 1999) usually is a necessary reference to enclose the long-term uncertainty.

Attractiveness analysis, on the other hand, is a prior step of sorts, when viewed as a process in the economics team’s effort to support the M&A Unit’s strategy, in terms to assess the opportunity and risk of each geographic market and develop a priority country ranking for possible future expansion. This framework permit us to answer, at least partially, what would be the perceived outcome for the firm (both as a ongoing concern and as a portfolio of assets) in terms of risk, return, value and cash flows, in the event of the purchase or merger proceeding, in any combination of

Page 110: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 107

possibilities and taking into account the hedging nature of the asynchronous cycle of those potential assets. Qualitative analysis, prediction tools and simulation exercises are some key ingredients need to evaluate the attractiveness of an investment project. 3.3 The relationship between Forecasting and Long-Term Strategy: Shaping the Future

When the degree of uncertainty is great enough to be addressed by quantitative models, business economists must be prepared for shaping the future using other kinds of tools. Forecasting extrapolates from the past, imposing the historical patterns onto the future and tends to neglect discontinuities. To some extent, non-linear models are able to capture some degree of discontinuities but forecasting does not usually attempt to address this issue. Scenarios, in contrast, identify unforeseen events as a central way to look beyond our limited mindset and tools (Davis, 2002). The challenge of creating scenarios is to understand not only what can be forecasted, but also the future critical uncertainties that must be taken into account. Scenarios tend to address matters of corporate vulnerability and strategic positioning rather than operating concerns. The final purpose is to help users prepare for the future by making strategic choices. It does not require being absolutely right, but being less surprised than those who are doing nothing. Especially in business, it means to have policies that are better adapted to the emerging business environment than are those of our competitors (Ringlan et al, 1998).

This tool is frequently used in Energy and Resources industries because it is quite normal to be dealing with projects that have very long lead times. However, in other industries, like Technology companies, the time horizon is shorter but with a greater risk environment. In fact, Scenario Planning is connected to another important area: risk assessment (Schwartz, 2002). However, in developing strategy, identifying single-risk factors is of less interest than defining the specific multiple elements of the business environment that can be used in order to gain a stronger foothold. Whether time horizons are long or short, scenarios attempt to go beyond immediate perceptions in identifying the large-scale risks. In short, Scenarios allow a better understanding of corporate vulnerability and the possibilities for new strategic positioning. Building Scenarios: a set of basic rules

1. Construct scenarios for an organization based on a clear overall focus or theme. 2. Identify and analyze driving forces that will shape the environment. Some matters may be

subject to forecasting, such as demography, whereas other forces are essentially unknown. 3. Establish a set of plausible structured storylines, identifying the relevant interconnections and

defining the scenario framework, including discontinuities. 4. Develop the relevant plots and stories, including their dynamics. 5. Quantify the scenarios, as needed. The scenarios are then usable as new frames of

references. 6. Finally, communicate the scenarios. At the end, the strength of this approach is the power of

tale or narrative for organizational success in the resolution of dilemmas (Allan et al, 2002). 4. Conclusions: The Future of Forecasting

This article has addressed the role of economic and business forecasting at a corporate level in a company large enough to absorb this function’s cost. The first emerging idea is that forecasting should be made by an Economic Research Department, simply because it is very difficult to determine the future, even a microeconomic level, without defining the trends and economic context the company may be forced to face. However, the support of other areas of the company is a crucial element of the forecasting process.

Cyclical industries with a degree of uncertainty that is relatively lower than that of other industries give more credence to the forecasting function itself than other activities (competitor’s analysis, lobbying, …), although if a proper balance among them is achieved, it would be easier to have access to executive positions. Utilities companies, on the other hand, prefer to specialize in highly advanced forecasting techniques and on Institutional Relations in order to anticipate and solve problems in the short term, while developing Scenario Planning techniques to reduce the uncertainty of the long term. Nevertheless, the fact remains that, as a whole, business forecasting still

Page 111: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 108

lacks top management support in spite of its value not only as a means to foresee the future but also as a form of analysis consistent with the economic environment.

However, more recently is emerging an interesting paradox around the forecasting topic: while there is an increasingly complex economic and social environment, forecasting tends to be a “commodity” due to the increased of technology. Internet access to the most important economic reports diminishes the standard deviation of different sets of macroeconomic forecasts. For that reason, the future of forecasting should shift from punctual figures to the services surrounding the figure itself, such as risk management, effective monitoring, consistency of the complete set of outcomes; in that reality, Scenario Planning should play in the near future a central role in business forecasting.

Turning into a the current economic reality, at this precise moment there is an apparent “worldwide” consensus about the US GDP growth around 3% for 2003 and something similar could be established for other regions and countries: the European Union will grow about 2.2% and Spain, for instance, will grow around 2.5%. In that context, emerging inflationary pressures won’t be a cause of concern next year. However, this apparent consensus hides other important considerations, which likely are not part of this “worldwide” consensus but they are much more interesting to consider.

Beyond the forecasting consensus about the GDP growth or inflation variables, the global economy scenario that started to take shape in the second half of 2002 is laden with a set of conditioning factors, most of which imply a considerable downside risk in terms of economic growth. This atmosphere of uncertainty, lack of confidence and a strong risk aversion has taken its toll on international capital flow and consequently on the globalization process. The current situation of global paralysis in the industrialized world has severe implications in terms of economic policies and political and social trends: from a stronger emphasis on control and regulation, and an increase in public spending, to an evident halt in the globalizing process. The rules that were valid as a recent past guidance are not appropriate any more to define the new international context, specially in terms of its economic and financial aspects as well as, and above all, political and security issues. In that sense, the following factors should be taking into account in any macroeconomic scenario: the economic paralysis worldwide, the national security measures, the greater emphasis on sustainable economic development (not only because of a greater concern for the environment but also in order to reduce the social inequality as a fundamental means to reduce security risks), the rise of protectionism of nationalist values and the greater concern for the social responsibility of companies and Governments. These factors make up a scenario in which, unlike that of the late 1990s, a strong public sector presence starts to emerge in most of the economic initiatives being posed worldwide. The question is whether this new period of greater interventionism, in the form of regulation, tariffs, exchange rate management or increased public spending, could lead to socially efficient results. Today, forecasts a particular set of figures is not enough. The real value of the forecasting function at a corporate level is to define all these emerging trends in order to formulate a particular set of forecasts for the key value drivers for budgeting, development or strategic purposes. References Alvarez, L.J., J.C. Delrieu and J. Jareño (1997): "Restricted Forecasts and Economic Target Monitoring: An Application to the Spanish Consumer Price Index", Journal of Policy Modeling. Allan, J., G. Fairtlough and B. Heinzen (2002): The Power of the Tale: Using Narratives for Organizational Success, John Wiley and Sons, March. Alessina, A., N. Roubini and G. Cohen (1999): Political Cycles and Macroeconomy, The MIT Press, Cambridge, Massachussetts. Davis, G. (2002): “Scenarios as a Tool for the 21st Century”, Shell International Limited, Probing the Future Conference, Strathclyde University, July. Espasa, A., R. Cancelo, Editores (1993): Métodos Cuantitativos para el Análisis de la Coyuntura Económica, Alianza Economía.

Page 112: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 109

Jain, Chaman L. (2002): “Benchmark the Forecasting Processes and Methods”, The Journal of Business Forecasting, Fall. Makidriakis, S., S. Wheelwright and V. McGee (1983): Forecasting Methods and Applications, John Wiley and Sons, Inc. Ringlan, G., K. Todd and P. Schwartz (1998): Scenario Planning: Managing for the Future, John Wiley and Sons, Inc. Sanders, N.R. (1997): “The Status of Forecasting in Manufacturing Firms”, Production and Inventory Management Journal, April. Small, L. M. (1999): “Five ‘I’ for Business Economists”, National Association for Business Economics, January. Schwartz, P. (2002): “The Official Future, Self Delusion, and the Value of Scenarios”, The Financial Times, May, 2.

Page 113: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 110

Figure 1

Figure 2

Forecasting Techniques at Corporate Level in Large Companies

Degree of Uncertainty and Discontinuities

Low Medium High

Short Sales force Opinion +

Technical Analysis Econometric Models Non-Linear Models

Medium Time Series (Box-Jenkins) Models

Econometric Models + Qualitative Information +

Risk Management

Judgmental Analysis (including Political Analysis)

Horizon

Range

Long Consensus Forecasts Simulation Scenario Planning (Risk Assessment)

Economic Studies at a Corporate Level

Research Forecasting

BusinessEnvironment

Industrial OrganizationGame Theory

Time SeriesEconometrics

Scenario Planning

Institutional RelationsLobbying Strategy

M&A BudgetingTopMgmt.

Sales,…

Corporate PlanningCorporate DiplomacyBusiness

UnitsMedium and Long TermLong Term Short Term

Function

Tools

Users

Horizon

MICROECONOMICS MACROECONOMICSContext

Economic and Financial Risk Management

Economic Studies at a Corporate Level

Research Forecasting

BusinessEnvironment

Industrial OrganizationGame Theory

Time SeriesEconometrics

Scenario Planning

Institutional RelationsLobbying Strategy

M&A BudgetingTopMgmt.

Sales,…

Corporate PlanningCorporate DiplomacyBusiness

UnitsMedium and Long TermLong Term Short Term

Function

Tools

Users

Horizon

MICROECONOMICS MACROECONOMICSContext

Economic and Financial Risk Management

Page 114: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 111

Vicente Salas Fumás

LA ECONOMÍA DE LAS EMPRESAS

Vicente Salas Fumás

Page 115: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 112

Vicente Salas Fumás

La Economía de las Empresas

Vicente Salas Fumás

El estudio de la economía española se ha enriquecido en los últimos años con los resultados del análisis de la información obtenida a partir de encuestas empresariales. Una de estas bases de datos microeconómicos, con una historia de dos décadas, es la Central de Balances del Banco de España (CB), que además de la explotación de los datos individuales por los investigadores es el soporte de los informes anual y trimestral sobre empresas no financieras que publica regularmente el Banco de España.

El informe anual se elabora a partir de datos referidos a una muestra de empresas que representa la tercera parte del valor añadido bruto industrial, mientras que la CB trimestral tiene menos representatividad pero contiene información más actualizada (la última cubre el período enero-septiembre 2002). Comparando la composición de la muestra de empresas que colabora con la Central con el conjunto de empresas españolas se advierte un sesgo relativo hacia las empresas de tamaño medio y grande, lo cual significa que en la CB las empresas las empresas nuevas y pequeñas están poco representadas. El origen contable de la información de base explica que la información sobre actividad, costes y rentabilidad de las empresas llegue con un notable retraso (sobre todo en el caso del informe anual). Por otra parte, la valoración a precios de adquisición de los activos crea problemas de homogeneidad cuando se elaboran indicadores de resultados económicos referidos a diferentes periodos de tiempo y con cambios significativos en los precios de los activos. Desde hace algún tiempo la CB publica cifras de rentabilidad ordinaria de los activos que combina beneficios de las operaciones regulares en el numerador y activos a precios corrientes (resultado de corregir los precios históricos) en el denominador, subsanándose una parte importante de estos problemas. La información económico financiera contenida en la CB es muy completa y se presenta después de un cuidadoso trabajo de depuración. La cuenta de resultados de las empresas y el estado de origen y aplicación de fondos permiten conocer flujos de ingresos, costes, inversión y variaciones de los fondos financieros de las empresas. El alance de situación permite conocer los saldos de activos y pasivos al final de cada ejercicio importantes para el cálculo de la rentabilidad y la estructura financiera. La información sobre activos y pasivos es la principal ventaja de las bases de datos empresariales, además de poder conocer la información desagregada por empresa, en comparación con los datos agregados sobre la economía española que publica la Contabilidad Nacional.

La exposición posterior presenta una breve valoración de los resultados económicos de las empresas españolas que colaboran con la CB entre 1992 y 2002, primero referido al conjunto de todas las empresas y después referido a las empresas del sector industrial excluidas les empresas de la energía. La reaparición con cierta intensidad del debate sobre el futuro del sector de las manufacturas en España y en Europa justifica la atención particular a la situación de estas empresas.

Las empresas no financieras

En términos de actividad (producción y empleo) las empresas que colaboran con la CB han pasado por tres etapas diferenciadas en los últimos diez años hasta llegar a la situación actual, la crisis profunda de los años 1992 y 1993 con crecimientos negativos en el valor añadido y el empleo, la moderada recuperación de los años centrales de la década después de las fuertes depreciaciones de la peseta y en la que se recupera la producción pero no el empleo, y la fase expansiva desde 1997 hasta el año 2000 donde se produce crecimiento de la producción y del empleo al mismo tiempo; Cuadro l. Los datos disponibles para los primeros años del nuevo milenio muestran una situación donde las empresas mantienen o incluso crean empleo, a pesar de los crecimientos negativos en el valor añadido bruto, que no tiene precedentes en la historia de la CB.

Page 116: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 113

a) CB trimestral, enero-septiembre. b) Promedio de tasas de variación anuales empresas comunes. c) Diferencia de los dos anteriores.

Solo en los años siguientes a la crisis de comienzos de la década las empresas aumentan la productividad aparente del trabajo, coincidiendo con un período en que crece la producción y se siguen ajustando plantillas a la baja. En el resto del período el valor añadido real crece menos que el empleo, siendo la diferencia importante sobre todo en los dos últimos años. Si se analiza la evolución de la productividad aparente del capital, no recogida en el cuadro, el paralelismo con la evolución de la productividad del trabajo es muy marcado aunque la magnitud absoluta de las tasas de variación es mayor (-7% en 1992-93, 6,3% en 1994-97 –5% en 1997-00). Nótese que en primer periodo se produce un incremento en la intensidad de capital por trabajador, mientras que en el resto del periodo el activo de explotación por trabajador permanece relativamente estable; la evolución en los precios relativos de los factores capital y trabajo explica en parte esta evolución. En cualquier caso, las empresas que colaboran con la CB muestran unos resultados de estancamiento en la productividad similares a los que se observan con los agregados macroeconómicos.

Una diferencia importante con respecto a épocas precedentes es que después de la última crisis de comienzos de los noventa los sueldos y salarios por trabajador han crecido por debajo de lo que crece el deflactor del PIB, el índice de precios al que se valora la producción de las empresas.

Cuadro l.- Datos Básicos Empresas Españolas (%)

1992-93 1994-96 1997-2000 2001 2002a)

Actividad

Valor Añadido Bruto b) 1,8 6,2 6,5 3,9 3,0

Deflactor del PIB 5,6 4,1 2,7 4,2 4,0

Valor Añadido Bruto Real b) -3,8 2,1 3,8 -0,3 -0,1

Empleo b) -3,7 0,0 4,0 2,4 0,2

Productividad y Costes

Productividad Trabajo b) -0,1 2,1 -0,2 -2,7 -1,2

Salario Real por Trabajador b) 0,7 -0,6 -0,7 -1,0 -0,4

Costes Laborales Unitarios c) 0,6 -2,7 -0,5 1,7 0,8

Rentabilidad y Coste Deuda

Rentabilidad Ordinaria 5,8 7,2 7,8 7,6 8,5

Coste Medio Deuda 11,3 8,7 5,7 5,0 4,6

Coste Medio Real 5,7 4,6 3,0 0,8 0,6

Page 117: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 114

Esto significa que el coste real del trabajo disminuye durante los últimos diez años, con lo cual el estancamiento en la productividad ha sido compatible con una disminución en los costes laborales por unidad de producto (CLU), que es un indicador clave de la competitividad de las empresas. La situación parece cambiar a partir del año 2001 cuando el CLU vuelve a crecer porque el descenso en la productividad es superior al descenso en el salario real. De consolidarse esta situación estaríamos ante una clara señal de alerta sobre la competitividad futura de las empresas españolas, pues el descenso en los márgenes brutos ha sido el antecedente de pérdidas inmediatas de rentabilidad y disminuciones de la inversión y el empleo.

La rentabilidad ordinaria del activo evoluciona en el tiempo en el sentido opuesto a como varían los CLU pues cuando el CLU aumenta (disminuye) se produce un descenso (aumento) en el margen bruto de explotación que repercute en los beneficios por euro invertido si la relación activo por trabajador permanece relativamente estable, como ocurre en los últimos años. La rentabilidad supera el ocho por ciento en algunos años al final de la década, cuando en la crisis de principios de los noventa se situaba alrededor del 5 por ciento. Sin embargo el comienzo del nuevo milenio muestra un cambio de tendencia acorde con el aumento en los costes laborales unitarios.

La rentabilidad de los activos no es un indicador de beneficio económico porque no tiene en cuenta el coste del capital invertido. Este coste incluye el coste de la deuda y el coste de los fondos propios ponderados por la proporción relativa de cada una de las fuentes de financiación. Si la prima por el diferencial de riesgo económico y financiero que soporta el coste de los fondos propios por encima del coste de la deuda permanece relativamente estable, la evolución del coste de los recursos ajenos será un indicador válido para conocer la evolución del coste del capital.

El coste medio de la deuda se calcula como el cociente entre los gastos financieros y la deuda con coste de las empresas de la muestra. Como la rentabilidad es una tasa real porque los activos (denominador) se valoran a precios corrientes, la comparación entre rentabilidad y coste de la deuda debe hacerse con una medida de coste de la deuda también real. Para calcularlo se sustrae del coste medio nominal la tasa de variación del deflactor del PIB, como indicador de la tasa de variación del precio.

Durante la década de los noventa el coste de la financiación ajena de las empresas disminuye tanto en términos nominales como reales. El tipo medio nominal se ha consolidado en los últimos años alrededor del 5 por ciento lo que significa, de haberse cumplido el objetivo de inflación del 2 por ciento, un coste real del 3 por ciento. La incorporación a la zona euro ha supuesto un descenso en el coste real de la financiación de las empresas españolas de alrededor de 2 puntos porcentuales (desde el 5 por ciento al 3 por ciento). Teniendo en cuenta que España no cumple el objetivo de inflación y los precios crecen el doble de lo previsto el coste real de financiación ajena se sitúa por debajo del 1 por ciento, cifra sin precedentes inmediatos.

Con un coste real de la deuda del 3 por ciento, la rentabilidad antes de impuestos del 7,6 por ciento del año 2001 compensa en dos puntos porcentuales el riesgo diferencial de la financiación con fondos propios, si tenemos en cuenta un tipo impositivo nominal del 35 por ciento sobre los beneficios. Esto significa que con los actuales niveles de rentabilidad las empresas estarían cubriendo el coste de oportunidad del capital y por tanto alcanzando unos beneficios económicos nulos. Si continua la alta tasa de inflación el coste real será menor y las empresas podrán conseguir beneficios económicos positivos con las actuales tasas de rentabilidad. Sin embargo, si se detiene la creación de empleo y no aumentan los salarios reales la inflación frenará el consumo, lo cual perjudicará a la rentabilidad debido a que disminuirá la utilización de la capacidad productiva. Por otra parte un aumento en los tipos de interés en el supuesto de una recuperación económica se trasladaría a un mayor coste del capital y a unos menores beneficios económicos de las empresas.

Desde la crisis de comienzos de los noventa hasta la actualidad, las empresas españolas mejoran sus beneficios contables y económicos gracias al descenso regular en los costes reales de los recursos primarios, trabajo y capital, favorecido a su vez por el diferencial entre la tasa de variación en el nivel de precios de la economía española y el objetivo de inflación en la zona euro. Estas bases de competitividad son muy vulnerables, podrían haber colocado a las empresas en una situación actual de beneficio económico nulo y tienen el efecto secundario de retrasar las inversiones en activos tangibles e intangibles necesarias para mejorar la productividad, la asignatura todavía pendiente entre las empresas españolas.

Page 118: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 115

El sector de las manufacturas

La ampliación de la Unión Europea incorporando a los países del Este de Europa, y algunos ejemplos adelantados (caso de Seat por ejemplo) de lo que se teme podría ser una deslocalización de actividad industrial desde España hacia esos países, han devuelto a la actualidad el debate sobre el futuro industrial de la economía española.

Este debate coincide con la publicación desde la Dirección de Empresas de la Comunidad Europea de varios informes sobre la situación general del sector manufacturero en el conjunto de la Unión y las amenazas que se ciernen sobre el mismo habida cuenta el desfase en la acumulación de capital humano y tecnológico dentro del conjunto de países comunitarios, en comparación con las inversiones en estos activos por parte de otras potencias económicas como Japón y Estados Unidos. Como ha ocurrido en otros momentos de crisis económica, el debate y la reflexión sobre la importancia que debe tener el sector manufacturero en las economías más avanzadas donde los servicios siguen ganando peso relativo, vuelve al primer plano de la actualidad. La comparación de los resultados económicos de las empresas industriales no energéticas colaboradoras de la Central de Balances con los referidos al conjunto de empresas no financieros, aporta algunos datos de interés a este debate.

La manufactura española muestra unos mayores niveles de volatilidad en sus ritmos de crecimiento de la actividad productiva y el empleo que el conjunto de las empresas no financieras; Cuadro 2. Durante la crisis de principios de los noventa el valor añadido bruto real muestra tasas de crecimiento negativas cercanas al nuevo por ciento, pero el crecimiento se recupera hasta el final de la década con tasas reales entre el 4 y el 6 por ciento superiores a las del conjunto de empresas no financieras. En el año 2001 vuelve un crecimiento real negativo aunque la CB trimestral del año 2001 apunta signos de una nueva recuperación. Durante la década 1992-2001 el crecimiento del output real es mayor en el sector manufacturero que en el conjunto de empresas no financieras, si bien con una volatilidad en las tasas también mayor. Por otra parte y a lo largo de los mismos años, los datos de las empresas que colaboran con la CB anual muestran una pérdida neta de empleo en la manufactura y una creación neta de empleo en el conjunto de empresas no financieras.

Page 119: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 116

Cuadro 2.- Datos Básicos Empresas Manufactureras (%)

1992-93 1994-96 1997-2000 2001 2002a)

Actividad

Valor Añadido Brutob) -3,0 9,3 6,1 -1 3,3

Precios Industriales no

Energéticos b)

5,7 3,5 1,7 2,6 2,5

Valor Añadido Bruto Real b) -8,7 5,8 4,4 -3,6 1,8

Empleo b) -5,2 -1,7 1,9 -1,6 -1,8

Productividad y Costes

Productividad Trabajo b) -3,5 7,5 2,5 -2,0 3,6

Salario Real por Trabajador b) 1,4 1,3 1,4 2,3 1,5

Costes Laborales Unitarios c) 4,9 -6,2 -1,1 4,3 2,1

Rentabilidad

Rentabilidad Ordinaria 2,7 8,8 10,5 8,9 9,0

Coste Medio Deuda 12,4 9,3 6,1 5,3 4,7

Coste Medio Deuda Real 6,7 5,8 4,4 2,7 2,2

d) CB trimestral, enero-septiembre. e) Promedio de tasas de variación anuales empresas comunes. f) Diferencia de los dos anteriores.

Aunque al principio y al final de la década la productividad aparente del trabajo crece a tasas negativas, las altas tasas de crecimiento de la productividad durante los años centrales (sobre todo después de la crisis cuando se sigue destruyendo empleo mientras crece el output real) compensa esos valores negativos y el sector cierra el período con ganancias netas de productividad.

A diferencia de lo que ocurre en el conjunto de empresas no financieras, las empresas manufactureras que colaboran con la CB experimentan un crecimiento en los sueldos y salarios por trabajador por encima del crecimiento en el precio al que se valora su producción (medido a través del índice de precios de los bienes industriales no energéticos). Los bienes de la manufactura son bienes comercializables y sus precios se fijan en general por las condiciones de competencia en los mercados supranacionales. Esto explicaría que el índice de precios de los bienes industriales no energéticos crezca por debajo del deflactor del PIB, índice de referencia al que se valora el output de todas las empresas no financieras. Es de esperar que la negociación colectiva presione para que

Page 120: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 117

sueldos y salarios se actualicen según los índices generales de precios que determinan el poder adquisitivo de los trabajadores, sin olvidar que la presencia sindical es en general mas intensa en la industria manufacturera que en otros sectores de actividad. Cuando estos precios crecen más que los precios de los bienes manufacturados, como ocurre en España desde 1994 hasta el 2002, las empresas manufactureras soportan un incremento permanente en el coste real de los trabajadores empleados.

Dado el comportamiento del coste laboral real por trabajador el coste laboral unitario (CLU) en el sector manufacturero solo disminuye cuando el crecimiento de la productividad aparente del trabajo es suficiente para compensar el incremento en el coste laboral. Entre 1994 y 2000 las empresas manufactureras consiguen reducir sus costes laborales por unidad de producto por encima de lo que los reducen el conjunto de empresas no financieras debido a los altos crecimientos en la productividad después de las drásticas reducciones de empleo. Sin embargo en el año 2001 el CLU de la manufactura vuelve a subir y lo hace de forma significativa y preocupante para la competitividad del sector si el crecimiento persiste en el futuro (la CB trimestral sugiere que en 2002 la tendencia podría haberse cambiado de nuevo).

La evolución relativamente favorable de la actividad productiva y de los costes laborales unitarios se traslada a la rentabilidad ordinaria del activo, que parte de niveles muy bajos al comienzo de la década de los noventa. Con la reducción en los CLU (recuperación de los márgenes brutos) la rentabilidad del activo llega a superar ampliamente el 10 por ciento y desde 1994 se mantiene en un nivel superior al del conjunto de empresas no financieras. Durante los últimos años se consolida en un valor del 9 por ciento, cuando el conjunto de empresas no financieras muestra una rentabilidad del 7,6 por ciento. Sin embargo el coste del capital de las empresas manufactureras es mayor que el coste del conjunto de empresas no financieras, sobre todo cuando se expresa en términos reales, debido al diferencial entre el comportamiento del deflactor del PIB y el comportamiento de los precios de la manufactura. Además, la mayor volatilidad de los resultados económicos en la manufactura debe significar una mayor prima por riesgo en el coste financiero de estas empresas que la prima correspondiente al conjunto de todas las empresas no financieras. Por lo tanto más rentabilidad no significa mayor beneficio económico (diferencia entre rentabilidad y coste del capital). En realidad, el diferencial de 1,4 puntos de rentabilidad entre los dos colectivos de empresas apenas cubre el diferencial de costes financieros por el mayor coste real de la deuda en las empresas manufactureras, por lo que si realmente la prima por riesgo es mayor en estas empresas el 9 por ciento de la rentabilidad puede suponer una situación de pérdidas económicas para el sector.

El sector de la manufactura depende de las ganancias de productividad para reducir costes y mejorar su competitividad en mayor medida que el resto de los sectores de la economía. Esto ocurre porque los bienes manufacturados (comercializables) incrementan sus precios a tasas inferiores que lo que aumentan los índices generales de precios que sirven de referencia para fijar los salarios y los tipos de interés. El retroceso en la productividad aparente del trabajo que muestran las empresas manufactureras en el año 2001 es por ello una señal de preocupación más importante que la que se observa ese mismo año en la muestra de todas las empresas. Las empresas manufactureras deben seguir esforzándose para que su productividad mejore, pero ese esfuerzo dará más frutos en términos de ganancia de competitividad si se consigue acabar con la actual situación de inflación dual que tanto penaliza a las empresas expuestas a la competencia internacional.

Conclusión

Desde la última crisis importante de principios de los años noventa las empresas españolas han disfrutado de un periodo de prosperidad en términos de rentabilidad y beneficios económicos con incrementos en la actividad tanto en lo que se refiere a creación de empleo como a inversión en activos productivos (aunque la inversión ha crecido a tasas inferiores a lo que lo hizo en el período expansivo de 1988-92, en parte debido a que en aquellos años los precios relativos del capital y el trabajo favorecían una clara intensificación del capital por trabajador que continua hasta el año 1994). Esta prosperidad se explica sobre todo porque la empresas han podido vender sus productos a unos precios que crecen por encima de los costes de los recursos de capital y trabajo, mientras que la productividad en el uso de los factores productivos en el mejor de los casos ha permanecido estable. La empresa manufacturera se ha beneficiado menos de unas

Page 121: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 118

condiciones macroeconómicas relativamente favorables al incremento de precios debido a que los bienes comercializables soportan la competencia de los mercados internacionales, y ha respondido con unos esfuerzos de mejora de la productividad superiores a los del resto empresas de la economía.

El breve análisis presentado no responde a la pregunta sobre porqué el sostenido retraso de la empresa española cuando se trata de acumular los activos intangibles humanos, tecnológicos y comerciales que mejoran la competitividad a partir de la calidad de los productos y servicios. Sin embargo la facilidad con la que las empresas pueden subir precios en épocas de exceso de demanda y la favorable evolución de los precios de los recursos primarios, no parecen el entorno más favorable para sustituir las bases de la competitividad desde los costes bajos de producción hacia la utilidad y el servicio para el cliente. Una cierta tensión en los mercados de factores y un crecimiento más moderado de la demanda agregada, podrían crear unas condiciones más favorables para que las empresas concentraran sus esfuerzos en mejorar la eficiencia en el uso de los recursos y en la innovación de productos y procesos, en lugar de seguir aprovechándose de un entorno tan favorable en términos de precios de los recursos y de los productos.

Page 122: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 119

VII. INFLATION ANALYSIS WITH INFORMATION UP TO DECEMBER 2002 / ANÁLISIS DE LA INFLACIÓN CON INFORMACIÓN HASTA DICIEMBRE 2002

This section includes some summaries of the results appearing in the regular issue number 100 of the Bulletin on Inflation and Macroeconomic Analysis. / Esta sección recoge algunos resúmenes de los resultados que aparecen en la edición habitual del nª100 del Boletín de Inflación y Análisis Macroeconómico.

Page 123: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 120

ANALYSIS OF INFLATION IN THE ECONOMIC AND MONETARY UNION

The inflation forecast for January 2003 in the Monetary Union is 0.2%; the year-on-year rate will decrease to 2.0%, with respect to the 2.3% observed in December. Mean annual rate expectations are 2.0% for 2003 and 1.8% for 2004.

q In December 2002, inflation registered a monthly rate of 0.2%, below our predicted 0.3%. This slight

downward innovation is largely due to unprocessed food prices. The economic crisis seems to have affected the seasonal increase this December, compared to previous years. The annual rate in total inflation increased to by 2.3%, from the 2.2% registered last November.

q Core inflation in goods in the Economic and Monetary Union is expected to remain at the 1.6%, registered

last December 2002, in 2003 and 2004. Services inflation is expected to fall to 2.9% in January with respect to the 3.0% observed in December and will continue to decrease as far as 2.8% in 2003 and 2.7% in 2004. Consequently, the forecast average annual rate of core inflation will decrease from the 2.5% observed in 2002, to remain stable at 2.1% in 2003 and 2004.

♦ Based on these results, expected average total inflation rates are 2.0% in 2003 and 1.8% in 2004. The

forecast decrease in the mean annual rate for 2003, compared to the 2.2% observed in 2002, is a result of euro-rounding effects ceasing to have an impact on year-on-year rates in 2003.

♦ The fulfilment of the inflation objective in 2003 relies considerally on the evolution of prices of

unprocessed food and energy.

AVERAGE ANNUAL RATES OF GROWTH

FORECASTS

1999 2000 2001 2002 2003 2004

CORE INFLATION 1.1 1.3 2.0 2.5 2.1 2.1

CORE INFLATION IN GOODS 0.7 0.8 1.6 1.9 1.6 1.6

CORE INFLATION IN SERVICES 1.6 1.7 2.5 3.2 2.8 2.7

TOTAL INFLATION 1.1 2.3 2.5 2.2 2.0 1.8 Source: Eurostat & IFL Date: January 24, 2003

Page 124: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 121

ANALYSIS OF US INFLATION

For January the forecast for the general index is an increase of 0.48%, based on energy prices and due to growing crude oil prices on the international markets. An increase of 2.59% is expected for the energy index, with a 0.27% increase in core inflation. The annual CPI rate would then go from 2.38% to 2.64%.

• During December the US CPI fell 0.22% from the previous month’s figure, somewhat more than

expected: 0.14%, with the annual rate going from the 2.20% observed in November to 2.38%. This increase in the annual rate is due in its entirety to energy prices, the monthly rate of which has fallen 1.60%, whereas in December 2001, it fell to 3.97%. Although the general CPI and all the groups have performed as predicted, there has been a new fall in durable goods, for the second consecutive month, on this occasion due to new motor vehicles, which have decreased their annual rate from –1.54% to –2.02%. Core inflation fell by 0.21% from the previous month, instead of the 0.14% expected, with the annual rate going from 1.97% to 1.92%. Core inflation excluding owner’s equivalent rent of primary residence and tobacco, comparable with the underlying rate in Europe, fell 0.41% instead of the 0.31% expected, with the annual rate going from 1.38% to 1.24%.

ü For 2003 and 2004 mean total inflation rates of 2.05% and 1.78% respectively are expected,

which compared with last month’s forecast represents an improvement of one and two decimal points, respectively. In this case, the evolution of crude oil prices, expected to worsen, compensates the new prediction for core inflation.

Food (1) 2.2 2.1 2.3 3.1 1.8 2.1 2.6

Energy (2) -7.7 3.6 16.9 3.8 -5.9 3.7 -2.8

Residual Inflation (3=2+1) 0.1 0.8 6.8 3.3 -0.9 2.6 0.8

Non-food and non-energy goods (4) 0.6 0.7 0.5 0.3 -1.1 -1.0 -0.6

Less tabacco -0.1 -0.5 -0.1 -0.2 -1.5 -1.4 -1.1

-Durable Goods -0.9 -1.2 -0.5 -0.6 -2.6 -2.5 -2.1

-Nondurable goods 2.3 2.4 1.4 1.1 0.5 0.5 0.8

Non-energy services (5) 3.1 2.7 3.3 3.7 3.8 3.1 3.1

-Services less owner's equivalent rent of primary residence (5-a)

2.9 2.7 3.5 3.6 3.6 3.2 3.2

-Owner's equivalent rent of primary residence (a) 3.2 2.7 3.0 3.8 4.1 2.9 2.9

Core Inflation (6=4+5) 2.3 2.1 2.4 2.7 2.3 1.9 2.0

Core inflation less owner's equivalent rent of primary residence (6-a)

2.0 1.8 2.2 2.3 1.7 1.5 1.7

Core inflatión less owner's equivalent rent of primary residence and tobacco

1.8 1.4 2.1 2.1 1.6 1.4 1.5

All items (7=6+3) 1.6 2.2 3.4 2.8 1.6 2.1 1.8

All items less owner's equivalent rent of primary residence (7-a) 1.1 2.1 3.5 2.6 0.9 1.8 1.5

CONSUMER PRICES INDEX (CPI) 1998 1999 2000 2001 20022003

(forecasts)

AVERAGE ANNUAL RATE OF GROWTH IN US

2004 (forecasts)

Page 125: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 122

ANALYSIS OF SPAINISH INFLATION

The forecast for inflation in January 2003 in Spain is a negative month-on-month rate of 0.1%. The year-on-year rate will remain stable at the 4.0% registered last December. The expectations for the mean annual rate are 3.2% for 2003 and 3.1% in 2004.

q In December 2002, monthly Spanish inflation registered a month-on-month rate of 0.3%, above our

predicted 0.2%. The year-on-year rate increased to 4.0% compared to the 3.9% registered in November. q This figure is characterised by: (a) the year-on-year rate in processed food prices remaining at 2.8%; (b)

the current evolution of non-energy industrial goods prices implies a considerable increase in relative terms with respect to Europe, with apparel and footwear registering year-on-year rates of 5.2% and 5.8% respectively; (c) many components of services show year-on-year rates of growth near to or greater than 5%. Core inflation remained at 3.4% in December, and is higher than the equivalent core inflation of the Economic Monetary Union, which was 2.3%.

♦ Due to an improvement of the expectations for 2003 in non-energy processed goods prices with an

average annual rate closer to 2.3% and services with a mean annual rate around 4.3%, the expectations for the mean annual rate for core inflation decrease to 3.1% in 2003, compared to the 3.4% observed in 2002.

♦ The expectations for the average annual rate of inflation in prices for energy and unprocessed food have

increased to 3.7% in 2003, compared to the 3.3% observed in 2002, due to the expected evolution of energy prices.

SPANISH INFLATION AVERAGE ANNUAL RATES OF GROWTH

Forecasts 1998 1999 2000 2001 2002

2003 2004

RESIDUAL INFLATION (Fats, Tobacco, Tourist Packages, Non Processed Food and Energy)

0.6 3.0 6.5 3.7 3.3 3.7 2.5

CORE INFLATION 2.2 2.1 2.5 3.5 3.4 3.1 3.3 Core inflation in goods Core inflation in services

1.4 3.3

1.3 3.3

1.9 3.5

3.1 4.1

2.6 4.3

2.3 4.3

2.5 4.4

TOTAL INFLATION 1.8 2.3 3.4 3.6 3.5 3.2 3.1 Source: INE & IFL Date: January 20, 2003

Page 126: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 123

ANÁLISIS DE LA INFLACIÓN EN LA UNIÓN MONETARIA Y ECONÓMICA

En la Unión Monetaria la predicción de inflación para el mes de enero de 2003 es un 0,2%; la tasa anual descenderá al 2,0% respecto al 2,3% registrado en diciembre. La inflación anual media para la zona euro se predice en torno a un 2,0% en 2003 y a un 1,8% en 2004. q La inflación total en el mes de diciembre de 2002 se caracterizó por una tasa mensual de 0,2%, por

debajo de nuestra predicción, 0.3%. Esta ligera innovación a la baja procede fundamentalmente de los precios de los alimentos no elaborados. La crisis económica parece haber afectado al crecimiento estacional de diciembre de 2002 en comparación con años anteriores. La tasa anual aumentó al 2,3%, respecto al 2,2% registrado en noviembre.

q La inflación subyacente en bienes en la Unión Monetaria se espera que permanezca estable en torno a un

1,6%, registrado en diciembre de 2002, durante 2003 y 2004. La inflación en servicios disminuirá en enero de 2003 a un 2,9% respecto al 3,0% observado en diciembre, y se espera que continúe reduciéndose en torno a un 2,8% en 2003 y a un 2,7% en 2004. Consecuentemente, la evolución de la tasa anual media de la inflación subyacente se espera que disminuya del 2,5% observado en 2002, para estabilizarse en torno a un 2,1% en 2003 y 2004.

♦ A la vista de estos resultados, las expectativas de la tasa media de inflación total se sitúan en un 2,0% en

2003 y en un 1,8% en 2004. El descenso previsto en la tasa anual media de 2003, respecto al 2,2% observado en 2002, se debe en parte a la ausencia del impacto del efecto de redondeo del euro en las tasas anuales de 2003.

♦ El cumplimiento del objetivo de inflación en 2003 descansa exclusivamente sobre la evolución de los

precios más erráticos: energía y alimentos no elaborados.

TASAS ANUALES DE CRECIMIENTO MEDIO

PREDICCIONES

1999 2000 2001 2002 2003 2004

INFLACIÓN SUBYACENTE 1.1 1.3 2.0 2.5 2.1 2.1

INFLACIÓN SUBYACENTE EN BIENES 0.7 0.8 1.6 1.9 1.6 1.6

INFLACIÓN SUBYACENTE EN SERVICIOS 1.6 1.7 2.5 3.2 2.8 2.7

INFLACIÓN TOTAL 1.1 2.3 2.5 2.2 2.0 1.8 Fuente: Eurostat & IFL Fecha: 24 de enero de 2003

Page 127: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 124

ANÁLISIS DE INFLACIÓN EN ESTADOS UNIDOS

Para Enero las previsiones para el índice general son de un aumento del 0.48%, aumento que se sustenta en los precios energéticos, por la subida del precio del crudo en los mercados internacionales. Se prevé una subida del índice energético del 2.59%, frente a una subida del índice tendencial del 0.27%. Con ello, la tasa anual del IPC general pasaría del 2.38% al 2.64%. § Durante el mes de Diciembre el IPC de EEUU retrocedió un 0.22% respecto al mes anterior, algo

más de lo previsto (0.14%), pasando la tasa anual del 2.20% observado en Noviembre al 2.38%. Este aumento en la tasa anual se debe en su totalidad a los precios energéticos que han descendido en tasa mensual un 1.60%, mientras que en Diciembre de 2001 lo hicieron a una tasa mensual del 3.97%. En relación con las previsiones, destaca la innovación a la baja, por segundo mes consecutivo, de los bienes duraderos, en esta ocasión por los automóviles nuevos que reducen su tasa anual del -1.54% al –2.02%. El índice tendencial bajó un 0.21% respecto al mes anterior, frente al 0.14% esperado, pasando la tasa anual del 1.97% al 1.92%. El índice tendencial sin alquileres imputados y tabaco, comparable con el índice subyacente de Europa, bajó un 0.41% frente al 0.31% esperado, pasando la tasa anual del 1.38% al 1.24%.

ü Para los años 2003 y 2004 se prevén unas tasas anuales medias de la inflación total del 2.05% y

1.78%, lo que supone la mejora, en relación al informe del mes anterior, de una y dos décimas respectivamente. En este caso, se compensa la peor evolución prevista del crudo con las mejores predicciones para la inflación tendencial.

IPC Alimentos (1) 2.2 2.1 2.3 3.1 1.8 2.1 2.6

IPC Energía (2) -7.7 3.6 16.9 3.8 -5.9 3.7 -2.8

INFLACIÓN RESIDUAL (3=1+2) 0.1 0.8 6.8 3.3 -0.9 2.6 0.8

IPC Manufacturas no energéticas (4) 0.6 0.7 0.5 0.3 -1.1 -1.0 -0.6

Sin tabaco -0.1 -0.5 -0.1 -0.2 -1.5 -1.4 -1.1

- IPC Bienes duraderos -0.9 -1.2 -0.5 -0.6 -2.6 -2.5 -2.1

- IPC Bienes no duraderos 2.3 2.4 1.4 1.1 0.5 0.5 0.8

IPC Servicios no energéticos (5) 3.1 2.7 3.3 3.7 3.8 3.1 3.1

- Servicios sin alquileres imputados (5-a) 2.9 2.7 3.5 3.6 3.6 3.2 3.2

- Alquileres imputados (a) 3.2 2.7 3.0 3.8 4.1 2.9 2.9

INFLACIÓN TENDENCIAL (6=4+5) 2.3 2.1 2.4 2.7 2.3 1.9 2.0

Sin alquileres imputados (6-a) 2.0 1.8 2.2 2.3 1.7 1.5 1.7

Sin alquileres imputados y sin tabaco 1.8 1.4 2.1 2.1 1.6 1.4 1.5

IPC TOTAL USA (7=6+3) 1.6 2.2 3.4 2.8 1.6 2.1 1.8

Sin alquileres imputados (7-a) 1.1 2.1 3.5 2.6 0.9 1.8 1.5

1998 2001 2004 (predicción)

2002

TASAS DE CRECIMIENTO ANUAL MEDIO DE LA INFLACIÓN EN EEUU

2003 (predicción)

20001999CONCEPTO

Page 128: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 125

ANÁLISIS DE LA INFLACIÓN EN ESPAÑA La predicción de inflación mensual en España para el mes de enero de 2003 es un valor negativo de 0,1%; la tasa anual se mantendrá en el 4% registrado en diciembre. La tasa anual media se predice en 3,2% en 2003 y 3,1% en 2004. q La inflación española en diciembre de 2002 registró una tasa mensual de 0,3%, por encima de nuestra

predicción, 0,2%; su tasa anual aumentó al 4,0% respecto al 3,9% registrado en noviembre. q Este dato se ha caracterizado por: (a) la inflación anual tendencial correspondiente a alimentos

elaborados se mantuvo en el 2,8%; (b) la evolución de los precios de las manufacturas supone un incremento grande en términos relativos respecto a Europa, alcanzando vestido y calzado tasas anuales de 5,2% y 5,8% respectivamente; (c) muchos componentes de la inflación tendencial en servicios presentan tasas anuales cercanas o superiores al 5%. La inflación tendencial se mantuvo en diciembre en un 3,4%, mientras que la inflación subyacente en la UME disminuyó a un 2,3%.

♦ Debido a una mejor evolución esperada para 2003 en los precios de los bienes elaborados no

energéticos, que de un 2,6% observado en 2002 se espera que se disminuyan a un 2,3% en 2003, y al mantenimiento de los precios de los servicios, con tasas anuales en torno al 4,3%, las expectativas de inflación tendencial media disminuirán a un 3,1% en 2003, en comparación con el 3,4% registrado en 2002.

♦ Las expectativas de la tasa media anual de la inflación residual se revisan al alza, alcanzando un 3,7%

2003, en comparación con el 3,4% registrado en 2003, como consecuencia de la evolución prevista para los precios de la energía.

CRECIMIENTOS ANUALES MEDIOS DE LA INFLACIÓN EN ESPAÑA

PREDICCIONES 1998 1999 2000 2001 2002 2003 2004

INFLACIÓN RESIDUAL

(Aceites, Tabaco, Paquetes Turísticos, Alimentos No Elaborados y Energía)

0.6 3.0 6.5 3.7 3.3 3.7 2.5

INFLACIÓN TENDENCIAL 2.2 2.1 2.5 3.5 3.4 3.1 3.3

I. Tendencial en bienes I. Tendencial en servicios

1.4 3.3

1.3 3.3

1.9 3.5

3.1 4.1

2.6 4.3

2.3 4.3

2.5 4.4

INFLACIÓN TOTAL 1.8 2.3 3.4 3.6 3.5 3.2 3.1 Fuente: INE & IFL Fecha: 20 de enero de 2003

Page 129: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

PPAARRQQUUEE CCIIEENNTTÍÍFFIICCOO UUnniivveerrssiiddaadd CCaarrllooss IIIIII

El Parque Científico de la Universidad Carlos III de Madrid se enmarca en un proyecto más ambicioso como es Leganés Tecnológico fruto de una iniciativa conjunta del Ayuntamiento de Leganés, la Comunidad de Madrid y la propia Universidad. Este proyecto aproxima y acoge nuevas estructuras de investigación y desarrollo que intentan aprovechar mejor el conocimiento generado en los dos ámbitos, académico y empresarial, promoviendo la investigación y la transformación de sus resultados en la innovación tecnológica e industrial. El Parque Científico se encuentra localizado en el término municipal de Leganés en una extensión de 260 Ha. a tan sólo 6 Kms. de la Puerta del Sol de Madrid con accesos a las principales vías de comunicación M-30, M-40, M-45 y N-401. Características Uno de los objetivos del parque Científico es el fomento de la I+D+i y de la transferencia de tecnología en algunas áreas de mayor potencial innovador. Nuestro Parque Científico se va a especializar en las Tecnologías de la Información y las comunicaciones, los procesos industriales avanzados y los materiales. Para la consecución de sus objetivos, el Parque Científico de Leganés Tecnológico se organiza en dos áreas fuertemente interrelacionadas:

EMPRESARIAL: en la cual se ubicarán empresas con clara vocación innovadora.

UNIVERSITARIA: en la que se crearán una serie de estructuras que posibilitarán y facilitarán la transferencia de tecnología entre los investigadores de la universidad y las empresas como:

Centros de Innovación Tecnológica: Derivados de actividades de investigación universitarias cuya actividad básica es la prestación de servicios tecnológicos bajo contrato y la realización de proyectos de I+D.

Vivero de empresas: Aloja y da servicios a empresas de base tecnológica creadas por alumnos, titulados y docentes de la Universidad.

Actividades previstas

Dinamización tecnológica, prestando asesoramientos, creando redes, promoviendo colaboraciones y el desarrollo de “clusters” en colaboración con la Oficina de Transferencia de Resultados de la Investigación de la Universidad Carlos III de Madrid.

Prestación de servicios de promoción y marketing: exposiciones, asistencia a ferias, foros tecnológicos, así como de servicios comunes de tipo logístico y administrativo.

Orientación y supervisión del vivero de empresas.

Colaboración con las empresas asentadas en el Parque Científico.

Page 130: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Página 126

SUBSCRIPTION FORM - 2002 YEAR

First and Last Name:....................................................................................................................... Address: ......................................................................................Postal Code: .............................. Telephone:........................................ Telefax..............................E-Mail: ........................................ VAT Number: ...............................................................................Date: ..........................................

EU & US Inflation and Macroeconomic Analysis Bulletin (Monthly edition)...... € 325,00 oo

Delivered 14 days after the European Harmonised Prices Index publication Inflation Forecast Update Service (3 updates) .................................................. € 1104,00 oo 12 hours after the Spanish CPI publication 48 hours after the European Harmonised Prices Index publication 48 hours after the United States CPI publication

Jointly Subscription .............................................................................................. € 1255,00 oo Subscription to the EU & US Inflation and Macroeconomic Analysis Bulletin + Inflation Forecast Update Service.

PAYMENT METHODS (Including VAT and shipping fees) Bank Transfer........................................................................................................................... oo

To: Fundación Universidad Carlos III C.C.C.: 2096-0630-18-2839372704

Credit Card................ VISA oo ..............AMERICAN EXPRESS oo .............MASTERCARD oo Credit card number ............................................Expiry date .......................................................... Signature ......................................................................................................................................... Please send me FREE OF CHARGE A copy of the EU & US Inflation and Macroeconomic Analysis Bulletin ............................................... oo An Inflation Forecast Update of the current Bulletin edition ................................................................ oo

WW Thank you for giving us details of a colleague who may be interested in our products and services WW ......................................................................................................................................................... ......................................................................................................................................................... ......................................................................................................................................................... Authorized signature:

BULLETIN EU & US INFLATION

AND MACROECONOMIC ANALYSIS Universidad Carlos III de Madrid

Universidad Carlos III de Madrid Instituto Flores de Lemus de Estudios Avanzados en Economía

C/ Madrid, 126 E-28903 Getafe (Madrid) Tel +34 91 624 98 89 Fax +34 91 624 93 05 E-mail: [email protected]

www.uc3m.es/boletin

Page 131: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Universidad Carlos III de Madrid Instituto Flores de Lemus de Estudios Avanzados en Economía

C/ Madrid, 126 E-28903 Getafe (Madrid) Tel +34 91 624 98 89 Fax +34 91 624 93 05 E-mail: [email protected] www.uc3m.es/boletin

HOJA DE SUBSCRIPCION Y PATROCINIO PARA EL AÑO 2003

Nombre y Apellidos:........................................................................................................................ Dirección:................................................................................C.P.: ............................................... Teléfono: ........................Telefax..........................Correo Electrónico: ........................................... NIF/CIF: ...................................................................................Fecha: ...........................................

Boletín Inflación y Análisis Macroeconómico (edición mensual) ..............................€ 324,55 oo Contenido

• Predicciones de inflación desglosada por sectores utilizando modelos econométricos de indicador adelantado y de regímenes cambiantes cuando es necesario para ESPAÑA, UM Y PAÍSES DE LA UE y EEUU.

• Predicciones del cuadro macroeconómico español . • Análisis y predicciones de los mercados laborales en España, Italia y Reino Unido a partir de un enfoque

pionero a nivel internacional basado en modelos sobre los datos individuales de las encuestas de población activa.

• Predicciones de inflación en la Comunidad de Madrid y de sus precios relativos con España y la Unión Monetaria Europea.

• Resultados y Análisis de una encuesta trimestral propia sobre expectativas en el sector financiero y bursátil.

Servicio de Actualización de predicciones y diagnósticos .................................€ 1104,00 oo

a) Servicio de Actualización de predicciones ( por FAX qq ,por CORREO ELECTRÓNICO qq ) : • a las 36 horas de publicarse el IPC español. • a las 36 horas de publicarse el IPC de los principales países europeos. • a las 12 horas de publicarse el IPC de Estados Unidos.

b) Servicio de Actualización de diagnósticos ( por CORREO ELECTRÓNICO ): • Comunicación por correo electrónico de la existencia de cualquier actualización en la hoja web del

Boletín. • Actualización por correo electrónico del diagnóstico sobre la inflación en Europa y España, a las 4 horas

de publicarse el dato correspondiente de inflación armonizada europea.

Subscripción conjunta .............................................................................................€ 1255,00 oo Suscripción al BOLETÍN INFLACIÓN Y ANÁLISIS MACROECONÓMICO + Servicio de Actualización de predicciones y diagnósticos. Subscripción y Patrocinio .......................................................................................€ 3606,07 oo Subscripción al BOLETÍN INFLACIÓN Y ANÁLISIS MACROECONÓMICO + Servicio de Actualización de predicciones y diagnósticos + Inclusión de anagrama en la lista de Patrocinadores en el Boletín y en Internet.

MÉTODOS DE PAGO

(Todos los precios listados incluyen IVA y gastos de envío)

oo ............................................................................................................................................................................Talón bancario A nombre de: Fundación Universidad Carlos III. CIF: 79852257 - Domicilio Fiscal: C/ Madrid, 126. 28903 Getafe (Madrid) (Enviar el talón a: Fundación Universidad Carlos III. Dpto. Contabilidad. Avda. de la Universidad, 30. 28911 Leganés (Madrid).

oo ........................................................................................................................................................... Transferencia bancaria A: Fundación Universidad Carlos III C.C.C.: 2096-0630-12-3143116204

oo VISA .................................... oo AMERICAN EXPRESS.......................... oo MASTERCARD .............Tarjeta de Crédito Número............................................................................................. Fecha de caducidad..................................................................

Firma ................................................................................................................................................................................................... Firma autorizada:

BOLETÍN INFLACIÓN Y ANÁLISIS MACROECONÓMICO Universidad Carlos III de Madrid

Page 132: The Sponsor of this Special Issue. - UC3Mportal.uc3m.es/portal/page/portal/inst_flores_lemus/laboratorio... · The Sponsor of this Special Issue. Instituto Flores de Lemus de Estudios

Bulletin EU & US Inflation and Macroeconomic Analysis INSTITUTO FLORES DE LEMUS

Universidad Carlos III de Madrid

IINNTTEERRNNAATTIIOONNAALL IINNFFLLAATTIIOONN FFOORREECCAASSTTSS

JANUARY 2003 AVERAGE ANNUAL RATES

Monthly Rate

Annual Rate 2000* 2001* 2002* 2003 2004

EECCOONNOOMMIICC MMOONNEETTAARRYY UUNNIIOONN Total Inflation 0.2 2.0 2.3 2.5 2.2 2.0 1.8 Core Inflation 0.0 2.2 1.2 2.0 2.5 2.1 2.1 Goods -0.4 1.6 0.8 1.6 1.9 1.6 1.6 Services 0.5 2.9 1.7 2.5 3.2 2.8 2.7

GDP 1.5 0.8 1.6 2.2

Private Final Consumption Expenditure 1.9 1.0 1.7 2.0

Gross Fixed Capital Formation -0.7 -2.9 0.1 1.5

Exports of Goods and Services 2.8 1.3 6.0 6.2

Imports of Goods and Services 1.4 -0.2 5.6 5.9

Gross Value Added Total 1.5 0.8 1.6 2.2

Gross Value Added Agriculture -1.2 -1.4 1.7 -0.5

Gross Value Added Industry 1.0 0.1 2.2 3.1 Gross Value Added Construction -0.6 -1.6 -0.3 0.4

Gross Value Added Services 2.3 1.4 1.8 2.2

OTHER ECONOMIC INDICATOR

Industrial Production Index (excluding construction) -0.1 0.4 1.6 2.8

UUNNIITTEEDD SSTTAATTEESS Total Inflation 0.5 2.6 3.4 2.8 1.6 2.1 1.8 Core Inflation 0.3 2.0 2.4 2.7 2.3 1.9 2.0 Goods -0.4 -1.2 0.5 0.3 -1.1 -1.0 -0.6 Services 0.5 3.4 3.3 3.7 3.8 3.1 3.1

*Observed values.

SSPPAANNIISSHH EECCOONNOOMMYY FFOORREECCAASSTTSS

JANUARY 2003 AVERAGE ANNUAL RATES Monthly

Rate Annual Rate 2000* 2001* 2002* 2003 2004

Total Inflation -0.1 4.0 3.4 3.6 3.5 3.2 3.1 Trend Inflation -0.6 3.2 2.5 3.5 3.4 3.1 3.3 Goods -2.0 2.4 1.9 3.1 2.6 2.3 2.5 Services 1.2 4.2 3.5 4.1 4.3 4.3 4.4

*Observed values.

For information about subscriptions see SUBSCRIPTION FORM

inside this issue