REVISTA DE ADMINISTRACIÓN, FINANZAS Y ECONOMÍA · Hodrick Prescott filter and the modification...

100
Volumen 7 Número 1 Enero-Junio 2013 Comité Editorial Director José Antonio Núñez Mora Directores Adjuntos Carlos Manuel Urzúa Macías Jorge Fernández Ruiz Edgar Ortíz Calisto José Carlos Ramírez Sánchez Dennis J. Aigner Bryan Husted Consejo Editorial Alberto Hernández Baqueiro Elvio Accinelli Gamba José Luis de la Cruz Gallegos Anabella Dávila Martínez Julián Pérez García Frank Dellman Raúl Moncarz Isabel Martínez Torres Enciso Enrique Cásares Gil Carolyn Erdener Editoras de Producción Martha F. Carrillo Urbina Selene Ramírez Medina REVISTA DE ADMINISTRACIÓN, FINANZAS Y ECONOMÍA (Journal of Management, Finance and Economics) Artículos Wulfrano Gómez, Leovardo Mata y Montserrat Reyna Hodrick-Prescott Filter: An Extreme-Sport Testing Raúl Ojeda Villareal y Humberto Valencia Herrera Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo Guillermo Carrasco, Edmundo Marroquín y Adrianela Angeles Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal Luis Manuel González de Salceda Ruiz Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales Sistémicos Adversos M. Beatriz Mota Aragón, Roxana Walles Martínez El riesgo operativo en las MiPymes

Transcript of REVISTA DE ADMINISTRACIÓN, FINANZAS Y ECONOMÍA · Hodrick Prescott filter and the modification...

Volumen 7

Número 1

Enero-Junio

2013

Comité Editorial

Director

José Antonio Núñez Mora

Directores Adjuntos

Carlos Manuel Urzúa Macías

Jorge Fernández Ruiz

Edgar Ortíz Calisto

José Carlos Ramírez Sánchez

Dennis J. Aigner

Bryan Husted

Consejo Editorial

Alberto Hernández Baqueiro

Elvio Accinelli Gamba

José Luis de la Cruz Gallegos

Anabella Dávila Martínez

Julián Pérez García

Frank Dellman

Raúl Moncarz

Isabel Martínez Torres Enciso

Enrique Cásares Gil

Carolyn Erdener

Editoras de Producción

Martha F. Carrillo Urbina

Selene Ramírez Medina

REVISTA DE

ADMINISTRACIÓN, FINANZAS

Y ECONOMÍA

(Journal of Management, Finance and Economics)

Artículos

Wulfrano Gómez, Leovardo Mata y Montserrat Reyna

Hodrick-Prescott Filter: An Extreme-Sport Testing

Raúl Ojeda Villareal y Humberto Valencia Herrera

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo

CHAID Exhaustivo

Guillermo Carrasco, Edmundo Marroquín y Adrianela Angeles

Flexibilidad y control en la gestión de empresas mexicanas del Distrito

Federal

Luis Manuel González de Salceda Ruiz

Vulnerabilidad de la Producción de Alimentos en México a Factores

Naturales Sistémicos Adversos

M. Beatriz Mota Aragón, Roxana Walles Martínez

El riesgo operativo en las MiPymes

EGADE BUSINESS SCHOOL

Directorio Salvador Alva Gómez

David Noel Ramírez Padilla

María de Lourdes Dieck Assad

Rector del Sistema Tecnológico de Monterrey

Rector del Tecnológico de Monterrey

Rectora de las Escuelas Nacionales de Posgrado:

EGADE Business School & EGAP Gobierno y Política Pública

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics)

Comité Editorial

Director José Antonio Núñez Mora EGADE Business School del Tecnológico de Monterrey

Directores Adjuntos Carlos Manuel Urzúa Macías

Jorge Fernández Ruiz

Edgar Ortíz Calisto

José Carlos Ramírez Sánchez

Dennis J. Aigner

Bryan Husted

EGAP Gobierno y Política Pública del Tecnológico de Monterrey

El Colegio de México

Universidad Nacional Autónoma de México

Universidad Anáhuac

Emeritus Professor of Management & Economics in the Paul Merage

School of Business at the University of California, Irvine (UCI)

EGADE Business School del Tecnológico de Monterrey y York

University

Consejo Editorial Alberto Hernández Baqueiro Tecnológico de Monterrey Elvio Accinelli Gamba Facultad de Economía de la UASLP

José Luis de la Cruz Gallegos

Anabella Dávila Martínez

Tecnológico de Monterrey

EGADE Business School del Tecnológico de Monterrey

Julián Pérez García Universidad Autónoma de Madrid, España

Frank Dellman Universidad de Münster, Alemania

Raúl Moncarz

Isabel Martínez Torres Enciso

Enrique Cásares Gil

Carolyn Erdener

Universidad Internacional de Florida, USA

Universidad Autónoma de Madrid, España

Universidad Autónoma Metropolitana

Kazakhstan Institute of Management Economics Research, KIMEP

Editoras de Producción Martha F. Carrillo Urbina EGADE Business School del Tecnológico de Monterrey

Selene Ramírez Medina EGADE Business School del Tecnológico de Monterrey

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics)

Volumen 7, Número 1, Enero- Junio 2013, publicación semestral

EGADE Business School

Calle del Puente 222, Col. Ejidos de Huipulco, Tlalpan. C.P. 14380, México D.F.

Aulas III, cuarto piso. Tel. +52 (55) 54832020 ext. 1390 y 1392

Correo electrónico: [email protected] , selene.ramí[email protected]

Página: http://www.egade.mx

(Elegir “DOCTORAL PROGRAMS” y “PUBLICATIONS”)

El presente ejemplar se encuentra protegido por la Ley Federal del Derecho de Autor. ISSN en trámite. Se prohíbe la reproducción

total o parcial del contenido en este número sin la previa autorización que por escrito emita el editor.

Artículos

Página

Wulfrano Gómez, Leovardo Mata y Montserrat ReynaHodrick-Prescott Filter: An Extreme-Sport Testing

1

Raúl Ojeda Villareal y Humberto Valencia HerreraModelos predictivos de riesgo en Tarjeta de Crédito con elalgoritmo CHAID Exhaustivo

15

Guillermo Carrasco, Edmundo Marroquín y Adrianela AngelesFlexibilidad y control en la gestión de empresas mexicanas del Dis-trito Federal

39

Luis Manuel González de Salceda RuizVulnerabilidad de la Producción de Alimentos en México a FactoresNaturales Sistémicos Adversos

69

M. Beatriz Mota Aragón y Roxana Walles MartínezEl riesgo operativo en las MiPymes

81

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Econo-mics) vol. 7, núm. 1 (2013), pp. 01-13.

Hodrick-Prescott Filter:An Extreme-Sport Testing

Wulfrano Gómez*

Leovardo Mata**

Montserrat Reyna***

Recibido 12 de Octubre de 2012. Aceptado 05 de Diciembre de 2012.

Resumen

La filtración correcta de series de tiempo es importante por varias razones en el ejer-cicio de la Econometría. El filtro de Hodrick-Prescott es el arma más popular cuandose trata de filtrar series, en el presente trabajo nos hemos dado a la tarea de probar eldesempeño de dicho filtro al tratar con una variedad de tendencias y ruidos generadospor computadora. Además abrimos una discusión sobre la elección del parámetro λ.

Abstract

Filtering time series is important for several reasons in economics. The Hodrick Pres-cott Filter is the most popular tool when it comes to filtering. Therefore we have putourselves to the task of testing its performance for a variety of trends and a variety ofnoises. Also we open a discussion on the choice of the smoothing parameter λ.

Clasificación JEL: C32, G12

Key words: Hodrick Prescott Filter, smoothing parameter, time series.

Introduction

In economics we recollect and use data in an attempt to understand the world we live in(the economy) and apply the knowledge obtained to our benefit. Then, we have to dealwith time series of data such as the Gross Domestic Product (GDP), the unemploymentrate, wage rates, level of prices, among others.

Most econometricians believe that such econometric time series have a long termcomponent (White and Granger (2011), which is a smoothly varying trend, and a short

*Candidato a Doctor en Ciencias Financieras por el ITESM, Campus Ciudad de Mé[email protected]

**Candidato a Doctor en Ciencias Financieras por el ITESM, Campus Ciudad de Mé[email protected]

***Candidata a Doctora en Ciencias Financieras por el ITESM, Campus Ciudad de Mé[email protected]

2 Revista de Administración, Finanzas y Economía

term cyclical component (once one has removed seasonality). But we do not observedirectly this components, what we observe is a sign that is the sum of them, such a signneeds to be filtered in order to obtain the trend and the cycle.

Why is it important to know the trend and cycle of a time series? There are severalanswers to this question, but we will content with one reason: knowing the outputgap (the difference between the real GDP and the potential GDP) is needed for theapplication of economic policy. Therefore, filtering is a concern of every central bank,hence its importance, and so the need to have a reliable tool to do this task. Severalfilters have been proposed, the most popular among them is the Hodrick-Prescott filter.

The structure of the article is as follows: in the second section we will review theHodrick Prescott filter and the modification of it due to St-Amant and van Norden(1996); in the third section we will discuss the parameter λ of the filter; in the fourthsection we test the filter and finally present the conclusions in section 5. In addition tothe trends mention in section 4 there are trends which could be statistically interesting,we include some of them in the Appendix.

2. The Hodrick-Prescott Filter

In 1980 Hodrick and Prescott introduced the Hodrick-Prescott filter (which we refer toas HP-filter hereafter) to separate a cyclical component from a smoothly varying trendcomponent in a time series.

According to Hodrick and Prescott (1997) the filter had been largely used in actua-rial sciences (where it is called the Whittaker-Henderson Type A method) to smoothmortality data, it has also been used in astronomy and ballistics.

2.1 The HP-Filter

Let yt be a time series. We assume that yt is the sum of a growth component gt anda cyclical component ct (that is, we assume the seasonal component has already beenremoved from the series yt):

yt = gt + ct

for each t = 1, ..., T .The problem to be solved in order to obtain the growth component gt is:

min{gt}Tt=1

∑c2t + λ

T∑t=1

[(gt − gt−1(−(gt−1 − gt−2)]2

where ct = yt− gt. The parameter λ is a positive number which penalizes variabilityin the growth component. The larger the value of λ the smoother the solution of theproblem will be. The choice of this smoothing parameter λ is discussed in section 4.

2.2 Problems

It is well known that the HP-filter (as others) has problems when extracting the trend.It has been widely discussed (Baxter and King (1999), Antón (2009), Orphanides andvan Norden(2002), Cayen and van Norden (2005)) that since the estimation of the

Hodrick-Prescott Filter: Extreme Testing 3

trend at a specific date is made by using both data before and after the date, the HPfilter has problems adjusting the trend at the end of the sample (and so at the beginning,although this is not relevant for economic policy).

There are other problems as shown in St-Amant and van Norden (1997) research,where one of their conclusions is that if the variance of the series is dominated by lowfrequencies, the HP-filter does not extract correctly an output gap associated with thecyclical component of real output. This variance is important because the majority ofthe macroeconomic series are exactly like this: variance dominated by low frequency.

But the problem of concern in the present article is the choice of the parameter λ,which we will discuss in Section 3. Now let us have look at one the most remarkableattempts to correct the problems the HP-filter has, the proposal made by St-Amant andvan Norden (1997). It is important to notice that in this proposal we still have to makea choice on a parameter, namely λss.

2.3 Other Proposals

The problem to solve is:

min{gt}Tt=1

∑c2t + λ

T∑t=1

[(gt − gt−1(−(gt−1 − gt−2)]2 + λss

T∑t=T−j

(∆gt − uss)

where uss is a constant equal to the growth rate of the time series in the long term, andλss ≤ 0 is a punishment for the deviation of the growth rate of the trend from its longterm value uss.

3. About the Smoothing Parameter

The HP-filter is implemented by minimizing an objective function that depends onthe weighted average of two components: the squared sum of the business cycle com-ponent and the squared sum of the acceleration of the trend component weighted by aparameter. Hodrick and Prescott (1997) worked with quarterly data from 1950 to 1979.By analyzing the data they concluded the selection of a parameter λ = 1600 for theirdata was justified.

When choosing this value most researchers have followed the suggestion of Ho-drick and Prescott and set λ = 1600 for quarterly data.

Hodrick and Prescott choice of 1600 was guided partly by a prior on the varia-bility of the trend and the cycle components of the US data and partly by the factthat it produces reasonable results, in the sense that the implied cyclical componentlargely agrees with conventional wisdom about the US business cycle. This is a sen-sible strategy because the statistical measure of the business cycle thus captures keyaspects identified by observers of the business cycle. However, most subsequent stu-dies have simply adopted the value of 1600 without considering the sensibility of theresults in the light of conventional wisdom. This practice can under some circums-tances be problematic. In particular, the HP-filter assigns parts of the low frequencyfluctuations to the trend. Thus, while the HP-filter with λ = 1600 might work well forthe US, if the trend component behaves markedly different in data for other countries,

4 Revista de Administración, Finanzas y Economía

using the same value of the smoothing parameter for such countries may give rise tonon-comparability of the measure of the cyclical components. For example, if a givencountry has experienced longer cycles than other countries, the trend component forthis country will absorb a larger part of the cyclical component. The properties of thebusiness cycle may differ across countries.

Studying business cycles is of interest for economic theory and economic policyalike. Economic policy may be adjusted to the state of the business cycle and some-times policy is constrained by some measure of the business cycle. A natural requi-rement in cross-country applications is that similar procedures are applied to data fordifferent countries. Partly for that reason, and partly due to ease of computation andreproduction, many researchers have adopted the Hodrick and Prescott (1997) detren-ding method.

Most subsequent studies have simply adopted the value of λ = 1600 without con-sidering the sensibility of the results in the light of conventional wisdom.

Thus, while the HP-filter with parameter 1600 might work well for the U.S., ifthe trend component behaves markedly different in data for other countries, usingthe same value of the smoothing parameter for such countries may give rise to non-comparability of the measure of the cyclical components. For example, if a givencountry has experienced longer cycles than other countries, the trend component forthis country will absorb a larger part of the cyclical component.

In addition, the quality of this approximation depends on the mass of the spec-trum of the data that is subject to the approximation error. Therefore, since a largerpart of the cycle will be assigned to the trend in those countries with more persistentfluctuations, cross-country comparisons of business cycles might be difficult.

We would like to have a closer look at the choice of λ = 1600, since it will berelevant to understand it for the testing of the HP-filter in Section 4. They arrived at itassuming that the cyclical components and the second differences of the growth com-ponents are independently distributed with normal distribution N(0, σ2

1) and N(0, σ22)

respectively. In such a case, the solution to equation when√λ = σ1/σ2, is the condi-

tional expectation of gt given the observations. By observing that a 5 % cyclical com-ponent and a change of one-eight of 1 % in the growth rate in a quarter are moderatelylarge they come to propose

√λ = σ1/σ2 = (5)/(1/8) = 40

or λ = 1600.

Hodrick and Prescott (1997) justify the use of this value by using different valuesof λ to test for sensibility. The conclusion was that the co-movement results were notsensitive to the value of λ, but with a large λ the amplitudes of fluctuation are larger.

There are several comments to be made at this point.First, one has to notice the time frame of the data and the economy they were taken

from: the US economy. The 1950’s onwards saw the beginning of the reconstructionof a new global economy. Between 1950 and 1973 the annual real GDP growth of de-veloped market economies averaged around 5 percent (Hodrick and Prescott (1997)).This growth was smooth, with none of the major recessions seen in the inter-war years.

Hodrick-Prescott Filter: Extreme Testing 5

World War II left the United States in a uniquely powerful position. While Europe andAsia had experienced extensive destruction and loss of life, no battles had been foughton the soil of the United States. The U.S. dollar became the world’s major reservecurrency. U.S. corporations assumed leading positions in many industries. Europe andJapan had to spend the immediate postwar decade undergoing extensive reconstruc-tion, heavily dependent on official aid from the United States, yet over time Europeand Japan closed the technological and productivity gap with the United States. Theemergence of a U.S. deficit on its balance of trade in the 1960s, and the devaluation ofthe U.S. dollar and the end of its convertibility into gold in 1971, provided symbolicsigns of the ending of an era.

Then the data used do not account for the amazing growth rate of the 1990’s, andspecially they do not account for the IT revolution nor the financial crisis of recenthistory. So recent history has been somewhat different from the period between 1950and 1980, there are at least 20 years of new data available and one should pay attentionto it.

Another detail to notice is that every country has had a different economic history,so the growth rate and the variation of the cyclical component for a quarter have noreason to be the same as the proposed by Hodrick and Prescott (1997) for the UnitedStates.

On another line, the assumptions about the distributions of the cyclical componentand the second differences of the growth component can come to be not normal, andwe do not know what happens in the case of it following another distribution.

For all the aforementioned, it comes to mind the need to have a personalized calcu-lation of λ, so to say; one that agrees with the recent economic history of the countryof interest (in our case Mexico).

But before undertaking such a difficult task one has to know whether it will beworthy, this is the reason why in the next section we attempted to get a measure ofthe sensitivity of the filter to the value of parameter λ in order to determine whether itwill ultimately be important to calculate such number using the structure of the localeconomy or to change the assumptions about the distribution of the cyclical componentand the second differences of the growth component.

4. Testing the Filter

In their work St-Amant and van Norden(1997) mention that the HP-filter does not doa very efficient job filtering most macroeconomic time series because of its spectralproperties.

Knowing what we have discussed so far, we consider of importance to have a mea-sure of the HP filter’s performance. We are concerned with testing whether it extractsaccurately other economic time series, and specially with the choice of the smoothingparameter.

In order to do so, we constructed some time series artificially and applied the HP-filter to them with several values of λ, then we chose the value for which λ adjustedbetter the original trend. It is important to notice that the way in which the time se-ries were constructed makes the distribution of the data irrelevant (whether annually,quarterly or monthly) and then an a priori selection of the parameter λmakes no sense.

6 Revista de Administración, Finanzas y Economía

First we selected a trend, say xt, from a number of trends based on the work ofWhite and Granger (2011) (X), and then summed it to a certain noise rt. Let ct be theresulting time series, ct = xt + rt.

Using MATLAB software, we filtered ct varying the λ parameter from 0 to 100000with a step of size 10 (so we tested λ = 10, 20, . . . , 100000). Then we chose the valueof λ that minimized the sum of the absolute value of the distance (point to point) fromthe filtered trend to the original one.

More carefully, let i ∈ {1, . . . , 10000}, let λi = i ∗ 10. Let hpit be the trendobtained from applying the Hodrick-Prescott filter with parameter λi to time series ct.We want to get a series as close to xt as possible.

Let

εi =

T∑t=1

|xt − hpit|/T

where T is the length of the time series. We chose the value of λ that solves

ε = miniεi

supose this value was λj , that is, the minimum is εj . Now we can say that hpjt is thebest estimate of xt we have.

We applied the two sample Kolmogorov-Smirnov test to compare the distributionsof xt and hpjt and decide whether the trends are actually equally distributed. The nullhypothesis is xt and hpjt have the same distribution, in MATLAB the result is 0 if thenull hypothesis is accepted and 1 if it is rejected.

We also applied the Phillips-Perron test for unit roots to the filtered cycle in everycase. In MATLAB, for a univariate time series y the test uses the model

yt = c+ dt+ ayt−1 + e(t)

where e(t) is the residual and the null hypothesis is a = 1, that is, there is a unit root.The null hypothesis is rejected if the result of the test is h = 1 and fails to be rejectedif h = 1.

Now let us have a look to the construction of the set of trends X , the set of noisesN and the results.

4.1 Trends

According to White and Granger (2011) a trend must have the following two charac-teristics: a) it should have a direction and b) it should be somewhat smooth.

Leaving the discussion aside, we will use some trends as defined by White andGranger (2011).

We will mainly work with deterministic trends and random noises, because the HP-filter is a deterministic one. For the results of a stochastic trend go to the Appendix.

We begin constructing a vector

X = [1 : 150] = {1, 2, . . . , 150} = {xt|t = 1, ..., 150}

Hodrick-Prescott Filter: Extreme Testing 7

we chose this number of observations following the suggestion of St-Amant and vanNorden (1996). X will be the base of the trends constructed.

The first trend to consider is a linear trend, x1t = 5xt + 7. It makes sense to beginwith a linear trend because it is the most simple one. Economically, a linear trend canbe expected to appear in data of life expectancy for example.

The next trend to consider is also linear, x2t = −xt/2 + 100, but with a negativeslope.

An exponential trend is to be discussed because although it is not a generalizedbelief, some economists claim that the GDP follows an exponential trend (Nelson andPlosser, 1982). Considering this, the next trends to test are x3t = exp{xt/100} andx4t = exp{−xt/100}.

Figure 1: Not-constant trend.

But as mentioned by Hodrick and Prescott (1997), often the assumptions of constancyof the growing rate of a time series is not sustainable, so it makes sense to test a trendthat changes over time,

x5t = 5xt − 7 if t ∈ {1, ..., 50}

x5t = 307− xt if t ∈ {50, ..., 80}

x5t = 5xt − 173 if t ∈ {80, ..., 100}

x5t = 427− xt if t ∈ {100, ..., 110}

x5t = 7xt − 453 if t ∈ {110, ..., 150}

8 Revista de Administración, Finanzas y Economía

Finally we constructed a trend that follows every assumption made by Hodrickand Prescott (1997), that is, one which second differences are normally distributedwith standard deviation σ2 = 1/8 and mean zero. To do so we generated a vector of150 numbers normally distributed with mean zero and variance 1/64 which would bethe second differences of the trend and then constructed the trend from it. This trendwill be associated with an independent noise normally distributed with mean zero andstandard deviation 5.

Figure 2: Trend following the Hodrick Prescott asumptions.

4.2 Cycles

As shown by King and Rebelo (1993) and Harvey and Jaeger (1993), the HP-filter canbe the optimal filter for when the cycle of the time series is white noise. In this sectionwe are concerned with testing the performance of the filter when other type of noisesoccur.

The noises were constructed with the random number generators of MATLAB. Weused the generator of numbers normally distributed with mean 0 and variance 1 andthen scale it by a factor of 50.

We used the Poisson generator to generate a noise signal that would follow a Pois-son distribution, in order to have a noise around zero, after generating a vector ofnumbers following the Poisson distribution we subtracted the α parameter of the dis-tribution.

The Weibull generator was used to build a noise that followed a Weibull distribu-tion, the use of such a noise is justified for the Weibull model is a popular tool foreconometric analysis of transition data, specially of unemployment duration. (Roedand Zhang, 2002)

The fourth noise to consider was uniformly distributed around zero and scaled bya factor of 100.

Hodrick-Prescott Filter: Extreme Testing 9

Finally for the exercise of filtering a signal that follows exactly the assumptionsmade by Hodrick and Prescott (1997), we constructed a normally distributed cyclewith mean zero and standard deviation 5.

Figure 3: Cycle following the Hodrick-Prescott asumptions.

4.3 Results and conclusions

In the present section we discuss the results and present some conclusions, for thecomplete table of results please contact the authors.

As we would expect the optimal λ for the linear trends x1 and x2 is 100000 nomatter what the noise used; this is due to the fact that when λ → ∞ the HP-filter islinear. However it is noteworthy that for both trends the noise that got the smallest ε (asdefined at the beginning of Section 4) was the uniform noise, and the HP-filter actuallyperformed the worst for normal noise. Leaving the ε aside, the Kolmogorov-Smirnovtest tells us that in every case for trends x1 and x2 the trends original and filtered havethe same distribution, and the Phillips-Perron unit root test tells us that none of thefiltered cycles has a unit root.

For the exponential trends x3, x4 the optimal λ is in both cases and with everynoise 100000, this might seem surprising for the trends are not linear, so λ would nothave to tend to infinity, but 100000 is still far enough from infinity to conclude that λactually tends to it. The noise that minimizes ε is the uniform one.

If we have a look at the results for ε we can see that even when the values are small(they really are not far from the ones corresponding to the same noise and linear trend)the Kolmogorov-Smirnov test failes to conclude that the filtered trend and the originalone have the same distribution in all but the case of uniform noise.

And even when the Phillips-Perron unit root test concludes that the filtered cyclehas no unit root, we can safely say that the HP-filter does not perform well enoughwhen detrending exponential trends.

10 Revista de Administración, Finanzas y Economía

Now let’s have a look at the results for trend x5.

Figure 4: Result for trend x3 and Poisson noise.

The first thing we see is that, as it was to be expected, the optimal λ value isnowhere near 100000. Actually the optimal values of λ are very low, specially forthe uniform noise. According to the Kolmogorov-Smirnov test the filtered trend andthe original one have the same distribution for every noise. According to the Phillips-Perron unit root test, the filtered noises do not have a unit root. We arrive at the con-clusion that the filter does a good job extracting the trend, but the λ that has to be usedis not near 1600.

And finally the results for the time series following the Hodrick-Prescott assum-ptions. The optimal parameter λ is 1550 which actually is very close to 1600, the oneoriginally proposed. According to the Kolmogorov-Smirnov test the original trend andthe filtered one do follow the same distribution. According to the Phillips-Perron test,the filtered cycle as no unit root.

To compare we also generated a signal from the same trend and a Poisson noise. Weobserve that the optimal parameter λ is 41680, which is far from 1600. The Kolmogorov-Smirnov test concludes that the filtered trend and the original one do not follow thesame distribution. The Phillips-Perron test concludes that the filtered test has no unitroots.

The results show that the Hodrick-Prescott filter does a good job when filteringlinear trends whatever the cycle. It is not very good when dealing with exponentialtrends unless the cycle is uniformly distributed. When the behavior of the time seriesfollows the assumptions made by Hodrick and Prescott (1997) the filter performs well,however with a slight change in the behavior of the data the results diverge from whatwe expected.

Hodrick-Prescott Filter: Extreme Testing 11

So the question here is: do macroeconomic time series behave exactly under theHP assumptions? Being the answer no, it is relevant to improve the calculation ofparameter λ to adjust better to the nature of the time series concerned.

Figure 5: Result for the cycle corresponding to trend x5t and normal noise.

A. Stochastic trends

Here we present the performance of the HP-filter when dealing with some trends thatmight be of statistical interest.

There ere some opinions about the fact that sometimes thinking about a determi-nistic trend does not make sense and thinking about a stochastic one is more realistic,(Box and Jenkins, 1970). Bearing this in mind we constructed a stochastic trend thatfollows a Poisson process with parameter α increasing in time, that is, the Poissondistribution with parameter α is,

f(k;α) = exp(−α)αk/k!

for each t ∈ {1, . . . , 150}, αt = t + 5, let Yt be a random variable with Poissondistribution with parameter αt. Then the stochastic trend x6 is a path of the process{Yt}t.

We expect to have some problems filtering trend x6, first: the HP-filter is made fordeterministic trends; second: the trend x6 is not exactly what one would call smooth,and the HP-filter is a low-pass filter (whatever the λ). So lets build a trend x7 that lookssmoother in order to test the HP-filter performance.

Let αt = bt/10c+1, let Zt be a random variable that follows a Poisson distributionwith parameter αt. Then the trend x7 is a realization of the process {Zt}t.

We then summed each of the noises in Section 4.2 to trend x6 and x7 and appliedthe HP-filter.

12 Revista de Administración, Finanzas y Economía

It is straightforward from the picture that the HP-filter did not do a very good jobfiltering the trend, but let us have a look at the statistics.

For trend x6 and normal noise the optimal λ is 100000, however the ε accom-plished was of 7.63, which is big for what we had seen, although according to theKolmogorov-Smirnov test, the filtered trend and the original one do distribute with thesame distribution and the Phillips-Perron test concludes that the cycle does not have aunit root.

For trend x6 and Poisson noise, the optimal λ parameter is around 50000, the εobtained is 6.89 and the Kolmogorov-Smirnov test concludes the filtered trend andthe original one have the same distribution. According to the Phillips-Perron test, thefiltered noise has no unit root.

For trend x6 and Weibull noise the results are very similar to the ones with normalnoise, but the ε obtained is 6.75.

What is puzzling is the result for the optimal λ for the uniform noise, so far we hadobserved that with different noises we did not have so different λ’s, but in this case theoptimal value is 10. Nevertheless the Kolmogorov-Smirnov and Phillips-Perron testsdeliver the results desired.

For trend x7 and normal noise the optimal value of λ is 100000, the Phillips-Perrontest reveals that the filtered noise has no unit root, but the result of the Kolmogorov-Smirnov test is not favorable, the filtered trend and the original do not have the samedistribution function.

We have similar results with the Poisson noise and the Weibull one, in every casethe optimal value of λ is 100000, the Phillips-Perron concludes that the filtered noisehas no unit root, but the Kolmogorov-Smirnov test tells us that the original trend andthe filtered trend do not have the same distribution function.

The results are different with the uniform noise, the optimal value for parameter λis 10, the Kolmogorov-Smirnov test says that the filtered trend and the original trendhave the same distribution function and the Phillips-Perron reveals that there is no unitroot in the series of the filtered noise.

In conclusion the best performance of the HP-filter with stochastic trends is whenthe noise is uniformly distributed.

5. References

1. Anton Sarabia, A.(2010). El problema al final de la muestra en la estimación dela brecha de producto. Economía Mexicana, Nueva Epoca, vol. 19, pp. 5-29

2. Baxter, M; King, R. (1999) Measuring Business Cycles: Approximate Band-Pass Filters for Economic Time Series, The Review of Economics and Statistics,81(4): 575:593

3. Box, G.; Jenkins, G. (1970) Time series analysis: Forecasting and control. SanFrancisco: Hold en-Day.

4. Cayen, J-P.; van Norden, S. The Reliability of Canadian Output-Gap Estimates,North American Journal of Economics and Finance, 16: 373-393.

Hodrick-Prescott Filter: Extreme Testing 13

5. De la Cruz Gallegos, J.L. (2008) México, la crisis social de un modelo econó-mico, Itaca.

6. Devroye, L. (1986). Non-Uniform Random Variate Generation. Springer-Verlag

7. Feynman, R.P.; Leighton, R.B.; Sands, M. (1964). The Feynman Lectures onPhysics, Volume II.

8. Granger, C.W.J; White H. (2011) Consideration of Trends in Time Series. Jour-nal of Time Series Econometrics, Vol 2[2011], Iss. 1, Art.2

9. Harvey, A. C.; Jaeger, A. (1993). Detrending, Stylized Facts and the BusinessCycle. Journal of Applied Econometrics 8(3): 231-247.

10. Hodrick, R.; Prescott, E. (1997). Postwar U.S. Business Cycles: An EmpiricalInvestigation. Journal of Money, Credit and Banking, Vol.29, No.1 (Feb.,1997),pp. 16-45.

11. King, R. G.; Rebelo, S. (1993). Low Frequency Filtering and Real BusinessCycles. Journal of Economic Dynamics and Control 17(1-2):207-31.

12. Korpi, T. (1995) Effects of manpower policies on duration dependence in re-employment rates: the example of Sweden. Economica, vol. 62, pp. 353-71.

13. Laxton, D.; Tetlow, R. (1992). A Simple Multivariate Filter for the Measurementof Potential Output. Bank of Canada, Technical Report No. 59

14. Marcet,A.; Raven, O. M. (2003). The HP-Filter in Crosscountry Comparison.Working Paper.

15. Nelson C. R.; Plosser C. I. (1982) Trends and random walks in macroeconomictime series: some evidence and implications. Journal of Monetary Economics,vol.10, pp.139-62.

16. Orphanides, A; van Norden, S. The Unreliability Output-Gap Estimates in RealTime, Review of Economics and Statistics, 84(4): 569-583.

17. Perron, P. (1988) Trends and Random Walks in Macroeconomic Time Series:Further Evidence from a New Approach. Journal of Economic Dynamics andControl. Vol. 12, pp.297-332.

18. Roed, K.; Zhang, T. (2002). A Note on the Weibull Distribution and Time Ag-gregation Bias. Applied Economics Letters, vol. 9, pp. 469-72.

19. St-Amant, P.; van Norden, S. (1997). Measurment of the Output Gap: A Dis-cussion of Recent Research at the Bank of Canada. Bank of Canada TechnicalReport No. 79.

20. Whittaker, E.T. (1923) On a New Method of Graduation. Proceedings of theEdinburgh Mathematical Society, vol.41, pp 63-75.

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Econo-mics) vol. 7, núm. 1 (2013), pp. 15-37.

Modelos predictivos de riesgo en Tarjetade Crédito con el algoritmo CHAID

ExhaustivoRaúl Ojeda Villareal*

Humberto Valencia Herrera**

Recibido 10 de Octubre de 2012. Aceptado 14 de Diciembre de 2012.

Resumen

Los modelos predictivos para el impago de tarjeta de crédito y otro tipo de créditosrevolventes de la banca minorista, dada su naturaleza deben de basarse en variablesde desempeño y comportamiento del crédito, en vez de sólo variables de originación.Aquí se concentra el análisis en variables de desempeño y comportamiento de loscréditos y se muestra cómo utilizar el algoritmo CHAID exhaustivo como alternativaa los métodos comúnmente utilizados en análisis de crédito como son la regresiónlogística binaria y la regresión logística multinomial, para la generación de reglas declasificación en grupos de riesgo para este tipo de créditos.

Abstract

Predictive models for non-payment of credit card and other revolving loans of retailbanks, by their nature must be based on performance variables and credit behavior,rather than just variables of origination. This analysis focuses on performance andcredit behavior variables and shows how to use the exhaustive CHAID algorithm asan alternative to the methods commonly used in credit analysis such as binary logisticregression and multinomial logistic regression to generate classification rules into riskgroups for this type of credit.

Clasificación JEL: G21

Palabras clave: CHAID exhaustivo, crédito, riesgo, Bancos, Instituciones de Depósito; Micro-financieras; Hipotecas.

*Maestro en Finanzas por la EGADE Business School, [email protected].**Profesor de Finanzas en el Departamento de Contabilidad y Finanzas del Instituto Tecnológico y de

Estudios Superiores de Monterrey, Campus Ciudad de México, [email protected].

16 Revista de Administración, Finanzas y Economía

1. Introducción

En la actualidad, el negocio de Tarjeta de Crédito se ha convertido en uno de los másimportantes para la Banca Minorista en México. Sin embargo, se han realizado pocosestudios en México para el manejo del riesgo crediticio de este producto financiero,tanto desde el punto de vista explicativo como predictivo, a diferencia de otro tipo decréditos no revolventes (simples, hipotecarios, etc.).

Dada la naturaleza de este tipo de créditos (en cuanto a la forma de disposicióndel crédito), es necesario que los modelos predictivos se basen también en variables dedesempeño y comportamiento del crédito, en vez de sólo variables de originación. Paraestudiar el efecto del desempeño los modelos aquí omiten variables de originación,como son sexo, edad, ingresos, número de dependientes económicos, entre otras.

Este análisis se realizó con una muestra aleatoria de 10,000 cuentas del portafo-lio de tarjeta de crédito de un banco mexicano. Recibimos esta muestra en dos basesde datos, una correspondiente al cierre de Mayo de 2012 y otra al cierre de Agosto2012. Al tener la misma muestra en dos momentos de tiempo separados por 90 días dediferencia, podremos hacer análisis del comportamiento crediticio de los créditos tresmeses después a la fecha de referencia, además de probar en este segundo momentodel tiempo la eficacia de las reglas de clasificación que generamos con la informacióndel momento de referencia. Cabe mencionar que este periodo está libre de factoreseconómicos adversos en México que pudieran afectar el default de las cuentas.

2. Marco teórico

Para clasificar créditos se han propuesto diferentes metodologías, en métodos linealesestán regresión logística, análisis discriminante (Altman 1968) y análisis de factores,métodos no paramétricos de clasificación como árboles de decisión y el k-vecino máscercano (Tsai y Chen 2000) hasta enfoques de cómputo suave como redes neuronales(West 2000) y máquinas vectoriales (Huang, Chen, et al. 2004), así como enfoquesmixtos (Tsai y Wu 2008). Se observa que métodos que incluyen árboles de decisión,como aquí, dan mejores resultados, seguidos por redes neuronales y regresión logís-tica, y algoritmos como el vecino más cercano o clasificadores ingenuos Bayesianosdan los resultados más pobres (Marquéz, García et al. 2012) La clasificación del cré-dito se puede hacer con factores financieros y no financieros, y considerando que lascaracterísticas de los clientes cambian a lo largo del tiempo, lo que es especialmenteen carteras revolventes. (Mavri, Angelis et al. 2008) muestran cómo se puede con-siderar las características cambiantes del cliente en un crédito revolvente usando unmodelo lineal generalizado y cómo se puede pronosticar el incumplimiento usandoanálisis de sobrevivencia. Mylonakis and Diacogiannis (2010) muestran que en car-teras de tarjetas de crédito basarse sólo en características de originación, esto es, lascaracterísticas del prospecto, no es suficiente, al menos utilizando la técnica de análisisdiscriminante lineal, de ahí la importancia de variables del comportamiento del clientepara pronosticar un posible incumplimiento. El modelo que se presenta aquí se centraen las variables de comportamiento del cliente y muestra la implementación de Chaidexhaustivo a una cartera de créditos mexicanos, que a nuestro conocimiento es pioneraen México.

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 17

2.1. Modelos CART (Árboles de Clasificación y Regresión)

Los árboles de clasificación son una herramienta que nos permite:

Perfilar: Identificar qué propiedades caracterizan o discriminan a los casos quepertenecen a cada una de las categorías de la variable dependiente

Segmentar: Agrupar los casos con características similares

Conocer cuáles de las variables independientes influyen más en la clasificación

Clasificar: Crear reglas que permitan clasificar nuevos casos en esos grupos yapredefinidos

A diferencia de la regresión logística, los árboles de clasificación son una herramientamás simple, dado que su representación es gráfica y no tienen supuestos de probabili-dad.

Los árboles de clasificación se consideran técnicas de aprendizaje automático queno tienen supuestos sobre la distribución de las variables involucradas ni sobre la rela-ción entre las mismas.

Para todos los árboles el procedimiento consiste en dividir la muestra en subgru-pos en los que aumenta la frecuencia relativa de alguna de las categorías de formasignificativa. (López Saura, 2012)

Los Árboles de Clasificación son un caso particular de los Árboles de Clasificacióny Regresión (CART por sus siglas en inglés de Classification and Regressión Trees),en el que la variable dependiente es discreta. El caso en el que la variable dependientees continua se llama árbol de regresión.

Los árboles son llamados de esa manera debido a que su representación se asemejaa un árbol de cabeza, con una raíz en la parte superior (nodo 0 parental), una serie deramas que unen o conectan nodos (nodos parentales y filiales) y las hojas en la par-te inferior (nodos filiales terminales). Los árboles se abren o ramifican de acuerdo alalgoritmo de expansión que se utilice. En este estudio utilizaremos el CHAID Exhaus-tivo (por sus siglas en inglés de Chi-squared Automatic Interaction Detection., Biggs etal. (1991), Montgomery, Peck and Vining, 2006). El método se ha usado ampliamente,por ejemplo en la segmentación de turistas (Vassiliadis, 2008, Moreno y Martin, 2011),para clasificar el riesgo de sufrir un accidente ocupacional (Bevilacqua, Ciarapica et al.2010), para segmentar clientes en la industria de seguros (Yadav y Soni, 2008, Desiky Behera (2012), para analizar la calidad en los servicios en vuelos (Stolzer y Halford2008). Baron y Phillips (1993) utilizan Chaid exhaustivo para analizar las actitudesde consumidores de centros comerciales. Rayo y Cortes (2010) la utilizan para cla-sificar en base a características contables y financieras las empresas de bienes raícesque son más rentables en España. Aquí se utiliza para analizar la calidad crediticia deuna cartera revolvente en México con un enfoque a las conductas de los tenedores detarjetas.

18 Revista de Administración, Finanzas y Economía

2.2. CHAID Exhaustivo

El algoritmo CHAID pone a prueba la independencia de la variable dependiente contracada una de las variables independientes en una tabla de contingencia. La variable mássignificativa es seleccionada para la división del nodo origen.

Una vez dividida la base de datos, en cada nuevo nodo el proceso se repite con cadavariable independiente no usada, hasta que se cumple alguno de los criterios de parada.Utilizamos el criterio de parada estándar: la mínima cantidad de casos en los nodosparentales y filiales, utilizando un 10 % y 5 % del total de la muestra, respectivamente.En nuestro caso, el número mínimo de casos en los nodos parentales es 1,000 (10 %) yen los filiales 500 (5 %). Si un nodo no reúne este número mínimo de casos no sé abre,y la ramificación termina en su nodo parental, volviendo a éste un nodo terminal.

CHAID es un algoritmo que ha estado ganando popularidad en múltiples áreasya que permite hacer segmentación, provee de árboles de clasificación no-binarios,las categorías segmentos son mutuamente exclusivos, permite predecir cuándo ciertossegmentos son más probables de tener un comportamiento objetivo y es relativamentesimple de usar e interpretar. El CHAID exhaustivo es una modificación de CHAIDque analiza todas las posibles fusiones de las variables predictoras nominales u ordi-nales hasta encontrar la relación más significativa con la variable dependiente. De estaforma, el CHAID exhaustivo puede encontrar la mejor segmentación de las variablespredictoras respecto a la variable dependiente.

3. Aspectos relevantes sobre la selección de variables

Como se mencionó, se omitieron por sí las variables de originación y se consideró sim-plemente una variable de puntuación por originación (score), la cual resume el efectode originación. Las variables utilizadas se categorizaron, es decir, se transformaronde variables de escala a variables nominales categóricas, las cuales se muestran en elCuadro 1. En este caso, la variable dependiente es la variable Default, la cual indica Sío No la cuenta presenta algún tipo de impago.

Cuadro 1: Resumen de variables, su tipo y categorías

Categoría Variables Tipo CategoríasCaracterísticas del tipodeproducto

Producto Nominal Clásica

OroPlatinumInfiniteBusiness

Canal de otorgamiento Nominal InternoExternoMezcla

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 19

Categoría Variables Tipo CategoríasSin ScoreMuy malo

Score Originación Ordinal MaloRegularBueno

Propiedades del sujetode

Muy bueno

crédito (originación) Cliente VIP Dicotómica SíNo

Tarjeta estudiantil Dicotómica SíNo

Cliente de cuenta decheques

Dicotómica Sí

No6 meses o menos12 meses o menos18 meses o menos

Antigüedad de la cuen-ta

Ordinal 24 meses o menos

Más de 2 añosMás de 5 añosMás de 10 años

Línea de crédito EscalaCaracterísticas de la InactivaCuenta < 5,000

5,001 -10,00010,001 -20,000

Categoría línea de cré-dito

Ordinal 20,001 - 50,000

50,001 -100,000100,001 -200,000200,001 -500,000500,001 -1,000,000> 1,000,000

20 Revista de Administración, Finanzas y Economía

Categoría Variables Tipo CategoríasSaldo EscalaSaldo Sobregirado EscalaSaldo más alto / LC EscalaCambio en línea decrédito

Dicotómica Sí

NoNo

Aumento/DecrementoLC

Nominal Incremento

DecrementoActividad de la cuenta Mesa de Control

Utilización de la líneade crédito

Escala

NoSobregiro Nominal Sobregiro

Sobregiro >50 %Monto de BalanceTransfer

Escala

Transacciones de Ba-lance

Escala

Transacciones en com-pras

Escala

Transacciones en dis-posiciones ATM

Escala

Corriente3060

Estatus de morosidad Ordinal 90120150

Gestión de la cuenta 180Más de 180GestionableQuitas / Cuentas Malas

Estatus de la gestión OrdinalNo gestionable / irre-cuperableDefuncionesPrecalificadas/Prueba

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 21

Categoría Variables Tipo CategoríasDefault Dicotómica Sí

NoCorrienteDefault temprano

Categoría Default Ordinal Default intermedioCartera vencidaIrrecuperable / Casti-gada

Monto del último im-pago

Escala

Morosidad de la cuentaBucket default 1-30días

Escala

Bucket default 3l-60días

Escala

Bucket default 6l-90días

Escala

Bucket default 9l-120días

Escala

Bucket default 121-150 días

Escala

Bucket default 151-180 días

Escala

Bucket default 181-210 días

Escala

Bucket default 211-240días

Escala

Bucket default 24l-270días

Escala

Bucket default 27l+ Escala

Fuente: Elaboración propia

4. Identificación de grupos de riesgo con CHAID Exhaustivo

La variable dependiente es la variable "Default," la cual es una variable categórica binaria concategorías Sí y No, indicando si la cuenta presenta o no algún impago al momento del análisis(cierre de Mayo de 2012). La variable "Default" es la variable de referencia utilizada en el árbolde decisión corrido en SPSS, a la que se estimó la ganancia, el índice y la respuesta.

22 Revista de Administración, Finanzas y Economía

Figura 1: Árbol de clasificación Uno

Fuente: Elaboración propia

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 23

Tabla 1: Tabla del árbol de clasificación Uno

Fuente: Elaboración propia

Cada nodo del árbol ramifica en base a la variable más significativa disponible. Como vemosen la Figura 1, al igual que en la regresión logística, la variable Sobregiro, seguida de Antigüedadde la Cuenta, son las variables más significativas sobre el default de las cuentas (estadísticoChi-cuadrado más alto), ver Cuadro 1. En la tabla de ganancia, ver Figura 2, los nodos estánordenados de mayor a menor con respecto a la probabilidad de pertenecer a la categoría objetivo.Tomaremos como referencia el Nodo 5 por tener el mayor Índice y Respuesta de 599.8 % y89.9 %, respectivamente.

Figura 2: Tabla de GananciasNodo Nodo Ganancia Respuesta Índice

N % N %5 690 6.9 % 620 41.4 % 89.9 % 599.8 %6 710 7.1 % 433 28.9 % 61.0 % 407.1 %8 1457 14.6 % 214 14.3 % 14.7 % 98.0 %7 711 7.1 % 54 3.6 % 7.6 % 50.7 %14 1322 13.2 % 81 5.4 % 6.1 % 40.9 %10 708 7.1 % 23 1.5 % 3.2 % 21.7 %13 906 9.1 % 22 1.5 % 2.4 % 16.2 %11 2117 21.2 % 44 2.9 % 2.1 % 13.9 %12 1379 13.8 % 7 0.5 % 0.5 % 3.4 %

Método de Crecimiento: CHAID ExhaustivoVariable dependiente: Estándar

24 Revista de Administración, Finanzas y Economía

Nodo 5 Nodo 0Categoría N Categoría NNo 10.1 70 No 85.0 8502Si 89.9 620 Si 15.0 1498Total 6.9 690 Total 100.0 10,000

En la Figura 2, "Nodo," N es el número de casos en el nodo y "Porciento" indica el por-centaje que representa N del número total de casos en la muestra, .

(690/10,000)x100 = 6.9 %En "Ganancia," o “Gain” N es el número de casos en el nodo queson de la categoría objetivo “Sí” y Porcentaje que representa del total de casos en la categoríaobjetivo “Sí” en toda la muestra,(620/1,498)x100 = 41.4 %

"Response" o Respuesta es el porcentaje que representan los casos de la categoría objetivodentro del nodo, (620/690) = 89.9 %

"Index" o Índice indica cuántas veces mejora la probabilidad de pertenecer a la categoríaobjetivo en este nodo respecto a toda la muestra,

(89.9/15) x 100 = 599.8 %Gráfico de ganancia: Como la curva decae muy pronto, vemos que con el primer 40 % de

la muestra, ya se alcanza a cerca del 90 % de los que se encuentran en la categoría objetivo “Sí”,ver figura 3.

Figura 3: Gráfico de ganancia

Fuente: Elaboración propia.

Gráfico de Respuesta: A medida que se toman más casos con menor probabilidad de per-tenecer a “Sí”, el porcentaje de “Sí” disminuye. Al principio estarán los casos del nodo 5, con unporcentaje de respuesta de 89.9 %, y al final la muestra completa con un porcentaje de 13.2 %,ver Figura 4.

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 25

Figura 4: Gráfico de respuesta

Fuente: Elaboración Propia

Gráfico de Índice: A medida que se acumulan más casos con menor probabilidad de “Sí”,disminuye el índice de respuesta “Sí”. El índice va de 599.8 % en el nodo 5, hasta 100 % cuandoya se tiene toda la muestra, ver figura 5.

Figura 5: Gráfico de índice

Fuente: Elaboración propia

Obtenemos una tabla de clasificación con un porcentaje de clasificación acertada de loscasos de default de 84.6 % y un porcentaje global del modelo de 81.8 %, ver Cuadro 2.

26 Revista de Administración, Finanzas y Economía

Cuadro 2: Tabla de clasificaciónObservado Predicción

No Si Porcentaje correctoNo 6912 1890 81.3 %Si 231 1267 84.6 %Porcentaje total 71.4 % 28.6 % 81.8 %

Método de selección: CHAID ExhaustivoVariable dependiente: Estándar

Fuente: Elaboración propia.

Como vimos, la mayor probabilidad de pertenecer a la categoría “Sí” de la variable defaultse encuentra en el nodo 5 en la Figura 6, que es el nodo en que se conjuntan los casos de lamuestra (690 en total) que cumplen con las siguientes características:

1.- Es una cuenta con Sobregiro o Sobregiro > 50 %2.- Es una cuenta con un decremento de línea o que está en mesa de controlUna cuenta con estas características tiene el 89.9 % de probabilidad de pertenecer a la cate-

goría “Sí” de Default. Esta regla de clasificación la obtenemos al seguir la trayectoria del nodoque analizamos, de abajo hacia arriba:

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 27

Figura 6: Nodo 5 Árbol de clasificación 1

Fuente: Elaboración propia

Para obtener reglas de clasificación más específicas, necesitamos un árbol con más ramifi-caciones y nodos terminales. Esto se logra cambiando los criterios de parada del crecimiento delárbol. Para el ejemplo anterior utilizamos la regla del 10 % y 5 % de casos mínimos de la muestraen los nodos parentales y filiales, respectivamente. Utilizaremos ahora un criterio 1 % y 0.5 %,teniendo como mínimo 100 y 50 casos respectivamente, se obtiene el árbol de clasificación 2,ver Figura 7.

28 Revista de Administración, Finanzas y Economía

Figura 7: Árbol de clasificación 2

Fuente: Elaboración propia

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 29

Cuadro 3: Tabla resumen del Árbol de clasificación 2

Fuente: Elaboración propia

El árbol en la Figura 7 es sumamente grande, por lo que la Figura 8 muestra un acercamientoa los nodos con mayor ganancia e índice:

30 Revista de Administración, Finanzas y Economía

Figura 8: Nodos con mayor ganancia e índice del Árbol de clasificación 2

Fuente: Elaboración propia

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 31

Cuadro 4: Ganancias por nodoNodo Ganancia

Nod N % N % Resp. Índice25 318 3.2 % 304 20.3 % 95.6 % 638.2 %26 147 1.5 % 134 8.9 % 91.2 % 608.5 %3 54 0.5 % 46 3.1 % 85.2 % 568.7 %N 108 1.1 % 88 5.9 % 81.5 % 543.9 %18 375 3.8 % 278 18.6 % 74.1 % 494.9 %16 79 0.8 % 56 3.7 % 70.9 % 473.2 %19 260 2.6 % 130 8.7 % 50.0 % 333.8 %9 59 0.6 % 17 1.1 % 28.8 % 192.3 %6 102 1.0 % 23 1.5 % 22.5 % 150.5 %11 498 5.0 % 96 6.4 % 19.3 % 128.7 %36 160 1.6 % 21 1.4 % 13.1 % 87.6 %21 1463 14.6 % 148 9.9 % 10.1 % 67.5 %33 450 4.5 % 40 2.7 % 8.9 % 59.3 %35 84 0.8 % 4 0.3 % 4.8 % 31.8 %34 122 1.2 % 4 0.3 % 3.3& 21.9 %13 708 7.1 % 23 1.5 % 3.2 % 21.7 %28 241 2.4 % 6 0.4 % 2.5 % 16.6 %32 204 2.0 % 5 0.3 % 2.5 % 16.4 %22 906 9.1 % 22 1.5 % 2.4 % 16.2 %14 2117 21.2 % 44 2.9 % 2.1 % 13.9 %31 61 0.6 % 1 0.1 % 1.6 % 10.9 %20 105 1.0 % 1 0.1 % 1.0 % 6.4 %15 1379 13.8 % 7 0.5 % 0.5 % 3.4 %

Método de crecimiento: CHAID ExhaustivoVariable Dependiente: Estándar

Fuente: Elaboración propia

Los nodos 25, 26, 3 y 27 tienen una respuesta mayor al 80 %, y en particular, el nodo25 tiene una respuesta de 95.6 %. Los casos que caen en este nodo, de acuerdo a su regla declasificación, tendrán una probabilidad de 95.6 % de pertenecer a la categoría “Sí” de Default,ver Cuadro 4. Las Figuras 8 a 10 muestran, respectivamente, la ganancia, la respuesta y el índice.

32 Revista de Administración, Finanzas y Economía

Figura 8: Gráfico de ganancia

Fuente: Elaboración propia

Figura 9: Gráfico de respuesta

Fuente: Elaboración propia

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 33

Figura 10: Gráfico de índice

Fuente: Elaboración propia

5. Reglas de clasificación para cuentas con alta probabilidad de default

Con el resultado de los árboles de clasificación, podemos generar reglas de clasificación paralos nodos con mayor respuesta o, dicho de otra manera, los casos con mayor probabilidad depertenecer a la categoría de “Sí”.Tomaremos los nodos con respuesta mayor al 85 %, esto es, losnodos 3, 25 y 26, en el Cuadro 5.

34 Revista de Administración, Finanzas y Economía

Cuadro 5: Ganancia por nodoNodo Nodo Ganancia Resp. Índice

N % N %25 3.2 % 304 20.3 % 95.6 % 638.2 %26 147 1.5 % 134 8.9 % 91.2 % 608.5 %3 54 0.5 % 46 3.1 % 85.2 % 568.7 %27 108 1.1 % 88 5.9 % 81.5 % 543.9 %18 375 3.8 % 278 18.6 % 74.1 % 494.9 %16 79 0.8 % 56 3.7 % 70.9 % 473.2 %19 260 2.6 % 130 8.7 % 50.0 % 333.8 %9 59 0.6 % 17 1.1 % 28.8 % 192.3 %6 102 1.0 % 23 1.5 % 22.8 % 180.5 %11 498 5.0 % 96 6.4 % 19.3 % 128.7 %36 160 1.6 % 21 1.4 % 13.1 % 87.6 %21 1463 14.6 % 148 9.9 % 10.1 % 67.5 %33 450 4.5 % 40 2.7 % 8.9 % 59.3 %3S 84 0.8 % 4 0.3 % 4.8 % 31.8 %34 122 1.2 % 4 0.3 % 3.3 % 21.9 %13 708 7.1 % 23 1.5 % 3.2 % 21.7 %28 241 2.4 % 6 0.4 % 2.5 % 16.6 %32 204 2.0 % 5 0.3 % 2.5 % 16.4 %22 906 9.1 % 22 1.5 % 2.4 % 16.2 %14 2117 21.2 % 44 2.9 % 2.1 % 13.9 %31 61 0.6 % 1 0.1 % 1.6 % 10.9 %20 105 1.0 % 1 0.1 % 1.0 % 6.4 %15 1379 13.8 % 7 0.5 % 0.5 % 3.4 %

Método de crecimiento: CHAID ExhaustivoVariable Dependiente: Estándar

Fuente: Elaboración propia

Regla de Clasificación 1 – Nodo 25: Una cuenta con:

Sobregiro menor al 50 %

Con un decremento (o varios) de línea de crédito o que se originó en Mesa de Control

Sin una cuenta de cheques asociada

Una línea de crédito menor a $10,000

Tiene un 95.6 % de probabilidad de estar en default.

Regla de Clasificación 2 – Nodo 26: Una cuenta con:

Sobregiro menor al 50 %

Con un decremento (o varios) de línea de crédito o que se originó en Mesa de Control

Sin una cuenta de cheques asociada

Una línea de crédito entre $10,000 y $20,000

Tiene un 91.2 % de probabilidad de estar en default.

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 35

Regla de Clasificación 3 – Nodo 3: Una cuenta con:

Sobregiro mayor al 50 %

Tiene un 85.2 % de probabilidad de estar en default.

Las cuentas que queden dentro de alguna de estas tres clasificaciones, tendrán alta probabi-lidad de estar en default, independientemente de que en la realidad efectivamente lo estén.

6. Análisis del acierto de las reglas de clasificación en t+n

Si bien es cierto que estas reglas clasifican como cuentas en default a la mayoría de las cuentasque efectivamente presentan un impago, existe un porcentaje considerable (18.7 %) de cuentasque cumplen con las condiciones para ser clasificadas (o pronosticadas) como cuentas en default,a pesar de que en la realidad se encuentran al corriente. Podemos evaluar la capacidad predictivade dichas reglas para estos casos de interés, donde en el tiempo t se clasificaron como cuentasen default a pesar de no estarlo en ese momento, pero que en t+n ya se encuentran en impago.

Probamos tres meses después (cierre de Agosto de 2012) las tres reglas de clasificacióngeneradas en Mayo para las 200 cuentas que cayeron en default de Mayo a Agosto, del total de1,590 que en Mayo se clasificaron como default sin estarlo, ver Cuadro 6.

Cuadro 6: Frecuencia de casos dentro de las reglas en t+90 días

Frecuencia dentro de la regla Total en default % aciertoRegla 1 119 119 100Regla 2 40 40 100Regla 3 41 41 100Total 200 200

Fuente: Elaboración propia

Las reglas clasifican perfectamente como default al 100 % de los casos que cumplen consus características. El acierto en este tipo de clasificación predictiva, nos permite tomar accionespreventivas para estas cuentas, haciendo una gestión dirigida para este segmento con el fin deprevenir su deterioro e impago. El período analizado fue un período estable, se considera comoextensiones futuras un análisis en períodos con mayor volatilidad.

7. Conclusiones

Hemos mostrado como utilizar CHAID exhaustivo para una cartera de tarjetas de crédito, ilus-trando cómo se puede utilizar para hacer una segmentación, hemos explicado la interpretaciónde los resultantes árboles de clasificación y cómo se puede utilizar CHAID exhaustivo para pre-decir si ciertos segmentos son más probables de tener el comportamiento objetivo. El algoritmoCHAID exhaustivo nos permite generar reglas de clasificación adecuadas para clasificar gruposde alto riesgo en portafolios de tarjeta de crédito. Nos permiten también realizar una gestiónpreventiva para estos grupos mediante candados o alertas para las cuentas que entren en ellos.Su practicidad y simplicidad de interpretación la hacen una herramienta muy eficaz en este tipode análisis.

Las conclusiones sobre este portafolio de tarjeta de crédito en particular, es que la instituciónfinanciera debería ajustar sus políticas de sobregiro en cuentas con líneas de crédito menoresa $20,000, esto es, para sus productos Clásica y Oro. De esta manera disminuiría el riesgocrediticio de aproximadamente el 60 % de su portafolio de tarjeta de crédito.

36 Revista de Administración, Finanzas y Economía

Una razón de no hacer esto, es debido a que este sector en específico es fuertemente compe-tido por las instituciones de crédito, por lo que es posible que estas instituciones estén dispuestasa aceptar este riesgo a cambio de mantener su posición en el mercado. De acuerdo al Banco deMéxico:

“. . . el sistema no solamente es pequeño sino que presenta indicadores elevados de con-centración. Encuentra también que las tasas activas de los bancos emisores de tarjeta son altase inflexibles en el corto plazo ante cambios en las tasas de referencia (TIIE 28). Los índicesde Lerner obtenidos, indican que todos los emisores gozan de un amplio y creciente poder demercado; esto se relaciona con la existencia de diferenciación de productos y con la caída enlas tasas de interés de referencia en el periodo de análisis. Finalmente, desarrolla un indicadorpara apreciar si el castigo que se aplica a los bancos ineficientes corresponde a lo que ocurriríaen un mercado competitivo. Encuentra que existe un castigo limitado para los emisores inefi-cientes, del que se infiere una baja intensidad en la competencia por la vía de los precios. Sinembargo, recientemente dicho castigo ha tendido a elevarse, lo que indica que la intensidad dela competencia se ha incrementado.” (Negrin y O’Dogherty, 2012)

8. Referencias

1. Altman, E. I. (1968). "Financial Ratios, Discriminant Analysis and the Prediction of Cor-porate Bankruptcy." Journal of Finance: 189–209.: 189-206.

2. Baron, S. y D. Phillips (1993) “Attitude Survey Data Reduction Using CHAID: An Exam-ple in Shopping Centre Market Research.“ Journal of Marketing Management. 10(1-3):75-88.

3. Bevilocqua, M., F. E. Ciarapica and G. Giacchetta (2010). "Data mining for occupationalinjury risk: a case study." International Journal of Reliability, Quality & Safety Enginee-ring 17(4): 351-380.

4. Biggs, D. B., B. de Ville and E. Suen (1991). "A method of choosing multiway partitionsfor classification and decision trees,." Journal of Applied Statistics 18: 49.

5. Dabós, M. —Credit Scoring,http://mba.americaeconomia.com/sites/mba.americaeconomia.com/files/credit_scoring.pdf,consultado en noviembre 2012.

6. Desik, P. H. A.; S. Behera (2012) “Acquiring Insurance Customer: The CHAID Way.”IUP Journal of Knowledge Management. 10(3): 7-13.

7. Gutiérrez, G., A. Matías “Modelos de Credit Scoring - ¿Qué, Cómo, Cuándo y Pa-ra qué?”, http://mpra.ub.uni-muenchen.de/16377/1/CreditScoring.pdf, consultado en no-viembre 2012.

8. Hair Jr., J. ., W. Black, B. J. Babin, R.E. Anderson, “Multivariate Data Analysis,” 7aEdición, Pearson, 2010.

9. Huang, Z., H. Chen, C. J. Hsu, W. H. Chen and S. Wu (2004). "Credit rating analysis withsupport vector machines and neural networks: A market comparative study." DecisionSupport Systems 37(4): 543-558.

10. López Saura,I. “Análisis Multivariado”, discusión en clase de Maestría en Finanzas, oc-tubre 2012, ITESM – CCM, México.

11. Montgomery E., A. Peck, and G. G. Vining, “Introduction to Linear Regression Analy-sis”, 4a Edición, Wiley 2006.

Modelos predictivos de riesgo en Tarjeta de Crédito con el algoritmo CHAID Exhaustivo 37

12. Mures Quintana, M. J., A. García Gallego y M. E. Vallejo Pascual„ Aplicación de Análi-sis Discriminante y Regresión Logística en el Estudio de la Morosidad en las EntidadesFinancieras. Comparación de Resultados,http://www3.unileon.es/pecvnia/pecvnia01/01_175_199.pdf, consultado en noviembre 2012.

13. Negrín, J. L. y P. O’Dogherty, “Estructura y Competencia en el Mercado Mexicano deTarjetas de Crédito”, Banco de México, 2012.

14. Marqués, A. I., V. García y J. S. Sánchez (2012). "Exploring the behaviour of base clas-sifiers in credit scoring ensembles." Expert Systems with Applications 39(11): 10244-10250.

15. Mavri, M., V. Angelis, G. Ioannou, E. Gaki and I. Koufodontis (2008). "A two-stagedynamic credit scoring model, based on customers’ profile and time horizon." Journal ofFinancial Services Marketing 13(1): 17-27.

16. Moreno, P. and D. Martín (2011). "Understanding travel expenditure by means of marketsegmentation." Service Industries Journal 31(10): 1683-1698.

17. Mylonakis, J. and G. Diacogiannis (2010). "Evaluating the Likelihood of Using LinearDiscriminant Analysis as A Commercial Bank Card Owners Credit Scoring Model." In-ternational Business Research 3(2): 9-20.

18. Rayo, S. and A. M. Cortes (2010) “Applying Chaid to Identify the Accounting-FinancialCharacteristics of the Most Profitable Real Estate Companies in Spain.” Journal of Eco-nomics, Finance & Administrative Science. 15(29):51-71.

19. Roche, A. “Árboles de Decisión y Series de Tiempo”, diciembre 2009,http://premat.fing.edu.uy/ingenieriamatematica/archivos/tesis_ariel_roche.pdf, consulta-do en noviembre 2012.

20. Spiegel, M. R. “Estadística”, McGraw Hill, México, 1970.

21. Spiegel, M. R. “Teoría y Problemas de Análisis Vectorial y una Introducción al AnálisisTensorial”, McGraw Hill, 1970.

22. Stolzer, A. J. y C. Halford (2007). "Data mining methods applied to flight operations qua-lity assurance data: a comparison to standard statistical methods." Journal of Air Trans-portation 12(1): 6-24.

23. Tsai, C. F. and M. L. Chen (2010). "Credit rating by hybrid machine learning techniques."Applied Soft Computing 10(2): 374-380.

24. Tsai, C. F. and J. W. Wu (2008). "Using neural network ensembles for bankruptcy pre-diction and credit scoring." Expert Systems with Applications 34(4): 2639-2649.

25. Vassiliadis, C. A. (2008). "Destination product characteristics as useful predictors for re-peat visiting and recommendation segmentation variables in tourism: a CHAID exhaus-tive analysis." International Journal of Tourism Research 10(5): 439-452.

26. West, D. (2000). "Neural network credit scoring models." Computers and OperationsResearch 27(11): 1131-1152.

27. Yadav, P. y T. Soni (2008). "Growth in Indian Insurance Sector: A Case Study." ICFAIJournal of International Business 3(1): 16-27.

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Econo-mics) vol. 7, núm. 1 (2013), pp. 39-67.

Flexibilidad y control en la gestión deempresas mexicanas del Distrito Federal

Guillermo Carrasco*

Edmundo Marroquín**

Adrianela Angeles***

Recibido 20 de Julio de 2012. Aceptado 10 de Diciembre de 2012.

Resumen

El aumento de la competencia global en los mercados, la aceleración del cambio tecnológico, asícomo el incremento en las expectativas de los clientes están creando un entorno turbulento paralas empresas en todo el mundo. Hablar de flexibilidad y control se ha vuelto un tema frecuente enlas discusiones sobre las estructuras que estas tendrán en el siglo XXI (Martínez A. et al, 2007).Un paradigma con el que se puede abordar su estudio es el ciclo de vida de la organización, elcual según Adizes (1979) no depende de la antigüedad, ventas, activos o número de empleados,sino de la interrelación entre la flexibilidad y el control. El principal problema es mantener eldelicado equilibrio entre estas dos variables cuyos efectos repercuten en los resultados finalesde la gestión empresarial.

En esta investigación se realizó un estudio empírico para valorar la flexibilidad y controlejercidos en empresas mexicanas localizadas geográficamente en la capital del país: El DistritoFederal. Se realizó un análisis estadístico para identificar la etapa del ciclo de vida en que ubican.Se encontraron cinco constructos que caracterizan la gestión que realizan.

Abstract

Increasing global competition in the markets, the acceleration of technological change, as wellas an increase in customer expectations are creating a turbulent environment for companiesworldwide. Speaking of flexibility and control has become a frequent topic in discussions of thestructures that they are going to have in the twenty-first century (Martínez A. et al, 2007). Aparadigm that can address their study is the life cycle of the organization, which according toAdizes (1979) does not depend on the age, sales,assets or number of employees, but the interplaybetween flexibility and control. The main problem is to maintain the delicate balance betweenthese two variables, the effects of which affect the final results of business management.In this research, an empirical study was conducted to assess the flexibility and control exercisedover Mexican firms located geographically on the nation’s capital: The Federal District. Statis-tical analysis was performed to identify the stage of the life cycle in which they are. We foundfive constructs that characterize the management that they carried out.

*Profesor del Departamento de Administración y Negocios Internacionales del Instituto Tecnológico yde Estudios Superiores de Monterrey (ITESM), Campus Ciudad de México. E-mail: [email protected]

**Candidato a Doctor en Administración por la Universidad Panamericana. Edmundo Marroquin Tovar.E-mail: [email protected]

***Estudiante del Doctorado en Ciencias Administrativas del Instituto Tecnológico y de Estudios Superio-res de Monterrey (ITESM), Campus Ciudad de México. E-mail: [email protected]

40 Revista de Administración, Finanzas y Economía

Clasificación JEL: M100

Palabras clave: Ciclo de vida, gestión empresarial, flexibilidad, control, empresas mexicanas.

1. Objetivo

En este artículo se valora la relación de flexibilidad y control en la gestión de un grupo deempresas mexicanas ubicadas geográficamente en el Distrito Federal.

2. Marco Teórico

Penrose (1952) escribe sobre las analogías que los economistas han hecho de las ciencias na-turales con fenómenos económicos, uno de estos es relacionar el ciclo de vida biológico con elde las empresas, aduciendo que aparecen, crecen y desaparecen. Varios autores han propuestodiferentes teorías al respecto: Mueller (1972) plantea una teoría del ciclo de vida de las empre-sas enfocándose en la maximización de la utilidad. Quinn & Cameron (1983) compararon diezmodelos de ciclos de vida del desarrollo de las empresas con respecto a la efectividad organi-zacional. Greiner (1972) desglosa su desarrollo en cinco etapas, cada una con un período decrecimiento que termina con una crisis administrativa. Kimerbly (1979) realiza un estudio lon-gitudinal sobre el inicio y desarrollo temprano de algunas organizaciones innovadoras y resaltaque paradójicamente, algunas características que ayudaron a que tuvieran éxito en un principioson incompatibles en el largo plazo. Kazanjian & Drazin (1989) proponen un modelo de cua-tro etapas: Concepción y desarrollo, comercialización, crecimiento y estabilidad, que acotan aempresas tecnológicas nuevas. Lumpkin & Dess (1995) analizan la simplicidad en el procesoestratégico relacionándola con las diferentes etapas del ciclo de vida de las empresas, en lasprimeras etapas es práctico pero conforme madura la empresa es impráctico.

Lester et al (2003) proponen un modelo de cinco etapas y lo relacionan con desempeño y es-trategia competitiva. Hill et al (2002) analizaron ocho empresas pequeñas y medianas asociandodiversas crisis con etapas en el desarrollo y con cambios en el estilo de dirigir. Jayaraman et al(2000) analizaron 94 empresas asociando el estilo de dirección con el valor de las acciones delas mismas. Se distinguen diferentes etapas en el desarrollo organizacional, en particular cuandoel fundador tiene que delegar parte del control por el crecimiento de su empresa. Vaseghi &Vaseghi (2011) afirman que las organizaciones tienen diferentes necesidades administrativas yel tipo de decisiones que los ejecutivos deben tomar varía de acuerdo a la etapa de desarrollo enel ciclo de vida, por lo que es necesario asociar el estilo cognitivo del ejecutivo con la etapa delciclo de vida de la empresa. Stubbart & Smalley (1999) aclaran que el uso de etapas en los ciclosde vida de las empresas facilitan la representación de procesos y fenómenos continuos subya-centes y estos no necesariamente siguen un patrón lineal, hay casos de cambios dramáticos odiscontinuos que no siguen ese patrón.

Adizes (1979) propuso un modelo del ciclo de vida que describe estilos organizacionales enfunción de sus deficiencias y problemas para diagnosticar la etapa de desarrollo y el tratamientonecesario que se requiere, con el objeto de llevar a la empresa al nivel óptimo que es la Plenitud.Propone un modelo de diez etapas el cual se muestra en la Figura 1:

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 41

Figura 1. Ciclo de vida organizacional

Fuente: www.adizes.com

Adizes (1979) señala que las etapas no dependen de la antigüedad, ventas, activos o númerode empleados, sino de la interrelación entre la flexibilidad y el control de la gestión, siendo la dePlenitud la óptima por tener un balance entre ambos. Por las razones anteriores los autores deesta investigación consideramos que este modelo es el más apropiado para lograr los objetivosdel presente trabajo, ya que es el único que contempla el declive y la muerte de la empresa.

La descripción de las etapas que este modelo son:Noviazgo: El futuro fundador se enfoca en ideas y posibilidades, haciendo y platicando de

planes ambiciosos. El cortejo termina cuando nace la empresa.Infancia: La atención del fundador cambia de solo tener ideas y posibilidades a obtener

resultados. La necesidad de generar ventas dirige esta etapa orientándola hacia la detección deoportunidades.

Go–Go: Esta es una etapa de rápido crecimiento. Las ventas son las que mandan. El funda-dor cree que no se puede equivocar. Ve todo como oportunidad, su arrogancia hace vulnerablessus negocios ante errores flagrantes. Organiza su compañía en torno a personas en vez de aorientarla a funciones. Los empleados capaces pueden y usan muchos sombreros, pero para laconsternación de sus subordinados, el fundador continua tomando todas las decisiones.

Adolescencia: Durante esta etapa las compañías toman una nueva función. El fundador con-trata directivos pero encuentra difícil delegar el reino. Una actitud de nosotros (los viejos) contraellos (los directivos) afecta las operaciones. Hay tantos conflictos internos que las personas tie-nen poco tiempo para servir a los clientes. La compañía sufre una pérdida temporal de la visión.

Prime (Plenitud): Con una renovada claridad de visión, la compañía establece un balanceentre el control y la flexibilidad. Todo embona. Disciplinada pero innovadora, la compañía con-sistentemente cumple las necesidades de los clientes. Nuevos negocios surgen desde dentro dela organización y están descentralizados para proveer nuevas oportunidades de ciclo de vida.

Estabilidad: La compañía aún es fuerte, pero sin el empuje de las etapas anteriores. Aceptanuevas ideas pero con menos entusiasmo de cuando estaba en las etapas de crecimiento. Elpersonal de finanzas empieza a imponer controles de corto plazo de manera que recortan lainnovación de largo plazo. El énfasis en mercadotecnia, investigación y desarrollo decae.

Aristocracia: No hacer olas es la nueva forma de vivir. Los signos visibles de respeto (ves-timenta, decoración de la oficina, títulos) adquieren mucha importancia. La compañía adquierenegocios en vez de incubarlos. Su cultura enfatiza cómo se hacen las cosas en vez de qué es loque se hace y por qué lo hace. Los líderes de la compañía se apoyan en un pasado exitoso quecreen los llevará al futuro.

42 Revista de Administración, Finanzas y Economía

Burocracia temprana: En esta etapa de decaimiento, la compañía conduce cacerías de bru-jas para descubrir quien hizo mal las cosas, en vez de tratar de descubrir que salió mal y cómoarreglarlo. La reducción de costos tiene más importancia que los esfuerzos que podrían incre-mentar los ingresos. Puñaladas en la espalda y las peleas corporativas internas son la regla.Los ejecutivos pelean para proteger sus feudos, aislándose de sus colegas ejecutivos. Celos sinimportancia se dan todo el tiempo.

Burocracia: Si la compañía no murió en la etapa anterior es probable que esté en un am-biente regulado en el que el factor crítico para el éxito no es cómo satisfacer a los clientes sinosi son un activo o un pasivo político. La organización se vuelve burocrática. Los manuales deprocedimiento engrosan, crece el papeleo y las reglas y políticas sofocan la innovación y la crea-tividad. Hasta los clientes (abandonados y olvidados) encuentran que necesitan elaborar algunasestrategias para conseguir la atención de alguien al interior de la empresa.

Muerte: Esta etapa puede durar varios años o puede llegar de manera repentina, con unsoplo masivo. La compañía se tambalea cuando no puede generar el efectivo que necesita. Elgasto acaba cualquier ingreso.

Adizes (1988) considera que la etapa de Plenitud es la óptima para mantener el delicadoequilibrio entre la flexibilidad y control.

Figura 2. Flexibilidad – Control en la gestión empresarial

Fuente: Elaboración Carrasco G. y Marroquín E.

Martínez A, et al (2007) definen la flexibilidad como un mecanismo que le permite a lasempresas enfrentarse a una creciente incertidumbre por su capacidad de rápida respuesta, porsu parte Teece D. et al (1997) conceptualizan la flexibilidad como una característica de lascapacidades dinámicas de la organización que le permite adaptarse a los cambios en el entorno.

La gestión empresarial abarca las fases de planeación, organización, dirección y control.Al planificar comienza el control al comparar dos informaciones entre sí. De esta comparaciónnace una tercera que es la acción correctiva, que debe ser comunicada a quien proceda. SegúnDolz (1986), controlar es poner en acción sistemas necesarios para comprobar que los objetivosprevistos se han cumplido en cantidad, calidad y ritmo, mediante la comparación de los resulta-dos obtenidos y los previstos. Menciona que la importancia del control radica en la función deguía que constantemente indica la posición y los resultados en comparación con las esperanzasy las previsiones. Es un concepto dinámico ya que su finalidad no es únicamente detectar des-

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 43

viaciones. Existen distintas formas de llevar a cabo el control en las organizaciones, entre ellaslas auditorías, el control presupuestario, las inspecciones y la revisión de políticas de controlinterno, que a su vez pueden ser de dos clases, de tipo contable y de tipo administrativo (Dolz1986).

Según el modelo de Adizes (1988) el control no aparece como un elemento necesario desdeel principio del ciclo de vida de las organizaciones sino hasta que se llega a la etapa de la“adolescencia”, cuando el fundador de la empresa se ve ante la necesidad de delegar sin tenerque descentralizar y en donde se requiere establecer mecanismos administrativos que definan ycontrolen los sistemas de compensaciones, roles, responsabilidades, presupuestos y políticas.

Adizes (1988) postula que es posible establecer en qué etapa de ciclo de vida se encuen-tra una organización si se identifica la problemática por la que atraviesa y se relaciona con lacaracterización que propone en su modelo. El cuestionario de diagnóstico de esta investigaciónutiliza la metodología Adizes que valora las dificultades por las que atraviesa cada empresa y surelación entre flexibilidad y control para discernir en que etapa del ciclo de vida se encuentra.

3. El SIEM y el DENUE

Para realizar este estudio se tomaron como fuente de información registros localizados en elSistema de Información Empresarial Mexicano (SIEM) y en el Directorio Nacional de UnidadesEconómicas” (DENUE), relativos a empresas ubicadas geográficamente en el Distrito Federalen el año 2011.

El Diario Oficial de la Federación del 20 de enero del 2005 publica el decreto de la Ley deCámaras Empresariales y sus Confederaciones. En su artículo 29 establece que: “El SIEM esun instrumento del Estado Mexicano con el propósito de captar, integrar, procesar y suministrarinformación oportuna y confiable sobre las características y ubicación de los establecimientos decomercio, servicios, turismo e industria en el país, que permita un mejor desempeño y promociónde las actividades empresariales”. En su página de internet enuncia “El SIEM es el Sistema deInformación Empresarial Mexicano el cual integra un registro completo de las empresas existen-tes desde una perspectiva pragmática y de promoción, accesible a confederaciones, autoridades,empresas y público en general, vía internet.”.

El Diario Oficial de la Federación del 16 de abril del 2008 publica la Ley del Sistema Nacio-nal de Información Estadística y Geográfica (LSNIEG). En su artículo 23 establece que “contarácon un Directorio Nacional de Unidades Económicas” (DENUE) y en los artículos 94 y 95 deter-mina “la responsabilidad del INEGI para establecer, normar y operar el Directorio”. En su pági-na de internet enuncia: “El Directorio Estadístico Nacional de Unidades Económicas (DENUE,03/2011) ofrece información sobre la identificación y ubicación de todos los establecimientosactivos en el territorio nacional, de acuerdo a los datos recabados durante la Actualización deUnidades Económicas, 2010; por ello, constituye una herramienta fundamental para la toma dedecisiones en los ámbitos público y privado.”

El Diario Oficial de la Federación del 10 de julio del 2009 publica el acuerdo en que “Seestablece el Sistema de Clasificación Industrial de América del Norte y sus actualizaciones,como clasificador obligatorio para las Unidades del Estado que generen u obtengan estadísticaseconómicas a través del Sistema Nacional de Información Estadística y Geográfica.” (SCIAN).

Tanto el SIEM como el DENUE incluyen la clasificación del giro de las empresas utilizandoel SCIAN.

4. Metodología

4.1 Para evaluar el ciclo de vida del grupo de empresas analizadas en esta investigación se aplicóun cuestionario diseñado por el Instituto Adizes, traducido al español y modificado para darle

44 Revista de Administración, Finanzas y Economía

tratamiento estadístico. El cuestionario se divide en dos secciones, la primera contiene preguntasde opción múltiple y la segunda son preguntas con una escala Likert.

4.2 Contactos de empresas invitadas a responder el cuestionario: Del SIEM, se descargóuna base de datos de empresas de servicios en el Distrito Federal, con 31,556 registros. DelINEGI/DENUE, se descargó una base de datos con una muestra de empresas de servicios enel Distrito Federal, siendo las escogidas para ser invitadas, aquellas con 50 empleados o más,excluyendo instituciones del gobierno y empresas que no registraron la clasificación de su giro.Se obtuvieron 6,720 registros.

4.3 Se capturaron las respuestas en el cuestionario diagnóstico del sitio electrónico de Adi-zes, para discernir en cuál etapa se encuentra cada una de las empresas.

4.4 Se corrió una Prueba de Fiabilidad con las preguntas que tienen escala Likert, utilizandocomo métrica el valor del Alfa de Cronbach. El tratamiento estadístico se realizó utilizandoSPSS 18.

4.5 Se obtuvo una distribución de frecuencias de ambas secciones.4.6 Se realizó una corrida de Análisis Factorial Exploratorio por el método de componentes

principales con las preguntas contenidas en el paso 4.3 y posteriormente se realizó una rotaciónpor el Método Kaiser-Varimax, para encontrar agrupaciones en factores.

5. Resultados

5.1. Casos útilesSe obtuvieron 229 casos útiles de empresas encuestadas entre octubre y noviembre de 2011.

La tabla 1 muestra la distribución de las empresas por el número de sus empleados.

Tabla 1. Clasificación por número de empleados

La tabla 2 muestra la distribución de las empresas de acuerdo a su clasificación en el catálogoSCIAN.

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 45

Tabla 2. Clasificación SCIANSECTOR Concepto Casos

23 Construcción 631-33 Industrias manufactureras 40

43 Comercio al por mayor 2646 Comercio al por menor 9

48-49 Transportes, correos y almacenamiento 1651 Información en medios masivos 2652 Servicios financieros y de seguros 1

53Servicios inmobiliarios y de alquiler de bienes muebles eintangibles

5

54 Servicios profesionales, científicos y técnicos 5255 Corporativos 1

56Servicios de apoyo a los negocios y manejo de desechos yservicios de remediación

17

61 Servicios educativos 562 Servicios de salud y de asistencia social 7

71Servicios de esparcimiento culturales y deportivos, y otrosservicios recreativos

3

72Servicios de alojamiento temporal y de preparación de ali-mentos y bebidas

10

81 Otros servicios excepto actividades gubernamentales 5Total 229

En la primera sección de preguntas se evaluó la percepción sobre el éxito de la organización,las políticas, controles de la empresa, dirección y autoridad del director. Las preguntas de lasegunda sección evaluaron el impulso de productos al mercado, la saturación de tareas, así comopercepción de las ganancias y participación de mercado, los cambios en la organización y elambiente organizacional.

De la muestra de 229 empresas, se pudo identificar a aquellas que se encuentran en la etapade plenitud de su ciclo de vida, que fueron 58 (25 %). 20 de ellas (9 %) transitan entre la etapade plenitud y la de estabilidad, para dar un total de 78 empresas (34 %) en estas etapas.

46 Revista de Administración, Finanzas y Economía

Gráfica 1. Empresas en etapa de plenitud

5.2 Prueba de FiabilidadUtilizando el software SPSS 18 se realizaron pruebas de confiabilidad analizando las pre-

guntas con escala Likert únicamente. Se obtuvo un Alfa de Cronbach de 0.787.

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 47

5.3 Análisis de componentes principalesUtilizando el software SPSS 18 se realizó el análisis de componentes principales de la base

de datos con 229 respuestas.Tabla 3. Varianza total explicada

Método de extracción: Análisis de Componentes principales.Se observa la generación de seis componentes que explican el 57.97 % de la varianza (Tabla 4).

48 Revista de Administración, Finanzas y Economía

Tabla 4. Matriz de componentes rotados

Método de extracción: Análisis de componentes principalesMétodo de rotación: Normalización Varimax con KaiserLa rotación ha convergido en 9 iteraciones.

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 49

En la Gráfica 2 se observa que se generan seis grupos con eigenvalue mayor a 1.

Gráfica 2. Gráfico de sedimentación

Del análisis factorial exploratorio se encontraron los siguientes componentes:

Componente 1: 1La mayoría de los empleados se encuentran saturados con tareasy con una dirección poco clara

0.549

Se sabe quien está a cargo de las cosas -0.731Queda claro, quien tiene la autoridad para hacer las cosas -0.738Hay muchos conflictos entre los altos directivos 0.648Tenemos muchos conflictos internos, como las mentiras, chan-tajes y traición

0.732

Tenemos pocos sistemas de control de costos 0.553Hay cambios constantemente en la alta dirección 0.516Hay una cultura de guerra contra los demás o guerra de los fun-dadores contra los novatos

0.777

Los altos directivos gozan de demasiados lujos 0.567

Este componente tiene un eigenvalue de 6.6 de acuerdo a la gráfica de sedimentación.

50 Revista de Administración, Finanzas y Economía

Componente 2: 2El Director General se encuentra muy ocupado en cosas ajenasa la empresa

0.528

Tenemos ganancias, pero hemos perdido una parte del mercado 0.623Tenemos problemas de escasez de dinero 0.503Si el Director General se fuera, probablemente la empresa sederrumbaría

0.613

Creemos que los clientes son una molestia 0.523Nuestras ganancias se están desplomando 0.645

Este componente tiene un eigenvalue de 1.9 de acuerdo a la gráfica de sedimentación.

Componente 3: 3La jerarquía domina la toma de decisiones 0.667La frase "son políticas de la empresa.es muy usada. 0.770Tenemos grandes tradiciones que son importantes en la manerade hacer negocios

0.507

Este componente tiene un eigenvalue de 1.5 de acuerdo a la gráfica de sedimentación.

Componente 4: 4Hay veces que impulsamos productos al mercado sin que estosestén listos para éste.

0.662

El Director General o el Presidente veta algunas decisiones he-chas por otros.

0.733

Este componente tiene un eigenvalue de 1.2 de acuerdo a la gráfica de sedimentación.

Componente 5: 5Tenemos problemas para encontrar personas que puedan mane-jar unidades estratégicas

0.351

Respondemos a todas las oportunidades que se nos presenten -0.748

Este componente tiene un eigenvalue de 1.1 de acuerdo a la gráfica de sedimentación.

A cada componente se le asignó un nombre y se crearon los siguientes constructos:

1. Organización interna

2. Posicionamiento de la empresa

3. Control en la gestión

4. Toma de decisiones

5. Pensamiento estratégico

6. Conclusiones

La distribución por número de empleados de la muestra de empresas en el Distrito Federal esrepresentativa para cada una de las cuatro categorías, con un 20 % de casos como mínimo. Elcoeficiente del Alfa de Cronbach obtenido fue de 0.787 por lo que la consistencia interna y laconfiabilidad son altas.

Se aprecia la centralidad de la toma de decisiones en el fundador, presidente o directorgeneral, con un 70 %. Lo anterior es consistente con el 78 % que afirma que la jerarquía domina

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 51

la toma de decisiones y con el 62 % que afirma saber quién está a cargo de las cosas. Tambiénestá alineada con el 66 % que afirma que queda claro quien tiene autoridad para hacer las cosas.

En relación a la flexibilidad se observa que el 92 % afirma que su visión se enfoca en posi-bilidades futuras, el 36 % responde a todas las oportunidades que se presenten y el 71 % afirmaque el éxito depende de los riesgos que se tomen.

En relación al control se observa que el 70 % afirma que las decisiones provienen del fun-dador, presidente o director general, el 79 % afirma que hay generalmente guías claras de lo queestá permitido o prohibido, 43 % afirma que la jerarquía domina la toma de decisiones, 71 %tiene claro un organigrama con puestos y descripciones de éstos, 25 % tiene grandes tradicionesque son importantes en la manera de hacer negocios y el 21 % afirma que la frase “son políticasde la empresa” es muy usada. Asimismo, es revelador que sólo el 17 % afirma que podría vivirsin el sustento de la organización que la subsidia. Diversificar la cartera de clientes reduce elriesgo de dependencia que se percibe de la organización que la subsidia.

De acuerdo al modelo Adizes, la etapa Prime (Plenitud) es la ideal y llama la atención queel 25 % de las empresas se encuentre en esa etapa y 9 % en transición entre Prime y Estabilidad,para un total del 34 %, una tercera parte de la muestra. Asimismo se aprecia que hay casos deempresas en las etapas Prime y de Estabilidad en las cuatro categorizaciones por número deempleados, lo cuál confirma que la etapa es independiente del tamaño de la empresa en númerode empleados.

La Trampa del Fundador es una ramificación anormal, cuando una empresa en la etapaGo–Go se desvía del camino hacia la Adolescencia. Se encontraron casos de empresas de lascuatro categorizaciones por número de empleados en la Trampa del Fundador. De manera análo-ga, el Envejecimiento Prematuro es una ramificación anormal, cuando una empresa de la etapade Adolescencia se desvía del camino hacia Prime. También se encontraron casos de empresasde las cuatro categorizaciones por número de empleados en el Envejecimiento Prematuro. Asi-mismo, se encontraron casos en la penúltima etapa de la Burocracia de empresas de las cuatrocategorizaciones por número de empleados. Con estos casos se confirma que la etapa en el ciclode vida no esta en función al número de empleados de la empresa.

Con el análisis multivariado se hace un análisis agregado y se aprecia el tipo de gestión deuna manera global. Como consecuencia se proponen los siguientes constructos:

Organización interna: Los reactivos “Se sabe quien está a cargo de las cosas” y “Quién tienela autoridad para hacer las cosas” tienen valores negativos por lo que podemos inferir que no sesabe quien está a cargo o quien tiene la autoridad. Lo cual es consistente con los reactivos “haymuchos conflictos entre los altos directivos”, “muchos conflictos internos”, “pocos sistemas decontrol de costos”, “cambios constantemente en la alta dirección”, “cultura de guerra contra losdemás” y que “los empleados se encuentran saturados”.

Posicionamiento de la empresa: Se observa que se tienen ganancias pero también que lasempresas han perdido parte del mercado, que las ganancias se están desplomando, que hayproblemas de escasez de dinero y que hay una dependencia de la presencia del director general,pues se percibe que este está ocupado en cosas ajenas a la empresa y que si se fuera, la empresase derrumbaría.

Control en la gestión: Se observan controles jerárquicos en la toma de decisiones respalda-das por políticas de la empresa o por tradiciones que son importantes en la manera en que hanhecho negocios.

Toma de decisiones: La toma de decisiones en el lanzamiento de nuevos productos es dis-crecional y el director general veta algunas decisiones hechas por otros.

Pensamiento estratégico: Se observa poco pensamiento estratégico al considerar que res-ponden a todas las oportunidades que se presenten y al no poder planear el perfil deseado depersonal que atienda unidades estratégicas.

52 Revista de Administración, Finanzas y Economía

Los constructos generados se muestran en forma gráfica en la siguiente figura:

Figura 3. Factores que influyen en la flexibilidad y el control

Fuente: Elaboración Propia.

Finalmente se reconoce que la metodología Adizes puede ayudar a las empresas a identificarlas deficiencias y problemas propios de la etapa en el ciclo de vida en que se encuentren y que esfactible recomendar acciones para cada caso con el objetivo de llevarlas a la etapa de la plenitud.

Anexos

Distribución de frecuenciasDatos demográficos

Gráfica 3. ¿Cuál es su edad?

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 53

Gráfica 4. ¿Cuál es su género?

Primera sección de preguntas.Gráfica 5. El éxito en nuestra organización

54 Revista de Administración, Finanzas y Economía

Gráfica 6. Los permisos en nuestra organización

Gráfica 7. En cuanto a la visión en nuestra organización

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 55

Gráfica 8. Las decisiones provienen de

Gráfica 9. En cuanto al organigrama en nuestra organización

56 Revista de Administración, Finanzas y Economía

Gráfica 10. Impulsar productos al mercado

Gráfica 11. Veto de algunas decisiones

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 57

Gráfica 12. Empleados saturados

Gráfica 13. Director ocupado en cosas ajenas

58 Revista de Administración, Finanzas y Economía

Gráfica 14. Quién está a cargo

Gráfica 15. Quién tiene la autoridad

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 59

Gráfica 16. Ganancias y Mercado

Gráfica 17. Jerarquía en toma de decisiones

60 Revista de Administración, Finanzas y Economía

Gráfica 18. Políticas de la empresa

Gráfica 19. Escasez de dinero

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 61

Gráfica 20. Oportunidades que se presentan

Gráfica 21. Conflictos entre directivos

62 Revista de Administración, Finanzas y Economía

Gráfica 22. Tenemos grandes tradiciones

Gráfica 23. Si el director se fuera

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 63

Gráfica 24. Vivir sin la organización que subsidia

Gráfica 25. Los clientes son una molestia

64 Revista de Administración, Finanzas y Economía

Gráfica 26. Conflictos internos

Gráfica 27. Ganancias están desplomando

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 65

Gráfica 28. Sistemas de control de costos

Gráfica 29. Cambios en la alta dirección

66 Revista de Administración, Finanzas y Economía

Gráfica 30. Cultura de guerra

Gráfica 31. Lujos de directivos

Referencias

1. Adizes, Ichak (1976). MISMANAGEMENT STYLES, California Management Review;Winter 1976; Vol. 19 Issue 2, p5-20.

2. Adizes, Ichak (1979). ORGANIZATIONAL PASSAGES – DIAGNOSING AND TREA-TING LIFECYCLE PROBLEMS OF ORGANIZATIONS, Organizational Dynamics,Summer 1979, Vol. 8 Issue 1, p3-25.

3. Adizes Ichak (1988), “CORPORATE LIFECYCLES: HOW AND WHY CORPORA-TIONS GROW AND DIE AND WHAT TO TO DO ABOUT IT” Prentice-Hall, UnitedStates of America.

Flexibilidad y control en la gestión de empresas mexicanas del Distrito Federal 67

4. Baker, Douglas & Cullen, John (1993). ADMINISTRATIVE REORGANIZATION ANDCONFIGURATIONAL CONTEXT: THE CONTINGENT EFFECTS OF AGE, SIZE,AND CHANGE IN SIZE, Academy of Management Journal, Dec 1993, Vol. 36, No. 6,p1251-1277

5. Grenier, Larry E. (1972). EVOLUTION AND REVOLUTION AS ORGANIZATIONSGROW. Harvard Business Review; Jul/Aug72, Vol. 50 Issue 4, p37-46

6. Hill, Jimmy, Nancarrow, Clive & Wright, Len (2002). LIFECYCLES AND CRISISPOINTS IN SMES: A CASE APPROACH, Marketing Intelligence & Planning; 2002;20, 6; p361-369

7. Jayaraman, Narayanan, Khorana, Ajay, Nelling, Edward & Covin, Jeffrey (2000). CEOFOUNDER STATUS AND FIRM FINANCIAL PERFORMANCE. Strategic Manage-ment Journal, Vol. 21, No. 12, December 2000, pp. 1215-1224

8. Kazanjian, Robert & Drazin, Robert (1989). AN EMPIRICAL TEST OF A STAGE OFGROWTH PROGRESSION MODEL. Management Science; December 1989, Vol. 35,Issue 12, p1489-1503,

9. Kimberly, John R (1979). ISSUES IN THE CREATION OF ORGANIZATIONS: INITIA-TION, INNOVATION, AND INSTITUTIONALIZATION, Academy of Management Jour-nal, Sep79, Vol. 22 Issue 3, p437-457

10. Lester, Donald L., Parnell, John A. & Carraher, Shawn (2003). ORGANIZATIONALLIFE CYCLE: A FIVE-STAGE EMPIRICAL SCALE, International Journal of Organi-zational Analysis, 2003, Vol. 11 Issue 4, p339-354

11. Lumpkin, G.T. & Dess, Gregory G. (1995). SIMPLICITY AS A STRATEGY-MAKINGPROCESS: THE EFFECTS OF STAGE OF ORGANIZATIONAL DEVELOPMENTAND ENVIRONMENT ON PERFORMANCE. Academy of Management Journal; Oct95,Vol. 38 Issue 5, p1386-1407

12. Martínez A.et al (2007) “ FLEXIBILIDAD E INNOVACION, EL EFECTO MODERA-DOR DE LA COOPERACION”, Revista Europea de Dirección y Economía de la Em-presa, Vol. 16, núm 4, pp. 69-88

13. Mueller, Dennis (1972). A LIFE CYCLE THEORY OF THE FIRM. Journal of IndustrialEconomics; Jul72, Vol. 20 Issue 3, p199-219.

14. Penrose, Edith (1952) BIOLOGICAL ANALOGIES IN THE THEORY OF THE FIRM.American Economic Review; Dec52, Vol. 42 Issue 5, p804-819.

15. Quinn, Robert & Cameron, Kim (1983). ORGANIZATIONAL LIFE CYCLES ANDSHIFTING CRITERIA OF EFFECTIVENESS: SOME PRELIMINARY EVIDENCE.Management Science; Jan83, Vol. 29 Issue 1, p33-51.

16. Stubbart, Charles & Smalley, Roger (1999). THE DECEPTIVE ALLURE OF STAGEMODELS OF STRATEGIC PROCESSES. Journal of Management Inquiry; Sep 1999;8, 3; p273-286

17. Teece D, et al (1997) “DYNAMIC CAPABILITIES AND STRATEGIC MANAGEMENT”,Strategic Management Journal, Vol. 18, No. 7. Aug pp. 509-533

18. Vaseghi, Payam & Vaseghi, Alireza (2011). PREFERABLE EXECUTIVES’COGNITIVESTYLE BY STAGE OF THE ORGANIZATION LIFE CYCLE. Global Journal of Busi-ness Research, 2011, v. 5, iss. 5, pp. 129-138

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Econo-mics) vol. 7, núm. 1 (2013), pp. 69-79.

Vulnerabilidad de la Producción deAlimentos en México a FactoresNaturales Sistémicos Adversos

Luis Manuel González de Salceda Ruiz*

Recibido 07 de Octubre de 2012. Aceptado 09 de Diciembre de 2012.

Resumen

El presente estudio estima el nivel de vulnerabilidad que presenta la producción agrícola en Mé-xico ante la ocurrencia de factores naturales sistémicos adversos. Para ello se utiliza informaciónsobre superficie sembrada y siniestrada de 148 cultivos que, en conjunto, representan más delnoventa por ciento de la superficie sembrada en el ciclo primavera – verano. Con base en losniveles de siniestralidad presentados en cada uno de los años de 1980 a 2011 se estima la betafinanciera de cada uno de los cultivos que componen esta cartera. Esta medida permite ubicara los cultivos más sensibles a la ocurrencia de factores sistémicos adversos como, por ejemplo,el fenómeno de “El Niño”. También, al comparar esta medida con la prima que se paga actual-mente por adquirir una cobertura catastrófica contra eventos climáticos extremos se identificanaquellos precios que pudieran ser sujetos a revisión.

Abstract

This study estimates the level of vulnerability of agricultural production in Mexico in case of theoccurrence of systemic adverse natural factors. It uses information of 148 crops which togetheraccount for over ninety percent of the area planted in the spring – summer cycle. Based on lossseverity levels presented in each of the years of 1980-2011, financial beta is estimated for eachof the crops that belong to this portfolio. The most sensitive crops to the occurrence of adversesystemic factors such as "El Niño" are identified using this financial measure. Also, betas of allcrops are compared with the current insurance market premiums against natural catastrophes toidentify those prices may be subject to revision.

Clasificación JEL: Q54

Key words: riesgos sistémicos, vulnerabilidad, beta, El Niño.

*Profesor de tiempo completo, Escuela de Negocios, Instituto Tecnológico de Estudios Superiores deMonterrey, Campus Ciudad de México. Correo Electrónico: [email protected]

70 Revista de Administración, Finanzas y Economía

1. Introducción

El proveer de servicios de seguro a los pequeños agricultores en México y en otros países envías de desarrollo ha sido un reto importante durante mucho tiempo. El gobierno de Méxicoha intentado diferentes esquemas para intentar resolver esta problemática. Así, desde hace unadécada aproximadamente ha establecido y consolidado un programa de coberturas catastróficasen el cual la prima de riesgo es pagada ya sea por el gobierno Federal o algún estatal (o ambos)en representación de los agricultores de la región, recibiendo una compensación en caso de queocurra un siniestro de proporciones catastróficas a la agricultura y con ello contar con recursospara ayudar a los productores afectados, González de Salceda y Nuñez (2012).

A principios de este año 2013, el gobierno Federal anunció que su objetivo es que la co-bertura de este programa sea nacional, considerando todos los cultivos y todas las regiones. Deser así, se estará en posición de aprovechar al máximo el potencial de diversificación de riesgosque ofrece el país. Sin embargo, aun esta cartera de máxima diversificación es susceptible a ex-perimentar pérdidas con niveles catastróficos debido a la ocurrencia de factores sistémicos. Alrespecto, es ampliamente conocido que aún una cartera bien diversificada en acciones y valo-res puede experimentar pérdidas catastróficas ante la ocurrencia de un factor sistémico adversocomo, por ejemplo, una variación importante en el tipo de cambio. A semejanza de esto, lacartera de coberturas agrícola nacional también puede experimentar pérdidas catastróficas si sepresenta un factor adverso de esta naturaleza. Este factor sistémico en este caso se conoce comoel fenómeno de “El Niño”.

El presente estudio estima la sensibilidad de los diferentes cultivos en las diferentes regionesdel país a la ocurrencia de un factor sistémico usando la beta financiera como medida. Para ello,se usa información de 148 cultivos en el país que en conjunto representan más del noventapor ciento de la superficie sembrada nacional en el ciclo de producción más relevante que esel primavera – verano. También, aunque el propósito del estudio no es establecer una relacióncausa - efecto del El Niño – siniestralidad observada, sí se considera necesario presentar lasrazones por las cuales dicho fenómeno climático es el principal factor sistémico. En este sentidotambién se consideró relevante presentar cuales son las perspectivas del comportamiento dedicho fenómeno en el futuro y con ello hacer énfasis en la relevancia de obtener parámetros desensibilidad de los cultivos (betas) ante la ocurrencia de factores naturales sistémicos adversos.

2. El Fenómeno de El Niño – Oscilación del Sur (ENOS) y su Efecto Sistémico en el ClimaMundial

El fenómeno ha sido comúnmente asociado con la ocurrencia anual de una corriente marinacálida en el hemisferio sur a lo largo de las costas de Perú y Ecuador que da inicio aproxima-damente en la tercera semana de diciembre, razón por la cual se le relaciona con la navidad, deahí el nombre de “El Niño (Jesús)”. La definición propiamente científica de este fenómeno serefiere al calentamiento anormal del centro y este de la zona ecuatorial del Océano Pacífico. Enespecífico, se considera que El Niño está presente cuando la temperatura de la superficie del marha sido superior 0.5o C o más a su temperatura media en la zona comprendida en las coorde-nadas: 4 o N - 4 o S, 150o W - 90o W, durante al menos seis meses consecutivos. En contraste,se considera que La Niña ha ocurrido cuando la temperatura de la superficie del mar ha sidoinferior 0.5o C o más a su media, al menos seis meses, en la zona comprendida por las mismascoordenadas. En términos más amplios a esto se le conoce como el fenómeno “El Niño – Osci-lación del Sur” o ENOS por la interacción que existe entre las temperaturas de la superficie delmar y las oscilaciones en la presión atmosférica, definiéndose una fase positiva de ENOS (ElNiño) caracterizada por temperaturas de la anormalmente elevadas, una fase negativa de ENOS(La Niña) con temperaturas anormalmente bajas y una fase neutral de ENOS o de temperaturas

Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales 71

dentro de un rango normal. En ese sentido y dado que el clima de una región del mundo puedeinfluir en el clima de zonas lejanas (tele conexión), el fenómeno ENOS no sólo tiene efectos enla propia zona del Pacífico ecuatorial sino que tiene un impacto global. Su presencia influye enel clima de zonas tan lejanas como Norteamérica, Sudáfrica, Australia, Brasil o Mongolia, porcitar algunos ejemplos. De hecho, la variación que el clima de México manifiesta año con añose debe en gran medida a la ocurrencia de ENOS. Así, aunque no es una regla, se puede esperarque para la zona comprendida entre el Trópico de Cáncer y el Trópico de Capricornio, la pre-sencia de la fase positiva de ENOS propicie una menor cantidad de lluvia de lo normal y la fasenegativa del ENOS una mayor cantidad de lluvia de lo normal. La relación ENOS con cantidadde precipitación no es tan estrecha para las otras zonas del planeta debido a que la respuestaclimática de las distintas regiones puede ser muy diferente. Esto último debido a que la relaciónentre la condición climática que se observa en el océano y la que presenta la atmosfera no eslineal, Trenberth (1997) y Magaña (2004).

3. El Clima en México y la Influencia del ENOS en la Cantidad de Lluvia y Otros FactoresClimáticos

Los conceptos encontrados en Magaña y Gay, Magaña (2004) y Zitácuaro, et al (2011) puedenser usados para describir, en forma resumida, el clima de México y el efecto que ENSO tienesobre éste:

Dada su posición geográfica (sólo una parte está situada por debajo de la línea del Tró-pico de Cáncer) y compleja orografía (por ser parte del Cinturón de Fuego), México presentauna gran variedad de climas. Sin embargo, en términos generales, se puede definir al clima deMéxico como de tipo monzónico, el cual se caracteriza por presentar lluvias en verano y condi-ciones secas en invierno. A su vez, en el verano se presentan una gran variedad de condicionesclimáticas desde el caluroso y seco, con precipitaciones pluviales menores a los cien milíme-tros anuales en promedio, hasta el tropical en donde puede llover más de 3,500 milímetros alaño en promedio. En la mayor parte del país las lluvias se concentran en el período de junio aseptiembre. Sin embargo, en algunas regiones del sur este período es más amplio, esto es, demayo a octubre. Al respecto, el régimen pluvial en el país está determinado por cuatro factores:1) la llamada zona de convergencia intertropical (franja de aire cálido y húmedo en la zona delEcuador), 2) el monzón mexicano (viento húmedo que sopla del mar a la tierra), 3) las ondasdel este (área alargada de aire caliente y húmedo orientada de Norte a Sur en el Atlántico) y 4)los ciclones tropicales (depresiones tropicales, tormentas tropicales o huracanes), cuyo nivel deactividad ciclónica tropical influye de forma muy importante en la cantidad de precipitación quese presente durante el verano. En este sentido, por su ubicación geográfica el clima de Méxicoestá influenciado por dos regiones ciclónicas muy activas: Pacífico del este y Mar Caribe. Porello, la variación interanual del clima se explica en gran parte por la ocurrencia de ENOS, debidoa que afecta la actividad ciclónica, particularmente la formación de huracanes.

En relación con lo anterior, se ha observado que en los años que no se presenta la fase po-sitiva del ENOS los ciclones tropicales son en promedio más intensos y cercanos a las costasdel país. De hecho, se ha demostrado que hay una relación estadísticamente significativa entrela ocurrencia de la fase positiva y un menor número de huracanes en el Atlántico. En contraste,se ha observado que en aquellos años donde hay fase negativa las lluvias son normales o anor-malmente intensas, debido a que hay una mayor propensión a la formación de huracanes en elverano en el Atlántico. Sin embargo, hasta ahora no ha sido posible pronosticar con exactitud ellugar donde se formarán, su trayectoria e intensidad. En adición, se ha observado que con fasepositiva existe una mayor propensión a la formación de huracanes intensos en el Pacífico perocon trayectorias alejadas de las costas. De hecho, cuando esta fase prevalece, inhibe la entradade humedad por las costas del Pacífico y además se presenta un inicio tardío del monzón en el

72 Revista de Administración, Finanzas y Economía

Atlántico, causando que haya menos lluvias en noroeste (Veracruz, Tamaulipas y Coahuila) yzona centro. Por ello, a la fase positiva de ENSO se le asocia con una disminución de la preci-pitación promedio en la mayor parte del país, acentuándose este efecto en la segunda parte delverano. Esto propicia menores rendimientos agrícolas en ese ciclo y tiene repercusiones nega-tivas en la producción del siguiente (invierno) debido a que se reduce de forma significativa lacantidad de agua que escurre a las presas en la zona del noroeste del país. También la menor pre-sencia de humedad, en forma de nubes, aumenta la probabilidad de heladas con efectos dañinosa los cultivos.

Los efectos adversos que produce la fase positiva de ENSO no afectan exclusivamente aMéxico. Indonesia, el noroeste de Brasil, África del Sur y Australia, por mencionar algunosejemplos, son regiones también afectadas por la sequía. En los últimos treinta años la fase po-sitiva ha ocurrido en: 1982 – 1983, 1986 – 1987, 1991 – 1995 y 1997 – 1998. Siendo las fasespositivas de 1982 – 1983 y 1997 – 1998 las más fuertes de que se tenga registro, ocasionandosequías muy severas. La fase positiva que se presentó de 1991 a 1995 no fue tan intensa peroprovocó una sequía muy prolongada en el norte de México. Los años en que la fase negativa seha presentado son: 1988 – 1989, 1995 – 1996 y 1998 – 1999.

Así, en resumen, la ocurrencia de El Niño tiene los siguientes efectos en México: 1) aumentala precipitación total en invierno afectando esto principalmente al noreste y noroeste, disminu-yendo en verano, 2) aumenta el número de frentes fríos afectando a las zonas norte y centro,dando lugar a inviernos más fríos y, 3) en el verano menor número de huracanes en el Atlánticoy mayor probabilidad de presentarse poca precipitación, propiciando temporadas más secas ycálidas, particularmente en la parte central del país.

4. Efectos de El Niño en la Agricultura Mundial

El fenómeno de ENOS tiene un importante impacto en la variabilidad climática de mu-chas partes del mundo y en consecuencia en los rendimientos de los cultivos. El impacto de lasperturbaciones que ocurren en la temperatura de la superficie del mar en la zona del Pacíficoecuatorial puede observarse en otras regiones del mundo de uno a doce meses después, Chen,et al (2002). Por ejemplo, en Sudáfrica se ha observado que existe una relación entre la ocu-rrencia de ENOS y cambios en los niveles de precipitación pluvial, aumentando la variabilidadcon la presencia del fenómeno, detectándose una propensión a menor precipitación en la fasepositiva y en consecuencia menores rendimientos agrícolas, Phillips, et al (1998). En Argentinala ocurrencia de la fase positiva del fenómeno propicia mayores niveles de precipitación pluvial,mientras que, la fase negativa está asociada a menores niveles de precipitación, sobre todo enlos meses de noviembre y diciembre. Esto resulta en mayores rendimientos agrícolas en añosde fase positiva, específicamente en maíz, soya y sorgo, con rendimientos más bajos en añosde fase negativa, Podesta, et al (1998) y Ferreira, et al (2001). En contraste con lo que ocurreen Argentina, la fase positiva del fenómeno causa pérdidas económicas relevantes en Bolivia,Colombia, Ecuador y Perú en orden ascendente. Para Asía del Este se ha observado que el EN-SO junto con el Monzón del Este de Asía influyen en el rendimiento de los cultivos ya quedeterminan la variabilidad climática de esa región, Tao, et al (2004). También se ha observadoque ENSO tiene influencia significativa en el desarrollo vegetativo y foresta en amplias regiones(con mayor o menor magnitud) de Estados Unidos, Solow, et al (1998), Jones, et al (2000) yPeters, et al (2003), con daños estimados de entre seis y siete mil millones de dólares anuales,Adams, et al (1999). En ese sentido se ha observado que la predicción y consecuente ajuste enel patrón de cultivos puede ayudar a disminuir los daños de forma significativa aunque no sepueda eliminarlos completamente, Chen et al (2001) y otros. En Europa la influencia del ENSOes débil, teniendo algún efecto en el sur del continente como mayores niveles de precipitacióndurante años de fase positiva y menores niveles durante años de fase negativa. El clima de éste

Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales 73

continente está más influenciado por el fenómeno conocido como la Oscilación del Atlánticodel Sur, Gimeno, et al (2002).

Los efectos de El Niño en la agricultura mexicana son importantes debido a la menor preci-pitación en el verano afectando a los cultivos de ese ciclo y a la menor disponibilidad de aguaen las presas necesaria para el próximo ciclo de invierno, Adams, et al (2003). En ese sentido,debe de considerarse que la definición de sequía es diferente para cada zona ya que depende dela cantidad promedio de agua que precipita cada año. También depende de las necesidades dehumedad que cada cultivo requiere en sus distintas etapas de desarrollo, Prieto, et al (2007).

En resumen, se puede decir que el fenómeno del ENSO es el que más influye en el desem-peño de la producción agrícola en México como factor sistémico afectando principalmente laactividad ciclónica y con ello la cantidad de precipitación que se presenta en las diferentes re-giones del país. A esto, los distintos cultivos que conforman la cartera nacional de producciónresponden de forma específica. Dicha respuesta potencial puede estimarse con el coeficiente debeta.

5. Cambio Climático y El Niño

Existen divergencias acerca del efecto que tiene el calentamiento global sobre El Niño. Se coin-cide en el hecho de que se ha observado que la fase positiva de ENSO ha sido más frecuente,persistente e intensa desde mediados de la década de 1970, comparado con los cien años ante-riores, Trenberth (1997) e IPCC (2001). Sin embargo, las diferencias radican en la consecuenciafutura. Por ejemplo, algunos señalan que un incremento de gases de invernadero en la atmosferapropiciará las condiciones para Niños más frecuentes y Niñas más fuertes, Timmerman (1999)y Reilly, et al (2003). Por su parte, el Panel Intergubernamental de Cambio Climático toma unapostura más moderada indicando que la variabilidad de la temperatura de la superficie del maren la zona del El Niño difiere de modelo a modelo invitando a pensar que no hay una conclusióndefinitiva sobre el futuro comportamiento del fenómeno. Sus propias proyecciones muestran po-co cambio en la fortaleza del fenómeno en los siguientes cien años. Sin embargo, se señala conénfasis que, aun sin cambio en comportamiento de El Niño, el calentamiento global, considera-do ya una realidad propiciará que los fenómenos climáticos extremos que lo acompañan comoescases o exceso de precipitación se agudicen incrementando los riesgos de sequías e inunda-ciones, IPCC (2002 y 2007). Más recientemente algunos autores no sólo insisten en el aumentode la frecuencia e intensidad del fenómeno sino que además señalan que una nueva clase deEl Niño se ha presentado en los últimos años del siglo veinte, el cual se caracteriza por aguassuperficiales cálidas en el centro del Pacífico ecuatorial rodeadas por aguas más frías tanto aleste como al oeste, Yeh, et al (2009).

6. Riesgos no Sistémicos, Sistémicos y Beta

Al considerar que la variable de desempeño individual de los activos financieros que constituyenun portafolio de inversiones se distribuye normalmente, entonces, la medida más adecuada parala medición del riesgo del propio portafolio es su varianza. Es conocido, que la magnitud de esteindicador de riesgo tiende a disminuir a medida que se incluyen más activos en el portafolio.Sin embargo, también se conoce que cuando se alcanza un número suficientemente amplio deactivos en la cartera, la magnitud de la varianza tiende a estabilizarse. Es así que por el efectode la diversificación sólo parte de la variabilidad del desempeño del portafolio desaparece, a lacual se le conoce como riesgo no sistémico. A la variabilidad que persiste aun después de que elportafolio ha sido ampliamente diversificado se le conoce como riesgo sistémico.

Específicamente, se sabe que el riesgo específico, no idiosincrático o no sistémico está aso-ciado con aquel tipo de eventos que solamente afectan el desempeño de una sola empresa (o

74 Revista de Administración, Finanzas y Economía

activo financiero) o a solo un grupo pequeño de empresas (o activos financieros). Por ejemplo,las noticias que ocurran sobre los ejecutivos de una empresa, las novedades que surjan en rela-ción a su programa de investigación y desarrollo o sobre su nivel de ventas, afectarían sólo aldesempeño de la propia empresa. En contraste, es conocido que el riesgo sistémico está asociadoa aquellos factores que afectan el desempeño de todas o un gran número de empresas (o activosfinancieros) cada uno en mayor o menor medida. Por ejemplo, una devaluación de la moneda,incrementos en las tasas de interés o en el precio de los energéticos son todos eventos sistémicos.No obstante, ésta clara diferencia entre ambos riesgos, debe de resaltarse que la separación entreellos no es absoluta, debido a que aunque un evento afecte a una sola empresa de forma muyespecífica tendrá eventualmente un efecto, aunque sea muy pequeño, en el resto de la economía.

Así, una característica de los riesgos no sistémicos es que no se relacionan o correlacionanentre ellos. Por lo cual, si se incluye un número suficientemente amplio de activos en el portafo-lio, su efecto desaparecería. Sin embargo, a diferencia de esto, el riesgo sistémico no desaparececon la diversificación. Por lo tanto, un inversionista bien diversificado debe preocuparse sola-mente por el riesgo sistémico de cada activo financiero en su portafolio y en muy poca o ningunamedida por el no sistémico. En otras palabras, dado que el riesgo no sistémico disminuye al di-versificarse, el riesgo total del portafolio también disminuye, pero no desaparece. Esto últimodebido a la persistencia del riesgo sistémico. Así, la ventaja que ofrece la diversificación, encuanto a la disminución de riesgos, está limitada por la existencia del riesgo sistémico.

Es conocido que todos los activos financieros son sensibles a la ocurrencia de eventos decarácter sistémico. Sin embargo, la magnitud en la cual son afectados es distinta, por lo que lasensibilidad que manifiesta el desempeño de un activo financiero, en específico, ante la ocurren-cia de un evento sistémico se puede medir con su coeficiente beta, el cual es considerado comoel mejor indicador del riesgo que contiene dicho activo, cuando el portafolio al cual perteneceya está bien diversificado. Esto es, la varianza, es la medida adecuada para medir el riesgode un portafolio ya sea que este diversificado o no. En el caso de que el portafolio contengaun número reducido de activos y se considere que esté no diversificado, la medida de riesgoindividual de los activos que componen el portafolio sigue siendo la propia varianza. Pero, en elcaso de que el portafolio incluya un número importante de activos y se considere diversificado,entonces la medida de riesgo adecuada para los activos financieros que en específico componeneste portafolio será ahora su beta. La beta de un activo financiero se define como:

βi =Cov(Ri, Rp)

Var(Rp)

Dónde:

βi: Beta del activo financiero.Rp: Rendimiento del portafolio en su conjunto.Ri: Rendimiento del activo financiero i.Cov(Ri, Rp): Covarianza entre los rendimientos del activo i con los rendimientos del portafolioen su conjunto.Var(Rp): Varianza de los rendimientos del portafolio en su conjunto.

Tal como lo indica la ecuación que la define, la beta de un activo financiero es la covarianzaque existe entre el desempeño de dicho activo y el desempeño del portafolio al cual pertenece,medida en términos relativos a la propia varianza total del portafolio. La covarianza expresadaen esta forma es considerada como el parámetro más adecuado para medir la aportación de unactivo financiero específico al riesgo total de un portafolio diversificado.

Debido a que el valor de la beta del portafolio que representa al total mercado financiero esuno, entonces también se puede definir a la beta de un activo financiero en específico pertene-

Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales 75

ciente a ese mercado, como su elasticidad financiera. Esto es, su respuesta individual potencial,en términos porcentuales, ante un cambio de uno por ciento en el desempeño del mercado en suconjunto.

En la práctica, una beta de 1 se puede interpretar en el sentido de que el desempeño del “acti-vo financiero” muestra tanta sensibilidad a factores sistémicos como el portafolio que representaal “mercado en su conjunto”; una beta menor a 1 indicará que el desempeño del activo financieropresenta menor sensibilidad a factores sistémicos que el portafolio del mercado y consecuente-mente una beta mayor a 1 señala una mayor sensibilidad del activo a factores sistémicos que elmercado. Bodie, et al (2005) y Ross, et al (2010).

7. Resultados

Para estimar las betas por cultivo y región se utilizó información anual de la Secretaría de Agri-cultura de México (SAGARPA) sobre las superficies sembrada y siniestrada de 148 cultivosque representan en conjunto más del noventa por ciento de la superficie sembrada. El resto delos cultivos no se consideró por contar con sólo escasa información. La serie de datos que seconsidera contempla los ciclos agrícolas de 1980 a 2011.

Al dividir la superficie siniestrada entre la sembrada se obtiene un índice de siniestralidadque oscila entre cero y cien por ciento. Así, a mayor índice mayor pérdida en determinado año.Se obtuvo la varianza del índice de siniestralidad del portafolio y la beta individual como elcociente que resulta de la división de la magnitud de la covarianza del índice de siniestralidadde cada cultivo con el portafolio entre la varianza de este último.

Los resultados de las betas obtenidas por cultivo y región se presentan en el cuadro 1 yreflejan: 1) como se esperaba, una respuesta muy diversa a la presencia de factores sistémicos,dada la variedad de cultivos y zonas climáticas, 2) una tendencia de los estados ubicados en lazona centro – norte y norte del país a tener betas mayores que aquellas ubicadas en el centro - sury sur del país. La explicación a esto último puede ser que los estados en la primera región estánubicados principalmente en la zona subtropical (latitudes por encima del Trópico de Cáncer)que tiende a ser más inestable climáticamente y con menores precipitaciones promedio que laregión tropical (entre el Ecuador y el Trópico de Cáncer) donde se encuentran los estados delsegundo tipo y que tiende a ser más húmeda y más estable climáticamente, 3) al comparar la betaestimada por cultivo con la prima de riesgo pagada en la actualidad por el gobierno de Méxicopor adquirir la cobertura catastrófica de éste (también cuadro 1), se puede observar que en lamedida en que la beta disminuye aparecen más cultivos que no están asegurados (ND). Estotiene sentido ya que la contratación del seguro la realiza voluntariamente ya sea el gobiernoFederal o el local. Así, cultivos que se perciben con poco riesgo tienden a no ser cubiertos.

También, un resultado interesante es que para algunos cultivos en determinadas regionesse cobra una prima muy baja comparada con su respectiva beta. Lo anterior pudiera indicar uncálculo inadecuado del precio del riesgo y una revisión de la tarifa. El mismo razonamientopuede aplicar para los casos donde la beta es muy baja y su tarifa respectiva es muy alta.

Los resultados permiten ubicar a aquellos cultivos que son más sensibles a factores sistémi-cos adversos. Así, y considerando que los pronósticos de la ocurrencia de “El Niño” se encuen-tran disponibles con meses de anticipación entonces se puede, hasta donde sea técnicamenteposible, cambiar la composición de cultivos.

76 Revista de Administración, Finanzas y Economía

Cuadro 1: Vulnerabilidad por Cultivo a Factores Sistémicos, Medida por su Beta

Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales 77

8. Conclusiones

Los resultados obtenidos en la presente investigación permiten medir el riesgo individualque representa cada cultivo dentro de la cartera de coberturas a nivel nacional que pretendecontratar el gobierno de México. Esto permitirá identificar aquellos cultivos que requieren derevisión de la prima de riesgo que actualmente se está pagando y asimismo le permitirá ubi-car los cultivos que pudieran ser muy sensibles a factores naturales sistémicos adversos comoENSO y con ello replantear en el corto plazo el patrón de cultivos y en el largo plazo instru-mentar acciones que mitiguen el efecto de dichos fenómenos como, por ejemplo, desarrollo deinfraestructura hidráulica o desarrollo de variedades resistentes a la sequía.

Referencias

1. Adams, Richard, Chi-Chung Chen, Bruce A. McCarl, Rodney F. Weiher (1999). The eco-nomic consequences of ENSO events for agriculture. Climate Research. Vol. 13: 165–172

2. Adams, Richard, Laurie L. Houston, Bruce A. McCarlb, Mario Tiscareño L, Jaime Ma-tus G., and Rodney F. Weiher (2003). The Benefits to Mexican Agriculture of an ElNiño-Southern Oscillation (ENSO) Early Warning System. Agricultural and Forest Me-teorology Volume 115, Issues 3–4, Pages 183–194

3. Bodie, Zvi, Alex Kane, Alan Marcus (2005). Investments, 6ed. Mc Graw - Hill Chen,Chi-Chung, Bruce A. McCarl and Rchard M. Adams (2001). Economic implications ofpotential ENSO frequency and strength shifts. Climatic Change 49: 147–159

4. Chen, Ching-Chung, Bruce McCarl and Harvey Hill (2002). Agricultural Value of ENSOInformation UnderAlternative Phase Definition. Climatic Change 54: 305–325

5. Ferreyra, Andrés, Guillermo P. Podestá, Carlos D. Messina, David Letson,Julio Darda-nelli, Edgardo Guevara and Santiago Meira (2001). A linked-modeling framework toestimate maize production risk associated with ENSO-related climate variability in Ar-gentina. Agricultural and Forest Meteorology 107, 177–192

6. Gay, Carlos (2006). Vulnerability and Adaptation to Climate Variability and Change: TheCase of Farmers in Mexico and Argentina: A Final Report Submitted to Assessments ofImpacts and Adaptations to Climate Change (AIACC), Project No. LA 29. The Interna-tional START Secretariat. 173pp

7. Gimeno, Luis, Pedro Ribera, Raquel Iglesias, Laura de la Torre, Ricardo García, EmilianoHernández (2002). Identification of empirical relationships between indices of ENSO andNAO and agricultural yields in Spain. Climate Research. Vol. 21: 165–172

8. González de Salceda, L.M. y José A. Nuñez (2012). “La Experiencia Mexicana en laColocación de Carteras de Riesgos Naturales” y Propuesta de Modelo de Optimalidad:El Caso del Maíz en México en “Fronteras de la Economía Financiera volumen I”

9. IPCC (2001). Climate Change: The Scientific Basis. Contribution of Working Group I tothe Third Assessment Report of the Intergovernmental Panel on Climate Change [Hough-ton, J.T., Y. Ding, D.J. Griggs, M. Noguer, P.J. van der Linden, X. Dai, K. Maskell,and C.A. Johnson (eds.)]. Cambridge University Press, Cambridge, United Kingdom andNew York, NY, USA, 881pp.

10. IPCC (2002). Climate Change and Biodiversity. Prepared under the auspices of the IPCCChair, Dr. Robert T.Watson, and administered by the IPCC Working Group II TechnicalSupport for Unit United Nations Convention on Biological Diversity. 76pp.

78 Revista de Administración, Finanzas y Economía

11. IPCC (2007) Cambio climático 2007: Informe de síntesis. Contribución de los Gruposde trabajo I, II y III al Cuarto Informe de evaluación del Grupo Intergubernamental deExpertos sobre el Cambio Climático [Equipo de redacción principal: Pachauri, R.K. yReisinger, A. (directores de la publicación)]. IPCC, Ginebra, Suiza, 104 págs.

12. Jones J.W. , J.W. Hansen, F.S. Royce and C.D. Messina (2000). Potential benefits of cli-mate forecasting to agriculture. Agriculture, Ecosystems and Environment 82, 169–184

13. Magaña,Víctor (Editor) (2004). Los impactos del niño en México. Centro de Ciencias dela Atmósfera, Universidad Nacional Autónoma de México, Secretaría de Gobernación.México, 229 p.

14. Magaña, Víctor y Carlos Gay (sin fecha). Vulnerabilidad y Adaptación Regional AnteEl Cambio Climático y sus Impactos Ambiental, Social y Económicos. Recuperado de:http://www2.ine.gob.mx/descargas/cclimatico/vulnerabilidad.pdf el 5 de diciembre del2012

15. Peters, Albert J., Lei Ji and Elizabeth A.Walter-Shea (2003). Southeastern U.S. vegeta-tion response to ENSO events (1989–1999)". Center for Advanced Land ManagementInformation Technologies--Publications. Paper 2.

16. Phillips, J.G., , M.A Cane and C. Rosenzweig (1998). ENSO, Seasonal Rainfall Patternsand Simulated Maize Yield Variability in Zimbabwe. Agricultural and Forest Meteoro-logy Volume 90, Issues 1–2, Pages 39–50

17. Podesta, Guillermo, David Letson, Carlos Messina, Fred Royce, R. Andre’s Ferreyra,James Jones, James Hansen, Ignacio Llovet, Martín Grondona, James J. O’Brien (2002).Use of ENSO-related climate information in agricultural decision making in Argentina:a pilot experience. Agricultural Systems 74, 371–392

18. Prieto, Ricardo, Martín Montero, Jorge Sanchez y Waldo Ojeda (2007). Determinación dePeríodos de Sequía y Lluvia Intensa en Diferentes Regiones de México ante Escenariosde Cambio Climático: Informe Final Proyecto INE/A1-056/2007. Instituto Nacional deEcología. 101 pág.

19. Reilly, J., F. Tubiello, B.McCarl, D. Abler, R.Darwin, K. Fuglie, S. Hollinger, C. Izaurral-de, S. Jagtap, J. Jones, L. Mearns, D.Ojima, E. Paul, K. Paustian, S. Riha, N. Rosenbergand C. Rosenzweig (2003). U.S. agriculture and climate change: New results. ClimaticChange 57: 43–69

20. Ross, Stephen, Randolph Westerfield and Jeffrey Jaffe (2010). Corporate Finance. McGraw - Hill Companies Inc.

21. Sin autor y sin fecha. Recuperado de www.comunidadandina.org (http://www. comuni-dadandina.org/public/Atlas_13_El_Nino_y_La_Nina.pdf) el 5 de dicienbre del 2012

22. Solow, Andrew, Richard Adams, Kelly Bryant, David Legler, James O’Brien, Bruce. Mc-Carl, William Naydas and Rodney Weiher (1998). The Value of Improved ENSO Predic-tion to U.S. Agriculture. Climatic Change 39: 47–60, 1998

23. Tao, Fulu, Masayuki Yokozawa, Zhao Zhang, Yousay Hayashi, Hartmut Grassl and Cong-bin Fu (2004). Variability in climatology and agricultural production in China in associa-tion with the East Asian summer monsoon and El Niño Southern Oscillation. ClimateResearch. Vol. 28: 23–30"

24. Timmermann, A., J. Oberhuber, A. Bacher, M.Each, M. Latif, E. Roeckner, (1999). In-creased El Niño o Frequency in a Climate Model Forced by Future Greenhouse Warming.Nature, 694–697

Vulnerabilidad de la Producción de Alimentos en México a Factores Naturales 79

25. Trenberth, Kevin and Timoty J.Hoar (1997). En Niño and Climate Change. GeophysicalResearch Letters. Vol. 24. No. 23

26. Trenberth, K. (1997). Short-Term Climate Variations: Recent Accomplishments and Is-sues for Future Progress. Bulletin of the American Meteorological Society 78, 1081–1096

27. Yeh, Sang-Wook, Jong-Seong Kug, Boris Dewitte, Min-Ho Kwon, Ben P. Kirtman andFei-Fei Jin (2009). El Niño in a Changing Climate. Nature (letters). Vol. 461

28. Zitácuaro, Alejandro, Juan Méndez y Víctor Magaña (2011). Diagnóstico de las Ten-dencias actuales de fenómenos meteorológicos extremos y proyección de su actividad alclima futuro cercano 2030 y clima futuro lejano 2080. Considerando los efectos del cam-bio climático global y otros efectos locales (informe final). SEMARNAT, INE y CCTA.85 pág.

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Econo-mics) vol. 7, núm. 1 (2013), pp. 81-91.

El riesgo operativo en las MiPymesM. Beatriz Mota Aragón*

Roxana Walles Martínez**

Recibido 10 de Agosto de 2012. Aceptado 14 de Diciembre de 2012.

Resumen

Esta investigación sostiene que la gestión del riesgo operacional en las MiPymes produce mejo-res resultados en sus procesos tanto administrativos como operativos y consecuentemente en susutilidades. La principal contribución de esta investigación es la validación empírica del modelo:Yt = β0 + β1 X1+ β2 X2... + βn Xn+ u de Administración de Riesgo Operacional para lasMiPymes, donde se toma como base que el valor de la empresa Yt o (Vt) = α + u, donde α = atoda X: (X1) Costos de agencia + (X2) Eficiencia + (X3) Tecnología de explotación. Donde, X1

= Fraudes, fallas, errores humanos o de juicio, conflictos de intereses, X2 = Ciclo de Conversióndel Efectivo (CCE = CO – PPP) y X3 = Io, y u = Es la perturbación aleatoria. Entonces, α = β0 +β1X1+β2X2+β3X3. Se establece que Vt o riesgo operacional que aumenta o disminuye el valorde la empresa está dado por la disminución de los costos de agencia (X1), por el aumento de laeficiencia (X2) en la administración de sus activos (CCE) y por el aumento de su tecnología deexplotación (X3). El modelo Vt = α + u presenta una correlación negativa débil entre las varia-bles Eficiencia (X2) y Tecnología (X3), ambas establecen una relación positiva con los Costos deAgencia (X1). En esta primera parte se establecen las relaciones entre las variables de acuerdocon la información obtenida de la muestra. En un segundo estudio se estimarán los parámetrosdebido a que se presenta una fuerte presencia de asimetría en la información.

Abstract

This investigation argues that the operational risk management SME’s produces better results intheir administrative and operational processes and consequently profits. The main contributionof this research is the empirical validation of model: Yt = β0 + β1 X1+ β2 X2... + βn Xn +u of Operational Risk Management for SME’s, where the basis is the value of Yt o (Vt) = α+ u, where α = to all X: (X1) agency cost + (X2) Efficiency + (X3) Technology of explotation.Where, X1 = Frauds, failures, human errors of judgment, conflicts of interest, X2 = Cash Con-version Cycle (CCC = OC - PAY) and X3 = Io, u = is the random disturbance. Then, α = β0 +β1X1+β2X2+β3X3. It is established that Vt or operational risk that increases or decreases thevalue of the firm is given by lower agency costs (X1), for increased efficiency (X2) in the mana-gement of its assets (CCC) and by increased of Technology of explotation (X3). The model Vt

= α + u presents a weak negative correlation between the efficiency variables (X2) and Tech-nology (X3), both establish a positive relationship with the Agency Costs (X1). In this first partsets the relationships between variables according to the information obtained from the sample.In a second study, parameters will be estimated because there is a strong presence of asymmetryinformation.

*Profesora e Investigadora Titular “C” de Tiempo Completo en la Universidad Autónoma Metropolitana-Iztapalapa. E-mail: [email protected]

**Analista de Control. Ako, Soluciones, S.A. de C.V., SOFOM, ENR. E-mail:[email protected]

82 Revista de Administración, Finanzas y Economía

Clasificación JEL: G32, M14, M21, O16

Palabras clave: Administración de Riesgo Operacional, Costos de Agencia, Eficiencia, Tecno-logía de la explotación.

1. Introducción

En las décadas de los 70’s y 80’s se generó una creciente volatilidad en los mercados financieros,principalmente derivada de la desregularización financiera y la globalización económica. Lascrisis económicas causadas por los cambios desfavorables en las variables macroeconómicas,las pérdidas potenciales de empresas e instituciones financieras y la incapacidad de pago dealgunas entidades financieras y organismos empresariales, crearon la necesidad de administrarel riesgo financiero y dejar de ignorarlo en los mercados financieros.

La exposición de la empresa a diversos tipos de riesgos corresponde a sus causas y no a susefectos (Chonawee, Chris y Lucas, 2006). El riesgo de negocio se refiere al mercado del productoy es considerado como una habilidad interna (ventaja competitiva). El riesgo estratégico resultade cambios en la economía y en el entorno político. El riesgo financiero representa el riesgo deno cubrir los costos financieros. Este último puede ser entendido como riesgo interno (riesgooperacional) y riesgo externo (riesgo de mercado, de crédito y de liquidez) a la empresa. Cadauno de ellos es importante por las pérdidas potenciales generadas.

El riesgo es la posibilidad de pérdida financiera (Gitman, 2007). El riesgo operativo es el másantiguo de los riesgos al que se enfrentan las instituciones financieras (Power, 2005). El comitéde Basilea II (BSBS, 2006) define el riesgo operativo como el riesgo de pérdida resultante deprocesos internos inadecuados o fallidos, personas y sistemas, o de acontecimientos externos.

Diversos debates se han derivado en torno a cómo medir o cuantificar las pérdidas finan-cieras consecuencia del riesgo operativo. Lo que es claro es que primero se deben identificary clasificar las causas que lo originan y después cuantificarlo. En este estudio primero se mo-nitorean las causas y después se propone un modelo para cuantificarlo. El problema recurrenteidentificado es la presencia de asimetría en la información y la ausencia de información interna(datos y bases de datos) en la mayoría de las empresas. No obstante en estas dificultades sepropone una medida de riesgo utilizando la información disponible y la teoría financiera.

La validación empírica del modelo se realiza a través de los resultados obtenidos del aná-lisis de los datos de corte transversal de la aplicación de 62 encuestas a MiPymes comerciales,industriales y de servicios de la Delegación Iztapalapa. La muestra se eligió debido a que la De-legación ocupa el segundo lugar con el mayor número de microempresas en el D.F., por lo queresulta representativa. El modelo presenta algunas limitantes de orden cualitativo derivadas bá-sicamente de la información asimétrica. Sin embargo, es posible replicarlo en las MiPymes de lazona geográficas seleccionada y definir su patrón de riesgo operativo. Se sostiene que la gestióndel riesgo operacional produce mejores resultados en los procesos administrativos y operativos,mismos que se reflejan en las utilidades.

2. Consideraciones

Las micro, pequeñas y medianas empresas son una fuente generadora de empleos para la econo-mía nacional, representan el 99.8 % de las empresas en el país (Secretaría de economía, 2010).Existen en México 662 mil microempresas, de las cuales 88, 898 están ubicadas en el D.F. y re-presentan el 13.42 % de las empresas administradas por su propietario con hasta 10 empleados(SIEM, 2010).

La Delegación Iztapalapa registra 12,011 empresas; 11,331 son microempresas, 540 son pe-queñas, 121 son medianas, 16 son grandes y 3 empresas no especifican el número de empleados(SIEM, 2010).

El riesgo operativo en las MiPymes 83

La tabla 1 muestra la distribución del empleo por actividad económica, como se observalos sectores comercio, servicios y manufacturero son los sectores que concentran el mayor nú-mero de empleos en la zona. El sector comercio es la actividad con mayor número de personalocupado (53 % de la PEA). De los empleos generados en el sector manufacturero la actividadeconómica de mayor participación es la fabricación de plástico (12.0 %). En los sectores co-mercio y servicios la primordial actividad es el comercio de alimentos (32.0 %). Por último, elsector manufacturero aunque concentra un menor número de empleados comparativamente conlos otros dos sectores tiene una mayor participación de actividad económica.

Tabla 1: Distribución del Empleo por Actividad Económica

Sector Núm. De trabajadoresMinería 97

Electricidad, gas y agua 0Industria Manufacturera 73,303

Industria de la Construcción 1,706Comercio 101,217

Transportes, correos y almacenamiento 7,612Servicios 82,244

Total 266,179

Fuente: INEGI (2004). Censos Económicos del Distrito Federal.

Por otro lado, en cuanto al número de establecimientos en el D.F. la delegación Iztapalapaocupa el segundo lugar, participa con el 17.1 % del total. El sector comercio contribuye con elmayor número de negocios en la zona (Secretaría de Desarrollo Económico, 2010).

Un dato revelador y que también explica la alta concentración de microempresas en la zonaes la baja presencia del sector turismo, su participación es marginal en infraestructura hotelera,el número de hoteles de todas las categorías es de 22 unidades, 3.4 % de participación en laregión.

Las MiPymes tienen como características flexibilidad para actuar, adaptabilidad de sus pro-ductos en el mercado, problemas de competitividad, limitadas posibilidades de expansión, entreotras. Como las grandes empresas requieren de controles administrativos, ser competitivas y di-ferenciadas de las demás (Collins y Montgomery, 2007). Enfatizamos que más que ofrecer unproducto o servicio distinto, es necesario establecer controles internos que minimicen su riesgoe incrementen la certeza en sus operaciones.

El problema mayúsculo del control de riesgos se presenta cuando la empresa transita en lalínea de tiempo de desarrollo corporativo en los distintos momentos de t, de la fase de supervi-vencia a la etapa de crecimiento corporativo debido a que se generan múltiples costos y gastosde supervivencia, como aumento de personal, incremento en costos por relaciones comerciales,por mejoras tecnológicas, etc. Entonces se enfrenta a fallas administrativas, controles defectuo-sos, errores humanos, pérdidas ocasionadas por fallas de sistemas, riesgos legales y riesgos deejecución. El aumento de personal puede significar asignación de trabajadores de confianza yuna estructura organizacional formal por lo tanto se generan otros riesgos, entre otros; fraudes,errores humanos, riesgos tecnológicos o deficiencia en la administración de los activos de laempresa (costos de agencia). Los riesgos anteriormente mencionados componen la categoría deriesgo operativo.

En el crecimiento están implícitas múltiples decisiones de inversión o financiamiento corpo-rativo que dependen básicamente de los resultados operativos. Cualquiera que sea el panorama,es fundamental que dichas empresas cuenten con controles y procedimientos adecuados para la

84 Revista de Administración, Finanzas y Economía

gestión de su riesgo operativo. La experiencia muestra que el mayor número de las MiPymes en-cuestadas no tiene control en sus procesos administrativos y se presenta la falta de informaciónpara la gestión de sus procesos, por lo tanto es poco probable mantenerse en el largo plazo.

3. Un modelo de Riesgo Operacional

Jarrow (2007) plantea un modelo formulado para empresas administradas por su propietario yes interno a la empresa. El modelo representa el valor de los activos de la empresa en el tiempoT, después de que se ha incurrido en el riesgo operacional:

Entonces, la caracterización económica del riesgo operativo es:

1. El riesgo de pérdida debido a la tecnología de explotación de una empresa o sistema,incluye los procesos internos.

2. El riesgo de una pérdida debido a costos de agencia, incluye el fraude y la mala gestión.

Estos tipos de riesgos son generados por diferentes factores económicos. El primero se basaen el proceso de generación de ingresos, el segundo en los incentivos de gestión.

La caracterización del Riesgo Operacional que se presenta enseguida conduce a la genera-ción de fórmulas específicas de acuerdo con su aplicación.

Vt = S t * π (t) * _1 ( T )

Donde:S t = representa el valor total de la cartera de activos adquiridos por la empresaV t = es el valor de la empresaπ(t) = es el cambio proporcional en el valor de la cartera de activos debido a la tecnología

de explotación de la empresaθ1(t) = es el cambio proporcional en el valor de la cartera de activos debido al sistema de

riesgo operacional de la empresaθ2(t) = es el cambio proporcional en el valor de la cartera de activos debido al costo de la

agencia de riesgo operacional de la empresa

Esta caracterización provee información sobre la estimación de pérdidas por riesgo opera-cional, para esta estimación se utilizan los precios de mercado único. Algunos aspectos impor-tantes a considerar para la comprensión del modelo presentado son: Para el primer tipo de riesgolos datos internos de la empresa y las bases de datos ofrecen una estimación más útil; para elsegundo tipo de riesgo es posible estimar a partir de datos externos al sistema operativo de laempresa aunque representa un costo de agencia debido a la separación de la propiedad de laempresa de la gestión.

Ahora bien, se entiende por tecnología de explotación la forma de transformar la compra delos activos de la empresa en objetos más valiosos. Es la información para la selección de acti-vos de inversión que aumentará el valor de empresa. Herrera, Limón y Soto (2006), establecenque empresas de reducido tamaño tienen costos de agencia prácticamente nulos debido a querenuncian a emprender proyectos de inversión que les permitan crecer. Una MiPyme tiene unaestructura de gestión plana, en este caso los costos de agencia son prácticamente inexistentes;incluso se observa una escasa o inexistente documentación que avale sus actividades por lo quela relación del propietario con este rol también es inexistente. Sin embargo los costos de agenciase generan en cuanto la empresa empieza a crecer y requiriere de una estructura sólida.

Por otro lado, Jensen (1968) y Stultz (1990) establecen que las empresas con mayor tenden-cia de efectivo pueden invertir más de lo que deberían. Dado que las empresas grandes tienden

El riesgo operativo en las MiPymes 85

a tener diversas divisiones de negocios se vuelve más compleja la asignación y monitoreo de losgastos en los que incurre de manera eficiente; por lo tanto, las empresas grandes podrían tenermayores costos de agencia, por lo mencionado y debido a que los administradores pueden noinvertir en proyectos que maximicen el valor de la empresa.

Sin embargo, Jun-Han y Yong Kim (2002) señalan que la empresa pequeña podrá emprenderproyectos con riesgo excesivo y el propietario o administrador estará preocupado por el riesgode sus inversiones en activos, mientras que el propietario o accionista de la empresa grandetambién estará preocupado por el riesgo de sus inversiones aunque no sea él quien lo administre.La incertidumbre del propietario o administrador por el riesgo de sus inversiones puede sertraducida como el riesgo operacional y representa el riesgo adicional debido a su transacciónfallida por un error de inversión o de juicio e incluso por fraudes.

Teóricamente las MiPymes tienen como ventaja ser administradas por sus propietarios quie-nes están presentes en las decisiones que benefician a su empresa lo cual permite incrementar suvalor. Las grandes empresas lógicamente no cuentan con este beneficio. Por lo tanto es importan-te que las pequeñas empresas trabajen entorno a dicha ventaja, en la obtención de informaciónclara y planeen sobre sus controles administrativos para la toma de decisiones en vista de mini-mizar incertidumbre.

4. El Modelo propuesto

Como se mencionó el propósito de este estudio es proponer un modelo de riesgo operacionalútil para las MiPymes, para ello se postula que los costos de agencia van a medirse a travésde los fraudes, las fallas en los sistemas, los errores humanos o los conflictos de intereses. Laeficiencia del negocio entendida como el Ciclo Operativo (CO = edad promedio de inventario+ período promedio de cobro). La transición del efectivo a inventarios a cuentas por cobrar ynuevamente al efectivo. Si se reduce al mínimo el período de cobro y el período de conversióndel efectivo, y se alarga al máximo el período de pago, el Ciclo de Conversión del Efectivo(CCE = CO – periodo promedio de pago) estaría al máximo de su eficiencia. Sin embargo, pararealizar esta estrategia debe revisar con sumo cuidado las políticas de inventarios, de cobranza yde proveedores acordadas, con la intención de no lastimar su calificación crediticia.

Cuando la administración de los activos de corto plazo es eficiente, los costos de agenciase reducen y mejora la administración de los sistemas de tecnología que la empresa utiliza paradistinguirse. La tecnología es la información empleada para la selección de sus inversiones.Jarrow (2007) describe a la tecnología de la explotación como una caja verde que transforma losvalores de los activos en sustitutos de efectivo, lo cual aumenta el valor de la empresa si es queésta tiene el talento o la información para la selección de sus inversiones. La variable tecnologíase mide por medio del Valor Presente Neto que genera valor a la empresa, si el VPN es mayorque cero aumenta el flujo de efectivo de la caja verde.

Entonces, se administra el valor de la empresa por medio de las variables Costos de Agencia(X1), Eficiencia (X2) y Tecnología (X3). De lo anterior se propone:

Vt = α + u

Vt = valor de la empresaα = administración de Riesgo Operacional

α = β0 + β1X1+β2X2+β3X3

u = error aleatorio

86 Revista de Administración, Finanzas y Economía

Donde: α = a toda X,X = Costos de Agencia + Eficiencia + TecnologíaX = X1+ X2+ X3

Donde:X1 = Fraudes, fallas, errores humanos o de juicio, conflictos de interesesX2 = CCE = (CO – PPP)X3 = Ioβ0 = la intersección o término constanteβ1, β2, β3. . . . . . . Bn = los parámetros

Donde:Io = Inversión en tecnología de explotaciónu = error aleatorio

Por lo tanto Vt está dado por la disminución de los costos de agencia, por el aumento de laeficiencia y por el aumento de la tecnología de explotación.

α = a toda X,α = X1+ X2 + X3

Sustituyendo X2

α = X1 + (CO – PPP) + X3

Sustituyendo X3

α = X1+ (CO – PPP) + Io

V t = α + u

V t = β0+ β1X1+β2 (CO – PPP) +β3 Io + u

Para validar empíricamente al modelo se eligió una muestra de 62 empresas de los secto-res industrial, comercial y de servicios de dicha zona geográfica y se aplicaron encuestas a lasmismas. El cuestionario consta de 25 preguntas cerradas y se dividió en dos partes. La primeracontiene 10 preguntas generales, tales como: Sector, edad, número de empleados, etc. La segun-da contiene 15 preguntas específicas orientadas a las variables del modelo de valor de la empresay administración de riesgo operativo con tres apartados: Costos de agencia (X1), Eficiencia (X2),y Tecnología de la explotación (X3). La información se recabó a finales del segundo trimestredel año 2010 y las encuestas fueron realizadas mediante entrevistas personales. Para el procesode análisis de datos y tabulación se empleó el método de estadística descriptiva y la media comomedida de localización.

5. Resultados de las encuestas y conclusiones de las variables del modelo: Costos de Agen-cia (X1), Eficiencia (X2) y Tecnología (X3).

Los resultados obtenidos en la investigación indican la distribución de frecuencias a nivel secto-rial, la edad promedio, el número de empleados, entre otros. El sector representativo es el sectorcomercio con el 74 % de mayor actividad, el segundo sector de participación es servicios con el18 % y por último, el sector industrial con el 8 % (INEGI, 2004).Como se observa, la mayoríade las empresas en la región están orientadas al sector comercio. La actividad manufacturera esbaja y es un indicador en términos generales de la tendencia de las empresas en México.

El riesgo operativo en las MiPymes 87

Tabla 2: Distribución de Frecuencias a nivel Sectorial en la Delegación Iztapalapa

Sector Frecuencia Frecuencia Relativa FrecuenciaPorcentual

Comercio 46 0,74193548 74 %Industrial 5 0,08064516 8 %Servicios 11 0,17741935 18 %

Total 62 100 %

Gráfico 1: Distribución de Frecuencias a nivel Sectorial en la Delegación Iztapalapa

Por otro lado la edad media de una microempresa en la Delegación es de 10 años. La me-diana muestra que el 50 % tiene cinco años o más. La moda es de un año e indica el períodopromedio de una empresa vigente reafirmando que el período de vida es corto y demuestra quelos esfuerzos de las empresas en el corto plazo son incorrectos y erróneamente enfocados. Véasetabla 3.

Tabla 3: Edad de las MiPymes de la Delegación IztapalapaEdad Frecuencia Frecuencia porcentual

0 a 10 años 45 72.511 a 20 10 16.121 a 30 1 1.631 a 40 4 6.441 a 50 2 3.2Total 62 100 %

88 Revista de Administración, Finanzas y Economía

Gráfico 2: Edad de las Microempresas de la Delegación Iztapalapa

Tabla 4: Número de empleados de las MiPymes de la Delegación IztapalapaNúmero de empleados Frecuencia Frecuencia porcentual

0 41 66.11 9 14.52 5 8.13 3 4.84 2 3.25 1 1.66 1 1.6

Total 62 100 %

Gráfico 3: Número de empleados de las MiPymes de la Delegación Iztapalapa

La información obtenida indica que el 61.1 % de las MiPymes no cuenta con el límite máxi-mo de empleados (10) establecido por la Secretaría de Economía por lo que son administradasy atendidas por sus propietarios.

Por otro lado, del 100 % de los encuestados el 30.6 % entiende el término MiPyme mientrasque el 69.3 % no lo conoce, ni lo ha escuchado. Lo cual muestra con claridad la pobre culturaempresarial y la inadecuada difusión de los planes y programas gubernamentales para la creacióny administración de las MiPymes en México.

El riesgo operativo en las MiPymes 89

La segunda parte del cuestionario recopila la información de las variables del modelo. Parala variable eficiencia, el 94 % de las empresas considera que ha sido eficiente en la administra-ción de su negocio de acuerdo con la definición de eficiencia descrita en la encuesta y el 92 %cree que el crecimiento o decrecimiento de su empresa es consecuencia de la forma de admi-nistrar. La encuesta también indica que el 67.74 % de las empresas señalan tener mecanismosadministrativos de operación, los cuales consisten básicamente en registrar entradas y salidas deefectivo. El 98 % considera el ciclo de conversión del efectivo como una estrategia viable paraadministrar sus activos de corto plazo.

Con respecto a la variable de tecnología de la explotación, el 77.41 % representa a losadministradores - propietarios que no emplean algún tipo de tecnología para la selección de susactivos de inversión, sin embargo consideran indispensable la administración de esta variablesi se define como aquélla que trae grandes beneficios monetarios al invertir en activos de largoplazo que hagan más valiosa la empresa. Aunado a esto, el 61 % considera que representa unbeneficio, el 29 % un costo, mientras que el 10 % se abstiene de responder al considerar comoninguno de los anteriores una opción. Por último, el 85 % contestó que selecciona sus activosbajo la premisa de la experiencia, el 11 % se informa antes de adquirirlos, y el 3 % realiza lainversión utilizando su juicio como herramienta de selección.

El siguiente análisis conduce al lector a considerar la presencia de asimetría de la informa-ción en las respuestas de las empresas encuestadas, el 77 % de los propietarios de las microem-presas respondieron que una mala selección en activos de inversión les ha generado pérdidas ensu negocio, lo cual es contradictorio con el 94 % de las empresas que considera que han sidoeficientes en la administración de su negocio. La respuesta tampoco guarda una relación positivacon administrar la tecnología de la explotación y solo aceptar administrar esta variable a cambiode grandes beneficios monetarios. Por último, es incongruente con la respuesta donde el 67 %de las microempresas señala realizar un estudio financiero antes de invertir en algún activo delargo plazo.

Con respecto a la variable de costos de agencia, el 81 % considera no incurrir en ellos. El79 % desconoce el término administración de riesgos; sin embargo el 79 % manifiesta la posi-bilidad de administrar el riesgo operacional aunque éste genere un costo adicional. De éstos,el 91.9 % considera que la administración del riesgo operativo les permitirá crecer estratégica-mente. Entonces se establece una relación positiva entre administrar el riesgo operacional conun costo extra que les permitiría crecer y la administración de tecnología de la explotación parala selección de sus activos de inversión basando la selección en la experiencia de inversionesanteriores.

De acuerdo con los resultados anteriores se establecen las siguientes relaciones entre las res-puestas de las variables: Costos de agencia (X1), Eficiencia (X2) y Tecnología de la explotación(X3): (X = Costos de agencia (X1) + Eficiencia (X2) + Tecnología (X3). Existe una correlaciónpositiva entre eficiencia y tecnología, si y solo si, ésta se emplea para la adquisición de activosque aumenten el valor de la empresa, de tal manera que la eficiencia podría reflejarse en surentabilidad.

Si la tecnología de la explotación (Io) genera valor a la empresa, ésta mostraría eficiencia.Sin embargo los resultados muestran que Io se obtiene a través de la experiencia generandopérdidas por la mala selección de activos de inversión. Entonces se observa una correlaciónnegativa, mientras que una variable crece hasta cierto punto la otra variable decrece. Es decir,las empresas se consideran eficientes (variable creciente), no obstante, la adquisición de activosde largo plazo (tecnología) basada en la experiencia se convierte en una mala selección (variabledecreciente).

Si las empresas mostraran eficiencia como se afirma, sin duda alcanzarían sus objetivos enel plazo establecido. Reflejando rentabilidad consecuencia de la rotación de sus activos de corto

90 Revista de Administración, Finanzas y Economía

plazo, del control de los costos de agencia y del uso de la tecnología.El modelo establece también una correlación negativa entre las variables eficiencia y costos

de agencia porque mientras los costos de agencia disminuyen aumenta la eficiencia.En corto, se establece una correlación positiva entre tecnología de la explotación y eficien-

cia. Y una correlación negativa entre costos de agencia y eficiencia. Las encuestas afirman la noexistencia de los costos de agencia y la posible administración del riesgo operacional. Si los en-cuestados se consideran eficientes, entonces esta información resulta positiva con el análisis yaque a menores costos de agencia mayor eficiencia. En resumen, los resultados indican relacionespositivas entre las variables y correlaciones entre las mismas.

6. Conclusiones

Esta investigación abordó el análisis del riesgo operativo en las MiPymes de los sectores comer-cial, industrial y de servicios de la Delegación Iztapalapa del D.F. a través de un modelo quepretende aumente o disminuya el valor de la empresa al administrar el riesgo operativo. Ésteconsidera las variables costos de agencia (X1), eficiencia (X2) y tecnología de la información(X3) + un error aleatorio.

En términos generales se concluye que en las empresas encuestadas de la zona no existeconocimiento sobre la administración de riesgo operativo, es clara la ausencia de cultura empre-sarial, de educación financiera y la falta de divulgación adecuada de los planes y programas deapoyo gubernamental para las MiPymes.

Tampoco existe conocimiento específico sobre la variable tecnología de la explotación, porlo que resulta una variable irrelevante para adquirir activos de largo plazo en la empresa. Lasmicroempresas admiten tener pérdidas por adquirir activos y a su vez confirman que previa-mente a la adquisición realizan un estudio financiero sobre las posibles pérdidas o gananciasconsecuencia de dicha adquisición. Si la selección de activos se lleva a cabo por medio de la ex-periencia y no por la información revelada en sus estudios previos, entonces no existe simetríaen la información proporcionada por los encuestados. Por lo anterior las variables eficiencia (X2)y tecnología de la explotación (X3) presentan una correlación negativa débil debido a la falta deinformación y no es posible establecer una correlación positiva intensa entre las variables. Elmodelo valida fuertemente la variable costos de agencia (X1) por que las empresas afirman sereficientes y no incurrir en costos de agencia. Sin embargo es conocido que incurren en costos deagencia por las fallas en sus sistemas administrativos y errores humanos debido a que el gruesode las microempresas señaló estar constituida como negocios familiares y se derivan conflictode intereses.

El modelo Vt = α + u presenta una correlación negativa débil entre las variables Eficiencia(X2) y Tecnología (X3), ambas establecen una relación positiva fuerte con los Costos de Agencia(X1). Es importante mencionar que el modelo original mide las variables: (X1), (X2) y (X3), la nocomprobación absoluta de la correlación entre las variables se debe básicamente a la presenciade asimetría en la información que proporcionan las encuestas. La posibilidad de validarlo estálatente, y depende de nueva información limpia y disponible, probablemente de otros sectores,e incluso, de diferente zona geográfica, ahora realizando la estimación de los parámetros.

Referencias

1. Baird, I. y Thomas, H. (1985): Toward a Contingency Model of Strategic Risk Taking.Academy of Management Review, Vol. 10 (2), pp. 230-243. USA.

2. Broadbent, J. Jas, G. y Richard, L. (2006): Identifying and Controlling risk: The Problemof Uncertainty in the Private Finance Initiative in the UK’s. National Health Service.London, UK.

El riesgo operativo en las MiPymes 91

3. Basel Committee on Banking Supervision (BCBS) (2006). International Convergence ofCapital Measurement and Capital Standards, Bank for International Settlements.

4. Collins, D. y Montgomery, C. (2009): Competing on Resources: Strategy in the 1990’s.Harvard Business Review, Vol. 73. USA.

5. Covin, J. y Slevin, D. (1991): A Conceptual Model of Entrepreneurship as firm Beha-viour. Entrepreneurship: Theory and Practice, Vol.16 (1), pp.7-25, USA.

6. INEGI Censos económicos (2004): Micro, Pequeña, Mediana y gran Empresa. Estratifi-cación de los Establecimientos. México.

7. INEGI, Secretaría del Trabajo y Previsión Social (2004): Encuesta Nacional de Empleoy Encuesta Nacional de Ocupación y Empleo. Último Censo. México.

8. INEGI. Censos Económicos (1999 y 2004). México.

9. Jarrow, A. (2007): Operational Risk. Cornell University, Ithaca, New York, USA.

10. Jensen, M. y Meckling, W. (1976): Theory of the Firm: Managerial Behaviour, AgencyCost and Ownership Structure. Journal of Financial Economics. Vol. 3, pp. 305-360.USA.

11. Jorion P. (2008): Valor en Riesgo. Limusa. México.

12. Jun-Han Shin, A. y Yong Kim H. (2002): Costos de Agencia y la Eficiencia de la In-versión Empresarial de Capital: Evidencia de los Gastos de Capital. Departamento deFinanzas y Economía de la Facultad de Gestión de la Universidad Estatal de NuevaYork, EE.UU.

13. OCDE (2006): Las Pymes en América Latina. México.

14. Power, M. (2005). The Invention of Operational Risk. Review of International PoliticalEconomy.

15. Secretaría de Desarrollo Económico (2010): Delegación Iztapalapa. Gobierno del Distri-to Federal. México.

16. SIEM (2010): Empresas por Entidad Federativa. México.

INSTRUCCIONES PARA LOS AUTORES

1) La Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics) recibe trabajos de investigación en cualquiera de las áreas o especialidades de administración, economía, contabilidad y finanzas; en la dirección electrónica: [email protected], [email protected]

2) Los trabajos que se sometan a arbitraje y dictaminación deberán ser inéditos y no podrán ser enviados simultáneamente para su publicación en otro medio. 3) Los trabajos pueden ser escritos en español o inglés. 4) El documento puede ser escrito en cualquier editor de texto (Word, PcTex,

MiKTex, LaTex) con letra tipo Times New Roman, tamaño 11 a doble espacio. El justificado no se deberá realizar en los primeros párrafos de cada sección o después de una tabla o fórmula.

5) Los títulos y subtítulos de secciones se escribirán de tamaño 14 y en negritas, comenzando siempre con una capitular. Se numerarán empleando la numeración arábiga. La numeración para los subtítulos será una numeración anidada: 2.1., 2.2., 2.3., etc.

6) La primera página del documento deberá contener a) título del trabajo; b) nombre del autor o autores, sin incluir el grado académico; c) institución de filiación; d) resumen de no más de 100 palabras en inglés y en español; palabras claves en Inglés y Español; f) clasificación JEL, disponible en el sitio electrónico: http://www.aeaweb.org/jel/guide/jel.php y g) al pie de página deberán incluirse domicilio, teléfono y correo electrónico del autor o de los autores para recibir correspondencia.

7) Sólo podrá existir un pie de página adicional en la primera hoja. En dicho pie podrán los autores expresar sus agradecimientos o incluir alguna información adicional que consideren relevante. 8) Las ecuaciones deben estar numeradas consecutivamente, al igual que los cuadros, las figuras y las gráficas. 9) Los cuadros, gráficas y figuras deben poseer un título o encabezado que las distinga. Cada cuadro, gráfica o figura deberá incluir alguna referencia, el origen de la fuente de información y siempre deberá presentarse en blanco y negro. 10) La relación bibliográfica deberá presentarse al final del documento, en orden alfabético de autores y éstas deben ser como: Casar, J. I., G. Rodríguez y J. Ros (1985). Ahorro y balanza de pagos: un análisis de las restricciones al crecimiento económico de México. Economía Mexicana, núm. 7, pp. 21-33. Cox, J. C, J. E. Ingersoll, and S. A. Ross (1985). An Intertemporal General Equilibrium Model of Asset Prices. Econometrica, 53(2), pp. 363-384. Fuller, W A. (1996). Introduction to Statistical Time Series. 2nd ed., John Wiley, New York. Granger, C. W. (1980). Long Memory Relationships and the Aggregation of Dynamics Models. Journal of Econometrics, 14(1), pp. 227-238. The Trouble with Rational Expectations and the Problem of Inflation Stabilization, en R. Fredman y E. S. Phelps (comps.).

INSTRUCTIONS TO AUTHORS

1) Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics) is a peer reviewed scientific journal and receives manuscripts with subject matter in Management, Economics, Accounting and Finance. Articles should be sent to:

[email protected] , [email protected] 2) Manuscripts will be considered for possible publication provided they are unpublished and not submitted elsewhere. 3) The articles could be written in English or Spanish. 4) The manuscripts could be written in Microsoft Word, PcTex, MiKTex, or LaTex format, the font must be Times New Roman, size 11 and pages must be double spaced. Do not use indentation in the first paragraph of each section or after a table or equation. 5) Titles and subtitles of sections should be written in size 14 and bold faces. It should use the arabic numerals. Numerals for the subtitles should be consecutive: 2.1., 2.2., 2.3., etc. 6) The Cover page should include: a) titles of the paper; b) full name of the author(s), no

specification of academic grade; c) institutional affiliation(s) ; d) a summary of your paper in English and Spanish of at most 100 words; e) keywords in English and Spanish;_f)_JEL_classification,_which_can_be_found_in:_ http://www.aeaweb.org/jel/guide/jel.php and g) footnote should has: address, telephone and …electronic mail of the author(s).

7) Only one footnote at the first page is allowed. In the footnote, the author(s) could include some relevant information. 8) The equations should be in consecutive arabic numerals, and the same applies for the tables, figures and graphics. 9) Tables, figures and graphics should have a title. Each table, figure, graphic should include any reference or source. 10) Bibliographical references will be at the end of text with the author(s) in ….alphabetical order, according to the following examples: Casar, J. I., G. Rodríguez y J. Ros (1985). Ahorro y balanza de pagos: un análisis de las restricciones al crecimiento económico de México. Economía Mexicana, núm. 7, pp. 21-33. Cox, J. C, J. E. Ingersoll, and S. A. Ross (1985). An Intertemporal General Equilibrium Model of Asset Prices. Econometrica, 53(2), pp. 363-384. Fuller, W A. (1996). Introduction to Statistical Time Series. 2nd ed., John Wiley, New York. Granger, C. W. (1980). Long Memory Relationships and the Aggregation of Dynamics Models. Journal of Econometrics, 14(1), pp. 227-238. The Trouble with Rational Expectations and the Problem of Inflation Stabilization, en R. Fredman y E. S. Phelps (comps.).

EGADE BUSINESS SCHOOL

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics) es una revista de investigación científica con arbitraje, sus artículos son responsabilidad de los autores, son ajenos a ella las institu-ciones que representan, la revista o el Tecnológico de Monterrey. Índice en el que aparece la revista: IDEAS-RePEc.

Revista de Administración, Finanzas y Economía (Journal of Management, Finance and Economics)

EGADE Business School Calle del Puente 222, Col. Ejidos de Huipulco, Tlalpan. C.P. 14380, México D.F.

Aulas III, cuarto piso. Tel.+52(55) 54832020 ext. 1390 y 1392 Correo electrónico: [email protected]

Página: http://www.egade.mx (Elegir  “DOCTORAL  PROGRAMS”  y  “PUBLICATIONS”)