jueves, 22 de enero de 2015

¿Hasta cuándo?

Estamos, todavía, transitando una de las peores crisis económicas mundiales. Una crisis cuyas causas son varias, pero que sin dudas una de ellas fue la creciente desigualdad observada en la mayoría de los países a partir del auge neoliberal de los 70'. Paradójicamente, este proceso, que ya lleva más de 30 años profundizándose, recién comenzó a ser tenido en cuenta por el mainstream a partir del estallido de la crisis. La explicación es sencilla: para esta teoría la distribución del ingreso depende del aporte marginal que cada factor realiza; así, si los trabajadores se llevan un pedazo cada vez más pequeño de la torta es porque eso es lo que se merecen, por lo que no habría ningún problema allí.
El estallido de la crisis puso en evidencia a estos economistas, al tiempo que mostró, de la manera más cruda, que la constante y creciente desigualdad no puede (ni debe) explicarse como algo natural del sistema, porque eso implicaría que no se puede hacer nada al respecto. El libro de Piketty fue clave en este sentido.
Al día de hoy, han pasado más de 7 años desde que se inició esta crisis. Casi una década. Uno esperaría entonces que, ante el consenso global que se observó en torno a la creciente desigualdad como uno de los problemas y de las causas de esta crisis, se comenzara a revertir este proceso.
Nada de eso.
La desigualdad se sigue profundizando, como si no hubiese pasado nada. Y a una velocidad que asusta. Hace unos días salió un informe de Oxfam que refleja con claridad estos hechos: desde 2009 que la riqueza global que posee el 1% se ha venido incrementando, logrando en la actualidad acaparar el 48% del total, dejando al 99% restante de la población con el 52% de la riqueza. Por si fuera poco, la mayoría de ese 52% de riqueza pertenece al 20% más rico, dejando solamente el 5,5% de la riqueza mundial repartida entre el 80% de la población (!).
Pongámoslo en números, así se entiende mejor. Si la riqueza total del mundo fuese de 1 millón de dólares y la población fuese de 100 personas, la distribución sería la siguiente: la persona más rica del mundo tendría 480.000 dólares, casi lo mismo que las otras 99 personas… ¡juntas! Para peor, casi toda la riqueza restante quedaría en manos de los más ricos, dejando a la mayoría de la población, 80 personas sobre un total de 100, con tan solo 55.000 dólares. Aclaro, por las dudas, que estamos hablando de la riqueza total de esas 80 personas, no de lo que tendría cada uno. Asumiendo que todas tienen la misma riqueza, a cada una le quedarían 688 dólares. O sea, la persona más rica tendría 700 veces más riqueza que cada una de esas 80 personas.
En el informe también se le pone nombre y apellido a los magnates más ricos del mundo, destacando las principales características de los mismos: el 30% son yanquis, la mayoría son hombres mayores de 50 años (85%), que en muchos casos heredaron toda o parte de su fortuna.
Además también dan una explicación bastante plausible sobre cómo es que logran seguir acrecentando su riqueza a costa del resto: haciendo lobby. Parte de esa ganancia va a parar a la financiación de las campañas de los políticos, quienes luego gobiernan para ellos.
Así estamos.

martes, 20 de enero de 2015

Breves apuntes sobre el enfoque metodológico del mainstream

A partir de la entrada introductoria anterior sobre la metodología de la ciencia, pasamos ahora al enfoque que utiliza el mainstream.

Para poder identificar correctamente el enfoque actual del mainstream, debemos rastrear sus inicios. El trabajo seminal se encuentra en Friedman (1953), quien sostiene, siguiendo claramente a Popper, que la única forma de verificar una teoría es a partir de su poder de predicción:

Viewed as a body of substantive hypotheses, theory is to be judged by its predictive power for the class of phenomena which it is intended to "explain." Only factual evidence can show whether it is "right" or "wrong" or, better, tentatively "accepted" as valid or "rejected." (…) The only relevant test of the validity of a hypothesis is comparison of its predictions with experience. The hypothesis is rejected if its predictions are contradicted ("frequently" or more often than predictions from an alternative hypothesis); it is accepted if its predictions are not contradicted; great confidence is attached to it if it has survived many opportunities for contradictions. Factual evidence can never "prove" a hypothesis; it can only fail to disprove it, which is what we generally mean when we say, somewhat inexactly, that the hypothesis has been "confirmed" by experience (p. 8).
Por si fuera poco, este autor afirma que no solo los supuestos de la teoría no deben ser realistas, sino que además es mejor que no lo sean. De este modo, Friedman considera a las teorías meramente como un instrumento para realizar predicciones, sin importar que las mismas expliquen a través de un mecanismo causal dichas predicciones. Esto lleva a que las teorías, una vez falsadas, sean descartadas en su totalidad, ante la falta de un explicante que pueda ser modificado.

A partir de lo anterior, rápidamente nos surge la pregunta acerca de cómo es posible entonces que la teoría del mainstream siga vigente. La respuesta de Friedman es que esto se debe a que en numerosos casos la teoría fue puesta a prueba y nunca logró ser refutada.

Una manera todavía más efectiva de proteger a la teoría encuentra en Machlup (1963), quien por un lado afirma que las investigaciones empíricas son necesarias para el progreso de la teoría, pero por otro mantiene que ningún trabajo empírico puede falsarla:

Where the economist's prediction is conditional, that is, based upon specified conditions, but where it is not possible to check the fulfillment of all the conditions stipulated, the underlying theory cannot be disconfirmed whatever the outcome observed. Nor is it possible to disconfirm a theory where the prediction is made with a stated probability value of less than 100 per cent; for if an event is predicted with, say, 70 per cent probability, any kind of outcome is consistent with the prediction. Only if the same "case" were to occur hundreds of times could we verify the stated probability by the frequency of "hits" and "misses." This does not mean complete frustration of all attempts to verify our economic theory. But it does mean that the tests of most of our theories will be more nearly of the character of illustrations than of verifications of the kind possible in relation with repeatable controlled experiments or with recurring fully-identified situations. And this implies that our tests cannot be convincing enough to compel acceptance, even when a majority of reasonable men in the field should be prepared to accept them as conclusive, and to approve the theory so tested as "not disconfirmed," that is, as "O.K.” (p. 155).
En definitiva, lo que está diciendo Machlup es que a pesar de toda la evidencia en contra que puede acumular una teoría, ésta va a seguir sin ser falsada (!).

El mainstream terminó adoptando (aunque no de manera contundente) las recomendaciones de Friedman y de Machlup, manteniendo la idea de que la verificación de los supuestos no solo es innecesaria sino además contraproducente, mientras que la única manera de falsar una teoría es a través de su capacidad de predicción.

Una de las razones principales por la cual Friedman defiende la irrelevancia de los supuestos es debido a que el mainstream adopta el individualismo metodológico como enfoque, a partir del cual las leyes “fundamentales” de la economía parten de las preferencias, las creencias y las elecciones de los individuos. Asimismo, estas preferencias son a la vez causa y explicación del comportamiento de los agentes: éstos actúan de manera racional si sus acciones son explicadas por sus preferencias, que a su vez son racionales.

Por otro lado, este enfoque también implica otorgar mayor relevancia al estudio de los individuos que a los fenómenos agregados, hecho que queda claro a partir de la definición de economía que se encuentra en todos los manuales, es decir, que la economía es la ciencia de la elección. De lo anterior se desprende, entonces, que la economía debe ser estudiada a partir de la microeconomía, dado las sociedades están formadas por individuos que toman decisiones, siendo la microeconomía la que estudia esas decisiones. Esto además sirve para entender la tendencia reciente hacia la microfundamentación de la macroeconomía mainstream.

Bilbiografía citada:
Friedman, M. (1953), Essays in positive economics, Chicago: University of Chicago Press.
Machlup, F. (1963), Essays on economic semantics, Englewood Cliffs: Prentice-Hall.

viernes, 16 de enero de 2015

Estructuralismo y neo-estructuralismo, ¿giro o actualización?

Comparto un trabajo que escribimos con Nicolás Zeolla que acaba de salir publicado en la revista del Centro Cultural de la Cooperación (CCC). 
Les dejo la introducción (el trabajo se puede leer acá):

El pensamiento económico del estructuralismo surgió de un esfuerzo original por identificar el conjunto de problemas propios a los que se enfrentaban las naciones latinoamericanas frente al desafió de la independencia económica. Sin embargo, la propia dinámica del proyecto industrialista implicó un conjunto de transformaciones conceptuales y programáticas que parecen alejarse de esa inquietud original.

El objetivo del presente artículo será analizar el pensamiento de la CEPAL buscando conexiones y diferencias entre la etapa del estructuralismo tradicional y la posterior etapa neoestructuralista. Nos detendremos en examinar algunos elementos de las seis décadas de pensamiento cepalino, como son el método de análisis, la apertura e inserción internacional, la brecha externa, la inflación, la distribución del ingreso y el rol del Estado, enfatizando las transformaciones en el contexto histórico y el funcionamiento de la economía global.

Para ello, el presente trabajo contará con seis secciones. A continuación se analizará el pensamiento temprano de la CEPAL a partir de Raúl Prebisch, destacando el enfoque analítico sustentado en la realidad latinoamericana; en la sección 3 se examinarán algunas nociones sobre inflación estructural y cambio tecnológico como elementos aplicados de este enfoque general; en la sección 4 se comentarán los límites que comienzan a plantearse desde dentro y fuera al programa económico de la CEPAL en línea con la apertura financiera de los setentas y la crisis de la deuda de los ochentas y su reflejo en las nuevas ideas de la etapa de transición; en la sección 5 se desarrollarán los conceptos de la etapa neoestructuralista, sus vínculos y diferencias con el estructuralismo tradicional, y por ultimo en la sección 6 se resumirán las principales ideas a modo de conclusión.

En términos conceptuales, nuestra interpretación propondrá dividir el pensamiento de la CEPAL en tres etapas. En primer lugar, se encuentra la etapa estructuralista tradicional que comienza en la segunda posguerra con el manifiesto de la CEPAL (Prebisch, 1949) y que se extiende hasta fines de los ochenta. La segunda etapa que denominamos crítica y de transición (Fajnzylber y Rosenthal), va desde 1990 a 1997. Por último se encuentra la etapa neoestructuralista que se inicia en 1998 con Ocampo, quien retoma muchos de los elementos enunciados en la etapa de transición, y que se extiende hasta la actualidad.

martes, 13 de enero de 2015

Una noticia que entusiama

Copio algunos párrafos de esta nota de Verónica Ocvirk que me parece que vale la pena reproducir:

En los últimos ocho años Argentina retomó en forma definitiva la senda de la energía nuclear. Como fecha concreta para el arranque de ese proceso podría marcarse el 23 de agosto de 2006, día en el que el Ministerio de Planificación anunció formalmente el relanzamiento del Plan Nuclear Argentino.
En términos generales, el proyecto implicó dar mucho más impulso –traducido por supuesto en recursos– a la investigación y a las aplicaciones nucleares en la medicina, el agro y la industria, apostando a la vez a volver a manejar de punta a punta el ciclo del combustible que se necesita para producir este tipo de energía. Pero lo que en particular se llevó a cabo en el marco del plan fue el desafío gigantesco que aparece como su corazón, hito y gran éxito consumado: la terminación de la planta Atucha II, que el 3 de junio de este año a las 9.02 de la mañana comenzó a funcionar (lo que se conoce como “puesta a crítico”), iniciando poco después la entrega de sus primeros megavatios a la red interconectada. Hoy la central funciona al 75%, y se espera que antes de fin de año esté operando a pleno. Entonces sumará un total de 745 megavatios de potencia, alrededor del 4% de la energía eléctrica que se consume en el país y lo suficiente como para abastecer a unos 4 millones de familias.

Cerca de 30 países en el mundo generan hoy energía nuclear civil y menos de la mitad de ellos son capaces de manejar el ciclo del combustible completo. Argentina se encuentra en este último grupo, operando sus tres centrales –Atucha I, II y Embalse–, lo que la vuelve parte de una suerte de “elite atómica” a escala global.

¿Qué tiene eso de bueno? Para empezar, la nuclear es una energía limpia, por lo menos en el sentido de que no escupe por sus chimeneas dióxido de carbono que se esparcirá luego por la atmósfera. Como muestra basta decir que Francia, país nuclear por excelencia, genera un 80% de su energía eléctrica en centrales atómicas y produce la mitad de gases de efecto invernadero que Alemania, que está en plan de cerrar sus plantas nucleares y cuya matriz está principalmente sustentada por carbón. Claro que la energía atómica genera también sus residuos. Pero el volumen que tienen no es grande y además son fácilmente vigilables y conservables, a lo que se suma que hoy el combustible usado puede ser reprocesado y vuelto a emplear en determinado tipo de reactores, lo que sería algo parecido a juntar los gases de escape de un auto y volver a fabricar con ellos nafta o gasoil.

Otro costado positivo de la energía nuclear es que para operar estas centrales las naciones tienen que alcanzar cierto grado de desarrollo tecnológico, lo que implica formar profesionales y técnicos altamente capacitados que luego tendrán trabajo en su país. Argentina cuenta con el Instituto Balseiro –que integra el Centro Atómico Bariloche y es el único en Latinoamérica que forma ingenieros nucleares– y con los Institutos Sábato y Dan Beninson, que imparten también educación nuclear y ofrecen becas totales para que los estudiantes puedan dedicarse exclusivamente a la cursada.

En sus más de seis décadas de experiencia nuclear el país fue acumulando un grado de desarrollo más que interesante en cada uno de los eslabones de la cadena productiva. En principio tiene conocimientos en la exploración y extracción de uranio y, aunque ahora no está produciendo, se encuentra a las puertas de volver a fabricar uranio enriquecido en la planta de Pilcaniyeu, Río Negro, cuyas instalaciones habían sido abandonadas en la década del 90. El dióxido de uranio es provisto por la empresa nacional Dioxitek, los elementos combustibles por CONUAR S.A. y las vainas y tuberías especiales por FAE, subsidiaria de la anterior. También funciona en Neuquén una planta de producción de agua pesada.

Pero tal vez la ventaja más notoria que trae el desarrollo atómico es que permite diversificar la matriz: dejar paulatinamente de depender de los combustibles fósiles en general y del gas licuado importado en particular. También hay involucrada una cuestión económica: ¿es más cara de generar la energía nuclear? No, por lo menos desde el punto de vista de la operación y del combustible que un reactor requiere para funcionar. Por poner un ejemplo: una central de 750 megavatios como Atucha II consume por día 185 kilos de uranio, lo que implica un gasto de unos 50 mil dólares. Una máquina de carbón de energía comparable necesita unos 12 millones de kilos de carbón diarios, en tanto una central de ciclo combinado equivalente que consume gasoil importado cuesta sólo en ese combustible un millón y medio de dólares por día. Ahora bien, una planta nuclear –igual que una central hidroeléctrica– necesita de una inversión inicial altísima: 18 mil millones de pesos en el caso de la flamante Atucha. El otro integrante de la ecuación es la vida útil del reactor, que suele estimarse en 30 años, extensibles por lo general a otros 30 realizando el mantenimiento correspondiente.

Sea cual fuere el resultado de la cuenta, una vez que Atucha II opere a todo su potencial Argentina pasará de tener un 3,8 a un 7% de su potencia eléctrica generada a partir de energía nuclear.

Ayer, hoy, mañana

Argentina fue en Latinoamérica pionera nuclear. Muchos recuerdan el fallido “Proyecto Huemul” y al físico austríaco Ronald Richter, que en 1948 convenció a Perón de que era capaz de llevar a cabo reacciones de fusión nuclear controlada, cosa que no había logrado ningún laboratorio en el mundo. La idea entusiasmó al general y los experimentos comenzaron en la Isla Huemul, ubicada en el Lago Nahuel Huapi de la provincia de Río Negro. El proyecto, claramente, no funcionó. Pero la aventura culminó en la creación en mayo de 1950 de la Comisión Nacional de Energía Atómica (CNEA), que por fortuna no se consagró únicamente a brindar apoyo a Richter sino que se dedicó al estudio, desarrollo y aplicación en todos los aspectos vinculados a la utilización pacífica de la energía nuclear.

No obstante este primer impulso, fue en 1965 –bajo el mandato presidencial de Arturo Illia– cuando la CNEA encaró un estudio de factibilidad para construir una planta nuclear en la región de Buenos Aires. El resultado fue la concreción de Atucha I en la localidad de Lima, partido de Zárate, que comenzó a funcionar en 1974 y convirtió a Argentina en el primer país de América Latina en contar con una central atómica.

La construcción de Embalse, en Córdoba, se inició ese mismo año y una década después, en 1984, comenzó su operación comercial, a la par que el programa nuclear adquiría en la sociedad argentina un prestigio enorme. El proyecto Atucha II dio sus primeros pasos en 1981, también en Zárate. Las previsiones indicaban que la planta debía estar concluida en 1987, pero debido a la falta de fondos el trabajo avanzó en forma muy lenta, hasta que en 1994 fue definitivamente suspendido.

De acuerdo con Antúnez, presidente de Nucleoeléctrica Argentina SA (NASA), lo que frenó Atucha II no fue sólo la desidia, sino que se trató de un cúmulo de razones. “El absoluto desinterés por la ciencia y la industria local de alta capacidad técnica fue un factor determinante. Pero nunca hay una única causa. En la década de 1970 la matriz argentina se sustentaba en la energía hidráulica, la térmica con fuel oil y la atómica. Pero en 1976 se produjo en Loma La Lata el descubrimiento del yacimiento gasífero más grande de Argentina, que en ese momento pasó a ser casi un país árabe en términos de consumo en relación a reservas de gas. A eso se sumó un motivo tecnológico: la aparición de las centrales térmicas de ciclo combinado alimentadas por turbinas de gas. Además de ser tremendamente eficientes, estas plantas presentaban ventajas con las cuales las nucleares e hidroeléctricas no podían competir: un rápido plazo de construcción y muy bajo costo de capital. El panorama se veía entonces como la panacea eléctrica definitiva, parecía que toda la expansión debería hacerse con ciclos combinados. Así fue como Argentina desarrolló una incomparable red de distribución y transporte de gas natural, y hasta el transporte automotor comenzó a usar GNC. El único problema fue que no se descubrieron nuevas reservas de gas, en tanto el consumo crecía y nos dedicábamos a exportar. Por eso –concluye– la decisión energética no fue hecha para atentar contra lo nuclear. Pero esa fue su consecuencia práctica.”

A partir de 2003 Argentina vivió un proceso inédito de reindustrialización y crecimiento del consumo que obligó a comprar gas a otros países primero y a replantear la matriz energética después. Hacía falta contar con una base estable que disminuyera las emisiones de dióxido de carbono y ayudara a la vez a disminuir las importaciones de combustible.

La reactivación del plan nuclear implicó entre otras cosas el desafío de terminar una planta que había sido abandonada por 20 años, proyecto que según sus protagonistas supuso una complicación pocas veces vista. El diseñador del reactor y contratista principal de la obra había desaparecido, ya que Siemens se retiró en el año 2000 del campo nuclear, aunque la empresa seguía siendo dueña del diseño. Por eso llevó un buen tiempo llegar a un acuerdo para la cancelación del contrato original y el traspaso de la propiedad del diseño, lo que terminó convirtiendo a NASA en la nueva arquitecta, ingeniera y constructora de Atucha II. “En este océano de problemas –refiere Antúnez– la única isla firme era que la gente de la central, a un costo personal muy grande, había conservado los materiales y equipos almacenados en el sitio.”

Otra odisea fue reunir al equipo de trabajo. Quedaban 90 personas de la etapa anterior, y se convocó también a quienes habían trabajado tanto para el Estado como para la industria privada en las fases iniciales del Plan Nuclear Argentino, esencialmente en Embalse y en el comienzo de Atucha II. Luego se incorporaron jóvenes profesionales, pero en el medio quedaba un hueco que el sector define como “irrecuperable” y que intentó salvarse sumando profesionales recién recibidos y alargando la vida laboral de los mayores. “Muchos llegamos a pasar nuestra edad jubilatoria trabajando en este proyecto. Personalmente estoy orgulloso de haberlo hecho, porque ahora dejamos en manos de jóvenes brillantes la conducción de las próximas centrales”, reflexiona el número uno de NASA. “Tomar un contratista del exterior podría habernos llevado a completar Atucha II en menos tiempo. A lo que no podría habernos llevado es a reconstruir las capacidades nacionales. Por eso adoptamos el camino más difícil y el más costoso, que hoy se puede decir que fue el adecuado, porque nos queda la gente y las empresas locales para encarar los próximos proyectos. Por fin hemos terminado de reparar el desastre que le había ocurrido al Plan Nuclear Argentino.”


A la terminación de Atucha II se agrega la actual construcción del Reactor Carem (que con 25 megavatios de potencia es el primero de diseño totalmente nacional) y los planes en ejecución para la extensión de vida de las centrales Embalse y Atucha I. Pero lo que más entusiasma últimamente es el proyecto de construir una cuarta central –que funcionará en el mismo predio de Lima– y una quinta de ubicación aún no definida. De hecho, el ministro de Planificación, Julio De Vido, presentó en la última cumbre nuclear de Viena detalles de Atucha III, que será de uranio natural y agua pesada, tendrá un reactor Candú similar al de Embalse y aportará a la red eléctrica 800 megavatios. A través del banco ICBC, la empresa China National Nuclear Corporation (CNNC) aportará 2.000 millones de dólares para la compra de componentes importados. No obstante se apuesta a que la construcción de la planta tenga al menos un 65% de integración nacional.

miércoles, 7 de enero de 2015

¿Queremos un Banco Central independiente?

Esta misma pregunta se hace Lucas Llach, aunque mi respuesta es contraria: No, no queremos un Banco Central (BC) independiente; no por lo menos en los términos en los que él lo plantea. Para entender esto, primero hay que explicar la definición del concepto; porque cuando se habla de "independencia" del BC en mucho casos no se aclara de qué o de quién, algo que es de suma importancia para la discusión. Por lo general existen dos tipos de independencia, una que podemos llamar de objetivos y otra de instrumentos, donde como su nombre lo indica, la diferencia está en que en la primera el BC, y no el gobierno, es quien establece los objetivos económicos a cumplir (la meta de inflación, tipo de cambio o nivel de desempleo objetivo, etc.), mientras que en la segunda el gobierno fija los objetivos, pero el BC decide qué instrumentos y cómo los va a utilizar para cumplir esos objetivos.

Por lo general, en la actualidad los gobiernos fijan los objetivos mientras que los BCs mantienen la independencia en los instrumentos, aunque los grados de libertad pueden variar bastante en cada país. En Argentina, por ejemplo, también es así. Lo que hay que destacar es que la reforma de la Carta Orgánica del BCRA lo que hizo fue ampliar los objetivos (agregando la estabilidad financiera, la promoción del empleo y el desarrollo económico), dado que su versión anterior, hecha por Cavallo en el año 1992 en pleno auge neoliberal, fijaba como único objetivo la estabilidad de la moneda, o sea el control de la inflación. Entiendo que lo que Llach propone es una vuelta a esto mismo, dado que critica 1) el hecho de que el BCRA financie al gobierno, y 2) que se vea forzado a hacer políticas expansivas cuyo único efecto permanente que tendrían sería el incremento de la inflación.

Ahora sí, luego de esta larga aclaración, podemos desarrollar los argumentos en contra y a favor de este tipo de independencia. Arranquemos por esto último, que es lo más corto y sencillo de analizar, porque básicamente solo hay un motivo para que el BC sea independiente del gobierno: la inflación. El motivo sería que los gobiernos (populistas, obvio) siempre quieren gastar más de lo que recaudan y entonces le piden al BC que emita los pesos necesarios para financiar ese déficit. Esa emisión sería la que provoca un aumento de la inflación. El problema principal que tiene este argumento es que, como ya mencionamos acá la teoría monetarista de la inflación tiene puntos muy flojos, tanto a nivel teórico como empírico. Si esto efectivamente es así, el primer argumento de Llach quedaría invalidado.

El segundo argumento también es bastante polémico. En la actualidad ni siquiera el mainstream puede afirmar que el único efecto de largo plazo de una política monetaria expansiva sea una mayor inflación. Numerosos trabajos en los últimos años pusieron en duda esta idea de que el dinero es neutral en el largo plazo (Blanchard y Summers, 1986; Gordon, 1997; Stirati, 2001). Aclaro esto del mainstream porque para la teoría poskeynesiana desde hace mucho que se reconoce que los cambios en la demanda efectiva afectan de manera permanente el nivel de producto, algo que se conoce como path dependency y que puede ser rastreado hasta Kaldor (de ahí la ley Kaldor-Verdoorn, pieza fundamental de este mecanismo).

Pero al margen de lo anterior, aun en el hipotético caso de que los dos argumentos anteriores se mantengan, creo que las ventajas de tener un BC manejado por el gobierno siguen siendo ampliamente superiores. En primer lugar hay que destacar que esta idea de que el BC tiene que ser independiente del gobierno no estuvo siempre presente en la teoría del mainstream. En realidad es relativamente reciente, surgiendo en la década del ´70 a partir de distintos trabajos de los economistas denominados "nuevos clásicos", (que de clásicos no tienen nada, pero eso queda para otra entrada), que de a poquito fueron instalando esta idea de que: a) la política monetaria es inefectiva para manejar la demanda agregada y su expansión solo genera una mayor inflación; b) el gobierno tiende a utilizar la política monetaria de manera discrecional y como las personas se comportan de manera racional, entonces anticipan este comportamiento, haciendo que la credibilidad de las autoridades pase a ser de suma relevancia para la efectividad de la política monetaria; c) la inflación es el peor de todos los males. De lo anterior se desprende, casi de manera automática, que la política monetaria debería enfocarse exclusivamentre a controlar la inflación y que la mejor manera de hacerlo es a través de un BC que sea independiente del gobierno y que se apegue a reglas estrictas, las famosas "metas de inflación" (porque eso lo va a hacer más confiable y creible).

Pero, como dijimos, antes esto no era así. Y no era así porque los 3 argumentos brindados en favor de la independencia de los BCs reflejan el cambio de época que se fue gestando a partir de los '70 con la llegada del neoliberalismo. G. Epstein tiene un excelente trabajo donde justamente muestra que antes (por lo menos desde el siglo XVII con la creación del Banco de Inglaterra) el funcionamiento de los BCs era marcadamente distinto. Lo primero que llama la atención es que la mayoría de estas instituciones surgieron debido a la necesidad del Estado para financiarse, y que entonces uno de sus principales roles siempre fue el de actuar como financista de los gobiernos, algo que choca de lleno con esta idea actual de que los BCs tienen que ser independientes precisamente para evitar esto.

Otro de los objetivos principales era el control del tipo de cambio, lo que implicaba el manejo de los agregados monetarios, el nivel del crédito, el ingreso de capitales y las reservas (e, implícitamente, el nivel de precios). Además el objetivo principal que tenía el uso de la tasa de interés estaba estrechamente relacionado con el manejo de la deuda pública, algo que fue evidente a partir de la Primera Guerra Mundial cuando el endeudamiento público creció notablemente. Por si esto fuera poco, los BCs tenían además políticas puntuales destinadas al desarrollo de ciertos sectores, siendo de lo más común el subsidio a sectores estratégicos de la industria.

En definitiva, lo que se observa es que esta idea de que el BC tiene que ser independiente del gobierno es algo actual que se instaló con el surgimiento del neoliberalismo y que sus justificaciones son poco sólidas. Previo a esto, y a lo largo de toda la historia del capitalismo, los BCs tuvieron un papel mucho más importante y más abarcativo, y por sobre todo fueron claves en los procesos de desarrollo de las economías avanzadas. De lo anterior debería quedar claro que el alcance que tienen las políticas del BC es muy amplio, siendo el control de la inflación solo uno de sus varios objetivos. Al abogar por la independencia de esta institución lo único que se logra es restringir severamente su capacidad de intervención en la economía. ¿No será ésta la finalidad que está detrás de todo?


Bibliografía:
Blanchard, O. y Summers, L. (1986), Hysteresis and the European Unemployment Problem. NBER Macroeconomics Annual.
Gordon, R. (1997), Hysteresis in History: Was There Ever a Phillips Curve? The American Economic Review.
Stirati, A. (2001), Inflation, Unemployment and Hysteresis: an Alternative View. Review of Political Economy.