Artículos

La Ciencia Lúgubre y Neomalthusianismo de actualidad.

Definitivamente, la inflación se ha consolidado también como un fenómeno global que, de acuerdo a datos del reciente informe sobre las perspectivas de la economía mundial publicado por el FMI en 2007, no habría alcanzado todavía su máximo, sino que recién lo hará en 2008, con las 2/3 partes del planeta incrementando precios en más del 10%.



Las explicaciones, relacionadas estrechamente entre sí, en un contexto de bonanza económica experimentada en los últimos años, se concentran en lo siguiente:

  • Por un lado, el crecimiento del precio del petróleo que está bordeando los U$.140/Barril, habiendo dicho la OPEP que, por el momento, no incrementará más su producción, argumentando que no es un problema de oferta(o demanda real insatisfecha), dado que si lo hiciera aumentarían sus inventarios con el consecuente costo, lo cual haría ésta iniciativa económicamente inviable, ratificando que también existen elementos de especulación por parte de inversionistas, en la búsqueda de utilizar como reserva de valor al petróleo y apostar a la suba, considerando la caída del dólar.

  • Pero principalmente, se explica en el incremento del precio de los alimentos que, según la organización humanitaria Oxfam, habrían creciendo en un 83% en los últimos tres años. Este tema estaría altamente influenciado también, en cierta medida por un afán especulativo en el caso de commodities como la soya e indiscutiblemente por una mayor demanda: biocombustibles y fundamentalmente el consumo mundial, con China e India, como líderes.

Al respecto, conviene mencionar que, de acuerdo al Instituto Worldwatch, el consumo per cápita Chino se ha duplicado en los últimos 20 años, con una pronunciada aceleración en los últimos años, e India que mantiene una tendencia relativamente similar.

Lo anterior, ha sido resultado de las mejores condiciones económicas que han permitido a gran parte de su población salir de la pobreza o mejorar sus niveles de vida y por tanto incrementar su demanda de alimento, principalmente carne. Conviene mencionar que para producir un kg. de carne se requieren entre dos a tres kg. de cereal, ni hablar del resto de los recursos naturales o la contaminación.



De aquí han surgido nuevos conceptos como el del Agua Virtual1 , que corresponde a un nuevo enfoque de valoración de los recursos hidrológicos que se estima han sido empleados en la generación de algún producto. Por ejemplo, se calcula que para producir 1 tonelada de trigo se requieren 1,000 toneladas (ó m3) de agua.

Sin embargo, pese a que los niveles de consumo de éstos países, obviamente se encuentran aún lejos de los de países desarrollados, si los comparásemos, en extremo, con el de EE.UU., se requerirían dos planetas tierra para safisfacerlos.

Por anterior, según la ONU, la producción tiene que crecer en un 50%, antes de 2030 para cubrir la demanda, existiendo actualmente 850 millones de personas hambrientas, cifra que puede incrementar a casi 1,000 millones, de no tomarse medidas radicales, que de acuerdo a la FAO, para mitigar lo más posible, se requerirían invertir al menos USD. 30,000 millones.



Dentro de todo ésto, vuelve a la mente de muchos economistas el nombre de Thomas Malthus y sus “Ensayos sobre la Población”, escritos hacia finales del siglo XXVIII.

Thomas Malthus

En su obra, que se constituyó en un best-seller de la época y ha influido en el pensamiento y conciencia de muchos, el Reverendo Thomas R. Malthus, señalaba que, considerando los rendimientos decrecientes2 y que el factor tierra es fijo (no infinito) las tendencias mostraban que la producción de alimentos crecería en proporción aritmética(1,2,3,4,…), en tanto que la población lo haría en proporción geométrica(1,2,4,8,…).

Entonces, llegó a la pesimista conclusión de que, dado que la población se duplica una y otra vez, es como si el mundo fuera dividiéndose por la mitad también una y otra vez, siendo cada vez menos la cantidad de alimentos para satisfacer las necesidades, hasta acabar en un nivel inferior al necesario para vivir, con lo cual incrementaría la mortalidad o los salarios encontrarse a un nivel mínimo de subsistencia.

Fue por ésto que tales afirmaciones llevaron a Tomas Carlyle3 a denominar a la Economía como la “Ciencia Lúgubre”.

En nuestra historia reciente, generalmente asociados a momentos con cambios de tendencia en el ciclo económico, han vuelto a aparecer los seguidores del Malthusianismo y su visión catastrófica, en diferentes oportunidades.

  • En los ´70s, con la última ola de incrementos en los precios del petróleo y los alimentos, como también en algunos casos de alarmantes incrementos demográficos.

  • Incluso en 1992, con las simulaciones realizadas por computadora, en The Limits of Growth y Beyond the Limits, se daban predicciones aún más sombrías que el evangelio original, llegando a estimar el agotamiento de recursos en 100 años, teniendo como consecuencia una disminución bastante repentina e incontrolable, tanto de la población, como de la capacidad industrial.

Sin embargo, algunos han catalogado las profesías de Malthus y sus seguidores como demasiado simplistas, puesto que no consideraron en el análisis el efecto de los avances tecnológicos que han incrementado la frontera de posibilidades de producción.

El caso más representativo habría sido la Revolución Industrial que a través de la especialización del trabajo, economías de escala y otras innovaciones, generaron incrementos significativos en la productividad. Luego, las comunicaciones, el comercio, la electrónica y la globalización.

Incluso, podríamos mencionar como otros avances tecnológicos y de conciencia, los descubrimientos en medicina y el cuidado por el medioambiente, con toda la “revolución verde”.

De todos modos, en nuestros tiempos, si bien, podemos decir que teóricamente y por la demostraciones anteriores, existen formas de generar un desarrollo sostenible, éste requiere de costosas investigaciones,  cuidadosas aplicaciones de política y en la mayoría de los casos de resultados no inmediatos.

Podemos observar como ejemplo que el caso de los biocombustibles, que ha venido a constituirse en un desarrollo, tecnología y alternativa más limpia que los combustibles fósiles, ha sido excluyente y parte del problema de la escasez de alimentos y escalada de precios.

Lo mismo podríamos decir de los cultivos y alimentos transgénicos, con opiniones en contra y a favor para el consumo humano.

En el siglo XIX se creía que en el futuro nos desplazaríamos por el mundo en globos de aire caliente y que -como pensaba George Bernard Shaw4 - no tendríamos que trabajar más de dos horas diarias. Más tarde, temimos ser dominados por una tecnología fuera de control.

Por tanto, resulta importante pensar que ni lo uno ni lo otro, ni Malthus(peor escenario) ni Tecnología Perfecta(mejor de los mundos), la clave viene a ser la habilidad humana para buscar un equilibrio y, en forma crítica y ejecutora, la Ciencia Económica.

En éste sentido, se debe evitar que los errores políticos sean los que progresen geométrica o exponencialmente, por ponerlo en términos gráficos.

Nuestras naciones latinoamericanas tienen la potencialidad en cuanto a los principales factores de producción: tierra (recursos naturales) y trabajo; derivando de éste último precisamente la capacidad de atraer el tercero, el capital, para generar progreso y bienestar y que el actual momento no sea el principio del fin, sino más bien otra coyuntura -y tal vez oportunidad- más vivida en nuestra historia.

Walter Morales Carrasco, Junio de 2008.


(1) Desarrollado por J. Allan (1993), profesor de la Universidad de Londres.

(2) Relacionado a un aumento marginal de la productividad creciente hasta ser cada vez menor, pudiendo ser cero o incluso negativo.

(3) Influyente filósofo y ensayista inglés de mediados del siglo 19.

(4) Escritor inglés y premio Nóbel de Literatura

La Reforma Agraria con Base Cooperativa en el Paraguay

"La Reforma Agraria con Base Cooperativa en el Paraguay es una cuestión de humanidad”



Lucha frontal contra la pobreza y la emigración que desangran al pueblo paraguayo

*Por José Yorg


¿Qué expresan las movilizaciones campesinas en procura de la anhelada tierra?

¿Es concebible-desde la ciencia económica-un campesino sin tierra?

¿Social y políticamente analizado la cuestión, es viable un país con una creciente contradicción?

La mejor política para controlar y eventualmente evitar las invasiones de tierra por parte de los campesinos, constituye el impulso a priorizar la Reforma Agraria con Base Cooperativa, asumiendo posturas prudentes en los primeros pasos para la organización campesina, facilitándoles un papel protagónico en ese proceso a través de recursos para la capacitación y el asesoramiento que aseguren sustentabilidad.

Pero, ¿Cuáles son las posibilidades reales de definir una Reforma Agraria con Base Cooperativa, en cuanto a sus requerimientos de adecuar la gestión estatal sobre la necesaria respuesta a las demandas y críticas campesinas y acordes a la concepción cooperativista que reclama autonomía e independencia de los gobiernos?


Las posibilidades para la Reforma Agraria con Base Cooperativa van a depender de cómo se establezcan los diálogos y acuerdos entre los campesinos, entre los ganaderos y terratenientes y el propio Estado. Y esto dependerá seguramente de cómo se resuelvan las tendencias antagónicas, pero todos tendrán que entender que este problema social y político no nació del seno campesino.

Al plantear la Reforma Agraria con Base Cooperativa se parte desde un enfoque realista, moderno y prudente, toda vez que se reconoce la escasez del factor tierra para adjudicar la cantidad optima e individualmente a cada campesino, adosándole la ventaja empresarial que otorgará la cooperativa, tendiente a garantizar la necesaria rentabilidad y dignificación social y económica del labriego.

Este noble planteamiento cooperativo parte de la historia misma del Paraguay Independiente del Dr. Francia y los López que tuvieron a los campesinos en lo más hondo de sus corazones, puesto que fueron fundadores de las primeras cooperativas conocidas como Estancias de la Patria.

La Patria soñada será construida por hombres y mujeres imbuidos de conocimientos, valores y sentimientos que tengan que ver con ese pasado glorioso del Paraguay cuyo proceso agroindustrial fuera interrumpido por intereses mezquinos externos.

En eso pensamos y nos afirmamos cuando decimos que la Reforma Agraria con Base Cooperativa en el Paraguay es una cuestión de humanidad.

A la par del proceso de democratización y cambio expresado en las elecciones que dieran a Lugo la conducción de ese proceso transformador, la participación de los campesinos en la Reforma Agraria con Base Cooperativa es un punto neurálgico para garantizar ese cambio benéfico que la inmensa mayoría espera y necesita.

Porque hoy está en juego algo más que el crecimiento económico, ello es que las demandas justas de los campesinos, adheridos eventualmente a la idea cooperativa, estarán destinados a jugar un papel importante en la lucha frontal contra la pobreza y la emigración que desangran al pueblo paraguayo, laborioso y fecundo.

Sin embargo, también debemos señalar que la renovada vitalidad del campesinado expresada en la confianza que tienen en sí mismos y su insistente búsqueda de soluciones concretas, han ido revelando una seria ausencia del Movimiento Cooperativo, quien debe sentirse interpelado sobre su rol educador y promotor de una transformación social y económica surgida de los Valores y Principios Rochdelianos.

Esta posición proclamada por un cooperativista con visión latinoamericanista, enfatiza, en particular, el método de la práctica de la cooperativización voluntaria y gradual, ¡¡ jamás impuesta!!

*Líder cooperativista,

*Experto en educación cooperativa escolar y universitaria.

Formosa-Argentina

Biocombustibles

Biocombustibles: el ignorado principio de la precaución



El pasado 24 de Abril de 2008 se realizó en el Salón Elíptico del Congreso Colombiano el evento "BIOCOMBUSTIBLES A DEBATE", organizado por Colciencias, La Universidad Nacional de Colombia y la Comisión Quinta de la Cámara de Representantes, con la  participación de académicos, expertos nacionales e internacionales y representantes del gremio de cultivadores y productores.

Pese a su importancia, poco o nada se ha dicho en los medios de comunicación masivos sobre las conclusiones del debate, una de la cuales, expresada por el Director del Foro Nacional Ambiental y Ex-Ministro de Medio Ambiente, Manuel Rodríguez Becerra, es que "En Colombia aún no hay condiciones para que los biocombustibles sean amigables con el medio ambiente"

Con mucho más tiempo (En el Congreso de la República disponían únicamente de 15 minutos para hacer su exposición)  y profundidad, los Profesores Tomás León Sicard, Director del Instituto de Estudios Ambientales de la Universidad Nacional de Colombia, IDEA, Miguel Ángel Altieri, Presidente de la Sociedad Científica Latinoamericana de Agroecología, y Geraldo Deffune, Investigador y Consultor de la Asociación Brasileña de Agricultura Biodinámica (ABD),  hicieron su exposición el viernes 25 de Abril ante un auditorio compuesto principalmente por estudiantes y profesores de la Maestría en Medio Ambiente y Desarrollo.  Los planteamientos de los Profesores Deffune y Altieri le hicieron exclamar a la periodista Judith Sarmiento, moderadora del debate que "Nos dejan muy angustiados".  No es para menos.



El encarecimiento de los alimentos como consecuencia del impulso -y de los subsidios que hacen más rentable la producción de alcohol que de alimentos- a los agrocombustibles es uno de los factores que con mayor dureza ha golpeado en todo el mundo y Colombia no es la excepción, con un agravante:  es uno de los países de la región con la canasta familiar más costosa comparativamente, el 30% del ingreso familiar, siendo apenas superado por Argentina con algo más del 31%.  Los brasileros destinan el 21% para satisfacer sus necesidades de alimentación y los mexicanos el 22%.  

El diario EL TIEMPO,  el más importante del país, sin mencionar el debate, señaló en su editorial del 28 de Abril algunos aspectos importantes sobre los biocombustibles, como el encarecimiento de los alimentos, que aprieta justamente donde más doloroso resulta para el común de las personas, pero que no es, desafortunadamente, el único motivo de preocupación al respecto.  Se requiere -dice EL TIEMPO-  realizar un debate serio en el que se analicen todas las variables.  Esas variables deben incluir, para que el debate propuesto tenga la amplitud y profundidad requeridas, las siguientes:

Cumplimiento del Principio de la Precaución

- El aumento y aparición de nuevas emisiones

- La afectación de los componentes  mecánicos de los vehículos

- La deuda de carbono que la tala y las quemas producen

- El desplazamiento y asesinato de campesinos

- El elevado déficit energético que los caracteriza

- La validez de su denominación

- El enorme consumo de agua que se requiere para producirlos

- Las implicaciones de utilizar Organismos Genéticamente Modificados para producirlos

- Consecuencias y medidas de control y mitigación por el uso de pesticidas y fertilizantes

- Sostenibilidad de los cultivos.

- Parcialidad y temporalidad de la solución basada en agro-bio-carburantes

- Financiación de investigaciones



     La inclusión de estos aspectos se justifica por lo siguientes importantes elementos:

           EL PRINCIPIO DE LA PRECAUCIÓN: 

-  Debemos ser escépticos frente a la capacidad de la ciencia para comprender biosistemas complejos

-  Debemos saber como manejar riesgos que son inciertos a largo plazo

-  Debemos considerar la posibilidad de error al estimar los impactos ambientales y sobre la salud. 

Este vital principio se ha desconocido sistemáticamente en Colombia, no hubo –ni hay–  estudios suficientes que permitieran anticipar, hasta donde es posible hacerlo, los efectos negativos que su producción y combustión originan, efectos que como el encarecimiento de los alimentos eran obvios cuando se inició el programa de oxigenación de las gasolinas, mientras los efectos sobre los vehículos, calidad del aire, salud pública, agua, flora y fauna requerirán mayores análisis y estudios que estamos en mora de iniciar. El tiempo apremia.

Más aún, los pocos estudios que se hicieron demuestran la existencia de riesgos mecánicos, ambientales y de salud pública no mencionados o abiertamente subvalorados, lo que hace aún más grave la omisión. Estos riesgos deben ser valorados a la luz del derecho fundamental a la vida y la salud de las personas y de su entorno. En Colombia existe jurisprudencia al respecto, la Sentencia C-293/02  menciona, entre muchos otros ítems que:

"Sobre los resultados de un evento (deterioro ambiental) se determina que puede generar consecuencias de carácter irreversible si no se toman medidas oportunamente para detener la acción que causa ese deterioro. Si se tuviera que esperar hasta obtener dicha certidumbre científica, cualquier determinación podría resultar inoficiosa e ineficaz con lo cual la función preventiva de las entidades resultaría inoperante."

"Los seres humanos constituyen el centro de preocupaciones relacionadas con el desarrollo sostenible. (...) Por eso, el mandato constitucional obliga a efectuar una utilización sostenible de tales recursos." (sentencia C-058 de 1994). También ha dicho que la explotación de los recursos naturales y el ejercicio de las actividades económicas no pueden vulnerar el derecho a un medio ambiente sano, no obstante lo importante que para la economía del país sea la actividad económica a desarrollar.

 Así mismo, que el derecho al medio ambiente es fundamental para la existencia de la humanidad y que "no se puede desligar del derecho a la vida y a la salud de las personas. De hecho, los factores perturbadores del medio ambiente causan daños irreparables en los seres humanos y si ello es así habrá que decirse que el medio ambiente es un derecho fundamental para la existencia de la humanidad.

Se debate si el "principio de precaución", que consiste en que las autoridades ambientales "cuando exista peligro de daño grave e irreversible, la falta de certeza científica absoluta no deberá utilizarse como razón para postergar la adopción de medidas eficaces para impedir la degradación del medio ambiente" ( numeral 6 del artículo 1º de la Ley 99 de 1993), le está otorgando facultades ilimitadas a tales autoridades ambientales, para que, sin que medie la certeza científica absoluta, de que la actividad produzca graves daños al ambiente, adopte medidas que pueden lesionar los derechos e intereses de personas que resulten afectadas con tales decisiones.

  

NUEVAS EMISIONES:  (La UPME, Unidad de Planeación Minero Energética, es un organismo técnico adscrito al Ministerio de Minas y Energía Colombiano.  Sus estudios e informes son muy importantes para la redacción de las leyes y políticas energéticas del país)

Informe de la Unidad de Planeación Minero Energética, UPME, diapositiva 47, presentado el 22 de Agosto de 2007: "En toda la bibliografía consultada se evidencia reducción generalizada de emisiones contaminantes, (hidrocarburos y monóxido de carbono, nota nuestra) con excepción de los aldehídos y los óxidos de nitrógeno." En el grupo de los aldehídos se encuentra el acetaldehído, compuesto cancerígeno e inductor de alteraciones genéticas mientras los óxidos de nitrógeno son causantes de la lluvia ácida y de la eutrofización de cuerpos de agua, es decir, de la liquidación de la vida que haya en ellas. No son estos los únicos compuestos nocivos que es necesario controlar.  ¿Sabemos como manejar riesgos que son inciertos a largo plazo?  ¿Es demasiado pedir que la euforia ceda el paso al análisis juicioso de estos y otros fenómenos?

 El aparato publicitario montado por los promotores de los biocombustibles se centró en la disminución, muy significativa, hay que reconocerlo, de los hidrocarburos no quemados, THC, del monóxido de carbono CO, y los 2 ó 3 puntos de mejora en el octanaje de las gasolinas colombianas.  Pero el incremento en la formación de ozono troposférico, de óxidos de nitrógeno, de aldehídos, carbonilos y otros tóxicos se ignoraron aumentando "la posibilidad de error al estimar los impactos ambientales y sobre la salud" que enuncia el principio de la precaución. 

  

AFECTACIÓN DE LOS VEHÍCULOS:  UPME: DURABILIDAD.  (diapositiva 62) El desgaste de las piezas que conforman el motor cuando trabajan con mezclas de etanol tiende a ser mayor, presentándose problemas de lubricación dado que aumenta el contacto metal-metal, pues el alcohol retira la película de lubricante que se forma debido a su acción disolvente. Pruebas en bancos de ensayos, muestran un acortamiento en la vida de las válvulas de escape. Asimismo, las pruebas de aceite muestran mayor cantidad de material sólido producto del desgaste en comparación con la gasolina. Por otro lado, la formación de depósitos sólidos en las válvulas de admisión se incrementan casi en un 350% cuando se agrega una mezcla de 10% de etanol, lo que obliga a usar aditivos que reduzcan este aumento a un 50% del valor de la gasolina.

A  excepción de Brasil, en el resto del mundo no se utiliza el etanol en proporciones mayores al 10%. Es más, en algunos países europeos se prefiere el ETBE para  mejorar el índice antidetonante de la gasolina.  La principal razón para esta tendencia se basa en la incompatibilidad de las mezclas de etanol con los materiales de los motores diseñados exclusivamente para gasolina. En Estados Unidos y Australia se han  realizado a fondo estudios de durabilidad de motores funcionando con mezclas etanol-gasolina. Los resultados son contundentes: se requiere adecuarlos para mezclas superiores al 10%. 

UPME:  (diapositiva 64)  En relación a otras partes del motor, se presentan problemas de corrosión en el carburador, la bomba de combustible, las mangueras de conducción de combustible, el filtro y el tanque de combustible.  El mayor problema sucede cuando las partículas desprendidas en el proceso corrosivo viajan en el combustible,  presentándose picaduras.  Para contrarrestar este fenómeno, se implementan recubrimientos de Zinc, estaño y carbón a fin de proteger los sistemas originalmente diseñados para gasolina, y que se desea que funcionen con mezclas de etanol entre 14% y 20%.  ¿Qué pasa entre el 10% y el 14%?

En la diapositiva 130, RETOS ENFRENTADOS dice la UPME que debemos:  "Preparar la entrada de porcentajes superiores de mezcla sin perjudicar al consumidor (20% de 5 a 10 años."  La conversión de vehículos para  utilizar mezclas con más de 10% de etanol cuesta entre US$400 y US$500.  ¿"sin perjudicar al consumidor" significa que estos costos serán asumidos por el Estado?  ¿que no se va a enfermar por causa de unas emisiones de las que no le han dicho nada? ¿No sería mejor, antes de hacer cuentas alegres y embarcar el país en una aventura mayor, evaluar todas las implicaciones?

Los alemanes, reputados fabricantes de vehículos, decidieron aplazar hasta el 2009 la entrada de etanol a su país y redujeron de 10 a 7% la cantidad de etanol que se mezclará. El Ministro del Medio Ambiente de Alemania, Sigmar Gabriel, justificó la decisión en que un combustible de esas características dañaría millones de motores de autos viejos, cuyos conductores "ganan poco dinero y no pueden permitirse autos más caros"  Autos viejos en Europa son aquellos con más de 5 años.  En Colombia el mayor porcentaje de automóviles tiene más de 10 años y no es extraño encontrar vehículos con 20, 30 y más años de uso. 


En su momento, la conversión al etanol se saludó en Europa como un modo indirecto de reducir las emisiones de dióxido de carbono.  Hoy la pregunta es si producir etanol en realidad no daña más el clima que el combustible que está destinado a reemplazar, admitió el Ministro, quien habló de los perjuicios que causan el uso de fertilizantes y la deforestación para despejar áreas para cultivo, dice el informe.  

LA DEUDA DE CARBON:  El Ex-Ministro Manuel Rodríguez Becerra dijo durante su intervención que los biocombustibles tienen un balance negativo para Colombia. "En varias regiones del mundo el desarrollo de esta industria ha llevado a la destrucción de amplias zonas de bosque, como es el caso de Indonesia, y ha generado un mayor aporte a los GEI, (Gases de Efecto Invernadero) contando también los problemas de degradación de los suelos, destrucción de biodiversidad, contaminación de aguas y otros".   Y le asiste toda la razón, Malasia es uno de los grandes aportantes de dióxido de carbono, con el 8% del total mundial.  El modelo de explotación utilizado en Malasia es a todas luces inconveniente a largo plazo para el país.

DESPLAZAMIENTO Y ASESINATO DE CAMPESINOS:  La exigencia –no fue un gesto de altruismo de los palmeros colombianos– del sello de calidad ambiental que la Unión Europea impuso a las exportaciones colombianas de aceite de palma confirma la existencia de aspectos oscuros que deben ser objeto de análisis oportunos, sistemáticos y amplios.

Un informe escrito por Fidel Mingorance, titulado El flujo del aceite de palma Colombia-Bélgica-Europa que se publicó por primera vez en Noviembre de 2006, realizado por encargo del Gobierno Belga, da cuanta detallada de tres elementos importantes: las plantaciones, el paramilitarismo y el desplazamiento forzoso como consecuencia del robo de tierras.  No se trata, como sugirió el Presidente de Asocaña durante su intervención en el Congreso, de posiciones izquierdistas, sino de hacer las cosas bien, en beneficio del país y de sus gentes.  El hambre, el desplazamiento y la miseria carecen de color político para quien los padece.  

DEFICIT ENERGETICO:  El etanol proporciona 33% menos de energía que la gasolina. Tadeus Patzek, profesor de Ingeniería Civil y Ambiental de Berkeley,  demuestra que se invierte hasta un 70% más de energía en producir un galón de etanol que la que es posible recuperar del mismo.  No pagan impuestos de ninguna clase, son de consumo obligatorio y fuertemente subsidiados, de otra manera su producción sería inviable.

Se necesitarían plantaciones gigantescas, dice Patzek,  para reemplazar el 10% de la energía fósil usada globalmente cada año durante 40-80 años.  Cerca de 500 millones de hectáreas, (un poco más de la mitad de la superficie de los estados Unidos)  Estas plantaciones serían implementadas en los trópicos, en buenos climas, con provisión abundante de agua, buenas tierras y fácil acceso.  Esta es la verdadera razón del interés de Europa y los estados Unidos en latinoamérica como proveedor de agrocombustibles.

LA DENOMINACION:  Tema central del debate que propone EL TIEMPO debe ser su misma denominación, que no debe limitarse a discutir si son agro o biocombustibles. Como quiera que se denominen, es una falacia llamar "biogasolina" a la mezcla de más de 250 compuestos químicos con el 10% de un combustible de origen agrícola, el etanol.  La utilización del prefijo "bio" es un truco publicitario, es la comercialización de la ecología, de lo verde, sin que exista un demostrado real interés en ella  por parte de los productores.  En Estados Unidos a principios del siglo pasado decidieron agregarle tetraetilo de plomo a la gasolina y la llamaron "etilgasolina",  nombre que enmascaró por largo tiempo los nocivos efectos del plomo pero no evitó que millones de personas en todo el mundo,  niños especialmente,  desarrollaran afecciones neurológicas, renales y psicológicas mientras otros cuantos millones morían prematuramente.  

LA UTILIZACIÓN DEL AGUA:  Tatiana Roa, Directora de Censat Agua Viva, alertó a los industriales y demás personas que trabajan en el tema para que integren estos cultivos con las necesidades de las poblaciones y cuiden el agua y la producción de alimentos.   Su preocupación es más que razonable, se requieren 785 galones de agua para producir uno de etanol y el uso de pesticidas y fertilizantes contaminan las aguas de nivel freático que posteriormente van a parar a los ríos.  Aún está fresca en la memoria del país la noticia sobre la importación de bagre del Mekong vietnamita para consumo durante la pasada semana santa, escasez debida principalmente a la contaminación de los ríos, que los convierte en cloacas repletas de desechos químicos y orgánicos, no aptos para la vida.   Aguas que en muchos sitios del país se utilizan además para regadío y consumo humano y de animales. 

LOS ORGANISMOS GENÉTICAMENTE MODIFICADOS (OGM):  El profesor Geraldo Deffune considera que Suramérica podría beneficiarse económica y socialmente por el desarrollo de agroenergía y su producción si se aplicara el principio de la precaución; sin embargo, dijo, los monocultivos y las patentes de semillas generan dependencia tecnológica y energética, contaminación, éxodo rural debido a la concentración de las mejores tierras en manos de poderosos grupos industriales, y dominación económica.  El 80% de la biomasa terrestre está constituída por árboles, por eso talarlos le hace un daño irreparable al país, dijo.

Los organismos genéticamente modificados encierran una buena oportunidad para resolver algunos problemas pero plantean también una serie de interrogantes relacionados con la contaminación de otros cultivos, la ruptura del ciclo biológico y la salud de quienes los consuman como alimentos.  Se debe ser en extremo cuidadosos, asunto nada fácil si se consideran los enormes intereses estratégicos y económicos que hay en en juego.  Los ejemplos abundan:

                                  

El científico húngaro Arpada Pusztai encontró resultados muy preocupantes relacionados con la salud de ratas alimentadas con papa transgénica, por lo que solicitó más tiempo y dinero para ampliar su estudio.  No solo no recibió el dinero sino que después de conceder una entrevista a un medio televisivo sobre el tema fue despedido del Instituto Rowett, en Aberdeen, Escocia, centro de investigación en el que trabajó durante 37 años. Este hecho es mejor conocido como el affair Pusztai.

El 11 de Marzo de 2007, a todo color y en los principales medios de comunicación colombianos, bajo el sugestivo título de Más maíz, Más país, Monsanto "comparte con todos ustedes que hemos recibido aprobación del Gobierno Nacional a través del Instituto Colombiano Agropecuario, (ICA) siguiendo la recomendación del Comité Técnico Nacional de Bioseguridad, para iniciar siembras controladas para la tecnología de maíz YielGard." Es decir, no es un problema lejano, ya empezó la era OGM en Colombia.

FERTILIZANTES Y PESTICIDAS:  Son otra piedra en el zapato: La Atrazina, manifestó el profesor Miguel Angel Altieri, está ocasionando cambios gonadales y hermafroditismo en anfibios expuestos a ella en dosis muy pequeñas, de 1 ppm (partes por millón).  La Atrazina, potente herbicida,  puede afectar a mujeres embarazadas que entren en contacto con ellas en las fincas en que se ha utilizado, retardando el crecimiento normal de sus bebés.  En animales expuestos a altos niveles de ella se han observado defectos de nacimiento y daño del hígado, el riñón y el corazón.  Glifosato, RoundUp y otros pesticidas y defoliantes son cada vez cuestionados por sus efectos dañinos para personas, animales, agua y plantas. 

RENOVABLES NO ES LO MISMO QUE SOSTENIBLES:  Si bien son combustibles obtenidos a partir de fuentes renovables, ello no significa que estos cultivos sean sostenibles.  Las exigencias cada vez mayores de bio-agro-combustibles implican utilizar cada vez más tierras nuevas para producirlos mientras el agotamiento de las tierras que se produce al cabo de algunos años de uso crean una espiral que hará colapsar en algún momento toda la estructura agrícola, a menos, claro, que se determine con la debida anticipación cuantas y cuales tierras pueden utilizarse para este propósito. 

Uno de los efectos más perversos de este sistema consiste en la apropiación de las mejores tierras por parte de los grandes grupos económicos, nacionales e internacionales, sacando de su medio a los campesinos que van a engrosar los cordones de miseria citadinos, bien por su incapacidad para competir industrialmente, o, como ha venido sucediendo, porque son expulsados por la fuerza de sus parcelas. En uno o otro caso son los perdedores.  Los agrocombustibles no son una solución energética ni ambiental y deben ser tratados y entendidos como una solución parcial y temporal, que no debe distraernos en la búsqueda de fuentes de energía realmente limpias y sostenibles, para lo cual es necesario financiar investigaciones y formar profesionales competentes, empezando ya.   

El reciente caso de Carimagua, hacienda de 18.000 hectáreas ubicada en el oriente colombiano, que después se encogió a 17.000, fue ofrecida a un grupo de desplazados en el 2007 pero terminó siendo ofertada a empresarios productores de aceite de palma.  Los argumentos esgrimidos por el Ministro de Agricultura Felipe Arias para cambiar los destinatarios fueron "la acidez del suelo, la incapacidad de los desplazados para invertir en el mejoramiento de las tierras y la ubicación, lejos de las ciudades"  Ese negocio estuvo congelado, hoy se habla de una alianza entre sus destinatarios originales, los campesinos, e industriales de la palma africana.   

FINANCIACIÓN DE LAS INVESTIGACIONES:  El maíz transgénico también ocasionó daños severos a los ratones utilizados para pruebas en periodos de tiempo muy cortos, dijo el Profesor Deffune, sin que estos resultados hubieran sido divulgados.    La razón es, seguramente, que detrás de estas investigaciones existe una gran inversión, generalmente de las mismas empresas que producen las semillas y la tecnología.  Las alianzas, adquisiciones y fusiones de los últimos años entre los fabricantes de semillas y pesticidas son una clara muestra de ello.  Monsanto, Novartis, DuPont, Aventis y AstraZeneca controlan prácticamente el 100% del mercado de semillas transgénicas y, simultáneamente, dos tercios del mercado de pesticidas, que solamente en los Estados Unidos reportan hoy a sus productores ingresos anuales por 34 mil millones de dólares.

 

Es, dice la bióloga y periodista Zaira María Amaya Lesmes, "como si el dueño de un hospital comprara la funeraria y el cementerio del lado: gana si se alienta el paciente, pero no deja de ganar si se muere".

Recientemente la British Petroleum, BP, donó a la Universidad Californiana de Berkeley,  los Laboratorios Lawrence Livermore y la Universidad de Illinois 500 millones de dólares a fin de que puedan desarrollar nuevas fuentes de energía: básicamente biotecnología para desarrollar plantaciones que generen biocombustible.

El director ejecutivo y presidente Robert A. Malone dijo que la BP se estaba "uniendo a algunos de los mejores talentos mundiales en ciencias e ingeniería para responder a la demanda por energías de bajo contenido de carbono, que estaremos trabajando para mejorar y expandir la producción de energía limpia, renovable, a través del desarrollo de mejores plantaciones".  A pesar de su magnitud, esta es una inversión relativamente modesta considerando que se van a apropiar del conocimiento y la pericia académica que el apoyo gubernamental tardó décadas en construir. 

El boom de los agrocombustibles surge a partir de las necesidades de energía y de reducción de consumo de petróleo de los países Europeos y de los estados Unidos principalmente, que han encontrado en los países latinoamericanos las condiciones ideales para producirlos, una despensa a la que se puede acudir para que puedan seguir manteniendo su desaforado ritmo de consumo, lo que podría no ser tan malo para nosotros si obedeciéramos al pie de la letra el principio de la precaución. 

Los agrocombustibles no son malos por sí mismos sino por la manera y los métodos usados para producirlos y venderlos. Constituyen una buena oportunidad para el agro colombiano si y solo si hacemos las cosas bien, con criterios más técnicos, sociales y humanos que comerciales.   Quedarnos con los males que ocasionan mientras otros, sin importar quienes sean,  aprovechan sus ventajas, sería un suicidio, un daño autoinfligido del que tardaríamos décadas en recuperarnos, si es que logramos hacerlo. 

Algunos de los estudios y hechos aquí mencionados sirvieron de fundamento para instaurar una Acción Popular (demanda judicial) que a la fecha está pendiente de fallo por el Juzgado 5º Administrativo de Bogotá. Estos son a nuestro juicio los derechos e intereses colectivos que están en riesgo y por los que consideramos pertinente presionar la realización de estudios suficientes y la implementación urgente de medidas de control y mitigación, incluyendo las relacionadas con el control de precios de los alimentos y las tierras utilizadas para este propósito.  El gobierno colombiano habla de destinar 6 millones de hectáreas a la siembra de palma africana.  No es difícil imaginar el impacto que un cultivo de esta magnitud tendría sobre el ecosistema.    

IV. INDICACIÓN DE LOS DERECHOS O INTERESES COLECTIVOS AMENAZADOS O VULNERADOS


4.1 El goce de un ambiente sano, de conformidad con lo establecido en la Constitución, la ley y las disposiciones reglamentarias;

4.2 La existencia del equilibrio ecológico y el manejo y aprovechamiento racional de los recursos naturales para garantizar su desarrollo sostenible, su conservación, restauración o sustitución. La conservación de las especies animales y vegetales, la protección de áreas de especial importancia ecológica, de los ecosistemas situados en las zonas fronterizas, así como los demás intereses de la comunidad relacionados con la preservación y restauración del medio ambiente;

4.3 La seguridad y salubridad públicas;

4.4 El derecho a la seguridad y prevención de desastres previsibles técnicamente;

4.5 Los derechos de los consumidores y usuarios

RECURSOS:

1.  Texto de la Sentencia de la C293/02  Corte constitucional  http://www.secretariasenado.gov.co/leyes/SC293_02.HTM

2. Desarrollo y Consolidación del mercado de Biocombustibles en Colombia, ppt. http://www.upme.gov.co/Docs/Estudios/Presentacion_Estudio_BFC_UPME.pdf

3. Pone Alemania el freno a los biocombustibles, Artículo de prensa http://www.oem.com.mx/eloccidental/notas/n655899.htm

4. Documento, El flujo del aceite de palma Colombia, Bélgica Europa http://www.sca.com.co/bajar/Estudios/informe_es.pdf

5. Thermodynamics of Energy Production from Biomass, Tadeus Patzek http://www.sca.com.co/bajar/Etanol/MedioAmbiente/CRPS-BiomassPaper.pdf     

6. Página web de Censat Agua Viva http://www.censat.org/

7. Texto de la Acción Popular instaurada por la S. C. A. http://sca.com.co/demanda/Texto%20de%20la%20demanda.pdf 

8.  Editorial diario EL TIEMPO

http://www.eltiempo.com/opinion/editorial/2008-04-28/ARTICULO-WEB-NOTA_INTERIOR-4125950.html   

Ing. C. Fernando Márquez M.

Director Ejecutivo

www.sca.com.co

Behavioral Economics

A propósito de irracionalidades:

Behavioral Economics e Hipótesis del Mercado Eficiente



Walter Morales Carrasco, Abril de 2008.

En el último semestre hemos venido observando a los mercados financieros de las principales plazas internacionales con muestras claras de elevada volatilidad y con una pronunciada tendencia hacia la baja; lo cual, como sabemos, ha sido originado por los problemas de las hipotecas Subprime.

Esto se observa en el siguiente gráfico, que refleja el comportamiento de los índices más representativos en Estados Unidos (S&P500-Ixic, Dow Jones-DJI y el electrónico Nasdaq Composite-GSPC), Europa (Eurostoxx-Stoxx5oE) y Japón (Nikkei-N225).

Pero aún esto, los inversores continúan buscando focos dónde localizar sus posiciones para obtener retornos por encima de lo “normal”, si es posible.



Sin embargo, qué postula la principal teoría en el ámbito de la economía financiera y, como veremos más adelante, también el aporte de la psicología conductual al respecto.

Es posible ganarle al mercado?

En la década de los 60 en el siglo pasado, el profesor de Finanzas de la Escuela de Negocios de la Universidad de Chicago, Eugene Fama desarrolló su Teoría o Hipótesis del Mercado Eficiente (EMH)1 ; en sus tres diferentes formas(o acepciones) en atención principalmente al grado de desarrollo del mercado financiero estudiado. 



La misma, fundamentalmente postula que el mercado es eficiente en procesar la información disponible, por lo que los precios de las valores la reflejan de la mejor y más racional manera.

Esta afirmación es derivada del comportamiento microeconómico de los agentes en condiciones de competencia perfecta. Como recordaremos, la mayor parte de la sustentación económica clásica y moderna se basa en el hombre económico (“hommo economicus”), o racional que busca maximizar sus ganancias.

Aparte de lo obvias y lógicas que parecen ser éstas afirmaciones, la evidencia empírica ha mostrado, entre otros ejemplos, lo siguiente:

  1. Los principales índices bursátiles de referencia internacional han sobrepasado en rendimiento a la gran mayoría de fondos de inversión. En los ´90s, el índice bursátil S&P500 ha tenido un mejor retorno que el 90% de todos los fondos de inversión en EE.UU y una situación similar comparada en la Bolsa de Madrid2.
  2. En la línea de Fama, Burton Malkiel, profesor de la Universidad de Princeton, en su libro “Un Paseo Aleatorio por Wall Street”, configuró el retar a los mejores profesionales de la bolsa contra una selección de acciones elegidas al azar, a través de dardos lanzados por personas, satirizando que serían monos con los ojos vendados, a efectos de comparar luego su performance. El Wall Street Journal, tomó el desafío y luego de 15 años y revisiones efectuadas por Malkiel, se evidenció que las diferencias en rentabilidad neta eran prácticamente imperceptibles.

Por lo tanto, no sería posible ganarle al mercado. Al menos, no en forma sistemática o en el largo plazo.

Es así?

Sin perjuicio de lo anterior, existen pruebas respecto de la evidencia de los llamados “súper inversores”, los cuales parecen conseguir mejores retornos que el mercado en algunos momentos, como el caso de Value Investor Survey empresa de inversiones que, entre el periodo 1965 y 1983, llegó a obtener en su cartera con mejor prospecto un performance de rendimiento de 1,295%, en tanto que la peor, un nada despreciable 35%3.

En forma similar, Warren Buffet, CEO de Berkshire Hathaway, el hombre más rico del mundo según la revista Fortune(por encima de Bill Gates de Microsoft) a quien William Sharpe4, califica estadísticamente como “un evento de cinco desviaciones estándar sobre la media”5, sigue sorprendiendo a los expertos.

En el siguiente gráfico, es posible apreciar el, por demás sobresaliente, desempeño de su negocio, comparado con el índice S&P500:

Otro caso llamativo, fue el de Long Term Capital Management (LTCM) hedge fund que llegó a obtener retornos superiores al 30%, y contaba entre sus asesores a dos premios Nóbel en Economía, expertos financieros e incluso PhD´s de escuelas renombradas como Harvard, Chicago y MIT. Sin embargo, no llegó a los cinco años de vida, pues tuvo que ser intervenido por la Reserva Federal norteamericana, debido a sus pérdidas a finales de los 90´s.

Por lo tanto, sería de esperar que existan una serie de estratagemas para “batir al mercado” por ciertos periodos de tiempo.

Qué sucede?

Por un lado parece ser que los mercados son demasiados racionales o demasiado emocionales, o una mezcla de ambas cosas en distintos momentos.

En los últimos años han existido nuevos desarrollos que cuestionan la Teoría del Mercado Eficiente, y por ende, gran parte de la sustentación teórica respecto de la racionalidad en la toma de decisiones de los individuos. Sin embargo, sí se aproximaría a la Teoría Keynesiana6 y del Ciclo Económico.

En éste sentido, se ha generado una disciplina, relativamente nueva, denominada Behavioral Economics7 y más específicamente aplicada a los mercados financieros Behavioral Finance, originada en las ciencias del comportamiento de los individuos.

Incluso, entre sus principales exponentes se encuentran los recientes premios Nóbel en Economía 2002, Vernon Smith y Daniel Kahneman, éste último que no tiene formación económica sino más bien psicológica, lo cual ratifica la relevancia y cambio de enfoque en nuestra rama.

Fundamentalmente ésta disciplina surge como justificación y explicación al comportamiento irracional que no encuentra sustento en la teoría convencional. En éste sentido, se apoya en la psicología, e incluso va más allá y se amalgama con bases neurológicas para abrir paso a la Neuroeconomía.

Un claro ejemplo de su sustentación empírica es la proposición en cuanto a que un individuo prefiere no perder $100 antes que ganar otros $100, lo cual demuestra una clara asimetría en cuanto a la valoración de los resultados implicados en una decisión económica - financiera.

Una situación más práctica y cercana se puede observar al comparar el comportamiento8 de las principales tasas de interés referenciales9 en el mercado monetario norteamericano e internacional y su relación con los sucesos ocurridos recientemente en los mercados financieros.

Generalmente, las tasas de la Fed serían un canal fluctuante (DR Top - FF Bottom), dentro del cual, valga la redundancia, también fluctúan las Libor.

Por un lado, en la comparación realizada, es posible apreciar alta correlación de tasas, donde éstas no llegan a ser estables y cambian entre mayor ruido10 se produzca en los mercados.

Sin embargo, se observa que existen distorsiones de las Libor(periodo Sept07 a Mar08). Esto se daría notoriamente en los cambios de tendencia o probables crisis. Esto se ratifica ante mayores simulaciones o actualizaciones de datos testeados.

En los quiebres de tendencia, por parte de las Libor existen rezagos y anticipaciones a las tasas Fed, lo cual permitiría arbitrar y conseguir ganancias o también generar pérdidas.

Esto mostraría la existencia de sensibilidades que pueden derivar en fallos de los mercados, lo cual sería indicativo de que tienen, tanto la capacidad de anticiparse a las decisiones de política monetaria, como también de equivocarse o no procesar adecuadamente la información(muchas veces descuentan y otras sobreestiman en la tasa los hechos).

Por lo tanto, resultan ser indudables e indiscutibles la anomalías presentadas en los mercados financieros; ante lo cual sólo es posible ratificar la EMH con ciertas excepciones en el corto plazo y con mayor certeza en el largo plazo11.

Las implicaciones de éstas nuevas revelaciones que se vienen ratificando en el último tiempo tienen tremendas consecuencias para la Teoría Económica, no sólo en la búsqueda de explicar los fenómenos que toda ciencia social persigue, sino fundamentalmente para abordar soluciones a los problemas que nos aquejan.

Walter Morales Carrasco, Abril de 2008.

1 Por sus siglas en inglés.

2 Rubio (2005).

3 Idid.

4 Premio Nobel 1990, por sus aportaciones en la Teoría del CAPM, Modelo de Valoración de Activos de Capital.

5 Lo que significa que, mas o menos, existiría una probabilidad entre 3.5 millones de que aleatoriamente hubiera logrado los retornos que ha conseguido.

6 Recordemos que J. M. Keynes menciona, en su Teoría General del Empleo, el Interés y el Dinero (1936), los “espíritus animales” que mueven el comportamiento inversor.

7 Cuya traducción al español podría ser Economía Conductual o Psicoeconomía.

8 Periodo comprendido entre inicios de Enero 2006 y datos recientes de marzo 2008.

9 Las Tasas de la Reserva Federal de los EE.UU. son base fundamental en los centros financieros, situación muy similar con las tasas libor usualmente utilizadas para diversos productos (préstamos, notas estructuradas y otros derivados)

10 Igualmente válido para la Teoría del Caos y su relación con comportamientos irracionales en los mercados (Espinoza, 2005).

11 Reconocido por el propio Fama (1999), complementando o aclarando su teoría años después.

Apertura Comercial y Crecimiento Económico

Autor: CASTILLO MAMANI DENNIS W.


Los primeros planteamientos sobre la relación entre apertura comercial y crecimiento económico pueden situarse hace más de 200 años, con la corriente mercantilista del siglo XVII y XVIII. Bajo estos conceptos, en el comercio internacional una nación se beneficiaba solamente si otra resultaba perjudicada. En 1776, Adam Smith rompió con esta teoría sosteniendo que si dos naciones comercian voluntariamente entre sí, ambas se benefician. Esto se basa en las “ventajas absolutas”. Cuarenta años más tarde, David Ricardo (1817) afirmó que aunque una nación fuera menos eficiente que otra en la producción de ambos bienes, aún sería factible que comerciaran de manera beneficiosa para ambas. Esto se basa en las “ventajas comparativas”.

1. Frenkel, J. A. & D. Romer (1999). "Does trade cause growth?" The American Economic Review, June

Aunque la literatura, tanto teórica como empírica, que trata la relación entre apertura comercial y crecimiento económico es vasta, la discusión al respecto no está cerrada, esta controversia continúa hasta la actualidad, aún cuando el mundo está experimentando períodos de apertura comercial cada vez mayor. (2)

2. Edwards, Sebastian (1998): “Openness, productivity and growth: what do we really know?” Economic Journal, 108 (March).

El término “apertura comercial”, está referido a las facilidades que tiene una nación para realizar transacciones con otros países, con la menor interferencia; es decir, sin incurrir en costos artificiales que normalmente son impuestos por los respectivos gobiernos. Desde un punto de vista de eficiencia, se entiende que los precios al ser reflejo de aspectos productivos de las firmas y de las preferencias por parte de los consumidores, debieran permitir la mejor asignación posible de recursos. (3)

3. Dollar, D. & A. Kraay (2002). "Trade, growth and poverty policy". Research Working Paper 2199, Banco Mundial.


Los efectos de la liberalización comercial

La liberalización conlleva costos y beneficios. Por una parte, supone un beneficio ya que bajan los aranceles y, por ende, los precios de los insumos; los consumidores pueden escoger entre una gama de bienes más amplia a precios menores, y las perspectivas de exportación mejoran a medida que el empleo y el producto aumentan en los sectores de bienes y servicios comerciables en el exterior.

Por otra parte, la baja de los aranceles puede reducir el producto y el empleo en sectores que tienen que hacer frente a la mayor competencia de productores externos con costos menores. El saldo neto depende invariablemente de la estructura de las economías y de la flexibilidad de salarios y precios que permita el pleno reajuste de los precios relativos tras la liberalización.


Las ventajas de una apertura comercial

La literatura económica ha demostrado de manera consistente los grandes beneficios que trae una mayor apertura comercial. Por ejemplo, cada vez es más claro que los países que han alcanzado mayores niveles de desarrollo, así como los que se encuentran en camino a lograrlo, han tenido como motor al comercio internacional. Así, mayores niveles de crecimiento, es un beneficio que se desprende directamente de este proceso. Los canales que permiten que esto sea posible, son diversos: (4)

4. Sala-i-Martin, X. (2002). "The disturbing ‘rise’ of global income inequality". Working Paper 8904, NBER, Cambridge, Mass.

  • Incrementos en la eficiencia de las inversiones, dada la importancia de los

    bienes de capital importado en las economías en desarrollo.

  • Acceso a mayores mercado, sobre todo para las economías cuyos mercados

    domésticos son muy pequeños.

  • La posibilidad de atraer flujos de capital hacia mayores inversiones en economías donde los ahorros domésticos son limitados.

  • Canales endógenos como la difusión de nuevas tecnologías y educación.

  • Incentivos a una mayor disciplina de los gobiernos, incentivo a la innovación.

  • Eliminación de comportamientos rentistas que son más bien inspirados por las

    restricciones del comercio.

  • El incentivo a la innovación, entre otras.

  • La generación de mayores puestos de trabajo

  • Importancia de la apertura comercial y el crecimiento

    La importancia de la apertura comercial esta en que esta permite incrementar el flujo comercial, las empresas ganan competitividad, se incrementan los niveles de empleo y se producen mayores tasas de crecimiento y bienestar en el país.

    Para lograrlo los países están generando Acuerdos Comerciales Preferenciales, entre los cuales los Tratados de Libre Comercio tienen un esquema más integral. En esta nueva orientación, en nuestro país se viene impulsando una agenda de negociaciones internacionales que tiene como propósito asegurar, mediante preferencias arancelarias importantes, mercados para nuestros productos. Paralelamente, con el establecimiento de la Organización Mundial de Comercio (OMC) en 1995, los países adherentes a este organismo buscan consolidar un sistema multilateral de libre comercio que permita a las economías ingresar a una senda expansiva de crecimiento con un comercio de bienes justo y equitativo para todos, eliminando las restricciones arancelarias y no arancelarias existentes, así como promoviendo la competencia leal. (5) Obviamente, que el camino de la apertura comercial a través de la OMC es mucho más lento y pausado, por las dificultades de lograr consensos en alrededor de 150 economías, por lo que se ha hecho necesario impulsar acuerdos comerciales bilaterales con aquellas economías en las que nos interese fortalecer y generar corrientes de comercio de acuerdo a la complementariedad que tengamos.

    5. Johnson, Harry. Aranceles aduaneros y desarrollo económico: algunas cuestiones teóricas. Mimeo, 1964

    fuente: COMEXPERU

    Los hechos demuestran que para experimentar un crecimiento sostenido, la economía debe estar abierta al comercio y la inversión con el resto del mundo. En las últimas décadas, ningún país ha logrado mejorar sustancialmente el nivel de vida de los habitantes sin abrirse a los demás. De hecho, la apertura del comercio (acompañada de la apertura a la inversión extranjera directa) es un elemento importante del éxito de Asia oriental, cuyo arancel de importación promedio retrocedió del 30% al 10% en las dos últimas décadas.

    Muchos estudios demuestran que los países más orientados hacia el exterior suelen crecer con más rapidez que los demás. Los países que abrieron sus economías en los últimos años, como China, República Checa, Holanda, Belgica, Vietnam, India, experimentaron un crecimiento más veloz y un mayor alivio de la pobreza. En promedio, los países en desarrollo que recortaron drásticamente los aranceles durante los años ochenta crecieron a

    un ritmo más fuerte que los demás en la década siguiente. (6)

    6. Frenkel, J. A. & D. Romer (1999). "Does trade cause growth?" The American Economic Review, June.

    Apertura y Crecimiento

    Las economías abiertas al comercio crecen más rápidamente: la evidencia empírica lo muestra así y las pruebas más recientes son China e India. La apertura comercial promueve el crecimiento por varias vías: los empresarios son obligados a ser eficientes para competir contra el mundo y, además, la apertura da acceso a la tecnología más avanzada y permite la especialización.

    Obviamente, la apertura debe estar acompañada por otras condiciones como la estabilidad macroeconómica y política.

    El libre comercio reduce la pobreza: históricamente, los países que han experimentado mayor reducción en la pobreza son aquellos que han alcanzado un rápido crecimiento impulsado, en gran medida, por la apertura comercial. Taiwán, Singapur, Corea del Sur y Hong Kong son claros ejemplos que no registran hoy ningún nivel de pobreza extrema.

    Él comercio acelera el crecimiento y ese crecimiento reduce la pobreza a través de tres canales: (7)

    • Los pobres son captados para empleo productivo.

    • El crecimiento genera recursos para el fisco que pueden ser destinados a

      programas de alivio a la pobreza.

    • El incremento en el ingreso de las familias pobres generado por el crecimiento les da mayor acceso a servicios de educación y salud.

    7. Panagariya, Arvind.2000. Preferential trade liberalisation: the traditional theory and new developments, Journal of Economic

    Apertura Comercial del Perú

    En la actualidad como consecuencia de la globalización se hace indispensable que los países tengan una mayor presencia en los mercados internacionales. Esto les permite incrementar el flujo comercial, las empresas ganan competitividad, se incrementan los niveles de empleo y se producen mayores tasas de crecimiento y bienestar en el país. Para lograrlo los países están generando Acuerdos Comerciales Preferenciales, entre los cuales los Tratados de Libre Comercio tienen un esquema más integral.

    En esta nueva orientación, en nuestro país se viene impulsando una agenda de negociaciones internacionales que tiene como propósito asegurar mediante preferencias arancelarias importantes mercados para nuestros productos. Paralelamente, con el establecimiento de la Organización Mundial de Comercio (OMC) en 1995, los países adherentes a este organismo buscan consolidar un sistema multilateral de libre comercio que permita a las economías ingresar a una senda expansiva de crecimiento con un comercio de bienes justo y equitativo para todos, eliminando las restricciones, arancelarias y no arancelarias, existentes así como promoviendo la competencia leal. Obviamente, que el camino de la apertura comercial a través de la OMC es mucho más lento y pausado, por las dificultades de lograr consensos en alrededor de 150 economías, por lo que se ha hecho necesario impulsar acuerdos comerciales bilaterales con aquellas economías en las que nos interese fortalecer y generar corrientes de comercio de acuerdo a la complementariedad que tengamos.

    Para consolidar su Apertura Comercial, el Perú ha venido firmado acuerdos y viene negociando e iniciando otros con nuestros principales socios comerciales:

    Acuerdos Firmados (8)

    • 1990:Sistema Generalizado de Preferencia Andino, SGP (Unión Europea).

    • 1993:Ley de Preferencias Arancelarias Andinas, ATPA (EEUU).

    • 1995:Participación en la Organización Mundial del Comercio, OMC.

    • 1997:Reincorporación a la Comunidad Andina de Naciones, CAN.

    • 1998:Incorporación APEC, inicio de negociaciones ALCA, acuerdo Bilateral

      Chile.

    • 1999:Profundización de preferencias.

    • 2000:con Brasil y Argentina.

    • 2002:Ley de Promoción Comercial Andina y Erradicación de Droga, ATPDEA (EEUU).

    • 2003:Acuerdo Complementación Económica Perú-MERCOSUR.

    • 2004:Inicio de Negociaciones TLC Perú-EEUU.

    • 2005:Inicio de Valoración Conjunta CANUnión Europea, con vistas a un

      Acuerdo de Complementación con la UE.

    • Tratado de Libre Comercio Perú – China.

    • Tratado de Libre Comercio Perú – Canadá.

    • Tratado de Libre Comercio Perú – EFTA.

    • Tratado de Libre Comercio entre la República del Perú y el Reino Unido de

      Tailandia.

    • Negociaciones TLC Perú – SINGAPUR.

    • Tratado de Libre Comercio CAN-UE.

    8. Ministerio de comercio exterior.

    Crecimiento Económico del Perú

    Durante los últimos años, el Perú ha continuado profundizando sus reformas económicas y la liberalización comercial con el fin de consolidar su integración a la economía mundial. La evolución favorable de los principales indicadores económicos de la economía peruana desde década del 90 ha dependido en gran medida de un manejo prudente de la política fiscal y monetaria, y proceso de reformas estructurales que se puso en marcha a mediados del primer quinquenio de la década de los 90, como consecuencia del nuevo entorno económico, la inflación se ha reducido de 7,600 por ciento a comienzos de la década de los años 90 a niveles de un dígito entre 3 y 4 por ciento a la actualidad, se logró el equilibrio fiscal,la traducido en un importante flujo de capitales externos.

    Es importante remarcar que las reformas emprendidas, tales como la liberalización del comercio exterior, del mercado cambiario, de la cuenta de capitales y del sistema financiero, así como las privatizaciones y las reformas en el mercado laboral y legislación sobre inversiones extranjeras han permitido dar un impulso importante a la actividad económica, especialmente a la inversión y esta ha tenido un importante efecto en el comercio exterior en la medida de que no sólo ha posibilitado una mayor oferta exportable sino que también ha requerido una mayor demanda por bienes importados. (9)

    9. Alonso Segura Vasi & Juan García Carpio, Análisis del Impacto de la Apertura Comercial sobre la Pobreza y la Desigualdad.

    Los principales socios comerciales del Perú, en estos años han sido los Estados Unidos de América, el comercio con este país se ha visto favorecido por la Ley de Preferencias Comerciales Andinas desde que el Perú fue considerado en 1993 como país elegible para este esquema preferencial.Otros socios comerciales son la Unión Europea, los países de ALADI, los países de la Comunidad Andina, los países del MERCOSUR, las naciones asiáticas tales como Japón y la República Popular China. Con relación al APEC, en el corto plazo, el Perú busca promover la imagen del país y los avances y progresos realizados en los últimos años a través de la apertura comercial y económica llevada a cabo.

    Adicionalmente, debemos ser receptores de los distintos programas de cooperación económica y técnica que APEC ofrece. En el mediano y largo plazo nuestro objetivo es atraer al país las inversiones de Asia y Oceanía.

    El Perú debe de convertirse en el socio estratégico de las economías APEC en América del Sur, es decir, convertirse en el "puente" entre América del Sur con Asia y Oceanía.

    Punto de Vista

    La liberalización comercial ha creado nuevas oportunidades para muchos países, pero los avances de estos países deben evaluarse en el contexto de la liberalización en otras regiones.

    Para evitar un deterioro de la competitividad externa, los países emergentes tendrán que liberalizar el comercio al mismo ritmo que otras regiones. Dado que la liberalización puede intensificar la competencia externa y suprimir las ventajas que ofrecen los acuerdos comerciales preferenciales, debe ir acompañada de reformas que mejoren la productividad y reduzcan los costos de modo que los países puedan incrementar su participación en los mercados. Por lo tanto, es necesaria una flexibilidad de los precios y de los salarios que permita mayor eficiencia en la utilización de los recursos tras la liberalización. Por último, el componente más importante de la liberalización es la reducción del nivel global de los aranceles.

    Por lo tanto, las autoridades deberán hacer frente a la posibilidad de reducción del ingreso fiscal reformando el régimen tributario, principalmente mediante el reemplazo de los impuestos actuales sobre el consumo y los servicios especiales por impuestos al valor agregado, la reducción de las exenciones arancelarias, la mejora de la administración tributaria y aduanera y la armonización de los impuestos de toda la región.

    Agenda Pendiente

    • Es imprescindible configurar un escenario de competencia, lo que supone la

      ejecución de determinadas reformas de orden institucional y de política.

    • La protección de derechos de propiedad en forma eficiente, transparente y predecible. Ello se refleja en un mayor retorno esperado de la inversión.

    • Seguir el mantenimiento de la disciplina macroeconómica.

    • La provisión de servicios de calidad en los sectores educación y salud; el desarrollo de infraestructura mediante asociaciones público-privada; y el establecimiento de un marco regulatorio adecuado. Ello se traduce en el acceso a factores productivos más calificados y una reducción de los costos de transacción.

    • El objetivo de consolidar al Perú como país de destino de la inversión de EEUU, pasa por definir un entorno de certidumbre jurídica y de reglas claras.

    • Garantizar el trato no discriminatorio y la protección frente a riesgos no comerciales, estableciéndose un mecanismo eficiente de solución de controversias.

    Bibliografía

    1. Alonso Segura Vasi & Juan García Carpio, Análisis del Impacto de la Apertura Comercial sobre la Pobreza y la Desigualdad.

    2. Dollar, D. & A. Kraay, 2002. "Trade, growth and poverty policy". Research Working Paper 2199, Banco Mundial.

    3. Edwards, Sebastian, 1998, “Openness, productivity and growth: what do we really know?”, Economic Journal.

    4. Frenkel, J. A. & D. Romer, 1999, "Does trade cause growth?" The American Economic Review.

    5. Johnson, Harry, 1964, Aranceles aduaneros y desarrollo económico: algunas cuestiones teóricas.

    6.Ministerio de comercio exterior.

    7. Sala-i-Martin, 2002. "The disturbing ‘rise’ of global income inequality". Working Paper 8904, NBER, Cambridge, Mass.

    8. Panagariya, Arvind, 2000, Preferential trade liberalisation: the traditional theory and new developments, Journal of Economic Literature.

    9.Raymundo Chirinos, 2007, Determinantes del crecimiento económico: Una revisión de la literatura existente y estimaciones

    Autor: CASTILLO MAMANI DENNIS W

La Educación en Colombia

© Por: José Armando Hernández Bernal,

Economista, Administrador De Empresas, Especialista En Gerencia Financiera

Especialista En Docencia Universitaria


La desigualdad social y la brecha existente en la distribución del ingreso colombiano, son temas que sin lugar a dudas perjudican notoriamente el desarrollo económico, tecnológico e investigativo, de los diferentes sectores económicos de nuestro país. Estos elementos combinados con la corrupción y la indiferencia de la clase política colombiana, llevan a que los problemas más graves de nuestra sociedad se agudicen. Es así como el tema de la educación va tomando relevancia, cuando se piensa en una salida viable y consistente a la problemática anteriormente planteada.

En consecuencia el presente artículo se referiré a las bondades y perturbaciones que se han venido observando en materia de educación publica en Colombia, específicamente para los niveles de básica y media.

El primer aspecto que quisiera tratar es el que tiene que ver con la remuneración de los docentes, pues, si bien es cierto que los docentes en Colombia perciben un ingreso inferior a los promedios internacionales, también es evidente que algunos otros docentes devengan mas de 10 salarios mínimos al mes, producto de la o las pensiones otorgadas por los diferentes distritos o municipios del país, y aun así siguen ocupando plazas que bien pueden ser cubiertas por otros jóvenes licenciados.


De igual forma en los últimos años se han venido creando algunos incentivos pecuniarios para nuestros maestros, que tienen como objetivo mejorar la competitividad en el quehacer pedagógico. De este modo podríamos citar ejemplos como el premio compartir al maestro o casos en que la misma empresa privada, incentiva el reconocimiento de los docentes por su valiosa labor.

Sin embargo el problema educativo en Colombia es mucho más de fondo que de forma, pues es evidente que los premios y reconocimientos llegan a algunos pocos.

En consecuencia los salarios de los maestros (Aquí me refiero a los maestros que laboran en la actualidad, y su salario no supera 3 salarios mínimos vigentes,)1 no pueden depender del ganarse un premio, considero que el sueldo de un docente debe ser coherente con la formación y años de escolaridad, siguiendo un escalafón coherente a la administración publica y no al escalafón docente, pues si hacemos un comparativo muy rápido a través de las instituciones universitarias y de sus programas de formación, es fácil percibir que las licenciaturas son las carreras profesionales que mayor tiempo requieren para conseguir la titulación, es así como un administrador de empresas, un economista o ingeniero, puede titularse en menos tiempo 2 que un licenciado en química, matemáticas o idiomas. Sin embargo la remuneración asignada a un cargo profesional de carrera administrativa, es cuatro o cinco veces mayor que el de un docente.

Es así como el maestro de escuela o del colegio distrital debe nivelar su salario con otras actividades, propias o no a su profesión, por ello es fácil observar al docente trabajando de 6:00 am a 12:00 del medio día, en colegios privados para luego continuar con su jornada laboral en la institución distrital de 1:00 a 6:00 PM, evaluando claro esta la posibilidad de recibir algunas “horitas” de cátedra en una institución técnica o universitaria en la jornada nocturna.


Vemos entonces la transformación que se presenta del maestro a al dictador de clase, en donde cada estudiante es un código y no una persona, pues no existe el tiempo para verificar si la lección se aprendió o no, y mucho menos para planear o aplicar estrategias pedagógicas eficaces, de tal forma que la excelencia académica y la formación de calidad queda rezagada por las necesidades económicas de un docente mal remunerado, es aquí donde la revolución educativa se queda en un muy buen slogan de una campaña presidencial y no en una realidad.

La problemática descrita anteriormente se exacerba con los procesos que adelanta la administración pública en Colombia, puesto que los objetivos que a veces se eligen en un plan de desarrollo, no son bien escogidos3, este es el caso de los proyectos educativos de algunas de las administraciones publicas colombianas, que han pretendido solucionar el problema educativo en el país, a través de incrementar la cobertura y no en el mejoramiento de la calidad.

Otro problema neurálgico ocasionado por la misma corrupción de la administración publica, y cobijado por nuestros mismos legisladores, es el hecho que el ejercicio docente cada vez requiere de menos vocación, y mas de padrinazgos políticos, es así como los procesos meritocráticos de selección, nombramientos o ascensos, dependen del grado de influencia (palanca) política, o del numero de votos que le puede llegar a proporcionar al diputado de turno, esto con el agravante legal, el cual establece que las plazas docentes para la formación básica y media, pueden ser cubiertas por profesionales de distintas disciplinas 4, como ingenieros, economistas, contadores, etc. En esta medida las instituciones educativas de primaria y bachillerato de nuestro país, tiene mas ingenieros que licenciados.

En consecuencia, el mercado laboral para el licenciado, es cada vez más estrecho y competitivo. Lo que hace que el profesor que desee seguir siendo vigente en dicho mercado, deba capacitarse, realizando cuanto diplomado, especialización o maestría se oferte, sin embargo el resultado no se evidencia en una mejor calidad de la educación publica en Colombia, y mucho menos en el retorno de su inversión (mejoramiento del salario).

Finalmente; quisiera citar algunas cifras muy positivas 5 que en principio alivian la incertidumbre del problema educativo colombiano, pero que sin embargo no se reflejan en la actual problemática. Por ejemplo, durante el periodo de 1997 al 2004, el gasto real por estudiante fue de $960.000, (aprox.), así mismo en la década de los noventas el gasto publico destinado a la educación fue de 3,3% mientras que para el 2004, creció al 5,1%, esta cifras demuestran el evidente esfuerzo fiscal que ha hecho el gobierno para reflejar mejores indicadores sociales, sin embargo, indicadores como el nivel de participación de la investigación científico- tecnológica, dentro del rubro del gasto publico, son inclusive muy difícil de encontrar.

(1) Que es un salario muy bajo, teniendo en cuenta el grado de escolaridad, que se debe tener para desempeñarse como profesor en educación media y básica, en Colombia

(2) O con numero inferior de créditos académicos, en el caso que el comparativo se realice por créditos académicos.

(3) Probablemente sin ninguna mala intención, pero si con muchos errores de omisión, fundamentalmente por asesores incompetentes.

(4) Sin embargo lo grave del asunto, no es que el ingeniero este impartiendo cátedra de matemáticas, o el economista de ciencias sociales, lo verdaderamente preocupante es el hecho que estos profesionales, adoptan la figura de docentes sin ningún tipo de formación pedagógica, obedeciendo mas a dar una solución temporal de empleo que a cualquier otra cosa.

(5) Cifras reportadas en el borrador del Banco De La República “Evaluación y análisis de la eficiencia de la educación en Colombia.” Elaborado en febrero de 2006, por ANA MARIA IREGUI, LIGIA MELO, JORGE RAMOS.

Desindustrialización en Colombia

EL PROCESO DE DESINDUSTRIALIZACION EN COLOMBIA.


© Por: José Armando Hernández B

Al observar el proceso histórico de la “industrialización” nacional, es fácil observar que Colombia no vivió una revolución industrial, y digo que es evidente, puesto que el principal baluarte de dicha revolución, es el gran dinamismo que se presento en los transportes y vías férreas, el cual para nosotros hasta ahora es inexistente. En contraste Europa y específicamente Inglaterra, trabajó en la aplicación del carbón y el hierro en la construcción de soluciones ferroviarias, así como en la implementación de nuevos sistemas fabriles, montados sobre la sustitución de la mano de obra por la fuerza motriz, este periodo es conocido por todos nosotros como la primera revolución industrial y comprende el periodo de 1780 a 1860.

Posteriormente en los Estados Unidos De Norteamérica, se da la segunda revolución industrial (la cual sucede en el periodo de 1860 a 1914) 1 , esta vez, el acero y la electricidad son los gestores del auge económico. En este estadio, Norteamérica sufre cambios industriales importantes, que generan un gran dinamismo en organizaciones como por ejemplo La Ford-motor Company, General Electric, Standard Oil, y Balck And Decker, entre otras. De esta forma los nombres como Henri Ford, John Rockefeller, Samuel Duncan Black y Alonzo Decker, se convirtieron en un común denominador en el éxito empresarial del mundo entero.


Mientras tanto en Colombia, para la misma época de finales del siglo diecinueve e inicios del veinte, lo que se vivía era una profunda guerra interna2 entre liberales y conservadores, dicha guerra tardo 3 años, trayendo consigo mayores niveles de miseria y pobreza para nuestro país, y concluyendo con la separación de Panamá, y la perdida del canal interoceánico, En noviembre 1903.

En consecuencia la incipiente industrialización nacional de principios de siglo, se limitaba a los pocos avances que en esta materia mostraba la región de Antioquia, es así como en 1927 se creara en Medellín, la Federación Nacional de Cafeteros, impulsada principalmente por el presidente de la época3, el objetivo principal de este proyecto consistió, en incrementar la producción del café y así conseguir nuevos mercados internacionales para este producto. Mientras tanto la industria minería , que inicio su el desarrollo con la misma conquista de España, logró una verdadera industrialización en 19105 . De esta manera las primeras reservas colombianas de capital, estuvieron representadas por las utilidades generadas el café y la minería4, así como la indemnización que recibió el país por la separación de Panamá.

La dependencia industrial del país dependía entonces, del dinamismo del departamento de Antioquia, pues si hacemos un parangón con otras ciudades como por ejemplo Bogotá o Tunja, podríamos encontrar que para 1919, esta ultima ciudad tenia tan solo 10 carreras y 15 calles, como las tenía tres siglos atrás en 16236, es decir, que en casi 300 años la capital del departamento de Boyacá no mostró ningún grado de desarrollo urbano, a su vez “la economía antioqueña se ha caracterizado tradicionalmente por ser una industria grande y diversificada (el 30% del Producto Interno Bruto regional), por un sector agrícola con café y banano, y un sector servicios que ha ganado participación en los últimos 30 años y que representa el 50% del PIB regional”7.

En este mismo sentido, el rezago del desarrollo económico, no solamente era local sino también regional, pues así como el despliegue industrial se Presento de forma heterogénea8 al interior del país, también se presento en los países latinoamericanos. Es así como mientras los países vecinos del Brasil, Chile, argentina y México, experimentaban una expansión industrial, cerca de los años 1880 y 1890, Colombia solo lo percibió en 1930, es decir cuarenta años después del promedio Latinoamericano.

Los hechos anteriormente citados, así como otros elementos coyunturales externos, como por ejemplo la crisis del veintinueve, coadyuvaron a que la industria nacional aprendiera a emerger en periodos de crisis.


Analizando los resultados de auge y recesión en el país, durante el Periodo de 1920 hasta la mitad del siglo veinte, y tomando como referente algunos acontecimientos históricos. Encontramos, que la mayor desindustrializaciòn que se vivió en Colombia en el periodo de análisis, se dio cuando al país entraron grandes cantidades de capitales foráneos, posteriormente en al presentarse la gran depresión mundial del veintinueve, Colombia registro grandes avances en materia de industrialización. Otro ejemplo de ello, es como en los tiempos de las bonanzas cafeteras de los años de 1951 al 1954, el crecimiento industrial fue el mas bajo de la época.

Aun así, el modelo de crecimiento colombiano se ha ajustado perfectamente a los análisis y recomendaciones de la CEPAL, pues los colisiones externas han logrado que la tasa de cambio real se devalué, haciendo mucho mas competitivas las exportaciones nacionales, y fortaleciendo de la misma manera a los sectores industriales del país.

Sin embargo después de la mitad del siglo veinte el desarrollo fue muy centralizado, y el país comenzó a sufrir una gran dependencia de la industria del café. De esta forma, la falta de capacitación e investigación en otros sectores productivos, junto con cambios drásticos en los precios internacionales del grano, hicieron que la industrialización cafetera no contagiara positivamente los demás niveles9 productivos del país.

Analizando otros aspectos de decisiones, en materia de política económica, se encuentra, que la falta de desarrollo en el sector financiero, hizo que las industrias no pudiesen crecer como debieran, pues la única forma posible de hacerlo, era a través de sus utilidades retenidas, es decir que un proceso expansionista de la industria nacional podía verse entorpecida por decrementos coyunturales de precios internacionales, esto, en cierta medida resulto benéfico para las empresas colombianas, que tuvieron que aprender a sobrevivir sin mucho apoyo financiero, convirtiéndose en gestoras de su propio éxito.

© Por: José Armando Hernández B,

Economista, Administrador De Empresas, Especialista En Gerencia Financiera

Especialista En Docencia Universitaria

1- Que es el momento donde se inicia la primera guerra mundial,

2- Este fatídico acontecimiento, se conoce como la guerra de los mil días, originada fundamentalmente por diferencias ideologías y aplicación de la constitución del 86.

3- Pedro Nel Ospina, este militar fue presidente de Colombia en el periodo comprendido entre (1922 y 1926), representado lo intereses del partido conservador.

4- Fundamentalmente la del oro y la del carbón.

5- Información tomada del diario el colombiano, en el artículo publicado por Francisco Javier Arias, en 2002.

6- Tomado literalmente del diario el colombiano el cual cita estas estadísticas de la cámara de comercio de Medellín.

7- Unas ciudades se desarrollaron mas rápidamente que otras, en este mismo documento se hace la comparación entre Medellín y Tunja.

8- Información tomada de la pagina Web Del Club De Leones De Tunja Monarca

9- Estos fenómenos económicos se conocen como la enfermedad holandesa.

Análisis de la Balanza de Pagos colombiana para el año 2007

© Por: José Armando Hernández B,


El presente escrito, se basa en la fuente documental de la subgerencia de estudios económicos del sector externo, del Banco De La Republica, presentada en diciembre del 2007.

En dicho informe se evidencia un crecimiento del déficit en cuenta corriente del 99.95%, para el tercer trimestre del año 2007, comparativamente con respecto al año anterior, la explicación se enmarca en la manera como los egresos aumentaron, por la renta de los factores, los cuales ascendieron a 5,430 millones de dólares. también el déficit en la balanza de servicios no factoriales contribuyo a este faltante con 1.786 millones de dólares. No obstante el ingreso al país, de transferencias corrientes alcanza 3.740 millones de dólares.

Así mismo se refleja que la participación del desequilibrio en mención (exportaciones menos importaciones de bienes), con respecto al PIB, se incremento en un 54.54%, es decir que mientras que para el año 2006 la participación del déficit comercial con respecto a la producción nacional fue del 2.2%, para el año 2007, se incremento al 3.4%.


De esta forma, es de suma importancia realizar algunas consideraciones en torno, a como las exportaciones de bienes o productos no tradicionales, incidieron a que en el 2007, el total de las exportaciones creciera en un 56,3%, pues las ventas de dichos productos al extranjero sumaron 1,370 millones de dólares. Así mismo la exportación de carbón, ferroníquel, café y petróleo, entre otros producto que componen las exportaciones tradicionales, aportaron en el aumento del 15.7%, del total de las exportaciones de Colombia hacia el resto del mundo, para tomar un caso ejemplar, podríamos referirnos al carbón, el cual generó un progreso en su productividad del 24,8%, comparado con el año inmediatamente anterior (2006), esto combinado con una alza en el precio internacional del mineral en un 4,3%, hicieron que este sector, mostrara un gran dinamismo.

Otro caso en el que los precios internacionales favorecieron las exportaciones colombianas, se presenta con el ferroníquel, pues el precio internacional de este metal, subió por encima del 60% con respecto al 2006, sin embargo su producción cayo a 10,000 toneladas anuales de casi 11.000, producidas en el 2007.

En el caso del café, las ventas superaron los ocho mil millones de sacos para el 2007, superando así, la producción y comercialización del año 2006 en un 4,1%, recordemos que este sector también se vio favorecido por el alza en los precios internacionales del grano.


Finalmente el caso particular del petróleo se concentro, un aumento en la extracción y distribución del crudo, frente a una decrecimiento del 15% de los derivados del mismo.

El aporte positivo a la economía internacional de nuestro país, lo reporta el crecimiento del 18,85% en el superávit de la cuenta de capital, contribuyendo al crecimiento de la economía, de esta manera el superávit en cuestión simboliza un 7,2% del producto interno bruto del 2007.

Por otro lado, las reservas internacionales de divisas en Colombia, crecieron a 20.554 millones de dólares para el 2007, originadas, en la mayoría de los casos, por la intervención discrecional del Banco De La Republica en el mercado de divisas, es así como para el año 2007 se presento un incremento del 278.19%, en este rubro, de tal forma que la intervención discrecional paso de 1.197 millones de dólares en septiembre del 2006 a 4.527 millones de dólares, para el 2007 del mismos mes. De esta misma forma podríamos argumentar que el crecimiento en las reservas internacionales reportadas en la balanza de pagos para el año 2007, obedece a los rendimientos en moneda extrajera de 392 millones de dólares, los cuales fueron percibidos por el emisor, y trasladados al gobierno nacional, dentro de las utilidades reportadas en el 2007 (547 millones de dólares).

Esto nos lleva a pensar que las intenciones del Banco De La Republica, fundamentalmente estuvieron encaminadas a la recuperación del valor de la divisa, con el firme propósito de escasearlas y así generar una devaluación que permitiese un mejoramiento en la competitividad de las empresas exportadoras.

Otro hecho interesante de analizar, es que mientras que la balanza comercial es deficitaria, la de capitales, es superavitaria, así el dato reportado en errores y omisiones por la banca central (104 millones de dólares) representa el 0,5% de total de las reservas internacionales del país.

Retomando nuevamente las cuentas y subcuentas de la balanza comercial, justificamos que el déficit es explicado por los ingresos y egresos de bienes y servicios no factoriales, por ejemplo el crecimiento porcentual de los ingresos del 2007 provenientes de bienes y servicios no factoriales fue del 16,30%, en contraste con los egresos derivados del mismo rubro, cuyo crecimiento se estableció en 22,72%, podemos observar entonces que las importaciones de bienes manufacturados superaron las importaciones en un 6,42%.

El tema de las transferencias, también es vital en el presente análisis, pues es claramente visible que el incremento (2252 millones de dólares) en esta cuenta, es explicada por remesas de los trabajadores colombianos en el extranjero, es así como se observa un aumento del 9,18%, correspondiente a una variación absoluta de 393 millones de dólares, para el 2007.

En la cuenta de capital y financiera, se muestra un claro mejoramiento en el nivel de confianza para la inversión extrajera en nuestro país, esto se evidencia en el aumento de 2169 millones de dólares del 2006 al 2007, el cual representa un aumento del 46,95%, en contraste a ello se observa que los capitales domésticos están tratando de establecerse en el Colombia, es así como la inversión de los colombianos en el exterior se redujo al 94,94%, permaneciendo inmóviles en la nación mas de 807 millones de dólares.

Analicemos ahora el comportamiento de los flujos financieros al corto plazo, aquí se observa que ingresaron al país 3695 millones de dólares, motivados exclusivamente por los atractivos de la tasa de interés domestica, dichos flujos representan la mejor explicación de los pasivos a corto plazo.

De igual forma, podemos analizar como los activos a corto plazo han ido ascendiendo hasta llegar a 4,983millones de dólares.

© Por: José Armando Hernández B,

Economista, Administrador De Empresas, Especialista En Gerencia Financiera

Especialista En Docencia Universitaria, Candidato a magíster en Ciencias Económicas

Neuroeconomía

NEUROECONOMÍA

HACIA UNA RELATIVIZACIÓN DEL CONCEPTO DE MAXI/MINIMIZACIÓN DENTRO DE LA CIENCIA ECONÓMICA (versión actualizada)

Modernos hallazgos que vienen de las neurociencias describen una racionalidad humana mucho más compleja y lejana de la que hoy tomamos como base para modelizar la toma de decisiones en economía. ¿Cambio de paradigma en nuestra ciencia?



Autor: Sebastián Laza (economista)

Fecha: febrero de 2008

1. Introducción

Fueron los neoclásicos los que formalizaron, matemática mediante, los modelos económicos (de equilibrio parcial y de equilibrio general) que han perdurado hasta la actualidad. Aportes desde Jevons, Walras, Marshall y Pareto, entre otros, consolidaron -durante la segunda mitad del siglo XIX y principios del siglo XX- la base de la ciencia económica que hoy se estudia en las universidades, que supone en los seres humanos una racionalidad maximizadora de beneficios / minimizadora de costos bastante extrema, siempre en lo que respecta a nuestra tarea de tomar decisiones económicas en función del dilema recursos escasos versus necesidades infinitas. Los neoclásicos tomaron esta hipótesis sobre la racionalidad humana por una razón que nadie generalmente refuta: en teoría, los hombres, animales pensantes por excelencia en este mundo, al enfrentarnos al mencionado dilema (necesidades infinitas / recursos escasos) no nos queda otra que tratar de maximizar siempre la utilidad / beneficio que podemos sacar de nuestros escasos recursos (nuestros salarios especialmente), buscando de esta forma obtener en toda situación -de índole económica- el máximo beneficio con el mínimo costo. Este es, palabras más, palabras menos, el fundamento que los neoclásicos tuvieron en cuenta para edificar “científicamente” a la economía, es decir para darle formato científico / matemático a ideas pre-existentes, como por ejemplo las que venían postulando Adam Smith y David Ricardo -entre los principales de la llamada Escuela Clásica en economía-, ideas que habían tomado auge principalmente con la 1ra Revolución Industrial (siglo XVIII), cuando se empezaron a formar los estados naciones y las economías de mercado que aún hoy perduran.



Contextualizando entonces el aporte de los neoclásicos, fácilmente advertimos lo enorme y valioso de su labor: formalizaron matemáticamente todo el pensamiento económico de mercado que había hasta esa época, formalización que permitió que la economía fuera vista como ciencia seria (y gozara de respeto académico) a la luz del riguroso paradigma positivista, verificacionista e hipotético-deducitivista que reinaba para todo el mundo científico. Corría entonces la segunda mitad del siglo XIX y los Jevons, Walras y compañía, con la revolución industrial delante de sus ojos y un paradigma científico lógico-positivista que atravesaba todas las ciencias, hicieron que la economía se consolidara como campo autónomo en una época donde todo lo que no era verificable empíricamente no tenía mucho rigor científico. En aquella época, el mencionado paradigma epistemológico vigente exigía a una ciencia social como la economía, para considerarla como “ciencia seria”, lo siguiente:

  • utilizar el método hipotético-deductivo: la estructura lógica de la explicación científica debía ser la siguiente: en primer lugar, la formulación de una ley universal y de unas condiciones iniciales relevantes, que constituían la premisa o explanans. El punto de partida de esta ley universal no es la inducción sino ciertas conjeturas (como por ejemplo que el ser humano es eminentemente optimizador). A continuación se deducía el explanandum mediante la lógica deductiva. La ley universal podía consistir en una proposición semejante a la siguiente: “Cuando A sucede, B sucede”. A su vez, podía ser determinista o estadística, caso en el cual la ley universal se matizaría en la forma siguiente: “Cuando A sucede, B sucede con probabilidad P”.

  • utilizar el principio de la verificación: para entenderlo es necesario realizar una clasificación de los juicios en analíticos o sintéticos. Los juicios analíticos son aquellos que encierran una verdad en la definición de sus propios términos (“Un triángulo tiene tres lados”) mientras que los juicios sintéticos aportan una verdad gracias a la experiencia práctica (“Los cisnes son blancos”). Ahora bien, los juicios sintéticos, según el positivismo lógico, tenían significado si y sólo si eran susceptibles de verificación empírica, y este principio fue empleado para eliminar de las ciencias aquellas afirmaciones que pudieran ser calificadas de metafísicas, como por ejemplo “Los cuadros de Velásquez son bellos”.

Las proposiciones metafísicas, por consiguiente, quedaban fuera del dominio de la ciencia. Se trataba, en suma, de una corriente cientificista, ya que en último término se concebía la ciencia experimental como el único modo de acceso válido a la realidad. Por lo tanto, y volviendo a la economía, las herramientas matemáticas (derivadas, integrales, ecuaciones diferenciales y en diferencia, etc.) fueron sumamente útiles para formular las hipótesis y de ahí aplicar las deducciones (método hipotético-deductivo), que si bien forzaron “un poco” la verdadera psicología humana –no existían los desarrollos en neurociencias que hay ahora, hay que reconocerlo-, le dieron rigurosidad científica y poder predictivo a nuestra naciente ciencia. En resumen, estos primeros científicos de la economía (los clásicos y especialmente los neoclásicos) hicieron un aporte espléndido para su época, construyendo con rigor científico una de las ciencias más influyentes de los tiempos modernos: la economía, o la ciencia de nosotros los economistas, clase influyente si las hay -intelectualmente hablando- en nuestros días.

Y el éxito de esta creación científica fue notable, hasta tal punto que al día de hoy las bases del pensamiento neoclásico no han sufrido grandes embates; por ejemplo en microeconomía, Chamberlin y Nash con sus aportes en competencia imperfecta, si bien muy importantes por sus hallazgos, partieron de los supuestos maxi/minimizadores neoclásicos. Ni hablar en macroeconomía, donde por ejemplo la Escuela de los Nuevos Clásicos, también con aportes teóricos interesantes, parte íntegramente de los supuestos de la microeconomía neoclásica. Es más, todo el auge de la teoría de las Fallas de Mercado, que ha revolucionado el campo de la política económica por ejemplo, está íntegramente basada en la racionalidad neoclásica. Quizás Keynes y sus seguidores sean una de las pocas escuelas que empezaron a cuestionar la racionalidad neoclásica, en especial con sus aportes sobre el comportamiento de la función de inversión en épocas de crisis, la trampa de la liquidez, y otros tópicos relacionados. Recordemos que Keynes escribió en la época de la Gran Depresión de la década de 1930 (su famosa Teoría General es de 1936), donde casi se derrumba el capitalismo, dando muestras que algo fallaba en el sistema, y obviamente también en la teoría económica.



Keynes y sus seguidores pusieron énfasis en que la economía no siempre camina por senderos de alta racionalidad y que por ejemplo muchas veces se dan situaciones de pánico colectivo que implican parálisis de inversión y consumo, aún ante condiciones que deberían permitir a “hombres racionales” volver a una situación de equilibrio, o sea a salir de la crisis. Sus postulados entonces se hicieron famosos durante la crisis mundial del ’30, como ya dijimos, cuando el Estado tuvo que salir a suplir la falta de iniciativa privada (consumo e inversión privada) con iniciativa pública (gasto público) para que el mundo volviera al crecimiento, postulados que también se han corroborado como bastante acertados en innumerables situaciones en décadas posteriores, donde ciertas economías nacionales cayeron en situaciones de desequilibrio prolongado (recesión, depresión, estanflación, etc.) y no se recuperaron fácil (caso Japón en los ‘90, etc.).

En una palabra, detrás del pensamiento keynesiano y sus ramificaciones subyace la idea de que los individuos y las empresas no son 100% maximizadores en cuanto a sus decisiones de índole económica, por distintas y discutibles razones, pero no siempre maximizadores. Lamentablemente, Keynes (y otros posteriores que criticaron la racionalidad neoclásica como Hutchinson y el premio nobel Simon, entre otros muy pocos) escribió en una época donde las neurociencias no mostraban los avances que hoy muestran, que incluso ya han permitido el surgimiento de lo que algunos teóricos llaman neuroeconomía, rama de la ciencia económica que trata de buscar explicaciones a la toma de decisiones en función del estudio del funcionamiento del cerebro humano, que tiene un alto componente emocional además de su conocido componente racional-optimizador.

Y si bien es irrefutable que la escasez de recursos obliga a los seres humanos a tender hacia la maximización de beneficios y/o minimización de costos, y siempre va a ser así -salvo que el hombre cambiara y se volviera una persona que se conformara con poco, o que estuviera dispuesto a compartir todo con su prójimo, lo que nos acercaría al hombre pronosticado por Marx (y por los socialistas utópicos) en su pronosticado “fin de la historia”-, la neuroeconomía de a poco está mostrando que el ser humano es maximizador sólo “a grandes rasgos”, o en forma limitada al decir de Simon; es decir los es sólo en términos relativos, no absolutos. Es decir hoy está cada vez más claro, a partir de la ayuda de las neurociencias, que el ser humano no siempre maximiza beneficios y / o minimiza costos en sus decisiones económicas, y por lo tanto el basamento fundamental con el que se construyen todos los modelos económicos estaría empezando a relativizarse. Es más, modernas investigaciones en neuromarketing por ejemplo, ilustran casos donde las personas se comportan en forma contraria a lo que pronostica la teoría de la demanda neoclásica.

Y si bien la aplicación de la neurociencias a la economía pareciera que aún “está en pañales”, en el marketing ha avanzado un poco más, de hecho estos avances en neuromarketing son un buen indicio de lo que puede llegar a venirse en neuroeconomía. Un buen ejemplo lo da un pensador influyente en el tema neuromarketing, el argentino Nestor Braidot, cuyas recomendaciones para empresarios, basadas en los modernos estudios científicos que vienen de las neurociencias, son útiles para mostrar el posible cambio de paradigma que se viene dentro del pensamiento económico dominante. Dice Braidot: “las neurociencias han demostrado que la decisión que impulsa una compra no es un proceso racional, sino que en la mayoría de los casos es relativamente automática y deriva de fuerzas metaconscientes”, o sea nos está diciendo que la gente incorpora muchas más cuestiones a la decisión de compra que el simple análisis costo-beneficio que usamos en micro y ahora también en macroeconomía (por esto de los fundamentos micro), cuestiones irracionales que obviamente el hombre no calcula pero que también deberíamos incluir en los modelos teóricos, para que predigan mejor. Es decir, a la vista de los postulados de Braidot para el marketing, se podría deducir que, en economía, por lo menos las funciones de demanda micro y de consumo de los modelos macro, derivadas estas últimas bajo los supuestos micro, estarían fuertemente sesgadas en su poder predictivo. Casi nada!!

2. Sobre cómo decide el ser humano real, no el de la teoría económica

Recientes investigaciones en el campo de las neurociencias nos indican que, al contrario de lo que la mayoría de las personas cree, la carga emocional que subyace a nuestro proceso de toma de decisiones es muy alta; de hecho hoy, ningún campo científico puede analizar seriamente la toma de decisiones humana si no considera la interacción de ambos sistemas en nuestra manera de actuar: el deliberativo y por sobre todas las cosas el emocional.

Para decirlo más fácil, nuestras decisiones económicas parece no estarían basadas en los fríos cálculos costo-beneficio optimizadores que la teoría económica sugiere, sino mas bien en una mezcla importante de tensiones emocionales y deliberativas, que se retroalimentan mutuamente, y que necesitan encontrar un equilibrio conjunto (o una optimización conjunta), pero con las restricciones emocionales actuando primero y condicionando fuertemente todo el proceso decisional, lo que ha llevado a algunos estudiosos del tema a decir que el ser humano no sería racional sino “irracionalmente racional”, o en palabras de Simon, de “racionalidad limitada”.

Y para decirlo en términos de neurociencias, la parte más racional de nuestro cerebro (la de los cálculos costo-beneficio) es la más nueva evolutivamente hablando, la corteza (cortex o cerebro pensante), es decir nuestra “parte consciente”;pero la misma no actúa sola al decidir, como sugieren los modelos optimizadores en economía, sino que está fuertemente influida y condicionada por las “áreas inconscientes” de nuestro cerebro (sistema límbico), que cumplen, entre otras tareas, varias funciones relacionadas con lo “emocional”. Entre dichas áreas límbicas encontramos la amígdala, la ínsula, el tálamo, el hipotálamo, el hipocampo, entre otras. A continuación, analizamos brevemente tanto el área pensante (cortex) como otras más emocionales.

  1. Corteza Órbito-frontal: es la parte más “racional” del cerebro, se encuentra apenas encima de los ojos, y se muestra en la figura de abajo en rosado. La misma, al ser eminentemente racional y calculadora, es una importante región para el planeamiento y el control de los impulsos.



  1. Cíngulo: en amarillo en la figura, es un área usada para "control cognitivo" o para "funciones ejecutivas". Por ejemplo cuando tratamos de inhibir una respuesta natural, el cíngulo está activo.
  2. Corteza Somato-sensorial: mostrada en verde, mantiene un mapa sensorial del cuerpo en su totalidad y se ocupa de la integración sensorial-motora.
  3. Amígdala: integrante del sistema límbico, en anaranjado, es una de las áreas emocionales más importantes del cerebro, en lo que hace a los miedos y temores. Por ejemplo cuando escuchamos en la calle un sonido del tipo de un “fuerte disparo”, la amígdala inmediatamente irrumpe en acción, enviando información neurotransmitida hacia otras áreas cerebrales como el tálamo, el estriato (un área importante en la predicción de recompensas) y la corteza frontal. Esta área es una especie de “perro guardián” que reacciona muy, muy rápido ante cualquier peligro, pero es demasiado “tonta” como para distinguir qué grado de peligro realmente hay (esta es la tarea de la corteza, la parte más racional dijimos). Entonces, cuando alguien escucha un sonido parecido a un “fuerte disparo”, manifiesta una reacción física instantánea, gracias a la activación de amígdala, pero un par de segundos después la corteza empieza a averiguar si el sonido es realmente un disparo de arma de fuego o algo parecido más inofensivo, como por ejemplo el ruido de un auto en malas condiciones de andar.
  4. Ínsula: en morado, se encuentra entre los lóbulos frontal y temporal del cerebro. Se ha demostrado que ciertas zonas de la ínsula juegan un importante papel en la experiencia del dolor y la experiencia de un gran número de emociones básicas, incluyendo odio, miedo, disgusto, felicidad y tristeza.

Otras áreas límbicas, no incluidas en nuestros gráficos, son:

  1. Tálamo: especie de retransmisor que dirige la información que se recibe hacia las zonas del cerebro correspondientes para ser procesadas.
  2. Hipotálamo: compleja estructura cerebral compuesta por muchos núcleos con varias funciones, como ser la regulación de los órganos internos, el monitoreo de la información, la regulación del sueño y del apetito, etc.
  3. Hipocampo: cumple una función muy importante en la memoria a largo plazo, así como en el aprendizaje y la emoción.

3. ¿Qué implican estos nuevos descubrimientos en neurociencias?

En el campo de la economía, realmente mucho. El saber tradicional en nuestra ciencia se podría resumir en la siguiente frase, que el notable teórico Jevons escribió alguna vez (siglo XIX), con cierta resignación:

“I hesitate to say that men will ever have the means of measuring directly the feelings of the human heart.”

Es decir, de esta frase se desprende que Jevons y muchos de los demás neoclásicos de los que hablamos al principio, tomaron la premisa hiper-racional, ultra-optimizadora y utilitarista de la conducta humana no sólo por la comodidad científica de poder matematizarla con facilidad (gracias al análisis matemático), sino también por la imposibilidad científica de medir lo emocional en el ser humano.

Pero por suerte, hoy podemos decir que Jevons se equivocó y las modernas neurociencias (principios del siglo XXI) sí pueden medir lo emocional al momento de tomar decisiones -a través de las técnicas de neuroimaging, entre otras-, descubriendo entre otras cosas, lo siguiente1:

  1. “Los últimos avances de las neurociencias han demostrado que la toma de decisiones de consumo no es un proceso racional. Es decir, los clientes no examinan conscientemente los atributos de un producto o servicio para adquirirlo”.
  2. “En la mayoría de los casos, el proceso de selección es relativamente automático y deriva de hábitos y otras fuerzas metaconscientes, entre las cuales gravitan la propia historia, la personalidad, las características neurofisiológicas y el contexto físico y social que nos rodea”.
  3. “Según los científicos, las zonas del cerebro de la racionalidad no pueden funcionar aisladas de las zonas de regulación biológica-emocional. Los dos sistemas se comunican y afectan la conducta en forma conjunta, y consecuentemente, el comportamiento de las personas”.
  4. “Más aún, el sistema emocional (la zona más antigua del cerebro) es la primera fuerza que actúa sobre los procesos mentales, por lo tanto determina el rumbo de las decisiones”.
  5. La fragancia de un perfume, por ejemplo, puede evocar distintas sensaciones. Si el cliente la asocia con experiencias dolorosas o con una persona con la que no simpatiza, es muy probable que no lo compre, aún cuando la relación precio-calidad-marca sea razonable”.

O sea, como vemos, la influencia de la emocionalidad en nuestra toma de decisiones económicas es tan grande que hace que las mismas se alejen bastante del costo-beneficio tipo calculadora humana, y que sólo puedan ser consideradas “óptimas” en forma limitada (muy limitada en mi opinión) como dice el premio nóbel Simon; algo así como “intentos” por maximizar y optimizar, pero incluyendo lo emocional en dicho cálculo, si se le puede llamar cálculo. Por ejemplo, el caso anterior del perfume, sería el de una decisión óptima a lo Simon, no a lo Pareto, ya que la persona no maximiza su utilidad sujeta sólo a su ingreso escaso y sus gustos (mirando objetivamente la calidad del producto), sino también sujeta a una variable emocional (los recuerdos que el producto le trae), y alcanza un equilibrio quizás no óptimo en la visión tradicional, pero que a ella sí la deja en equilibrio, balanceando tanto sus restricciones deliberativas (o racionales) como también las emocionales (o irracionales).

Veamos ahora una modelización neuroeconómica de la toma de decisiones, que nos sugiere como maximizar lo racional y lo emocional a la vez, para entender la conducta real de los agentes económicos, no la de la teoría. Por ejemplo, Loewestein y O’Donoghue (el primero de ellos uno de los neuroeconomistas con más predicamento en la actualidad) en un trabajo reciente2, plantean en su modelo matemático tanto el sistema deliberativo como el emocional, ya que ambos subyacen a la conducta económica decisional, y suponen que el ser humano enfrenta una función a minimizar, que es el costo de su comportamiento. Una parte del costo es la diferencia entre lo que el sistema deliberativo desea y lo que obtiene en última instancia (en su lucha con el sistema emocional) y la otra parte del costo es el esfuerzo que debe hacer el sistema deliberativo para torcer el impulso de actuar de determinada manera (que viene del sistema emocional).

(1) [U(xD, c(s), a(s)) - U(xA, c(s), a(s))]  +  h(W,σ)[M(aA, a(s) - M (x, a(s))]



donde U es una función de utilidad, x el curso de acción elegido, de un conjunto X, los supraíndices D y A indican las conductas óptimas para los sistemas deliberativo y afectivo respectivamente, s  es un vector de estímulos, y a(s) y c(s) son los vectores de estados de los sistemas afectivo y deliberativo respectivamente relacionados con esos estímulos, h es el esfuerzo necesario para corregir el deseo que proviene del sistema afectivo, función del poder de la voluntad, W y de elementos que la debilitan, σ, y M son los cursos de acción del sistema afectivo.

Este modelo nos dice que el sistema deliberativo está sujeto a dos fuerzas: una proveniente del propio sistema deliberativo y otra del sistema afectivo. Si el primero primara totalmente sobre el segundo, la conducta seguida sería xD, y si primara solamente el afectivo la conducta sería xA. Sin embargo, lo que ocurre generalmente (pero no siempre) es que se llega a un punto intermedio entre ambas posiciones extremas. Y luego de aplicar este modelo a tres problemas diferentes: la preferencia intertemporal, el comportamiento ante el riesgo y el altruismo, llegan a la conclusión de que el sistema afectivo comparte la regulación de la conducta con el sistema deliberativo, y que las conductas totalmente racionales, derivadas del sistema deliberativo no siempre son las que encontramos en la realidad, como en el ejemplo del perfume.

Y esta es la dirección que creemos debería tomar la modelización en economía, la de considerar la maximización de ambos sistemas, no sólo del deliberativo (la parte racional, la única capaz de calcular costo-beneficio). Quizás en algunos años veamos muchos más modelos de este tipo, seguramente más refinados, tanto a nivel micro como en aquellos que fundamentan a la macro.

4. Una posible cambio de paradigma si los hallazgos de las neurociencias se aplicaran a la teoría económica

Las enseñanzas que las neurociencias están dando al marketing (neuromarketing) podrían ser aprovechadas por los economistas teóricos para fundamentar mejor las funciones de demanda micro y de consumo macro, incorporando en los desarrollos tradicionales variables al estilo del modelo de Loewestein y O’Donoghue visto recién, que permitan modelizar seres más humanos que los ultra-maximizadores usualmente supuestos por la teoría.

Y así como en sus épocas, la Escuela Neoclásica entendió que había que “parar con la mera especulación sin fundamentos científicos”, posibilitando el auge de la economía como ciencia, ahora quizás sea hora que la Escuela de la Neuroeconomía, si así se la puede llamar, diga “paremos un poco con tanta maximización y ultra-racionalidad y pongámonos a modelizar también la irracionalidad / emocionalidad del ser humano, que las neurociencias están mostrando que es muy importante para explicar la conducta humana”. Probablemente, la ya complicada tarea de científico de la economía (por la matemática compleja que hoy se usa) se va a complicar aún más, pero en otro sentido y con un debate que se va a enriquecer y lo que es mejor, las políticas económicas, basadas en dichos modelos, quizás sean más acertadas. Y hasta quizás se daría en la ciencia económica un cambio de paradigma, pasando del hoy vigente (neoclásico) a uno probablemente llamado neuroeconómico, aunque ésto ya es más difícil.

1- Extraído de: Braidot, Nestor, artículo en Revista “Entorno Económico”, Mendoza, Argentina, febrero 2006

2- Loewenstein, G. y O’Donoghue, T. (2004). “Animal Spirits: Affective and Deliberative Influences on Economic Behavior”. Working Paper.

Crisis Hipotecaria: Causas y Efectos

Una breve revisión de fundamentos



por Walter Morales Carrasco

Se dice en Wall Street que cada diez años hay un día negro para la bolsa. Por increíble que parezca, las últimas 3 veces(30 años) se ha venido cumpliendo aproximadamente así. Y cada vez que sucede, resulta ser indicativo de que algo puede andar mal en el comportamiento de los mercados financieros.

Y dado que éstos últimos son parte esencial de los sistemas actuales, éstas situaciones se encuentran en gran medida relacionadas a lo que la teoría macroeconómica refiere como ciclos económicos, los cuales se refieren a las fluctuaciones que experimentan las economías de tiempo en tiempo, pasando de periodos de expansión y crecimiento a desaceleraciones y contracciones.


La anterior vez fue en Octubre de 1997 –diez años después de que se dieran también sucesos de crisis-, con el inicio de la crisis asiática y obviamente de la transmisión de efectos en las bolsas. Entre finales de Octubre(comenzando con el “lunes negro” del día 28) y principios de Noviembre, tanto el índice industrial Dow Jones, como el electrónico Nasdaq, reportaban históricas caídas de 7%, las cuales representaron las mayores de la Bolsa de Nueva York. Y así sucesivamente, ésto se expandió a otros centros bursátiles: Europa y rebotando nuevamente a Japón, China y el Sudeste Asiático, donde había tenido su origen inicial.

Recientemente, desde mediados de agosto de 2007, curiosamente 10 años después del último incidente, se desató lo que se venia percibiendo. Dada la sobrevaloración de activos, altos precios de viviendas y commodities, entre otros temas menores, explotó una de las burbujas que se había creado: el mercado inmobiliario.

Pero, a dónde se remontan sus orígenes y cuál la causa fundamental para el crecimiento que venimos experimentado en los últimos años?


Luego de la crisis sucedida a finales de los ´90, que trajo consigo quiebras de empresas, personas y graves problemas para los gobiernos, principalmente los más desarrollados y países emergentes sucedió algo que más tarde influiría en forma decisiva. Precisamente, éstos gobiernos, con sus Bancos Centrales, decidieron darle impulso a sus economías a través de una serie de medidas fiscales -incremento del gasto público-, y sobre todo monetarias, con inyecciones de liquidez, facilidades crediticias1 y disminución de tasas de interés2, con el objeto de estimular el crecimiento de los sectores golpeados. Y fueron, precisamente éstas bajas tasas las que incentivaron a los tomadores de créditos, a endeudarse, generar mayor liquidez, y a la búsqueda de instrumentos alternativos en qué invertir para obtener aún mayores ganancias.

Es así, que uno de los sectores que más se vio beneficiado fue el de la vivienda. Al existir mayor actividad, se dio un boom de construcciones y demanda de casas, principalmente para hacer negocios, dado que en un periodo de 3-4 meses, entre compra y venta, se podían generar ganancias de hasta 40%. En éste sentido, una vivienda que inicialmente costaba por ejemplo USD. 250 mil, fácilmente podía ser vendida un tiempo después entre USD. 300 mil y USD. 350 mil. Para éste fin, los bancos otorgaban préstamos hipotecarios de alto riesgo(también llamados subprime3) a diestra y siniestra con amplias facilidades y con iniciales tasas fijas. Prácticamente todos podían acceder a créditos. Obviamente los bancos incrementaron sus carteras y devengaron jugosos ingresos por los volúmenes colocados.

Adicionalmente, otra oportunidad que se generó –o que también generaron los propios bancos- con sus divisiones o filiales de inversión a nivel internacional, fue la titularización o securitización de éstas carteras, al empaquetarlas y venderlas en forma de instrumentos de renta fija a los inversores, lo que les permitió adelantar ingresos y traspasar riesgos en gran medida. Los compradores, muchas veces ellos mismos, o en otros casos, sobre todo, inversores institucionales como fondos de pensiones, fondos mutuos y hedge funds, éstos últimos con mayor propensión al riesgo en busca de retornos todavía mayores, que apalancaban aún más otras inversiones y continuaban atizando el fuego de los mercados.

Sin embargo, cuando comenzó a enfriarse la economía y a ajustarse las tasas variables -previstas en los contratos de préstamo- o sea a incrementarse, sumado a una disminución de los precios de las propias viviendas, por la demanda contraída, se empezó a generar un círculo vicioso de impago-ejecución-remate y, nuevamente, más casas en oferta.

En éste sentido, la mayoría de los Grupos Financieros (Bancos) internacionales, y sobre todo los más reconocidos como Citigroup, Merrill Lynch4, JP Morgan e incluso los suizos Credit Suisse´s y UBS, reconocidos por su prudencia y gestión del riesgo, han tenido que ver afectados sus resultados con elevadas previsiones e incluso pérdidas directas, estimándose, hasta el momento, un impacto de USD. 146,000 millones.

El efecto directo que tiene ésto, aparte de la inestabilidad generada en las bolsas, es la reducción de recursos para préstamos. Cabe recordar que las previsiones son un egreso contable como medida de prudencia hasta que se materialice una pérdida estimada. En ambos casos, las pérdidas van contra el capital de la institución financiera, limitando su capacidad de otorgar nuevos créditos, con lo cual se incrementan los costos financieros a los cuales se acceden.

Por lo tanto, en la medida que su efecto se extienda, lo que se obtiene como resultado final es contraer la economía. Algunos todavía dirán, sí, pero el último resultado trimestral de la actividad norteamericana alcanza a 2.8%, no muy alejado de su nivel potencial. Evidente, pero al respecto hay que puntualizar dos aspectos.

1- Resulta importante recordar que las variables macroeconómicas actúan con retardo o rezago, ésto quiere decir que el ajuste de ciertas medidas o sucesos, se dá en el tiempo, no es inmediato ni en tiempo real5. A éste fenómeno se conoce como intertemporalidad.

2- Relacionado con lo anterior, los Bancos Centrales de los países más afectados(en principio y que son los más grandes) ya inyectaron alrededor de USD. 900,000 millones en liquidez a los mercados y la señal más clara, en lo que va del año, la Reserva Federal norteamericana ha rebajado en dos oportunidades su tasa interbancaria en 125 puntos básicos, tratando de alentar para que no se apague completamente el fuego. Cabe esperar que sea prudente ésta vez y permita un ajuste gradual sin forzar o encubrir las cosas que el mercado también debería resolver.

Pero, cual podría ser el efecto en América Latina?

Dada la tendencia a la baja de tasas en EE.UU. y Europa pero también bajas y estables todavía en Japón, como también por el comportamiento depreciador del dólar, cabría esperar que los inversionistas busquen alternativas más rentables en los mercados emergentes y de la región, ante lo cual, sería importante contar con una buena imagen6 hacía afuera para captar algo de lo que podría venir. Por otro lado, dado lo anterior con políticas de apreciación de nuestras monedas locales, las exportaciones se estarían viendo afectadas. Y más aún por la preponderancia que tienen, dado que explican significativos porcentajes del PIB. Ojalá que los gobiernos estén evaluando debidamente nuestros tipos de cambio reales para no afectar la competitividad de éstas o caso contrario ver alternativas de mitigación de su impacto y que la ola nos encuentre debidamente preparados.

Walter Morales Carrasco

Ingeniero, con Maestría en Finanzas

Febrero de 2008

(1) Pese a que luego de las quiebras de mercados, principalmente asiáticos por su extrema falta de prudencia para colocaciones crediticias, se implementaron las medidas y desarrollos de Basilea que vinieron a constituirse en un aporte fundamental para las evaluaciones de riesgos a los cuales están expuestas las instituciones financieras.

(2) La Reserva Federal de EE.UU llegó recortar su tasa de descuento para bancos hasta el 1% en 2004. Su nivel más bajo en 45 años.

(3) Debido a su inferior calidad crediticia y elevada probabilidad de pérdida. Obviamente pagan(cuando efectivamente lo hacen) mayores intereses.

(4) Que ha tenido que reportar el peor resultado de su historia, iniciada en 1914.

(5) Dado que los agentes económicos deben procesar y evaluar la información que van recibiendo.

(6) Lo que implica aspectos cruciales como Seguridad Jurídica, Instituciones Transparentes, Estabilidad Macroeconómica, Infraestructura y Comunicaciones.

Páginas

Subscribe to RSS - Artículos