Econometría

Software para Economistas

Software para economistas son programas informáticos, lenguajes de programación o plataformas de cómputo que se utilizan principalmente para realizar análisis estadístico y para elaborar informes y documentos. Algunos de los software mas usados son STATA, Eviews y SPSS, además de aplicaciones de oficina y programas para la elaboración de documentos.


La economía moderna requiere cada vez mas manipulación de datos y la modelación de relaciones funcionales. La programación es una habilidad cada vez mas requerida en los economistas. Muchos de los programas o software mencionados en este artículo son lenguajes de programación en sí mismos: requieren saber programación en general, y saber usar el lenguaje en particular. Otros, como SPSS, pueden ser usados sin saber programación, por lo que pueden resultar mas fáciles, aunque menos poderosos.

En este artículo no cubrimos en profundidad software de oficina como MS-Word, Excel y lectores y editores de PDF, porque la mayoría de nosotros ya sabemos para qué sirve este tipo de programas y sus características.

Economistas usan software principalmente para:


  • Realizar análisis estadístico y econométrico.
  • Para elaborar documentos y papers.
  • Para realizar álgebra.

Los elementos mas importantes, además de su capacidad para realizar las tareas para los que son usados, a la hora de definir qué software usar son las siguientes:

  • Convención: mientras mas colegas usan el mismo software, es mas fácil compartir el código y obtener ayuda. Al mismo tiempo, si se trabaja en equipo, se pueden obtener licencias a un menor precio cuando se compran varias al mismo tiempo.
  • Precio: existen programas gratuitos y de código abierto, que son gratis, y programas de código cerrado que tienen un precio, en algunos casos elevado. En estos casos, el precio puede ser un factor importante a la hora de elegir qué programa usar.
  • Inercia: en muchos casos los economistas aprenden a usar un programa en la universidad y luego siguen usando ese programa en su ámbito laboral. Las universidades siguen enseñando a usar el mismo software a sus alumnos y por economías de red, el sofware se sigue usando.

Software para análisis estadístico y econométrico usados por economistas



  • STATA: es un programa muy usado para realizar análisis econométrico. Es fácil de usar y ya tiene varios años de trayectoria, por lo que muchos lo usan por inercia. En los últimos años ha tenido cierto crecimiento en ciertas organizaciones que se han mudado desde SPSS a STATA. Para usarlo hay que adquirir una licencia. Puede manejar grandes datasets.
  • Eviews: es un software muy usado para analizar series de tiempo, pero es capaz de realizar diversos análisis estadísticos. Al igual que STATA, Eviews es relativamente fácil de usar, aunque puede ser un poco complicado importar los datos a Eviews.
  • SAS: SAS es un sistema comercial relativamente caro. Es muy usado en la industria, especialmente en Estados Unidos. En el ámbito farmacéutico, por ejemplo, SAS es el mas utilizado. SAS es bueno para manejar grandes cantidades de datos.
  • SPSS: Es un progama muy usado en todas las ciencias sociales y es fácil de usar. Tiene una interfaz de usuario que con unos pocos clicks permite realizar análisis estadísticos convencionales. Por ejemplo, regresiones lineales y análisis de ANOVA se pueden hacer en pocos minutos. Los resultados son detallados y los gráficos son aceptables. SPSS no es muy bueno manejando grandes bases de datos.
  • R: R y Python son lenguajes de programación de código abierto. Al ser lenguajes de programación sin una interfaz gráfica, tienen una curva de aprendizaje mucho mas elevada, pero una vez aprendidos, pueden tener mas flexibilidad a la hora de desarrollar programas específicos, aunque no todos los economistas necesitan desarrollar programas. R es excelente para realizar predicciones y el análisis de datos, fue creado específicamente para el análisis estadístico. Algunos usuarios se quejan de la capacidad de R para analizar grandes bases de datos. Los gráficos elaborados con R son de excelente calidad.
  • Python: Python es un lenguaje de propósito general de código abierto. Con el tiempo, usuarios desarrollaron librerías de uso específico, por ejemplo Python Pandas y Numpy, que sirven para analizar datos. Python puede gestionar y analizar grandes datasets con relativa facilidad, en este sentido es mejor que R. Python puede ser mas difícil de aprender que SPSS y SAS, en especial si no se tiene experiencia con lenguajes de programación. Python y R todavía no son muy usados por economistas, pero están creciendo rápidamente a medida que sus librerías se mejoran y a medida que mas usuarios aprenden a usarlos.

Software para realizar álgebra y matemática usados por economistas

Este tipo de software no es tan utilizado, dado que muy pocos economistas deben realizar álgebra y análisis matemático. Para este tipo de tareas, los programas mas usados son:

  • Mathematica: es muy caro. Se trata de un software poderoso pero difícil de aprender.
  • Matlab: usado para manipulaciones de matrices, gráficos de funciones y datos. También puede hacer simulaciones de Monte Carlo. Una alternativa a Matlab, pero libre, es GNU Octave.

Software para elaborar documentos

Muchos economistas deben elaborar reportes y enviar papers para ser publicados. Estos programas permiten elaborar documentos, principalmente usando LaTex. LaTex es un sistema para elaborar documentos que permite trabajar con ecuaciones matemáticas.

Algunos de los software mas usados por economistas para este tipo de tareas son:

  • TexMaker
  • TEXstudio
  • LYX
  • Texmaker
  • Adobe Acrobat (no para LaTex, solo para elaborar PDFs)
  • MS-Word y su alternativa libre, LibreOffice

Software para Análisis Estadístico

Todos amamos las comparaciones! Antes de comprar un teléfono, averiguamos si es mejor Samsung o Apple. Antes de comprar un viaje, averiguamos sobre el destino. Pues bien, antes de aprender a usar un programa de estadística, es necesario investigar a fondo las distintas alternativas. Mas teniendo en cuenta que para poder usar uno de estos programas de manera mas o menos eficiente, necesitaremos varios meses de práctica. Además, la elección de uno u otro podrá influir de manera decisiva en nuestra futura carrera como profesionales.


En este artículo me enfocaré en los siguientes cuatro programas o lenguajes de programación:

- Python

- R

- SPSS

- SAS

Si bien existen mas programas, como Matlab, eViews y Stata, considero que estos son los cuatro mas importantes en este momento, y los que mas demanda tienen en general. En particular, uso profesionalmente Python y R. Anteriormente usé SPSS y muy poco SAS, por lo que mi experiencia con estos dos últimos es mas limitada, aunque para escribir este artículo realicé algunas consultas a profesionales con mas experiencia en los mismos.

Con la gran cantidad de datos disponibles y el auge de data science, actualmente los profesionales relacionados con la estadística deben saber utilizar de manera prolífica al menos uno de estos sistemas, aunque quienes se especialicen en el análisis de datos deben poder manejar dos de estos o mas, uno de los cuales debe ser Python o R, y es necesario tener conocimiento de SQL.


Suficiente introducción, vamos a ver cual es el mejor! Momento, no tan rápido, cada uno tiene sus pro y sus contra, por lo que deberás tomar la decisión vos mismo.

Python y R son lenguajes de programación de código abierto, mientras que SPSS y SAS son sistemas propietarios comerciales de código cerrado. Para usar SPSS y SAS es necesario comprar una licencia.

Como Python y R son gratuitos y de código abierto, cualquiera puede usarlos de manera profesional sin pagar nada. Esto hace que estén creciendo muy rápido y que cualquier programador puede desarrollar librerías para usar en los mismos. Ambos cuentan con una amplia comunidad dispuesta a ayudar en sitios como Stackoverflow. Comunidades de científicos de datos, como Kaggle, usan Python y R para sus proyectos.


SPSS y SAS no tienen comunidades de usuarios tan grandes, pero sí tienen soporte oficial de los proveedores. Esto puede ser útil para grandes empresas. Si bien la mayoría de los usuarios de Python y R no necesitan este tipo de soporte, ante una duda o problema, además de las comunidades online, existen empresas y profesionales dedicadas a brindar soporte para Python y R.

Python para Estadística

Python es un lenguaje de programación creado por un chico de holanda llamado Guido van Rossum. Guido quiso crear un lenguaje que sea fácil de aprender y poderoso al mismo tiempo. Python es relativamente fácil de aprender, si lo comparamos con otros lenguajes como C. Python es un lenguaje de programación de propósito general. La versión 0.9.0 de Python fue lanzada en 1991.

Al ser un lenguaje de programación de propósito general, Python es usado en muchos programas de PC, en sitios web y juegos. Si bien no fue creado específicamente para estadística, programadores comenzaron a crear librerías para el análisis estadístico con Python. Algunas de las mas conocidas son Pandas, Numpy, Matplotlib, SciPy y scikit-learn.

Python puede gestionar y analizar grandes datasets con relativa facilidad, en este sentido es mejor que R y SPSS. SAS es también de analizar bases de datos de gran tamaño.

Otro punto donde Python tiene mucha ventaja sobre el resto es en data mining y machine learning. Las librerías de Python para este tipo de tareas son mejores a las del resto. Además, Python se implementa en sistemas de producción, como predicciones en tiempo real.

Python puede ser mas difícil de aprender que SPSS y SAS, en especial si no se tiene experiencia con lenguajes de programación.

R

R es un lenguaje de programación creado en la Universidad de Auckland. R fue creado específicamente para analizar datos. Es excelente para realizar predicciones y el análisis de datos.

Al ser de código abierto, R también cuenta con muchas librerías que mejoraron el lenguaje inicial. En los últimos años, librerías como dplyr han hecho que R gane en facilidad de uso y adopción. Muchos consideran que actualmente R es mejor que Python en algunos aspectos, especialmente en estadística descriptiva. ggplot2 es otra excelente librería para crear gráficos y visualizaciones.

Tanto R como Python pueden importar datos de SAS y SPSS.

SAS

SAS es un sistema comercial relativamente caro. Es muy usado en la industria, especialmente en Estados Unidos. En el ámbito farmacéutico, por ejemplo, SAS es el mas utilizado.

SAS fue creado en la Universidad de Carolina del Norte, como una herramienta para analizar grandes datasets de datos de la agricultura. La del mismo demanda aumentó y en 1976 se fundó la empresa SAS.

SAS tiene mucha mas historia que Python y R y por lo tanto existe una gran cantidad de usuarios del mismo. Muchas empresas vienen usando SAS desde hace tiempo y por lo tanto van a seguir usando SAS por muchos años mas, por inercia.

Por esto, especialmente en Estados Unidos, existe una demanda relativamente continua de analista de datos que manejen SAS.

SAS es caro, pero este costo es relativamente bajo para empresas de gran envergadura. Si deseas aprender SAS, existe una versión llamada University Edition, que se ejecuta en una virtual machine y se debe usar con un navegador como Firefox. Esta versión es para uso académico y no comercial.

SPSS

SPSS significa Statistical Package for Social Science y como su nombre lo indica es muy usado en las ciencias sociales, como economía y psicología. Fue desarrollado en 1968 en Standford. IBM compró SPSS en 2009.

SPSS es muy utilizado en universidades y en el ámbito académico, pero no tanto en el sector privado. Como es mucho mas fácil de usar que Python y R, también es usado por muchos estudiantes.

Tiene una interfaz de usuario que con unos pocos clicks permite realizar análisis estadísticos convencionales, con una fracción del tiempo que requeriría realizar el mismo análisis en R y Python. Por ejemplo, regresiones lineales y análisis de ANOVA se pueden hacer en pocos minutos. Los resultados son detallados y los gráficos son aceptables.

SPSS no es muy bueno manejando grandes bases de datos.

Algunas conclusiones

Si eres un investigador de alguna ciencia social y no planeas especializarte en el análisis de datos, SPSS puede ser una opción. Aquellos que quieran trabajar en una industria específica o en Estados Unidos, pueden considerar aprender SAS.

El crecimiento de Python y R ha sido fenomenal en los últimos años, por lo que el futuro de estos dos lenguajes es excelente. Las librerías se vienen mejorando rápidamente. En ciertos aspectos, R supera a Python y en otros como Machine Learning, Python supera a R. Aunque ambos se complementan mutuamente, porque cada uno toma ideas del otro.

En el siguiente gráfico presento los resultados de una encuesta de ButchWorks (consultora) entre mas de mil analistas de datos y científicos de datos de Estados Unidos, en la que simplemente preguntan qué lenguaje prefieren. Podemos ver que con el tiempo, SAS está cayendo en desuso mientras que Python está creciendo rápidamente.

Cabe resaltar que esta encuesta es general, por lo tanto no se refiere a ningún sector en particular. Probablemente en el ámbito corporativo y entre los seniors, SAS supere al resto, mientras que en la academia R (y SPSS) sea mas popular que Python. Sin embargo, la tendencia en general es al crecimiento de Python.

Existen muchos analistas de datos que utilizan estos dos programas, generalmente Python para la preparación y limpieza de datos y R para el análisis. Personalmente tuve algunos inconvenientes con R al analizar grandes bases de datos y también con Python con algunos análisis estadísticos para los que no tenía librerías disponibles, para los cuales tuve que usar R.

Si planeas buscar empleo como data scientist o analista de datos, también deberás conocer SQL.

Ley de Goodhart

La Ley de Goodhart indica que las personas pueden anticipar los efectos de una política cuando evalúan los resultados de sus acciones, y de este modo, tendrán en cuenta la política a la hora de tomar decisiones.


La Ley de Goodhart es un adagio muy importante a la hora de definir políticas económicas o empresariales, como también a la hora de analizar los resultados de esa política. También se conoce como "Dilema de Goodhart".

Cuando la política se enfoca en una sola medida, las personas comienzan a optimizar esa medida en particular. Es decir, ante un cambio en los incentivos, modifican su comportamiento buscando maximizar su beneficio individual. El resultado final puede ser una disminución del bienestar general.

Ejemplos de la Ley de Goodhart



Un buen ejemplo es lo que sucedió en India, cuando ese país estaba bajo control británico. Buscando disminuir la cantidad de serpientes venenosas que andaban sueltas por las calles, el gobierno comenzó a ofrecer dinero a cambio de cada Cobra muerta que se entregue.

En un comienzo, la medida pareció ser exitosa: la gente comenzó a matar cobras y a entregarlas al gobierno. Pero luego de un tiempo, muchos se dieron cuenta que era mas fácil criar cobras que cazarlas. Florecieron criaderos de cobras cuyo negocio consistía en entregar cobras muertas al gobierno, a cambio de dinero.


Cuando el gobierno se dio cuenta de esta estrategia, decidieron eliminar el programa de compensaciones. ¿Adivinas qué pasó cuando el gobierno eliminó el programa? Los criadores de cobras dejaron libres a muchas serpientes. ¡La cantidad de serpientes sueltas en las calles aumentó!

¿Qué lecciones podemos aprender de este caso? Cuando se pone énfasis en una medida a optimizar, las personas pueden manipularla para maximizar cierto objetivo.

La Ley de Goodhart usualmente se conoce de la siguiente manera:

Cuando una medida se convierte en objetivo, deja de ser una buena medida.

Charles Goodhart

Charles Goodhart es un economista británico nacido en 1936. Fue miembro del Comité de Política Monetaria del Banco de Inglaterra y profesor de la London School of Economics. La Ley de Goodhart se hizo popular cuando Goodhart publicó un paper en 1975, que criticaba la política económica de Margaret Thatcher.

Interpretaciones de la Ley de Goodhart

La formulación original de Goodhart era:

Cualquier regularidad estadística observada tenderá a desplomarse una vez se presione para utilizarla con propósitos de control.Goodhart, 1975

La Ley de Goodhart es importante en política económica y en la administración de empresas. La ley está implícita en la idea de las expectativas racionales: las personas son conscientes de las implicaciones de sus acciones y actúan de acuerdo a ellas.

Una hermosa formulación de la Ley de Goodhart es la realizada por Jón Danı́elsson, un economista que enseña en la London School of Economics:

Cualquier relación estadística fracasa cuando se usa como propósito de política. Jón Danı́elsson

Ejemplos de la Ley de Goodhart

- Optimización para buscadores: Durante mucho tiempo, Google usó un sistema llamado PageRank para ordenar los resultados de búsqueda. PageRank usaba los vínculos desde otras páginas como un proxy de la calidad del resultado, y las páginas que tenían mas vínculos subían en las posiciones de los resultados de búsqueda.

Cuando la Ley de Goodhart entró en acción, muchos webmaster comenzaron a intercambiar vínculos entre sus páginas o a crear "granjas" de vínculos, para mejorar sus rankings.

Google cambió su algoritmo para ordenar los resultados. Para evitar que la Ley de Goodhart entre en acción nuevamente, muchos aspectos del algoritmo actual no son públicos.

- Objetivos de Ventas: en muchas empresas de venta, se establecen objetivos a vendedores para aumentar su productividad. Por ejemplo, un vendedor de autos puede obtener un bono de $1000 si vende mas de 20 autos por mes.

Esto puede tener dos consecuencias negativas: cuando se acerca fin de mes, quienes no hayan logrado vender mas de 20 autos se apresurarán para lograr el objetivo haciendo muchas llamadas y ofreciendo descuentos que no habrían ofrecido en circunstancias normales.

También, los que sí hayan logrado vender mas de 20 autos, tendrán menos incentivos para aumentar el número de ventas: cerca de fin de mes preferirán posponer sus ventas hasta que comience el mes siguiente.

Estas estrategias pueden ser perjudiciales para la empresa en su conjunto, a pesar de que pueden ser beneficiosas para cada uno de los vendedores.

- Cupones de Descuento: Cuando empresas ofrecen cupones de descuento regularmente, los clientes pueden retrasar compras para obtener un descuento en el futuro.

- Call Centers: Muchos call centers establecen objetivos de tiempo promedio de llamada, como tres minutos por llamada en promedio. Para cumplir con este objetivo, los operadores pueden apresurarse a terminar sus llamadas mas rápida, lo que implica que en muchos casos la calidad de atención al cliente disminuirá para reducir el tiempo de llamada, en especial, los operadores evitarán llamadas que impliquen largas conversaciones, sin tener en cuenta la importancia de las mismas.

- Notas Escolares y Universitarias: Las calificaciones en los exámenes se usan como proxy de la calidad académica. Estudiantes están memorizando para rendir exámenes con buenas notas en lugar de aprender en profundidad y relacionar contenidos entre diversas materias de estudio.

- Publicaciones Académicas: en el mundo académico muchas veces se tiene en cuenta la cantidad de trabajos publicados en revistas académicas como un indicador de la productividad de un investigador. Los académicos, para lograr que sus trabajos sean publicados, tienen incentivos para manipular sus datos y de este modo lograr significancia estadística en sus investigaciones, por ejemplo, usando sets de datos menores que los originales. Puede existir un sesgo en las publicaciones, dado que los trabajos que no lograron significancia estadística no fueron publicados y no se encuentran disponibles.

Implicaciones para el Análisis de Datos

Cuando un modelo basado en datos del pasado se aplica en el "mundo real", las personas pueden comenzar a cambiar su comportamiento en respuesta a la aplicación del modelo, lo que lo podría invalidar.

En Data Science, la Ley de Goodhart se puede expresar como "El comportamiento puede variar como consecuencia de la presencia del modelo."

Se pueden realizar pruebas para testear la presencia de la Ley de Goodhart. Por ejemplo, se puede verificar si existe un cambio estructural luego de que se haya aplicado el modelo.

¿Cómo superar la Ley de Goodhart?

No existe una solución simple al problema planteado por la Ley de Goodhart. El comportamiento humano es complejo y difícil de modelar.

Una primera opción es usar mejores medidas, que tengan en cuenta múltiples factores.

Cuando no es necesario comunicar explícitamente las recompensas, no hacerlo puede lograr que los agentes no tengan un proxy que optimizar. Las personas usarán el sentido común para optimizar objetivos amplios.

Teniendo en cuenta el comportamiento social de los grupos humanos, para evitar los problemas ocasionados por la Ley de Goodhart, en muchos casos puede ser útil evitar grandes grupos de trabajo y jerarquías. De este modo, se evita la introducción de objetivos o Key Performance Indicators (KPIs o Indicadores Clave de Rendimiento). Los grupos pequeños naturalmente pueden comenzar a optimizar una diversidad de indicadores como medida de su éxito.

Resumen y Conclusiones

La Ley de Goodhart es un fenómeno que se presenta en muchas areas de negocios y científicas. Los hacedores de política, analistas de datos, científicos y administradores deben tener en cuenta la Ley de Goodhart a la hora de diseñar indicadores de rendimiento, y evitar caer en el error de usar recompensas basadas en indicadores cuando la introducción de esta política puede traer consecuencias indeseadas.

Data Science

¿Qué es Data Science?



Data Science es un conjunto de herramientas y disciplinas que se enfocan en convertir gran cantidad de datos en información, que se utilizará para proveer mejores servicios y productos; y general predicciones usando técnicas de aprendizaje automático, llamadas machine learning.



En este artículo vamos a explorar el concept de data science y porqué está en auge en este momento, cual es la diferencia entre data science y econometría y algunas de las herramientas mas utilizadas en data science.


El Crecimiento del Interés en Data Science

El interés en Data Science explotó en los últimos años. Como puedes ver en el siguiente gráfico tomado de Google Trends, la cantidad de búsquedas del término "Data Science" se viene incrementando rápidamente desde 2013, multiplicándose por mas de ocho en cinco años.



Data Science en las Empresas

Grandes empresas como Google, Amazon y Facebook tienen acceso a una gran cantidad de datos de sus usuarios, y usan Data Science para analizar toda esa cantidad de datos. Por ejemplo, Google puede generar mejores resultados de búsqueda mediante técnicas para predecir la intención de búsqueda. También para saber el tema de una imagen.

Facebook usa data science para sugerir amigos, reconocimiento facial y sugerir tags en posts.

Amazon usa data science para detectar revisiones de productos falsas, detectar fraudes, optimizar campañas publicitarias, predecir inventarios, etc.

Las empresas proveedoras de tarjetas de crédito usan data science para prevenir fraudes, detectando anomalías en patrones de compras muchas veces en tiempo real.

Pero no solo gigantes tecnológicos como los recién mencionados utilizan data science: cada vez mas medianas y pequeñas empresas están comenzando a usar data science para comprender mejor los datos a los que tienen acceso. Una reciente encuesta (1) muestra que mas de la mitad de las empresas de Estados Unidos están invirtiendo en Data Science. Esta proporción es aún mayor en los sectores de telecomunicaciones (87%) y servicios financieros (76%).

Demanda Laboral de Data Science

La demanda de científicos de datos está aumentando a pasos agigantados. Las búsquedas de personal especializado en Data Science en LinkedIn está entre los perfiles mas demandados. Desde 2012, la demanda laboral de data science ha aumentando cerca de 650%, sin embargo, el crecimiento de la oferta ha sido mucho menor. Esta discrepancia ocasionó un fuerte aumento de los salarios de los técnicos capacitados en Data Science. (2)

Inversión en Investigación Relacionada con Data Science

Grandes centros de investigación están invirtiendo fuertemente para el desarrollo de Data Science. Además de la inversión de privados, como Google, universidades de Estados Unidos están destinando millones en centros de desarrollo, incluyendo a la Universidad de California Berkeley, la Universidad de Nueva York y la Universidad de Michigan.

¿Qué es Data Science?

Data Science es un conjunto de herramientas, técnicas y disciplinas que se enfocan en convertir grandes cantidades de datos en información útil para explicar la relación entre variables y generar modelos predictivos.

Data Science vs Estadística

Muchos piensan Data Science no es mas que un término de moda para referirse a la econometría o a la estadística aplicada. Por ejemplo, Irving Wladawsky-Berger publicó en el Wall Street Journal, un artículo titulado "¿Porqué Necesitamos Data Science si hemos tenido Estadística por Siglos?".

Por otro lado, otros piensan que la estadística es solo una parte de Data Science, y, según quienes mantienen esta postura, es una parte con poca importancia. Por ejemplo, Andrew Gelman afirma que la estadística es la parte menos importante de Data Science.

Hace mas de 50 años, John Tukey, un prestigioso matemático conocido por sus aportes a la estadística, llamó a una reforma de la forma de enseñar estadística. En su paper "The Future of Data Analysis" (3) menciona la existencia de una todavía no reconocida "ciencia", cuyo interés se centra en aprender de los datos.

Hace mas de una década, investigadores como John Chambers, Bill Cleveland y Leo Breiman, afirmaron de forma independiente que la estadística debe expandirse y poner énfasis en la preparación y presentación de los datos. Enfocarse en la predicción desde el punto de vista práctico y no tanto en la inferencia y el análisis teórico. (4)

Viendo la forma en que se enseña Estadística en las universidades, podemos afirmar que los esfuerzos por hacer de la Estadística una disciplina mas práctica, han fallado. Y quizás esta sea una de las razones por las que hayan surgido confusiones relacionadas al concepto de Data Science en los últimos años.

Data Science, a diferencia de la econometría, se enfoca en enormes cantidades de datos. Para muestras mas pequeñas, la econometría tiene una mayor productividad marginal. Mientras aumenta la cantidad de datos, la productividad marginal de Data Science va aumentando y en aplicaciones específicas, superan a los modelos de la econometría.

La aplicación de Machine Learning, necesita de enormes cantidades de información, pero a priori no requiere de un modelo predictivo establecido, sino que los programas informáticos se encargan de testera miles de combinaciones de variables y parámetros para encontrar el modelo con mayor capacidad predictiva, sin interesarse por la causalidad. En econometría, generalmente, se parte de modelos teóricos establecidos y luego se prueba su capacidad predictiva de acuerdo a los datos disponibles.

Data Science no es Big Data

Esto no significa que "Data Science" sea "Big Data", porque la estadística se ha involucrado desde hace tiempo con el análisis de grandes cantidades de datos.

Data Science no es solo aplicación práctica

En muchas tareas de un científico de datos son necesarios conocimientos técnicos específicos para procesar enormes cantidades de datos eficientemente. Muchos empleos de Data Scientist piden saber cosas muy técnicas, como usar múltiples procesadores simultáneamente, Hadoop, etc.

Sin embargo, estas habilidades son específicas para poder trabajar con las limitaciones impuestas por la tecnología en un período de tiempo determinado. Si bien son necesarias en ciertos puestos de Data Scientist, no representan la definición de Data Science, que permanece a través de los cambios tecnológicos.

Además, cada vez mas trabajos están dividiendo este tipo de tareas hacia Ingenieros de Datos y no a Científicos de Datos. Los primeros se encargan de poner en práctica todos los sistemas para procesar la información.

Entonces... ¿Qué es Data Science?

Para definir el término Data Science es necesario separar todos los términos "de moda" o comerciales acuñados reciéntemente, de lo subyacente y estable a través del tiempo, que están relacionados con buscar explicaciones o respuestas a ciertos fenómenos usando métodos científicos.

Entonces, podemos afirmar que Data Science es la ciencia que estudia como aprender de los datos.

Esta definición tiene muchas implicaciones. En cierto sentido, incluye a muchos aspectos de términos como "Big Data" y también a técnicas específicas, pero también excluye a otros.

El profesor Donoho (4) menciona seis actividades principales de Data Science:

-1 Exploración de Datos

-2 Transformación de Datos

-3 Computos

-4 Modelización

-5 Visualización

-6 Science acerca de Data Science

En la práctica, Data Science usa conocimientos de diversas disciplinas:

Referencias

(1) https://globenewswire.com/news-release/2017/12/20/1267022/0/en/Dresner-Advisory-Services-Publishes-2017-Big-Data-Analytics-Market-Study.html

(2) Fuente: LinkedIn’s 2017 U.S. Emerging Jobs Report https://economicgraph.linkedin.com/research/LinkedIns-2017-US-Emerging-Jobs-Report

(3) http://www.mat.ufrgs.br/~viali/estatistica/mat2274/material/textos/2237638.pdf

(4) David Donoho "50 Years of Data Science"

Método Montecarlo



Autoras:

Castañón Gómez Ana Karen

Martínez Pérez Iris Claudet

Pola Ochoa Hassibi Alejandra

Sánchez Zapata Gabriela Alejandra



RESUMEN

En la actualidad muchas personas no saben ¿Qué es el Método Montecarlo? ¿Cómo se aplica? ¿Para qué sirve? Entre otras interrogantes, pero sin saberlo muchos de ellos lo han aplicado en diversas situaciones de la vida cotidiana.

El método de Monte Carlo en sí, es un método no determinista o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Monte Carlo (Principado de Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un generador simple de números aleatorios. El nombre y el desarrollo sistemático de los métodos de Monte Carlo datan aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la computadora.


ABSTRACT

Today many people know what is the Monte Carlo method? How is it applied? What is? Among other questions, but without knowing many of them have been applied in various situations of everyday life.

The Monte Carlo method itself is not deterministic numerical or statistical method used to approximate complex and expensive mathematical expressions to accurately assess. The method was named in reference to the Casino de Monte Carlo (Monaco) as "the capital of gambling", as the roulette a simple random number generator. The name and the systematic development of Monte Carlo methods dating from about 1944 and greatly improved with the development of the computer.

MÉTODO MONTECARLO

En la actualidad muchas personas no saben ¿Qué es el Método Montecarlo? ¿Cómo se aplica? ¿Para qué sirve? Entre otras interrogantes, pero sin saberlo muchos de ellos lo han aplicado en diversas situaciones de la vida cotidiana.

Para comprender más acerca del método Montecarlo y su aplicación es indispensable conocer que es la administración de riesgos la teoría presentada por McConnell (1997) dice:

La administración de riesgos es una parte integral de las buenas prácticas gerenciales, administración de riesgos es un método lógico y sistemático de establecer el contexto, identificar, analizar, evaluar, tratar, monitorear y comunicar los riesgos asociados con una actividad, función o proceso de una forma que permita a las organizaciones minimizar pérdidas y maximizar oportunidades.
Administración de riesgos es tanto identificar oportunidades como evitar o mitigar pérdidas. Esta metodología debe ser un proceso iterativo, que posibilite una mejora continua en el proceso de toma de decisiones. (TABORDA, 2002)

Por esto podemos explicar que la administración de riesgo es el proceso por el cual la dirección de una empresa u organización administra el amplio espectro de los riesgos a los cuales está expuesto de acuerdo al nivel de riesgo al cual están dispuestos a exponerse según sus objetivos estratégicos.

La evaluación de riesgos y vulnerabilidades ayuda a identificar y evaluar los riesgos operativos, poniendo énfasis en los activos físicos y lógicos, pudiendo incluir una revisión de las instalaciones y la seguridad de los elementos lógicos y físicos.

Uno de los principales problemas en la administración de riesgos empresariales (ERM) es la implementación adecuada, considerando la percepción y realidad de los riesgos que puedan afectar a la empresa.

La implementación es compleja y puede ser complicada si no se reconoce el comportamiento e interacción de los diferentes tipos de riesgos, sino entenderse por su impacto a lo largo de los procesos.

Dicha implementación tiene relación con Gobierno Corporativo, Control Interno y Cumplimiento Regulatorio, ya que la Administración de Riesgos está relacionada con la cultura, estructura y procesos para la gestión y administración de la empresa, que le permitan potenciar oportunidades y mitigar pérdidas no esperadas.

El apetito de riesgo financiero y la tolerancia al riesgo operativo varía con la estrategia y  las condiciones de la industria y sus mercados.

La Administración de Riesgos ha cambiado de ser reactiva y solo mitigar, a proactiva y ser considerada como una estrategia de negocios que forma parte del día a día.

ETAPAS DE LA ADMINISTRACION DE RIESGOS

La administración del riesgo representa un Área de Conocimiento, lo cual quiere decir que requiere de mucha atención, y además está sujeto a una serie de procesos para su identificación, valoración, mitigación y control.

Según el Project Management Institute (PMI), los cuatro procesos que involucra la administración del riesgo son:

  • Identificación del Riesgo 
  • Cuantificación del Riesgo 
  • Desarrollo de Respuesta al Riesgo
  •  

  • Control de Respuesta al Riesgo 

IMPORTANCIA DE LA ADMINISTRACIÓN DE RIESGO

Los proyectos, por la naturaleza cambiante de su entorno, son susceptibles a situaciones de riesgo que afectan el desarrollo que se les ha planeado.

La administración de proyectos por medio de la gestión de riesgos es la disciplina encargada de identificar, analizar, priorizar y tratar los riesgos, con el objetivo de que el proyecto se concluya con el tiempo y recursos asignados.

Por medio de la gestión de riesgos se logran identificar vulnerabilidades y amenazas presentes en el contexto de la organización, y estimular las prácticas exitosas en los proyectos de software.

Una manera de mejorar la productividad y reducir los costos del proyecto es mediante una identificación y eliminación temprana de riesgos; la corrección de problemas de software implica un alto costo, que se puede evitar realizando correcciones en la fase de planeación del proyecto.

La administración de riesgos es parte integral del proceso de administración, se centra en la gestión de recursos y en determinar las actividades más significativas para el personal del proyecto.

Es un proceso que fomenta la mejora en la administración de recursos y toma de decisiones, por medio de la comunicación oportuna entre los participantes del proyecto.

El método de Monte Carlo es un método no determinista o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Monte Carlo (Principado de Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un generador simple de números aleatorios. El nombre y el desarrollo sistemático de los métodos de Monte Carlo datan aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la computadora. (OSCAR M. PONCE)

El uso de los métodos de Monte Carlo como herramienta de investigación, proviene del trabajo realizado en el desarrollo de la bomba atómica durante la Segunda Guerra Mundial en el Laboratorio Nacional de Los Álamos en EE. UU. Este trabajo conllevaba la simulación de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutrones en el material de fisión. Esta difusión posee un comportamiento eminentemente aleatorio. En la actualidad es parte fundamental de los algoritmos de Raytracing para la generación de imágenes 3D

La invención del método de Monte Carlo se asigna a Stanislaw Ulam y a John von Neumann. Ulam ha explicado cómo se le ocurrió la idea mientras jugaba un solitario durante una enfermedad en 1946. Advirtió que resulta mucho más simple tener una idea del resultado general del solitario haciendo pruebas múltiples con las cartas y contando las proporciones de los resultados que computar todas las posibilidades de combinación formalmente. Se le ocurrió que esta misma observación debía aplicarse a su trabajo de Los Álamos sobre difusión de neutrones, para la cual resulta prácticamente imposible solucionar las ecuaciones íntegro-diferenciales que gobiernan la dispersión, la absorción y la fisión. “La idea consistía en probar con experimentos mentales las miles de posibilidades, y en cada etapa, determinar por casualidad, por un número aleatorio distribuido según las probabilidades, qué sucedería y totalizar todas las posibilidades y tener una idea de la conducta del proceso físico”.

Podían utilizarse máquinas de computación, que comenzaban a estar disponibles, para efectuar las pruebas numéricas y en efecto reemplazar el aparato experimental del físico. Durante una de las visitas de von Neumann a Los Álamos en 1946, Ulam le mencionó el método. Después de cierto escepticismo inicial, von Neumann se entusiasmó con la idea y pronto comenzó a desarrollar sus posibilidades en un procedimiento sistemático. Ulam expresó que Monte Carlo “comenzó a tener forma concreta y empezó a desarrollarse con todas sus fallas de teoría rudimentaria después de que se lo propuse a Johnny”.4

Antes de que se desarrollara el método de Monte Carlo, las simulaciones probaron un problema determinista previamente entendido y muestreo estadístico se utilizó para estimar las incertidumbres en las simulaciones. Monte Carlo simulaciones invierten este enfoque, resolver problemas determinísticos usando un análogo probabilístico.

Una variante temprana del método de Monte Carlo puede ser visto en el experimento de la aguja de Buffon, en el que p puede ser estimado por la caída agujas en un piso hecho de tiras paralelas de madera. En la década de 1930, Enrico Fermi experimentó primero con el método de Monte Carlo, mientras que el estudio de la difusión de neutrones, pero no publicó nada en él.

En 1946, los físicos del Laboratorio Científico de Los Álamos están investigando blindaje contra la radiación y la distancia que los neutrones probablemente viajar a través de diferentes materiales. A pesar de tener la mayor parte de los datos necesarios, tales como la distancia media de un neutrón sería viajar en una sustancia antes de que chocó con un núcleo atómico, y la cantidad de energía que era probable que emiten después de una colisión de neutrones, los físicos de Los Álamos no pudieron resolver el problema con métodos matemáticos convencionales, deterministas. Stanislaw Ulam tuvo la idea de usar los experimentos aleatorios. Él relata su inspiración de la siguiente manera:

Los primeros pensamientos e intentos que hice a la práctica fueron sugeridas por una pregunta que se me ocurrió en 1946 cuando estaba convaleciente de una enfermedad y jugando solitarios. La pregunta era: ¿cuáles son las posibilidades de que un solitario Canfield distribuida con 52 cartas saldrán con éxito? Después de pasar un montón de tiempo tratando de estimarlos mediante cálculos combinatorios puros, me preguntaba si un método más práctico que el "pensamiento abstracto" Puede que no sea para ponerla a decir cien veces y simplemente observar y contar el número de obras de éxito. Esto ya era posible prever con el inicio de la nueva era de las computadoras rápidas, y de inmediato pensó en los problemas de difusión de neutrones y otras cuestiones de la física matemática, y más en general la manera de cambiar los procesos descritos por ciertas ecuaciones diferenciales en una forma equivalente interpretable como una sucesión de operaciones aleatorias. Más tarde, describí la idea de John von Neumann, y comenzamos a planificar cálculos reales. -Stanislaw Ulam

Siendo secreto, el trabajo de von Neumann y Ulam requiere un nombre en clave. Von Neumann eligió el nombre de Monte Carlo. El nombre hace referencia al Casino de Monte Carlo en Mónaco, donde el tío de Ulam pediría prestado dinero para jugar. Uso de listas de números aleatorios "verdaderamente aleatorios" era extremadamente lento, pero von Neumann desarrolló una forma de calcular números pseudoaleatorios, utilizando el método de cuadrados de media.

Aunque este método ha sido criticado como crudo, von Neumann era consciente de esto: lo justificó por ser más rápido que cualquier otro medio a su disposición, y también señaló que cuando salió mal lo hizo, obviamente, a diferencia de los métodos que pueden ser sutilmente incorrectas.

Métodos de Monte Carlo fueron centrales en las simulaciones necesarias para el Proyecto Manhattan, aunque muy limitado por las herramientas computacionales en el momento. En la década de 1950 que se utilizaron en Los Álamos para los primeros trabajos relacionados con el desarrollo de la bomba de hidrógeno, y se popularizó en los campos de la física, la química física y la investigación de operaciones. La Rand Corporation y la Fuerza Aérea de EE.UU., fueron dos de las principales organizaciones responsables de la financiación y la difusión de información sobre los métodos de Monte Carlo durante este tiempo, y comenzaron a encontrar una amplia aplicación en muchos campos diferentes.

Usos de los métodos de Monte Carlo requieren grandes cantidades de números aleatorios, y era el uso que estimuló el desarrollo de generadores de números pseudoaleatorios, que eran mucho más rápido de usar que las tablas de números aleatorios que se habían utilizado anteriormente para el muestreo estadístico.

EJEMPLO

Una forma de hacer pruebas de Monte Carlo es con una hoja de cálculo como Microsoft Excel. En el ejemplo presentado en el tutorial se muestra un análisis histórico de 200 días sobre consultas realizadas en un sistema de información. La tabla muestra el número de consultas diarias (de 0 a 5) junto con las frecuencias absolutas (# de días por cada frecuencia), las frecuencias relativas y las frecuencias relativas acumuladas.

Podemos interpretar la frecuencia relativa como la probabilidad de que ocurra el suceso asociado, en este caso, la probabilidad de un determinado número de consultas (así, p.e., la probabilidad de que se den 3 consultas en un día sería de 0,30), por lo que la tabla anterior nos proporciona la distribución de probabilidad asociada a una variable aleatoria discreta (la variable aleatoria es el número de consultas, que sólo puede tomar valores enteros entre 0 y 5).

Supongamos que queremos conocer el número esperado (o medio) de consultas por día.

Una forma directa es haciendo la operación

Valor Medio = sumatoria (#de visitas*Probabilidad de que ocurran) = 0*0,05+1*0,1+2*0,2+3*0,3+4*0,2+5*0,15=2,956

Por otro lado se puede usar una simulación Monte Carlo para deducirla. Para ello se tiene en cuenta las frecuencias relativas acumuladas de esta manera:

[0,00 a 0,05) para el suceso 0[0,05 a 0,15) para el suceso 1[0,15 a 0,35) para el suceso 2[0,35 a 0,65) para el suceso 3[0,65 a 0,85) para el suceso 4[0,85 a 1,00) para el suceso 5

El gráfico siguiente nos muestra cada una de las probabilidades sobre el número de consultas. En él, se aprecia claramente la relación existente entre probabilidad de cada suceso y el área que éste ocupa.

Esto significa que, al generar un número pseudo-aleatorio con el ordenador (proveniente de una distribución uniforme entre 0 y 1), estaremos llevando a cabo un experimento cuyo resultado, obtenido de forma aleatoria y según la distribución de probabilidad anterior, estará asociado a un suceso.

Así por ejemplo, si el ordenador nos proporciona el número pseudo-aleatorio 0,2567, podremos suponer que ese día se han producido 2 consultas.

(INSTITUTO TECNOLOGICO DE TIJUANA)

APLICACIONES DEL MODELO MONTECARLO.

Métodos de Monte Carlo son especialmente útiles para la simulación de fenómenos con incertidumbre en los insumos y sistemas con un gran número de grados de libertad acoplados. Las áreas de aplicación incluyen:

Ciencias físicas

Métodos de Monte Carlo son muy importantes en física computacional, química física y campos aplicados relacionados, y tienen diversas aplicaciones del cromo dinámico cuántica complicados cálculos para diseñar pantallas térmicas y formas aerodinámicas. En la física estadística Monte Carlo modelado molecular es una alternativa a la dinámica molecular computacional, y métodos de Monte Carlo se usan para calcular las teorías estadísticas de campo de sistemas de polímeros sencilla de partículas y. Quantum métodos de Monte Carlo a resolver el problema de muchos cuerpos para sistemas cuánticos. En la física experimental de partículas, métodos de Monte Carlo se utilizan para el diseño de detectores, la comprensión de su comportamiento y la comparación de los datos experimentales con la teoría. En astrofísica, que se utilizan en este tipo de diversas maneras para modelar tanto la evolución de las galaxias y la transmisión de la radiación de microondas a través de una superficie planetaria áspera. Métodos de Monte Carlo también se utilizan en los modelos de conjunto que forman la base de la actual predicción del tiempo.7

Ingeniería

Métodos de Monte Carlo son ampliamente utilizados en ingeniería para el análisis de sensibilidad y análisis probabilístico cuantitativa en el diseño del proceso. La necesidad surge de la conducta interactiva, co-lineal y no lineal de simulaciones de procesos típicos. Por ejemplo,

  • en la microelectrónica de ingeniería, métodos de Monte Carlo se aplican a analizar las variaciones correlacionadas y no correlacionadas en los circuitos integrados analógicos y digitales.
  • en geoestadística y Geometalurgia, métodos de Monte Carlo sustentan el diseño de diagramas de flujo de procesamiento de minerales y contribuyen al análisis de riesgo cuantitativo. en el análisis de rendimiento de la energía eólica, la producción de energía previsto de un parque eólico durante su vida útil se calcula dar diferentes niveles de incertidumbre
  • impactos de la contaminación son simuladas y diesel en comparación con la gasolina.
  • En robótica autónoma, Monte Carlo localización puede determinar la posición de un robot. Se aplica a menudo a filtros estocásticos tales como el filtro de Calman o un filtro de partículas que forma el corazón del algoritmo de SLAM.
  • En la ingeniería aeroespacial, se utilizan los métodos de Monte Carlo para asegurar que múltiples partes de un ensamblaje encajan en un componente del motor.
  • Biología Computacional

    Métodos de Monte Carlo se utilizan en biología computacional, tales como para la inferencia bayesiana en la filogenia.

    Los sistemas biológicos tales como membranas de proteínas, imágenes de cáncer, están siendo estudiados por medio de simulaciones por ordenador.

    Los sistemas pueden ser estudiados en los marcos initio de grano grueso o ab dependiendo de la precisión deseada. Las simulaciones por ordenador nos permiten monitorear el entorno local de una molécula en particular para ver si alguna reacción química ocurre por ejemplo. También se pueden llevar a cabo experimentos de pensamiento cuando los experimentos físicos no son factibles, por ejemplo, bonos de rotura, la introducción de impurezas en sitios específicos, el cambio de la estructura local/global, o la introducción de campos externos.

    Infografía

    Camino trazado, a veces denominada Monte Carlo Ray Tracing, hace una escena 3D trazando al azar muestras de posibles trayectorias de la luz. Muestreo repetido de cualquier píxel con el tiempo hará la media de las muestras para converger en la solución correcta de la ecuación de la representación, por lo que es uno de los gráficos en 3D más precisos físicamente métodos existentes de representación.

    Estadística aplicada

    En estadística aplicada, métodos de Monte Carlo se utilizan generalmente para dos propósitos:

    Para comparar las estadísticas de la competencia para muestras pequeñas de datos en condiciones realistas. Aunque las propiedades de error de tipo I y el poder de la estadística se puede calcular de los datos extraídos de las distribuciones teóricas clásicas para condiciones asintóticas, los datos reales a menudo no tienen tales distribuciones.

    Para proporcionar implementaciones de pruebas de hipótesis que son más eficientes que las pruebas exactas tales como pruebas de permutación y ser más precisos que los valores críticos de las distribuciones asintóticas.

    Métodos de Monte Carlo son también un compromiso entre la aleatorización aproximadas y pruebas de permutación. Una prueba de aleatorización aproximada se basa en un subconjunto especificado de todas las permutaciones. El método de Monte Carlo se basa en un número especificado de permutaciones extraídos aleatoriamente.

    Diseño y visuales

    Métodos de Monte Carlo también son eficientes en la solución de ecuaciones diferenciales acopladas integrales de los campos de radiación y el transporte de energía, y por lo tanto estos métodos han sido utilizados en los cálculos de iluminación global que producen imágenes foto-realistas de modelos virtuales en 3D, con aplicaciones en los videojuegos, la arquitectura, el diseño, películas y efectos especiales cinematográficos generados por ordenador.

    Finanzas y negocio

    Métodos de Monte Carlo en finanzas a menudo se utilizan para calcular el valor de las empresas, para evaluar las inversiones en proyectos en una unidad de negocio o nivel corporativo, o para evaluar los derivados financieros. Pueden ser utilizados para los programas del proyecto de modelo, donde las simulaciones se agregan las estimaciones para el peor de los casos, el mejor de los casos, y lo más probable duración de cada tarea para determinar los resultados para el conjunto del proyecto.

    Telecomunicaciones

    Cuando se planifica una red inalámbrica, el diseño debe ser probado para trabajar para una amplia variedad de escenarios que dependen principalmente del número de usuarios, su ubicación y los servicios que desea utilizar. Métodos de Monte Carlo se utilizan típicamente para generar estos usuarios y sus estados. El rendimiento de la red se evaluó a continuación y, si los resultados no son satisfactorios, el diseño de la red pasa a través de un proceso de optimización.

    Utilizar en matemáticas

    En general, los métodos de Monte Carlo se utilizan en las matemáticas para resolver diversos problemas mediante la generación de números aleatorios adecuados y la observación de que la fracción de los números que obedece a alguna propiedad o propiedades. El método es útil para la obtención de soluciones numéricas a problemas demasiado complicados para resolver analíticamente. La aplicación más común del método de Monte Carlo es la integración Monte Carlo.

    Integración

    Algoritmos de integración numérica deterministas funcionan bien en un pequeño número de dimensiones, pero encontrarse con dos problemas cuando las funciones tienen muchas variables. En primer lugar, el número de evaluaciones de la función necesarios aumenta rápidamente con el número de dimensiones. Por ejemplo, si 10 evaluaciones proporcionan una precisión adecuada en una dimensión, a continuación, se necesitan 10.100 puntos por 100 dimensiones-demasiados para ser calculado. Esto se conoce como la maldición de la dimensionalidad. En segundo lugar, el límite de una región multidimensional puede ser muy complicado, por lo que no puede ser factible para reducir el problema a una serie de integrales unidimensionales anidados. 100 dimensiones no son en absoluto inusual, ya que en muchos problemas físicos, una "dimensión" es equivalente a un grado de libertad.

    Métodos de Monte Carlo proporcionan una manera de salir de este aumento exponencial de tiempo de cálculo. Mientras la función en cuestión está razonablemente bien comportado, se puede estimar mediante la selección aleatoria 100 puntos en el espacio tridimensional, y teniendo algún tipo de promedio de los valores de la función en estos puntos. Por el teorema del límite central, este método muestra la convergencia, es decir, cuadruplicar el número de puntos de muestra reduce a la mitad el error, sin importar el número de dimensiones.

    Un refinamiento de este método, conocido como muestreo de importancia en las estadísticas, implica el muestreo de los puntos al azar, pero con más frecuencia donde el integrando es grande. Para ello, precisamente, uno tendría que saber ya la integral, pero se puede aproximar la integral por una integral de una función similar o usar rutinas de adaptación, tales como el muestreo estratificado, muestreo estratificado recursivo, el muestreo adaptativo paraguas o el algoritmo VEGAS.

    Un enfoque similar, el método cuasi-Monte Carlo, utiliza secuencias de baja discrepancia. Estas secuencias de "llenar" la zona mejor y degustar los puntos más importantes con más frecuencia, por lo que los métodos cuasi Monte Carlo a menudo pueden converger en el integrante más rápidamente.

    Otra clase de métodos para el muestreo de puntos en un volumen es simular paseos aleatorios sobre ella. Tales métodos incluyen el algoritmo de Metropolis-Hastings, el muestreo Gibbs y el algoritmo de Wang y Landau.

    Matemática Computacional

    Métodos de Monte Carlo son útiles en muchas áreas de la matemática computacional, donde una "opción afortunada" se puede encontrar el resultado correcto. Un ejemplo clásico es el algoritmo de Rabin para las pruebas de primalidad: para cualquier n no es primo, una aleatoria x tiene al menos un 75% de posibilidades de probar que n no es primo. Por lo tanto, si n no es primo, pero x dice que puede ser que sea, hemos observado a lo sumo un 1 en 4 eventos. Si 10 x diferentes al azar dicen que "n es probablemente prime" cuando no lo es, se ha observado un uno en un millón evento. En general, un algoritmo de Monte Carlo de este tipo produce una respuesta correcta con una garantía de n es compuesto, y x demuestra que sí, pero otra sin, pero con una garantía de no obtener esta respuesta cuando se está mal con demasiada frecuencia, en este caso como máximo el 25% del tiempo. Véase también Las Vegas por un algoritmo relacionado, pero diferente, idea. (E-CENTRO)9

    Conclusión.

    El método de Montecarlo fue creado por investigadores estadounidenses para resolver problemas físicos y químicos en la realización de la bomba atómica para la cual se empleó durante la Segunda Guerra Mundial. Después de esto el modelo fue empleado para la resolución de múltiples problemas matemáticos con exitosos resultados.

    La importancia actual del método Montecarlo se basa en la existencia de problemas que tienen difícil solución por métodos exclusivamente analíticos o numéricos, pero que dependen de factores aleatorios o se pueden asociar a un modelo probabilística artificial (resolución de integrales de muchas variables, minimización de funciones, etc.). Gracias al avance en diseño de los ordenadores, cálculos Montecarlo que en otro tiempo hubieran sido inconcebibles, hoy en día se presentan como asequibles para la resolución de ciertos problemas.

    Este método es aplicable para cualquier tipo de problema ya sea determinístico o estocásticos empleado en problemas complejos que solamente se pueden resolver por programas de computadora, así como problemas simples que se resolverán a mano sin tanta dificultad.

    Trabajos citados

    E-CENTRO. (s.f.). Recuperado el NOVIEMBRE de 2014, de http://centrodeartigo.com/articulos-utiles/article_100105.html

    INSTITUTO TECNOLOGICO DE TIJUANA. (s.f.). SLIDESHARE. Recuperado el NOVIEMBRE de 2014, de http://es.slideshare.net/krizx/metodo-montecarlo

    OSCAR M. PONCE. (s.f.). Recuperado el NOVIEMBRE de 2014, de http://centrodeartigo.com/articulos-utiles/article_100105.html

    TABORDA, E. R. (2002). ADMINISTRACION DE RIESGO.

    11

    Autoras:

    Castañón Gómez Ana Karen

    Martínez Pérez Iris Claudet

    Pola Ochoa Hassibi Alejandra

    Sánchez Zapata Gabriela Alejandra

Hacer Economía empírica es caro en Latinoamérica

Por RAÚL ISAAC SUÁREZ


Cuando se indaga el por qué de la baja producción científica de calidad en Economía de Latinoamérica, usualmente se alude a actitudes internas de los economistas investigadores y académicos de la región. El conformismo, la mediocridad intelectual, la pereza mental, mala gestión universitaria y la falta de vocación se señalan como causales únicas. Si bien es cierto, en casos determinados estas causas son correctas, no explican la magnitud total del problema.


Una de las razones más poderosas es la falta de recursos. El presupuesto de un joven economista investigador es, la mayoría de las veces, muy pequeño. Aunque la Economía no necesita laboratorios ni sofisticadas máquinas de observación o experimentación, si necesita de ciertas licencias de Software y acceso a bases de datos académicas cuyos precios muchas veces no son alcanzables para el economista académico latino.



Hoy en día es imposible concebir un trabajo econométrico de calidad sin el uso de un software estadístico de procesamiento de datos. Los modelos actuales de la econometría tienen cálculos tan complejos y usualmente tan numerosos que, sin el uso de los modernos paquetes de software sería imposible llevarlos a cabo. O al menos, imposible para un solo investigador.

Recientemente conversaba con unos colegas sobre la viabilidad del uso de software de código abierto bajo licencia GNU. Y el principal argumento a su favor es justamente su precio. Son gratis. Por el contrario tienen el inconveniente que aprender a usarlos es muy difícil para el no iniciado. En comparación con los paquetes propietarios cuyas interfaces son más amigables y sencillas.

Impulsado por mi curiosidad, quise indagar cuanto cuesta una licencia anual para un usuario individual de uno de estos paquetes. Para determinar si eran lo suficiente altas como para justificar el tiempo en aprender los software de código abierto. Fue grande mi sorpresa cuando descubrí sus precios. Son precios que sin duda están muy por encima del alcance del economista académico latinoamericano promedio.

A continuación detallo los precios que figuraban en los sitios web oficiales de cada paquete al 12 de mayo de 2012, para una licencia anual e individual de la versión más completa (entiéndase Plus, Premium, Professional, etc.) de cada paquete. Estos precios están en dólares americanos e incluyen manuales y guías impresas.

Eviews Enterprise Edition 7 = USD 675.00

STATA/MP 12 = USD 970.00

Minitab 15 = USD 1,395.00

IBM SPSS Statistics Premium = USD 6,750.00

SAS Analytics Pro = USD 8,500.0

Con estos precios. Sin lugar a dudas vale la pena el tiempo invertido en aprender los softwares de acceso libre. Acá una lista de los más útiles:

1 - Gretl

2 - R

3 - EasyReg

4 - PSPP

5 - JMulti

6 - G7

7 - Draco Econometrics

8 - Matrixer

Así mismo las licencias para Software de oficina son altas también. Por ejemplo Microsoft Office 2010 Professional para un usuario / una PC, cuesta USD 349.99. Un incentivo más para usar OpenOffice. El Software para producir documentos tipográficos con símbolos matemáticos no se queda atrás. Una licencia para Scientific Workplace 5.5 de Mackichan cuesta USD 845.00 sin duda lo suficiente para motivar a cualquiera en invertir tiempo en aprender LaTeX. Por supuesto si tienes algo más de paciencia, siempre puedes adquirir MathType 6.8 de Design Scince por USD 97.00 pero tendrás más trabajo que hacer.

Finalmente, el machete de la Economía Computacional; MATLAB R2012a de MathWorks cuesta USD 2,150.00. Sin duda muchos obtarán por Octave, su alternativa libre. Mathematica 8 de Wolfram está costando USD 2,498.00. He aquí otra razón para usar Euler . Similarmente Maple 16 cuesta USD 2,845.00. No encontré el precio actual de Gauss, un software para tratamiento de datos, pero no me extrañaría que anduviera por ese rango.

Si a estos costos de Software le sumamos los costos de acceder a las bases de datos científicas (JSTOR, SCienceDirect, etc.), el costo de una computadora decente (Entre USD 1,500.00 y USD 2,500.00), y los costos de transporte, copias, impresiones, libros, subscripciones a revistas científicas, tarifas de presentación de artículos y demás. No sería de extrañarse qué en Latinoamérica estamos tan atrasados en creación de conocimiento científico en Economía.

A pesar de esto, son pocas las universidades que fomentan el uso de paquetes de código abierto a sus estudiantes de Estadística y Econometría. Muchas Universidades dedican horas completas a hacinar a sus estudiantes en un laboratorio de computación para enseñarles a usar un software al cual muchas veces no podrán tener acceso fuera de la universidad.

Si las universidades enseñaran a usar paquetes de código abierto, al egresar, los jóvenes economistas no necesitarían de muchos recursos para explotar su creatividad intelectual. Sin lugar a duda el factor de impacto de los investigadores latinos sería mejor, y por consiguiente, la calidad de la educación que puedan ofrecer. Es por esto que se necesita un cambio de enfoque en la pedagogía económica nuestra. Uno que promueva el ahorro en dinero y maximice la producción de publicaciones académicas de calidad en nuestra lúgubre ciencia.

Managua, mayo de 2012.

Explicación de elasticidades con ejemplo.

La elasticidad.



Este es un concepto muy recurrido en Economía. Tanto en planteamientos macro como en microeconómicos se utiliza. La elasticidad vincula dos variables directamente, son dos o más variables que tienen alguna relación medible. Esta la variable dependiente y la independiente que afecta a la dependiente.

Por ejemplo, la ley de la demanda establece que el precio de un producto y la cantidad que se vendería están inversamente relacionadas. Así, ante un incremento de un precio se espera que haya menores ventas. Supón que tienes una empresa y que vendes un producto como el café molido. Tienes sólo una sucursal que vende el café a un precio de 10 dólares el kilo, y en promedio se venden 100 kilos al mes. Ahora resulta que te suben la renta del local comercial de $200 a $250 al mes. Tú no puedes mantener el precio del producto en $10 pues no te alcanzaría a cubrir el sueldo de la empleada. Entonces, decides subir el precio de $10 a $11. Y resulta que la cantidad vendida de café, durante el siguiente mes al incremento de precio, se reduce de 100 kilos a 98.

Estos son los números:



 Precio       Ventas     Var. % P    Var. % Q 

   10             100        

   11               98          10%           -2%  



Entonces la elasticidad de corto plazo resulta ser la división del cambio porcentual de la cantidad entre la del precio: -2%/10% = -0.2

La elasticidad resultó ser menor a 1, por lo tanto, podemos decir que la demanda fue inelástica al precio en el corto plazo, en ese mes en particular. El comportamiento de las ventas en los meses futuros dará una medición sobre la elasticidad precio de la demanda de mediano plazo.

Lo que a mi me parece particularmente interesante de la elasticidad es que nos permite hacer un pronóstico sobre los ingresos del periodo de interés. Puedes observar que los ingresos totales por ventas del mes en que se aumento el precio habrán aumentado a pesar de la reducción en ventas del 2%. Esa es una regla cuando tenemos que la demanda es inelástica al precio.

 

Impacto de los Precios del Petróleo en la Economía de Estados Unidos

Alfredo Ibrahim Flores Sarria


Impactos de los precios del petróleo sobre el PIB real, Gasto de consumo personal real, Inversión bruta real y la Política monetaria de los Estados Unidos de América, en el período comprendido del tercer trimestre de 1955 al segundo trimestre de 2006

TUTOR:

MSc. Noel Varela Quintana. UNAN – León.


ASESORES:

Dr. Róger Cerda. RAC International.

MA. Martín Francos Rodríguez. PUCMM.

León, 07 de Mayo del 2007

Objetivos específicos



  • Describir el comportamiento de las variables macroeconómicas PIB real, Gasto de consumo personal e Inversión privada bruta.
  • Determinar la magnitud, simetría y la duración de los efectos de las perturbaciones.
  • Realizar pronósticos dinámicos con la metodología de los Vectores Autorregresivos (VAR`s).

HIPOTESIS.

Sean el PIB real, gasto de consumo personal real, gasto de inversión privada bruta real, tasa de interés real y precios reales del petróleo respectivamente, entonces:

                                          H1:

 

                                         H2:

                                              

                                              

                                        H3: Impactos en  impactos en  .

Justificación

Esta investigación se justifica plenamente si se observa que la economía estadounidense es altamente industrializada. Por ende, intensiva en el uso de petróleo.  Los agentes económicos y los formuladores de políticas (policymakers), necesitan conocer el comportamiento de las variaciones de los precios del petróleo, debido a la relación de causalidad existente entre el petróleo y la economía.

Las variables que se consideraron para realizar este trabajo son: el PIB real, el gasto de consumo personal real, la inversión privada bruta real y las tasas efectivas reales de interés de los fondos de la FED (como un instrumento de política monetaria).

Se tomó en cuenta el PIB real, para analizar el impacto que tiene una perturbación de la oferta agregada como las variaciones de los precios del petróleo sobre el ciclo económico. Consideramos el gasto de consumo personal, porque representa en los Estados Unidos más del 60% de la demanda agregada, en otras palabras, más que todos los demás sectores en su conjunto. Incluimos el gasto de inversión privada bruta porque es un componente de la demanda agregada muy variable, y por consiguiente, es responsable de una gran parte de las oscilaciones que experimenta el PIB a lo largo del ciclo económico. Por otra parte, es meritorio recordar, que el gasto de inversión privada bruta es el vínculo principal por medio del cual la política monetaria (a través de los tipos de interés) influye sobre la economía.

Finalmente se ha decidido incluir en este análisis la tasa efectiva real de los fondos de la FED para conocer la postura que adoptan las autoridades monetarias ante los incrementos en los precios del petróleo.

Para estudiar la respuesta conjunta de variables macroeconómicas PIB, consumo, inversión, tasas de interés y precios del petróleo; se puede construir un modelo estructural de ecuaciones simultáneas. Donde las relaciones específicas entre las variables son fundamentadas en la teoría económica. No obstante, la teoría económica puede que muchas veces no sea suficiente para especificar correctamente el modelo.

Por tal razón, usaremos un enfoque alternativo al modelo de ecuaciones simultáneas que se denomina Autorregresiones Vectoriales (VAR`s).

El uso de esta técnica, nos permitirá determinar la respuesta conjunta de las variables macroeconómicas y de la política monetaria ante cambios en los precios del petróleo. Así como también nos permitirá elaborar pronósticos dinámicos de corto plazo.

Subscribe to RSS - Econometría