Clase de Luc Anselin sobre Spatial Two Stage Least Squares, Spatial Regression (Spring 2017).
El blog reúne material de noticias de teoría y aplicaciones de conceptos básicos de economía en la vida diaria. Desde lo micro a lo macro pasando por todas las vertientes de los coyuntural a lo más abstracto de la teoría. La ciencia económica es imperial.
Mostrando entradas con la etiqueta econometría. Mostrar todas las entradas
Mostrando entradas con la etiqueta econometría. Mostrar todas las entradas
domingo, 28 de mayo de 2023
lunes, 16 de mayo de 2022
domingo, 7 de agosto de 2016
El (hipnótico) análisis de impuestos a las ganancias en Noruega...!
Pornoimpuestos, transparencia y bienestar: el caso de Noruega
Las declaraciones impositivas son públicas en el país escandinavo; el acceso era difícil hasta que un sitio facilitó las consultas y provocó un boom de curiosos y efectos impensados
Walter Sosa Escudero - LA NACION
Ah, Escandinavia. Tierra de innovación, autos de alta gama, sistemas educativos excelentes, Estado eficiente y pornoimpuestos. ¿Pornoimpuestos?
Desde el siglo XIX que, en pos de la transparencia, las declaraciones de impuestos de todos los noruegos son públicas y disponibles para que cualquiera las consulte, si bien no son fáciles de acceder. Si Ingrid quería consultar cuánto ganaba Magnus -su simpático festejante- debía dirigirse a la oficina de impuestos local, llenar un formulario, tras lo cual un empleado público le entregaba un grueso libro con los ingresos declarados por todos los noruegos, incluyendo el de Magnus. Pocos usaban este servicio, ya sea por la naturaleza circunspecta del pueblo noruego o por los costos que insumían las búsquedas.
Pero un siglo después, en abril de 2001, un periodista copió el libro de datos tributarios, lo digitalizó y, a través del diario para el que trabajaba, creó un sitio Web que permitía a cualquiera acceder a un buscador de los ingresos de los noruegos, en forma completamente anónima. De la noche a la mañana, el ingreso de Magnus se puso a un clic de distancia. Y también el de Astrid -la envidiosa vecina de Ingrid- y el de todos sus compañeros del secundario y del trabajo.
Escándalo mayúsculo. En sólo días los noruegos viraron de los deportes invernales y el grupo pop A-ha al pasatiempo más antiguo y universal: el chusmerío. Un auténtico tsunami de consultas desbordó los sitios de búsqueda y apareció una simpática app para celulares que permitía con un clic rankear a todos los contactos de Facebook según sus ingresos.
No es cuestión de estigmatizar al discreto pueblo noruego, al que casi todas las estadísticas colocan al tope de cualquier ranking de bienestar y civismo. Las comparaciones interpersonales son inherentes a la condición humana, y en circunstancias similares en nuestros países habríamos hecho lo mismo, y con mayor intensidad y escándalo mediático. Y a la luz de las oscuras prácticas vernáculas, no nos habríamos sorprendido al ver los magros ingresos (cuando no nulos) declarados por el ostentoso vecino que se pavonea por el barrio en su lujoso auto alemán.
"Pornoimpuestos" (tax porno) fue la frase que uso el New York Timespara describir este aluvión de consultas en Noruega, que en cada octubre (cuando se actualiza el registro) llegaron a superar las búsquedas del clima o de videos en YouTube.
¿Quién ganó y quién perdió con este virtual diluvio de información pública, que roza los límites de la privacidad? "Con la verdad no ofendo ni temo", decía el escudo de armas del general Artigas, de modo que avenidos a la máxima del prócer uruguayo, la respuesta es "todos ganaron" y muy posiblemente ése haya sido el efecto buscado por los iniciadores de la política de transparencia en Noruega.
Pero hay evidencia científica de que las comparaciones juegan un rol crucial en el bienestar de las personas, y de que en varias circunstancias éstas pueden tener un resultado adverso. Varias disciplinas aportaron a esta visión, de la psicología social a la antropología, pasando por la economía, la filosofía y los recientes aportes de la neurociencia. Todas apuntan a que los ingresos reflejan cómo la sociedad reconoce los esfuerzos y talentos de sus habitantes, de modo que la revelación de ingresos enfrenta al individuo a evaluar si considera justa o no su posición en el reparto.
Un ejemplo: a pocos los altera enterarse de las cifras exorbitantes que ganan deportistas talentosos como Lionel Messi o LeBron James, pero reaccionarían muy negativamente al saber que un colega gana mucho más por una tarea similar. Esta sensación de inequidad puede tener un efecto negativo sobre la autoestima de quien se siente injustamente retribuido. Para peor, varios estudios encuentran que los que aprenden que son relativamente más ricos se sienten mejor por saberse superiores a sus pares. En Noruega se reportaron varios episodios de bullying en donde jóvenes de familias pobres eran hostigados por sus compañeros ricos, a la luz de la información revelada. Como era de esperar, el estado noruego acusó recibo de estos efectos negativos, restringiendo progresivamente el acceso a estos datos, hasta tal punto que desde 2014, las consultas dejaron de ser anónimas.
Resulta complejo evaluar el resultado de esta política extrema de transparencia a la luz de sus efectos positivos (en términos de permitir a los ciudadanos tomar decisiones sobre la base de más información) y de los negativos, asociados a las tensiones sociales discutidas anteriormente. Dilucidar este complejo enigma es el desafío que aceptó el joven economista argentino Ricardo Pérez Truglia, graduado de la Universidad de San Andrés y con doctorado en Harvard, hoy profesor de la Universidad de California en Los Ángeles.
La llave maestra para resolver este acertijo fue cotejar el episodio de pornoimpuestos con una encuesta de bienestar implementada continuamente (de 1985 en adelante) por la empresa de marketing Ipsos, que contiene información minuciosa sobre el bienestar de la sociedad noruega.
Los resultados son alarmantes. Según un puntilloso estudio estadístico e institucional, Pérez Truglia encuentra que el mero hecho de difundir la información de ingresos aumentó considerablemente el bienestar de los ricos y empeoró el de los pobres. La difusión masiva de esta información tuvo un fuerte impacto negativo sobre la distribución del bienestar: a los ricos les benefició el hecho de que sus conocidos se enterasen de su posición privilegiada y a los pobres, todo lo contrario. Los resultados del estudio prenden una luz de alarma a las políticas de transparencia informativa, sugiriendo que es crucial sopesar efectos positivos y contras.
Como ejemplo para nuestro país, las políticas de revelación de precios del plan Precios Claros tienen un claro impacto positivo al permitir a los ciudadanos tomar decisiones de consumo sobre la base de mejor información, pero pueden tener un efecto negativo al facilitar a los vendedores la implementación de acuerdos colusivos para sostener precios altos. Dilucidar estas cuestiones es una tarea compleja y relevante.
"Yo hago puchero, ella hace puchero. Yo hago ravioles, ella hace ravioles. ¡Qué país!", dice el personaje interpretado por China Zorrilla (la entrañable actriz uruguaya) en una escena de la película Esperando la carroza, ilustrando eficazmente la idiosincrasia interactiva de los seres humanos. Y si de interacciones se trata, el episodio aquí narrado no deja de tener un efecto positivo sobre la débil autoestima de nuestro país, tan proclive a las comparaciones internacionales: en la nórdica y prolija Noruega también se cuecen habas. Pasa que a veces parece que en nuestros países lo único que hacemos es cocer habas.
Profesor de la UdeSA e investigador principal del Conicet
Las declaraciones impositivas son públicas en el país escandinavo; el acceso era difícil hasta que un sitio facilitó las consultas y provocó un boom de curiosos y efectos impensados
Walter Sosa Escudero - LA NACION
Ah, Escandinavia. Tierra de innovación, autos de alta gama, sistemas educativos excelentes, Estado eficiente y pornoimpuestos. ¿Pornoimpuestos?
Desde el siglo XIX que, en pos de la transparencia, las declaraciones de impuestos de todos los noruegos son públicas y disponibles para que cualquiera las consulte, si bien no son fáciles de acceder. Si Ingrid quería consultar cuánto ganaba Magnus -su simpático festejante- debía dirigirse a la oficina de impuestos local, llenar un formulario, tras lo cual un empleado público le entregaba un grueso libro con los ingresos declarados por todos los noruegos, incluyendo el de Magnus. Pocos usaban este servicio, ya sea por la naturaleza circunspecta del pueblo noruego o por los costos que insumían las búsquedas.
Pero un siglo después, en abril de 2001, un periodista copió el libro de datos tributarios, lo digitalizó y, a través del diario para el que trabajaba, creó un sitio Web que permitía a cualquiera acceder a un buscador de los ingresos de los noruegos, en forma completamente anónima. De la noche a la mañana, el ingreso de Magnus se puso a un clic de distancia. Y también el de Astrid -la envidiosa vecina de Ingrid- y el de todos sus compañeros del secundario y del trabajo.
Escándalo mayúsculo. En sólo días los noruegos viraron de los deportes invernales y el grupo pop A-ha al pasatiempo más antiguo y universal: el chusmerío. Un auténtico tsunami de consultas desbordó los sitios de búsqueda y apareció una simpática app para celulares que permitía con un clic rankear a todos los contactos de Facebook según sus ingresos.
No es cuestión de estigmatizar al discreto pueblo noruego, al que casi todas las estadísticas colocan al tope de cualquier ranking de bienestar y civismo. Las comparaciones interpersonales son inherentes a la condición humana, y en circunstancias similares en nuestros países habríamos hecho lo mismo, y con mayor intensidad y escándalo mediático. Y a la luz de las oscuras prácticas vernáculas, no nos habríamos sorprendido al ver los magros ingresos (cuando no nulos) declarados por el ostentoso vecino que se pavonea por el barrio en su lujoso auto alemán.
"Pornoimpuestos" (tax porno) fue la frase que uso el New York Timespara describir este aluvión de consultas en Noruega, que en cada octubre (cuando se actualiza el registro) llegaron a superar las búsquedas del clima o de videos en YouTube.
¿Quién ganó y quién perdió con este virtual diluvio de información pública, que roza los límites de la privacidad? "Con la verdad no ofendo ni temo", decía el escudo de armas del general Artigas, de modo que avenidos a la máxima del prócer uruguayo, la respuesta es "todos ganaron" y muy posiblemente ése haya sido el efecto buscado por los iniciadores de la política de transparencia en Noruega.
Pero hay evidencia científica de que las comparaciones juegan un rol crucial en el bienestar de las personas, y de que en varias circunstancias éstas pueden tener un resultado adverso. Varias disciplinas aportaron a esta visión, de la psicología social a la antropología, pasando por la economía, la filosofía y los recientes aportes de la neurociencia. Todas apuntan a que los ingresos reflejan cómo la sociedad reconoce los esfuerzos y talentos de sus habitantes, de modo que la revelación de ingresos enfrenta al individuo a evaluar si considera justa o no su posición en el reparto.
Un ejemplo: a pocos los altera enterarse de las cifras exorbitantes que ganan deportistas talentosos como Lionel Messi o LeBron James, pero reaccionarían muy negativamente al saber que un colega gana mucho más por una tarea similar. Esta sensación de inequidad puede tener un efecto negativo sobre la autoestima de quien se siente injustamente retribuido. Para peor, varios estudios encuentran que los que aprenden que son relativamente más ricos se sienten mejor por saberse superiores a sus pares. En Noruega se reportaron varios episodios de bullying en donde jóvenes de familias pobres eran hostigados por sus compañeros ricos, a la luz de la información revelada. Como era de esperar, el estado noruego acusó recibo de estos efectos negativos, restringiendo progresivamente el acceso a estos datos, hasta tal punto que desde 2014, las consultas dejaron de ser anónimas.
Resulta complejo evaluar el resultado de esta política extrema de transparencia a la luz de sus efectos positivos (en términos de permitir a los ciudadanos tomar decisiones sobre la base de más información) y de los negativos, asociados a las tensiones sociales discutidas anteriormente. Dilucidar este complejo enigma es el desafío que aceptó el joven economista argentino Ricardo Pérez Truglia, graduado de la Universidad de San Andrés y con doctorado en Harvard, hoy profesor de la Universidad de California en Los Ángeles.
La llave maestra para resolver este acertijo fue cotejar el episodio de pornoimpuestos con una encuesta de bienestar implementada continuamente (de 1985 en adelante) por la empresa de marketing Ipsos, que contiene información minuciosa sobre el bienestar de la sociedad noruega.
Los resultados son alarmantes. Según un puntilloso estudio estadístico e institucional, Pérez Truglia encuentra que el mero hecho de difundir la información de ingresos aumentó considerablemente el bienestar de los ricos y empeoró el de los pobres. La difusión masiva de esta información tuvo un fuerte impacto negativo sobre la distribución del bienestar: a los ricos les benefició el hecho de que sus conocidos se enterasen de su posición privilegiada y a los pobres, todo lo contrario. Los resultados del estudio prenden una luz de alarma a las políticas de transparencia informativa, sugiriendo que es crucial sopesar efectos positivos y contras.
Como ejemplo para nuestro país, las políticas de revelación de precios del plan Precios Claros tienen un claro impacto positivo al permitir a los ciudadanos tomar decisiones de consumo sobre la base de mejor información, pero pueden tener un efecto negativo al facilitar a los vendedores la implementación de acuerdos colusivos para sostener precios altos. Dilucidar estas cuestiones es una tarea compleja y relevante.
"Yo hago puchero, ella hace puchero. Yo hago ravioles, ella hace ravioles. ¡Qué país!", dice el personaje interpretado por China Zorrilla (la entrañable actriz uruguaya) en una escena de la película Esperando la carroza, ilustrando eficazmente la idiosincrasia interactiva de los seres humanos. Y si de interacciones se trata, el episodio aquí narrado no deja de tener un efecto positivo sobre la débil autoestima de nuestro país, tan proclive a las comparaciones internacionales: en la nórdica y prolija Noruega también se cuecen habas. Pasa que a veces parece que en nuestros países lo único que hacemos es cocer habas.
Profesor de la UdeSA e investigador principal del Conicet
martes, 12 de enero de 2016
Econ 101: Análisis de regresión
Un repaso sobre el análisis de regresión
Amy Gallo - Harvard Business Review
Usted probablemente ya sabe que siempre que sea posible usted debe hacer decisiones basadas en datos en el trabajo. Pero ¿sabe usted cómo analizar todos los datos disponibles para usted? La buena noticia es que usted probablemente no tiene que hacer el cálculo de números por usted mismo (¡aleluya!) Pero sí es necesario para comprender e interpretar correctamente el análisis creado por sus colegas. Uno de los tipos más importantes de análisis de datos es de regresión.
Para entender mejor este método y cómo las empresas utilizan, hablé con Tom Redman, autor de Data Driven: Beneficiándose de su activo más importante de negocios. También asesora a las organizaciones en sus datos y programas de calidad de datos.
El análisis de regresión es una forma de clasificar matemáticamente cuál de estas variables tiene de hecho un impacto. Responde a las preguntas: ¿Qué factores son más importantes? ¿Qué podemos ignorar? ¿Cómo interactúan los factores entre sí? Y, quizás lo más importante, cómo ciertas somos acerca de todos estos factores?
En el análisis de regresión, estos factores se denominan variables. Usted tiene su variable dependiente - el principal factor que usted está tratando de comprender o predecir. En el ejemplo de Redman anterior, la variable dependiente es ventas mensuales. Y entonces usted tiene sus variables independientes - los factores de sospecha tiene un impacto sobre la variable dependiente.
Con el fin de llevar a cabo un análisis de regresión, que se reúnen los datos sobre las variables en cuestión. (Recordatorio: es probable que no tiene que hacerlo usted mismo, pero es útil para que usted entienda el proceso utiliza su colega analista de datos.) Usted toma todas sus cifras de ventas mensuales para, por ejemplo, los últimos tres años y todos los datos de las variables independientes que están interesados en. Así que, en este caso, digamos que usted descubre la precipitación mensual promedio de los últimos tres años también. Luego se trazan toda esa información en un gráfico que tiene este aspecto:
El eje y es la cantidad de ventas (la variable dependiente, lo que le interesa, es siempre en el eje y) y el eje x es la precipitación total. Cada punto azul representa datos-how de un mes de mucho llovió ese mes y el número de ventas que hizo ese mismo mes.
Echando un vistazo a estos datos, es probable que note que las ventas son mayores en los días cuando llueve mucho. Eso es interesante saber, pero por cuánto? Si llueve 3 pulgadas, ¿sabe cuánto va a vender? ¿Qué pasa si llueve 4 pulgadas?
Ahora imagine trazar una línea a través de la tabla de arriba, uno que corre más o menos por la mitad de todos los puntos de datos. Esta línea le ayudará a responder, con cierto grado de certeza, la cantidad normalmente usted vende cuando llueve una cierta cantidad.
Esto se llama la línea de regresión y se dibuja (utilizando un programa estadístico como SPSS o STATA o Excel) para mostrar la línea que mejor se ajusta a los datos. En otras palabras, explica Redman, "La línea roja es la mejor explicación de la relación entre la variable independiente y la variable dependiente."
Además de trazar la línea, su programa de estadísticas también da salida a una fórmula que explica la pendiente de la línea y se ve algo como esto:
Ignorar el término de error, por ahora. Se refiere al hecho de que la regresión no es perfectamente preciso. Sólo se centran en el modelo:
Lo que esta fórmula le está diciendo es que si no hay una "x", entonces Y = 200. Por lo tanto, históricamente, cuando no llovió en absoluto, usted hizo un promedio de 200 ventas y usted puede esperar para hacer lo mismo en el futuro suponiendo que otras variables permanecen igual. Y en el pasado, por cada pulgada adicional de lluvia, que hizo un promedio de cinco ventas más. "Por cada incremento que x sube uno, y sube por cinco", dice Redman.
Ahora volvamos al término de error. Usted puede tener la tentación de decir que la lluvia tiene un gran impacto en las ventas si por cada pulgada usted consigue cinco más ventas, pero si esta variable es digno de su atención dependerá del término de error. Una línea de regresión siempre tiene un término de error, ya que, en la vida real, las variables independientes no son predictores perfectas de las variables dependientes. En lugar de la línea es una estimación basada en los datos disponibles. Así que el término de error le indica cómo seguro de que puede ser de la fórmula. Cuanto más grande es, menos seguro de que la línea de regresión.
El ejemplo anterior utiliza una única variable para predecir el factor de interés - en este caso de lluvia para predecir las ventas. Normalmente se inicia un análisis de regresión con ganas de entender el impacto de varias variables independientes. Así que se podría incluir no sólo la lluvia, sino también datos sobre la promoción de la competencia. "Sigue haciendo esto hasta que el término de error es muy pequeño", dice Redman. "Estás tratando de obtener la línea que mejor se adapte a tus datos." Si bien puede haber peligros de tratar de incluir demasiadas variables en un análisis de regresión, los analistas expertos pueden minimizar esos riesgos. Y teniendo en cuenta el impacto de varias variables a la vez es una de las mayores ventajas de regresión.
La mayoría de las empresas utilizan el análisis de regresión para explicar un fenómeno que quieren entender (por ejemplo, ¿por qué las llamadas de servicio al cliente caer el mes pasado?); predecir las cosas en el futuro (por ejemplo, lo que se verá como las ventas en los próximos seis meses?); o para decidir qué hacer (por ejemplo, debemos ir con esta promoción o uno diferente?).
A veces factores están correlacionados que son tan obviamente no conectado por causa y efecto, pero más a menudo en los negocios, que no es tan obvio. Cuando usted ve una correlación de un análisis de regresión, no se puede hacer suposiciones, dice Redman. En cambio, "Tienes que salir y ver lo que está sucediendo en el mundo real. ¿Cuál es el mecanismo físico que está causando la relación? "Salir un observar los consumidores la compra de su producto en la lluvia, hablar con ellos, y saber, lo que realmente está causando ellos para hacer la compra. "Mucha gente salte este paso y creo que es porque son perezosos. El objetivo no es averiguar lo que está pasando en los datos, sino que averiguar es lo que está pasando en el mundo. Tienes que salir y golpear el pavimento ", dice.
Redman escribió sobre su propio experimento y análisis para tratar de bajar de peso y la conexión entre su viaje y el aumento de peso. Se dio cuenta de que cuando viajó, comía más y ejerce menos. Así fue su aumento de peso causado por los viajes? No necesariamente. "Fue agradable para cuantificar lo que estaba pasando pero el viaje no es la causa. Puede estar relacionado ", dice, pero no es como si su ser en la carretera poner esas libras de más adelante. Tenía que entender más acerca de lo que estaba sucediendo durante sus viajes. "A menudo estoy en nuevos entornos así que tal vez me estoy comiendo más porque estoy nervioso?" Tenía que mirar más de cerca la correlación. Y este es su consejo para los administradores. Utilice los datos para guiar más experimentos, no hacer conclusiones acerca de causa y efecto.
En primer lugar, no le digas a tu analista de datos para salir y averiguar lo que está afectando a las ventas. "La forma en la mayoría de los análisis se descontrolan es el gerente no se ha reducido el foco en lo que él o ella está buscando", dice Redman. Es su trabajo para identificar los factores que usted sospecha que está teniendo un impacto y pregúntele a su analista que mirar esos. "Si le dices a un científico de datos para ir en una expedición de pesca, o para decirle algo que no sabes, entonces te mereces lo que te dan, que es malo análisis", dice. En otras palabras, no pedir a sus analistas a mirar todas las variables que posiblemente puede tener en sus manos a la vez. Si lo haces, es probable encontrar relaciones que en realidad no existen. Es el mismo principio que lanzar una moneda: lo hacen suficientes veces, que finalmente va a pensar que se ve algo interesante, como un montón de cabezas de todos en una fila.
También hay que tener en cuenta si está o no se puede hacer nada acerca de la variable independiente que está considerando. No se puede cambiar la cantidad de lluvia así que ¿cómo de importante es entender eso? "No podemos hacer nada sobre el tiempo o la promoción de nuestro competidor pero podemos afectar nuestras propias promociones o agregar características, por ejemplo", dice Redman. Siempre pregúntese qué va a hacer con los datos. ¿Qué medidas va a tomar? ¿Qué decisiones va a hacer?
En segundo lugar, "los análisis son muy sensibles a los malos datos" así que tenga cuidado acerca de los datos que recopila y cómo se recoge, y saber si se puede confiar en ella. "Todos los datos no tiene que ser correcta o perfecta", explica Redman pero tenga en cuenta lo que va a hacer con el análisis. Si las decisiones que va a hacer como resultado no tienen un enorme impacto en su negocio, entonces está bien si los datos son "tipo de fugas." Sin embargo, "si usted está tratando de decidir si se debe construir 8 o 10 de algo y cada uno cuesta $ 1 millón para construir, entonces es un asunto muy grande ", dice. La tabla a continuación explica cómo pensar sobre si se debe actuar sobre los datos.
Redman dice que algunos gerentes que son nuevos en el análisis de regresión comprensión cometen el error de ignorar el término de error. Esto es peligroso porque están haciendo la relación entre algo más seguro de lo que es. "A menudo los resultados escupir de un ordenador y gerentes piensan, 'Eso está muy bien, vamos a utilizar esta en el futuro.'" Pero recuerde que los resultados son siempre incierto. Como Redman señala: "Si la regresión explica el 90% de la relación, eso es genial. Pero si se explica el 10%, y actuar como si fuera del 90%, eso no es bueno. "El punto de análisis es cuantificar la certeza de que algo va a suceder. "No te está diciendo cómo la lluvia influirá en sus ventas, sino que le está diciendo la probabilidad de que la lluvia puede influir en sus ventas."
El último error que Redman advierte contra está dejando de datos sustituyen a su intuición.
"Siempre tienes que poner tu intuición en la parte superior de los datos", explica. Pregúntate a ti mismo si los resultados encajan con su comprensión de la situación. Y si ves algo que no tiene sentido preguntarse si los datos estaba en lo cierto o si de hecho existe un término de error grande. Redman sugiere usted mira a los gerentes con más experiencia o otros análisis si usted está recibiendo algo que no tiene sentido. Y, dice, no te olvides de mirar más allá de los números a lo que está sucediendo fuera de su oficina: "Hay que emparejar cualquier análisis con el estudio del mundo real. Los mejores científicos - y gerentes - miran tanto ".
Amy Gallo - Harvard Business Review
Usted probablemente ya sabe que siempre que sea posible usted debe hacer decisiones basadas en datos en el trabajo. Pero ¿sabe usted cómo analizar todos los datos disponibles para usted? La buena noticia es que usted probablemente no tiene que hacer el cálculo de números por usted mismo (¡aleluya!) Pero sí es necesario para comprender e interpretar correctamente el análisis creado por sus colegas. Uno de los tipos más importantes de análisis de datos es de regresión.
Para entender mejor este método y cómo las empresas utilizan, hablé con Tom Redman, autor de Data Driven: Beneficiándose de su activo más importante de negocios. También asesora a las organizaciones en sus datos y programas de calidad de datos.
¿Qué es el análisis de regresión?
Redman ofrece este escenario de ejemplo: Supongamos que usted es un gerente de ventas de tratar de predecir los números del mes que viene. Ustedes saben que decenas, tal vez incluso cientos de factores desde el clima a la promoción de la competencia a los rumores de un modelo nuevo y mejorado pueden afectar el número. Tal vez la gente en su organización, incluso tienen una teoría sobre lo que va a tener el mayor efecto en las ventas. "Créeme. El más lluvia que tenemos, más nos venden. "" Seis semanas después de la promoción de la competencia, salto de ventas. "El análisis de regresión es una forma de clasificar matemáticamente cuál de estas variables tiene de hecho un impacto. Responde a las preguntas: ¿Qué factores son más importantes? ¿Qué podemos ignorar? ¿Cómo interactúan los factores entre sí? Y, quizás lo más importante, cómo ciertas somos acerca de todos estos factores?
En el análisis de regresión, estos factores se denominan variables. Usted tiene su variable dependiente - el principal factor que usted está tratando de comprender o predecir. En el ejemplo de Redman anterior, la variable dependiente es ventas mensuales. Y entonces usted tiene sus variables independientes - los factores de sospecha tiene un impacto sobre la variable dependiente.
¿Como funciona?
Con el fin de llevar a cabo un análisis de regresión, que se reúnen los datos sobre las variables en cuestión. (Recordatorio: es probable que no tiene que hacerlo usted mismo, pero es útil para que usted entienda el proceso utiliza su colega analista de datos.) Usted toma todas sus cifras de ventas mensuales para, por ejemplo, los últimos tres años y todos los datos de las variables independientes que están interesados en. Así que, en este caso, digamos que usted descubre la precipitación mensual promedio de los últimos tres años también. Luego se trazan toda esa información en un gráfico que tiene este aspecto:El eje y es la cantidad de ventas (la variable dependiente, lo que le interesa, es siempre en el eje y) y el eje x es la precipitación total. Cada punto azul representa datos-how de un mes de mucho llovió ese mes y el número de ventas que hizo ese mismo mes.
Echando un vistazo a estos datos, es probable que note que las ventas son mayores en los días cuando llueve mucho. Eso es interesante saber, pero por cuánto? Si llueve 3 pulgadas, ¿sabe cuánto va a vender? ¿Qué pasa si llueve 4 pulgadas?
Ahora imagine trazar una línea a través de la tabla de arriba, uno que corre más o menos por la mitad de todos los puntos de datos. Esta línea le ayudará a responder, con cierto grado de certeza, la cantidad normalmente usted vende cuando llueve una cierta cantidad.
Esto se llama la línea de regresión y se dibuja (utilizando un programa estadístico como SPSS o STATA o Excel) para mostrar la línea que mejor se ajusta a los datos. En otras palabras, explica Redman, "La línea roja es la mejor explicación de la relación entre la variable independiente y la variable dependiente."
Además de trazar la línea, su programa de estadísticas también da salida a una fórmula que explica la pendiente de la línea y se ve algo como esto:
Ignorar el término de error, por ahora. Se refiere al hecho de que la regresión no es perfectamente preciso. Sólo se centran en el modelo:
Lo que esta fórmula le está diciendo es que si no hay una "x", entonces Y = 200. Por lo tanto, históricamente, cuando no llovió en absoluto, usted hizo un promedio de 200 ventas y usted puede esperar para hacer lo mismo en el futuro suponiendo que otras variables permanecen igual. Y en el pasado, por cada pulgada adicional de lluvia, que hizo un promedio de cinco ventas más. "Por cada incremento que x sube uno, y sube por cinco", dice Redman.
Ahora volvamos al término de error. Usted puede tener la tentación de decir que la lluvia tiene un gran impacto en las ventas si por cada pulgada usted consigue cinco más ventas, pero si esta variable es digno de su atención dependerá del término de error. Una línea de regresión siempre tiene un término de error, ya que, en la vida real, las variables independientes no son predictores perfectas de las variables dependientes. En lugar de la línea es una estimación basada en los datos disponibles. Así que el término de error le indica cómo seguro de que puede ser de la fórmula. Cuanto más grande es, menos seguro de que la línea de regresión.
El ejemplo anterior utiliza una única variable para predecir el factor de interés - en este caso de lluvia para predecir las ventas. Normalmente se inicia un análisis de regresión con ganas de entender el impacto de varias variables independientes. Así que se podría incluir no sólo la lluvia, sino también datos sobre la promoción de la competencia. "Sigue haciendo esto hasta que el término de error es muy pequeño", dice Redman. "Estás tratando de obtener la línea que mejor se adapte a tus datos." Si bien puede haber peligros de tratar de incluir demasiadas variables en un análisis de regresión, los analistas expertos pueden minimizar esos riesgos. Y teniendo en cuenta el impacto de varias variables a la vez es una de las mayores ventajas de regresión.
¿Cómo las empresas lo utilizan?
El análisis de regresión es el "go-to método en el análisis", dice Redman. Y las compañías inteligentes usan para tomar decisiones acerca de todo tipo de temas de negocios. "Como administradores, queremos averiguar cómo podemos impactar las ventas o retención de los empleados o la contratación de la mejor gente. Nos ayuda a averiguar qué podemos hacer ".La mayoría de las empresas utilizan el análisis de regresión para explicar un fenómeno que quieren entender (por ejemplo, ¿por qué las llamadas de servicio al cliente caer el mes pasado?); predecir las cosas en el futuro (por ejemplo, lo que se verá como las ventas en los próximos seis meses?); o para decidir qué hacer (por ejemplo, debemos ir con esta promoción o uno diferente?).
Una nota sobre "correlación no es causalidad"
Cuando se trabaja con el análisis de regresión o cualquier otro análisis que trata de explicar el impacto de un factor sobre otro, es necesario recordar el adagio importante: La correlación no es causalidad. Esto es crítica y he aquí por qué: Es fácil decir que hay una correlación entre la lluvia y las ventas mensuales. La regresión muestra que efectivamente están relacionados. Pero es una cosa totalmente diferente que decir que la lluvia hizo que las ventas. A menos que usted está vendiendo paraguas, podría ser difícil probar que existe una causa y efecto.A veces factores están correlacionados que son tan obviamente no conectado por causa y efecto, pero más a menudo en los negocios, que no es tan obvio. Cuando usted ve una correlación de un análisis de regresión, no se puede hacer suposiciones, dice Redman. En cambio, "Tienes que salir y ver lo que está sucediendo en el mundo real. ¿Cuál es el mecanismo físico que está causando la relación? "Salir un observar los consumidores la compra de su producto en la lluvia, hablar con ellos, y saber, lo que realmente está causando ellos para hacer la compra. "Mucha gente salte este paso y creo que es porque son perezosos. El objetivo no es averiguar lo que está pasando en los datos, sino que averiguar es lo que está pasando en el mundo. Tienes que salir y golpear el pavimento ", dice.
Redman escribió sobre su propio experimento y análisis para tratar de bajar de peso y la conexión entre su viaje y el aumento de peso. Se dio cuenta de que cuando viajó, comía más y ejerce menos. Así fue su aumento de peso causado por los viajes? No necesariamente. "Fue agradable para cuantificar lo que estaba pasando pero el viaje no es la causa. Puede estar relacionado ", dice, pero no es como si su ser en la carretera poner esas libras de más adelante. Tenía que entender más acerca de lo que estaba sucediendo durante sus viajes. "A menudo estoy en nuevos entornos así que tal vez me estoy comiendo más porque estoy nervioso?" Tenía que mirar más de cerca la correlación. Y este es su consejo para los administradores. Utilice los datos para guiar más experimentos, no hacer conclusiones acerca de causa y efecto.
¿Qué errores personas hacen cuando se trabaja con el análisis de regresión?
Como consumidor de análisis de regresión, hay varias cosas que hay que tener en cuenta.En primer lugar, no le digas a tu analista de datos para salir y averiguar lo que está afectando a las ventas. "La forma en la mayoría de los análisis se descontrolan es el gerente no se ha reducido el foco en lo que él o ella está buscando", dice Redman. Es su trabajo para identificar los factores que usted sospecha que está teniendo un impacto y pregúntele a su analista que mirar esos. "Si le dices a un científico de datos para ir en una expedición de pesca, o para decirle algo que no sabes, entonces te mereces lo que te dan, que es malo análisis", dice. En otras palabras, no pedir a sus analistas a mirar todas las variables que posiblemente puede tener en sus manos a la vez. Si lo haces, es probable encontrar relaciones que en realidad no existen. Es el mismo principio que lanzar una moneda: lo hacen suficientes veces, que finalmente va a pensar que se ve algo interesante, como un montón de cabezas de todos en una fila.
También hay que tener en cuenta si está o no se puede hacer nada acerca de la variable independiente que está considerando. No se puede cambiar la cantidad de lluvia así que ¿cómo de importante es entender eso? "No podemos hacer nada sobre el tiempo o la promoción de nuestro competidor pero podemos afectar nuestras propias promociones o agregar características, por ejemplo", dice Redman. Siempre pregúntese qué va a hacer con los datos. ¿Qué medidas va a tomar? ¿Qué decisiones va a hacer?
En segundo lugar, "los análisis son muy sensibles a los malos datos" así que tenga cuidado acerca de los datos que recopila y cómo se recoge, y saber si se puede confiar en ella. "Todos los datos no tiene que ser correcta o perfecta", explica Redman pero tenga en cuenta lo que va a hacer con el análisis. Si las decisiones que va a hacer como resultado no tienen un enorme impacto en su negocio, entonces está bien si los datos son "tipo de fugas." Sin embargo, "si usted está tratando de decidir si se debe construir 8 o 10 de algo y cada uno cuesta $ 1 millón para construir, entonces es un asunto muy grande ", dice. La tabla a continuación explica cómo pensar sobre si se debe actuar sobre los datos.
Redman dice que algunos gerentes que son nuevos en el análisis de regresión comprensión cometen el error de ignorar el término de error. Esto es peligroso porque están haciendo la relación entre algo más seguro de lo que es. "A menudo los resultados escupir de un ordenador y gerentes piensan, 'Eso está muy bien, vamos a utilizar esta en el futuro.'" Pero recuerde que los resultados son siempre incierto. Como Redman señala: "Si la regresión explica el 90% de la relación, eso es genial. Pero si se explica el 10%, y actuar como si fuera del 90%, eso no es bueno. "El punto de análisis es cuantificar la certeza de que algo va a suceder. "No te está diciendo cómo la lluvia influirá en sus ventas, sino que le está diciendo la probabilidad de que la lluvia puede influir en sus ventas."
El último error que Redman advierte contra está dejando de datos sustituyen a su intuición.
"Siempre tienes que poner tu intuición en la parte superior de los datos", explica. Pregúntate a ti mismo si los resultados encajan con su comprensión de la situación. Y si ves algo que no tiene sentido preguntarse si los datos estaba en lo cierto o si de hecho existe un término de error grande. Redman sugiere usted mira a los gerentes con más experiencia o otros análisis si usted está recibiendo algo que no tiene sentido. Y, dice, no te olvides de mirar más allá de los números a lo que está sucediendo fuera de su oficina: "Hay que emparejar cualquier análisis con el estudio del mundo real. Los mejores científicos - y gerentes - miran tanto ".
jueves, 27 de agosto de 2015
Fijando precio a la genialidad
Apreciando el Genio: La Evaluación del Mercado de Innovación
David W. Galenson
Universidad de Chicago - Departamento de Economía; Oficina Nacional de Investigación Económica (NBER)
Simone Lenzu
Universidad de Chicago
03 de julio 2015
Resumen:
Los economistas han descuidado un tema clave para la comprensión y el aumento de los cambios tecnológicos, al no estudiar el talento que los individuos producen innovaciones. Este trabajo tiene un enfoque cuantitativo a este problema. El análisis de regresión de los datos de la subasta de 1965-2015 revela que los perfiles edad-precio de Jackson Pollock y Andy Warhol - los dos más grandes pintores nacidos en el siglo 20 - se parecen mucho a los perfiles de edad de los dos artistas se derivan tanto de los libros de texto de historia del arte y desde exposiciones retrospectivas. El acuerdo de estas fuentes confirman que el mercado de subastas asigna los precios más altos para el arte más importante, y el examen de las carreras de los artistas revela que este arte es el más importante porque es el más innovador. Estos resultados dan un fuerte apoyo a nuestra comprensión de la creatividad a nivel individual, con un fuerte contraste entre la innovación experimental extendida de Pollock y la innovación conceptual repentina de Warhol.
David W. Galenson
Universidad de Chicago - Departamento de Economía; Oficina Nacional de Investigación Económica (NBER)
Simone Lenzu
Universidad de Chicago
03 de julio 2015
Resumen:
Los economistas han descuidado un tema clave para la comprensión y el aumento de los cambios tecnológicos, al no estudiar el talento que los individuos producen innovaciones. Este trabajo tiene un enfoque cuantitativo a este problema. El análisis de regresión de los datos de la subasta de 1965-2015 revela que los perfiles edad-precio de Jackson Pollock y Andy Warhol - los dos más grandes pintores nacidos en el siglo 20 - se parecen mucho a los perfiles de edad de los dos artistas se derivan tanto de los libros de texto de historia del arte y desde exposiciones retrospectivas. El acuerdo de estas fuentes confirman que el mercado de subastas asigna los precios más altos para el arte más importante, y el examen de las carreras de los artistas revela que este arte es el más importante porque es el más innovador. Estos resultados dan un fuerte apoyo a nuestra comprensión de la creatividad a nivel individual, con un fuerte contraste entre la innovación experimental extendida de Pollock y la innovación conceptual repentina de Warhol.
domingo, 31 de mayo de 2015
Econometría: Regresión hedónica
Regresión hedónica
Wikipedia
En economía, la regresión hedónica o teoría de la demanda hedónica es un método de preferencia revelada de la estimación de la demanda o valor. Se descompone el artículo que es investigado en sus características constitutivas, y obtiene estimaciones del valor contributiva de cada característica. Esto requiere que el bien compuesto objeto de valoración puede ser reducida a sus partes constituyentes y que el mercado valora las partes constituyentes. Modelos hedónicos se estiman más comúnmente mediante análisis de regresión, aunque los modelos más generales, tales como las redes de ajuste de las ventas, son casos especiales de modelos hedónicos.
Un vector de atributo, que puede ser una variable ficticia o panel, se asigna a cada característica o grupo de características. Modelos hedónicos pueden acomodar la no linealidad, la interacción variable o en otras situaciones de valoración complejos.
Modelos hedónicos se utilizan comúnmente en la evaluación de bienes raíces, la economía de bienes raíces, y el Índice de Precios al Consumidor (IPC) cálculos. En los cálculos del IPC regresión hedónica se utiliza para controlar el efecto de los cambios en la calidad del producto. Los cambios de precios que se deben a los efectos de sustitución están sujetos a ajustes por calidad hedónicos.
Ciertos servicios ambientales a menudo influyen en los precios de mercado. El método de precios hedónicos es a menudo pone en juego a fin de evaluar los valores económicos de este tipo de servicios.
Este método tiene su aplicación para revelar el efecto de los atributos ambientales de los cambios en el precio de la vivienda local. Se utiliza con frecuencia para la estimación de los costos relacionados con:
Es importante señalar que el método de fijación de precios hedónicos se basa en el hecho de que los precios de las mercancías en un mercado se ven afectados por sus características. Por ejemplo, el precio de un par de pantalones dependerá de la comodidad, la tela utilizada, la marca, la forma, etc. Así que este método nos ayuda a estimar el valor de una mercancía con base en la disposición de la gente a pagar por la mercancía como y cuando sus características cambian. [2]
Un ejemplo particular que se utiliza con más frecuencia es el mercado inmobiliario en el que el valor de dos propiedades diferentes (que de otro modo se puede comparar) variará en función de los diversos servicios ambientales presentes en las zonas de los alrededores de estas propiedades. Si hay una caída de los precios de las propiedades medibles y cerca de un patio de volcado (en comparación con otros lugares), la diferencia en los precios apuntan hacia el coste externo del patio volcado. [3] Se trata de la disposición marginal a pagar (en precios de vivienda más altos) para la diferencia dada en la limpieza y la serenidad de la localidad. Métodos de regresión hedónica se utilizan para estimar estas diferencias de precios.
El método de precios hedónicos (HPM) como se mencionó anteriormente es una forma de método de preferencia revelada de valoración y utiliza los mercados sustitutos para estimar el valor de la amenidad ambiental.
El sustituto mercado es un concepto que se usa cuando no se puede estimar directamente los precios de mercado de ciertos bienes ambientales. Por lo tanto, una buena similares vendidos en el mercado es elegido como un proxy.
Por ejemplo, si queremos saber el valor del aire limpio estimado por un individuo, que puede revelar su preferencia en la forma de establecer su casa en una sociedad limpia y el pago de una prima adicional para el mismo. Así, con la ayuda del método de precios hedónicos, el componente ambiental del valor y el precio de mercado se pueden separar. A su vez, este precio de mercado se utiliza un sustituto para el valor del medio ambiente. [4]
La Normas Uniformes de la Práctica Profesional de Evaluación, o USPAP, establece las normas de evaluación de masas para regir el uso de regresiones hedónicas y otros modelos de valoración automática cuando se utiliza para la evaluación de bienes raíces. Metodología de evaluación trata la regresión hedónica como esencialmente una forma estadísticamente robusto del método de comparación de las ventas. [5] modelos hedónicos se utilizan comúnmente en la evaluación fiscal, pleito, estudios académicos, y otros proyectos de evaluación de masas.
El precio de una casa tanto, se ve afectada por las características estructurales (s1, s2, s3 ...) de la propia casa, características de la localidad / barrio (n1, n2, n3, ...), y las características ambientales (e1 , e2, e3 ...)
Características estructurales podrían ser cualquier cosa, desde el tamaño de la casa, con el número de habitaciones, tipo de suelo, etc. atributos Barrio incluyen variables como pijo-dad de la localidad, la calidad de las carreteras, etc. Y las características ambientales son variables de calidad de aire, la proximidad a los parques, playas, patios de dumping, etc.
El análisis se lleva a cabo en dos etapas. La primera etapa consiste en el empleo de técnicas de regresión para estimar el precio hedónico Función de la propiedad. Esta función se relacionará los precios de muchas propiedades en la misma zona de vivienda a las diferentes características.
Así Precio función (p) = f (s1, s2, s3 ... sj; n1, n2, n3, ... nj; e1, e2, e3, ... ej) Esta función podría ser lineal o no lineal . Los precios pueden cambiar a un ritmo creciente o decreciente cuando las características cambian. [4]
Cuando ahora diferenciar la función de precio con respecto a cualquiera de las características anteriores, la función de precio implícito para que característica particular es cedido. Se considera implícita porque la función de precio se revela indirectamente a nosotros por lo que la gente está dispuesta a pagar a fin de obtener una mejor calidad o cantidad de la característica.
En la segunda etapa, estos precios implícitos se regresan a las cantidades reales / cualidades elegidos por el pueblo para lograr la disposición marginal a pagar por la amenidad. Los resultados de este análisis indicarán los cambios en los valores de propiedad para un cambio unitario en cada característica, dado que todas las demás características son constantes. Algunas variables sin embargo pueden estar correlacionadas. Esto dará lugar a cambios similares en sus valores. [2]
donde es un conjunto de coeficientes y son independientes e idénticamente distribuidos, con una distribución normal .
El mismo uso de modelos hedónicos que analizan los precios de consumo en otros países ha demostrado que los métodos no hedónicos pueden misstate inflación en el tiempo al no tener en cuenta las variaciones de calidad. [8]
Wikipedia
En economía, la regresión hedónica o teoría de la demanda hedónica es un método de preferencia revelada de la estimación de la demanda o valor. Se descompone el artículo que es investigado en sus características constitutivas, y obtiene estimaciones del valor contributiva de cada característica. Esto requiere que el bien compuesto objeto de valoración puede ser reducida a sus partes constituyentes y que el mercado valora las partes constituyentes. Modelos hedónicos se estiman más comúnmente mediante análisis de regresión, aunque los modelos más generales, tales como las redes de ajuste de las ventas, son casos especiales de modelos hedónicos.
Un vector de atributo, que puede ser una variable ficticia o panel, se asigna a cada característica o grupo de características. Modelos hedónicos pueden acomodar la no linealidad, la interacción variable o en otras situaciones de valoración complejos.
Modelos hedónicos se utilizan comúnmente en la evaluación de bienes raíces, la economía de bienes raíces, y el Índice de Precios al Consumidor (IPC) cálculos. En los cálculos del IPC regresión hedónica se utiliza para controlar el efecto de los cambios en la calidad del producto. Los cambios de precios que se deben a los efectos de sustitución están sujetos a ajustes por calidad hedónicos.
Método de precios hedónicos
Aunque las características del producto ni se producen ni consumen en aislamiento, modelos de precios hedónicos se supone que el precio de un producto refleja características valoradas por algunos precios implícitos o sombra encarnada. En los estudios empíricos, estos precios implícitos característicos son coeficientes que relacionan los precios y los atributos en un modelo de regresión. Se estiman modelos de regresión de precios hedónicos utilizando datos secundarios sobre los precios y los atributos de las diferentes alternativas de productos o servicios. En el trabajo con datos longitudinales, se añade maniquíes específicos del período y utiliza sus coeficientes de regresión para estimar los índices de precios ajustados por calidad. En la regresión hedónica, variables independientes suelen incluir atributos de productos y servicios relacionados con el rendimiento. Tales características del producto representan no sólo valor para el usuario, sino también de recursos costo para el productor. Se ha demostrado sin embargo que los precios en la regresión hedónica no están determinadas completamente por factores técnicos y las características relacionadas con el rendimiento. De marca y el mercado del segmento efectos pueden explicar las distorsiones de precios y las primas que se cobran por encima de cualquier margen para las diferencias en el rendimiento del producto medible. [1]Ciertos servicios ambientales a menudo influyen en los precios de mercado. El método de precios hedónicos es a menudo pone en juego a fin de evaluar los valores económicos de este tipo de servicios.
Este método tiene su aplicación para revelar el efecto de los atributos ambientales de los cambios en el precio de la vivienda local. Se utiliza con frecuencia para la estimación de los costos relacionados con:
- La calidad general del medio ambiente en términos de contaminación del aire, contaminación del agua, y el ruido
- Instalaciones ambientales que incluyen lugares estéticos y cercanía a los sitios de recreación como parques, playas, etc.
Es importante señalar que el método de fijación de precios hedónicos se basa en el hecho de que los precios de las mercancías en un mercado se ven afectados por sus características. Por ejemplo, el precio de un par de pantalones dependerá de la comodidad, la tela utilizada, la marca, la forma, etc. Así que este método nos ayuda a estimar el valor de una mercancía con base en la disposición de la gente a pagar por la mercancía como y cuando sus características cambian. [2]
Un ejemplo particular que se utiliza con más frecuencia es el mercado inmobiliario en el que el valor de dos propiedades diferentes (que de otro modo se puede comparar) variará en función de los diversos servicios ambientales presentes en las zonas de los alrededores de estas propiedades. Si hay una caída de los precios de las propiedades medibles y cerca de un patio de volcado (en comparación con otros lugares), la diferencia en los precios apuntan hacia el coste externo del patio volcado. [3] Se trata de la disposición marginal a pagar (en precios de vivienda más altos) para la diferencia dada en la limpieza y la serenidad de la localidad. Métodos de regresión hedónica se utilizan para estimar estas diferencias de precios.
El método de precios hedónicos (HPM) como se mencionó anteriormente es una forma de método de preferencia revelada de valoración y utiliza los mercados sustitutos para estimar el valor de la amenidad ambiental.
El sustituto mercado es un concepto que se usa cuando no se puede estimar directamente los precios de mercado de ciertos bienes ambientales. Por lo tanto, una buena similares vendidos en el mercado es elegido como un proxy.
Por ejemplo, si queremos saber el valor del aire limpio estimado por un individuo, que puede revelar su preferencia en la forma de establecer su casa en una sociedad limpia y el pago de una prima adicional para el mismo. Así, con la ayuda del método de precios hedónicos, el componente ambiental del valor y el precio de mercado se pueden separar. A su vez, este precio de mercado se utiliza un sustituto para el valor del medio ambiente. [4]
Modelos hedónicos y valoración de bienes raíces
En la economía de bienes raíces, se utiliza para ajustar los problemas asociados con la investigación de un bien que es tan heterogénea como edificios. Debido a que los edificios son tan diferentes, es difícil estimar la demanda de edificios de forma genérica. En su lugar, se supone que una casa se puede descomponer en características tales como el número de habitaciones, tamaño del lote, o la distancia al centro de la ciudad. Una ecuación de regresión hedónica trata estos atributos (o haces de atributos) por separado, y estima que los precios (en el caso de un modelo aditivo) o elasticidad (en el caso de un modelo de registro) para cada uno de ellos. Esta información puede ser utilizada para la construcción de un índice de precios que se puede utilizar para comparar el precio de la vivienda en diferentes ciudades, o para hacer análisis de series temporales. Al igual que con los cálculos del IPC, precios hedónicos se puede utilizar para corregir los cambios de calidad en la construcción de un índice de precios de vivienda. También se puede utilizar para evaluar el valor de una propiedad, en ausencia de datos específicos de transacción del mercado. También se puede utilizar para analizar la demanda de diversas características de la vivienda, y la demanda de vivienda en general. También se ha utilizado para probar hipótesis en la economía espacial.La Normas Uniformes de la Práctica Profesional de Evaluación, o USPAP, establece las normas de evaluación de masas para regir el uso de regresiones hedónicas y otros modelos de valoración automática cuando se utiliza para la evaluación de bienes raíces. Metodología de evaluación trata la regresión hedónica como esencialmente una forma estadísticamente robusto del método de comparación de las ventas. [5] modelos hedónicos se utilizan comúnmente en la evaluación fiscal, pleito, estudios académicos, y otros proyectos de evaluación de masas.
Aplicación del método de precios hedónicos
Si bien el estudio de la aplicación del método de precios hedónicos, la primera suposición hecha es el valor de una casa se ve afectada por una combinación particular de características que posee, dado que las propiedades con mejores cualidades exigen precios más altos en comparación con propiedades con calidades inferiores. Esta es la función de precios hedónicos.El precio de una casa tanto, se ve afectada por las características estructurales (s1, s2, s3 ...) de la propia casa, características de la localidad / barrio (n1, n2, n3, ...), y las características ambientales (e1 , e2, e3 ...)
Características estructurales podrían ser cualquier cosa, desde el tamaño de la casa, con el número de habitaciones, tipo de suelo, etc. atributos Barrio incluyen variables como pijo-dad de la localidad, la calidad de las carreteras, etc. Y las características ambientales son variables de calidad de aire, la proximidad a los parques, playas, patios de dumping, etc.
El análisis se lleva a cabo en dos etapas. La primera etapa consiste en el empleo de técnicas de regresión para estimar el precio hedónico Función de la propiedad. Esta función se relacionará los precios de muchas propiedades en la misma zona de vivienda a las diferentes características.
Así Precio función (p) = f (s1, s2, s3 ... sj; n1, n2, n3, ... nj; e1, e2, e3, ... ej) Esta función podría ser lineal o no lineal . Los precios pueden cambiar a un ritmo creciente o decreciente cuando las características cambian. [4]
Cuando ahora diferenciar la función de precio con respecto a cualquiera de las características anteriores, la función de precio implícito para que característica particular es cedido. Se considera implícita porque la función de precio se revela indirectamente a nosotros por lo que la gente está dispuesta a pagar a fin de obtener una mejor calidad o cantidad de la característica.
En la segunda etapa, estos precios implícitos se regresan a las cantidades reales / cualidades elegidos por el pueblo para lograr la disposición marginal a pagar por la amenidad. Los resultados de este análisis indicarán los cambios en los valores de propiedad para un cambio unitario en cada característica, dado que todas las demás características son constantes. Algunas variables sin embargo pueden estar correlacionadas. Esto dará lugar a cambios similares en sus valores. [2]
Regresión hedónica
Por ejemplo, para un modelo econométrico lineal, asumir que en cada periodo t hemos bienes, lo que podría ser descrito por un vector de k características . Así, la regresión hedónica (en sección transversal) es:donde es un conjunto de coeficientes y son independientes e idénticamente distribuidos, con una distribución normal .
Ventajas
- Versatilidad: El método puede adaptarse cómodamente a tomar en consideración las diversas interacciones probables entre la calidad del medio ambiente y los bienes comercializados.
- Este método se utiliza a menudo para aproximar los valores en función de las opciones reales de las personas.
- El mercado de bienes raíces es una buena indicación de los valores, ya que es relativamente eficiente en la respuesta a la información.
- Es relativamente fácil obtener datos sobre las ventas de propiedades y características y puede ser fácilmente comparado con fuentes secundarias de datos con el fin de adquirir las variables descriptivas para el análisis de regresión. [2]
Limitaciones
- El ámbito de aplicación de este modelo es restringido y limitado a medir los beneficios ambientales relacionados con sólo los precios de la vivienda.
- La cantidad de datos que necesita ser recogida y trabajó con es muy grande.
- Un requisito previo de la modelo es que cada uno debe tener conocimiento previo de las posibles externalidades positivas y negativas que se asocian con la compra de la propiedad inmobiliaria. Por ejemplo, es importante que sepan de antemano sobre el nivel de contaminación en una localidad situada cerca de una zona industrial. Esto sin embargo no es el caso en la realidad.
- La disponibilidad y accesibilidad de los datos afecta directamente a la cantidad de tiempo y el gasto que se vaya a realizar para llevar a cabo una aplicación del modelo.
- Este método estima la disposición a pagar por la supuesta variación de calidades ambientales y sus consecuencias. Sin embargo, si las personas no son conscientes de la relación entre las cualidades ambientales y sus beneficios para ellos o los bienes, el valor no se refleja en el precio de la propiedad.
- Limitaciones de mercados: Este modelo hace que la suposición de que, dado su ingreso, la gente tiene la oportunidad de elegir la combinación de atributos que prefieren. Lo que no ve es que el mercado de bienes raíces también puede verse afectada por factores externos, como las tasas de interés, impuestos, etc. Por ejemplo: Supongamos que una familia desea comprar una propiedad cerca de un popular centro de la ciudad, que tiene un jardín y de un área grande. En realidad - puede ser posible que una casa cerca del centro de la ciudad es relativamente pequeño en tamaño o no tiene un jardín.
- Multicolinealidad: A veces, no podría ser un caso en el que las propiedades más grandes están disponibles únicamente en áreas no contaminadas limpias y pequeñas propiedades se encuentran en entornos más urbanos y contaminadas. En tales casos, sería difícil a la contaminación por separado y el tamaño de la propiedad exactamente.
- Cambios de precio: Otro supuesto es que los precios en el mercado se ajustará automáticamente a cualquier cambio en los atributos. En realidad, hay un desfase especialmente en localidades donde la compra y venta de bienes raíces es limitada.
- El modelo es relativamente complejo de interpretar y requiere un alto nivel de conocimientos y experiencia estadística. [6]
La crítica
Algunos comentaristas, incluyendo economistas austriacos, han criticado la utilización por el gobierno de Estados Unidos de la regresión hedónica en el cálculo de su IPC, por temor a que puede ser utilizado para enmascarar la "verdadera" tasa de inflación y por lo tanto reducir el interés que debe pagar el Treasury Inflation-Protected Securities (TIPS) y los ajustes de costo de vida la Seguridad Social. [7]El mismo uso de modelos hedónicos que analizan los precios de consumo en otros países ha demostrado que los métodos no hedónicos pueden misstate inflación en el tiempo al no tener en cuenta las variaciones de calidad. [8]
Referencias
- Baltas, G. and Freeman, J. (2001). Hedonic Price Methods and the Structure of High-Technology Industrial Markets: An Empirical Analysis. Industrial Marketing Management 30: 599-607
- Ecosystem Valuation Methods - Hedonic Pricing
- Hedonic pricing (HPM). VU University, Institute for Environmental Studies.
- Gundimeda, Dr.haripriya. "Hedonic Pricing Method-A Concept Note" (PDF).
- John A. Kilpatrick, Real Estate Issues in Class Certification
- More Reading here.[1]
- See, for example, Lippe, Peter von der (2001). "Some Conservative Comments on Hedonic Methods" (PDF).
- See, for example, Reis, Hugo J.; Silva, J. M. C. Santos (2006). "Hedonic Price Indexes for New Passenger Cars in Portugal (1997–2003)". Economic Modeling 23 (6): 890–906.doi:10.1016/j.econmod.2006.04.003.
viernes, 22 de mayo de 2015
Sosa Escudero nos ilustra sobre las encuestas electorales
Las estadísticas, como una hamburguesa o un remedio
La letra chica de las encuestas, como las que miden a Macri, Scioli o Massa, permite entender qué credibilidad tienen
Por Walter Sosa Escudero | Para LA NACION
Prepárense. Frente a la inminencia del largo proceso electoral, se avista en el horizonte una autentico tsunami de estadísticas. Todos los medios asignan considerable espacio a los resultados de diversas encuestas sobre intenciones de voto. La pregunta inevitable es si uno debería creer en estas encuestas, o en las estadísticas en general. Esto cambia con una breve visita a la cocina de las estadísticas. Como las hamburguesas, quedará a juicio del lector seguir consumiéndolas luego de ver cómo se fabrican.
Una encuesta reciente sugiere que Daniel Scioli tiene una intención de voto de 33.4%, por lo que aventaja a Mauricio Macri, con un 27.3%. ¿Qué es posible concluir de esta información? La estadística viene con "letra chica". Una encuesta es una aproximación a una realidad inalcanzable. La única forma de confiar en un 100% en una encuesta electoral es si todos los votantes son encuestados. Desde este punto de vista, el acto electoral es algo así como la madre de todas las encuestas, una tarea costosísima. En el día a día debemos conformarnos con alguna aproximación, con un sondeo basado en un pequeño subconjunto de la población. Por eso, una encuesta de opinión es errada por construcción tanto como la muestra difiera de la población.
La tarea de la estadística consiste en garantizar que esta información sobre la base de muestras sea útil a pesar de ser errada. En el caso de la discusión de Scioli versus Macri, el yerro tiene que ver con que los guarismos que favorecen a Scioli en realidad dicen que el 33,4% de los encuestados dijeron que lo votarían. ¿Es posible extrapolar esto a toda la población? Y aquí es cuando entra en acción la letra chica de la estadística, que a veces aparece en auténtica letra ínfima incluyendo frases enigmáticas como "muestreo polietápico" o "error de muestreo".
Una encuesta estándar se maneja con unos 1000 casos, que suenan a pocos en comparación con los cerca de 30 millones habilitados para votar. ¿Es creíble la información que surge de tan ínfima cantidad de datos? Antes de concluir rotundamente que no, hay que pensar en la cantidad de sangre que nos extraen para un análisis de colesterol.
La tarea de la estadística profesional es medir cuán grande puede ser la discrepancia entre la parte (la encuesta) y el todo (la población). El más simple de los esquemas de muestreo debería contactar a la gente al azar, es decir, de una lista que contiene a toda la población, elegir una muestra por sorteo, en donde cada persona tiene la misma chance de aparecer que cualquier otra, como quien revuelve bien la cacerola de salsa antes de sacar una cucharadita para ver si está salada.
Estos métodos puramente al azar son extremadamente costosos, de ahí que en la práctica se apele a estrategias más sofisticadas. Por ejemplo, muchas veces se divide a una ciudad en barrios y luego se procede a encuestar al azar dentro de cada barrio. A este tipo de procedimiento se lo llama "muestreo por etapas" o polietápico.
El paso siguiente consiste en calcular una suerte de margen de error, es decir, en cuanto deberíamos esperar que cambien los resultados si en vez de haber tomado una muestra hubiésemos tomado otra. Una aproximación burda sugiere que para una encuesta de 1000 casos el margen de error es aproximadamente 3,2%. O sea que si de 1000 personas encuestadas, el 33,4% dijo que votaría a Scioli, la respuesta para toda la población debería estar entre 30,2% y 36,6%. Y acá aparece la frase "con un nivel de confianza de 95%", qué debe ser interpretada como un grado de credibilidad, que va de 0 a 100. La pregunta obvia es si no será posible obtener una estimación con un nivel de confianza del 100%, y la respuesta es positiva pero decepcionante: de lo único que estamos 100% seguros es que la proporción de votantes a Scioli (y a cualquier candidato) esta entre 0% y 100%, concepto tan cierto como inútil ya que lo sabíamos sin hacer ninguna encuesta. Aumentar la confiabilidad implica agrandar el margen de error.
"Puede fallar", decía Tu Sam cuando uno de sus trucos no funcionaba. Y lo mismo ocurre con las estadísticas. Más concretamente, no es del todo claro que la ventaja de 6% que Scioli tiene sobre Macri no sea simplemente un "error estadístico". Entonces, la letra chica de la estadística debería decir cómo, cuándo y donde se hizo la encuesta, el número de casos, y alguna idea del margen de error estadístico.
Volviendo a la analogía con los remedios, más que leer la letra pequeñísima de los prospectos el paciente confía en su médico, que a su vez confía en la escuela que lo formo, que cree en las instituciones reguladoras, que a su vez lo hace en la comunidad científica. Las estadísticas también derivan su validez de una comunidad responsable, científica y comunicacional. Los que hacen seriamente su trabajo estadístico (que son muchos) juegan su prestigio y lo exponen al escrutinio de los expertos.
El debate social (sobre las elecciones, la pobreza o el dólar) sin datos concretos es irresponsable, tanto como la proliferación de estadísticas sin una discusión metodológica seria que permita que el usuario pueda consumirlas con tranquilidad, como los remedios o las comidas de un restaurante confiable.
El autor es profesor de Udesa e investigador del Conicet
La letra chica de las encuestas, como las que miden a Macri, Scioli o Massa, permite entender qué credibilidad tienen
Por Walter Sosa Escudero | Para LA NACION
Prepárense. Frente a la inminencia del largo proceso electoral, se avista en el horizonte una autentico tsunami de estadísticas. Todos los medios asignan considerable espacio a los resultados de diversas encuestas sobre intenciones de voto. La pregunta inevitable es si uno debería creer en estas encuestas, o en las estadísticas en general. Esto cambia con una breve visita a la cocina de las estadísticas. Como las hamburguesas, quedará a juicio del lector seguir consumiéndolas luego de ver cómo se fabrican.
Una encuesta reciente sugiere que Daniel Scioli tiene una intención de voto de 33.4%, por lo que aventaja a Mauricio Macri, con un 27.3%. ¿Qué es posible concluir de esta información? La estadística viene con "letra chica". Una encuesta es una aproximación a una realidad inalcanzable. La única forma de confiar en un 100% en una encuesta electoral es si todos los votantes son encuestados. Desde este punto de vista, el acto electoral es algo así como la madre de todas las encuestas, una tarea costosísima. En el día a día debemos conformarnos con alguna aproximación, con un sondeo basado en un pequeño subconjunto de la población. Por eso, una encuesta de opinión es errada por construcción tanto como la muestra difiera de la población.
La tarea de la estadística consiste en garantizar que esta información sobre la base de muestras sea útil a pesar de ser errada. En el caso de la discusión de Scioli versus Macri, el yerro tiene que ver con que los guarismos que favorecen a Scioli en realidad dicen que el 33,4% de los encuestados dijeron que lo votarían. ¿Es posible extrapolar esto a toda la población? Y aquí es cuando entra en acción la letra chica de la estadística, que a veces aparece en auténtica letra ínfima incluyendo frases enigmáticas como "muestreo polietápico" o "error de muestreo".
Una encuesta estándar se maneja con unos 1000 casos, que suenan a pocos en comparación con los cerca de 30 millones habilitados para votar. ¿Es creíble la información que surge de tan ínfima cantidad de datos? Antes de concluir rotundamente que no, hay que pensar en la cantidad de sangre que nos extraen para un análisis de colesterol.
La tarea de la estadística profesional es medir cuán grande puede ser la discrepancia entre la parte (la encuesta) y el todo (la población). El más simple de los esquemas de muestreo debería contactar a la gente al azar, es decir, de una lista que contiene a toda la población, elegir una muestra por sorteo, en donde cada persona tiene la misma chance de aparecer que cualquier otra, como quien revuelve bien la cacerola de salsa antes de sacar una cucharadita para ver si está salada.
Estos métodos puramente al azar son extremadamente costosos, de ahí que en la práctica se apele a estrategias más sofisticadas. Por ejemplo, muchas veces se divide a una ciudad en barrios y luego se procede a encuestar al azar dentro de cada barrio. A este tipo de procedimiento se lo llama "muestreo por etapas" o polietápico.
El paso siguiente consiste en calcular una suerte de margen de error, es decir, en cuanto deberíamos esperar que cambien los resultados si en vez de haber tomado una muestra hubiésemos tomado otra. Una aproximación burda sugiere que para una encuesta de 1000 casos el margen de error es aproximadamente 3,2%. O sea que si de 1000 personas encuestadas, el 33,4% dijo que votaría a Scioli, la respuesta para toda la población debería estar entre 30,2% y 36,6%. Y acá aparece la frase "con un nivel de confianza de 95%", qué debe ser interpretada como un grado de credibilidad, que va de 0 a 100. La pregunta obvia es si no será posible obtener una estimación con un nivel de confianza del 100%, y la respuesta es positiva pero decepcionante: de lo único que estamos 100% seguros es que la proporción de votantes a Scioli (y a cualquier candidato) esta entre 0% y 100%, concepto tan cierto como inútil ya que lo sabíamos sin hacer ninguna encuesta. Aumentar la confiabilidad implica agrandar el margen de error.
"Puede fallar", decía Tu Sam cuando uno de sus trucos no funcionaba. Y lo mismo ocurre con las estadísticas. Más concretamente, no es del todo claro que la ventaja de 6% que Scioli tiene sobre Macri no sea simplemente un "error estadístico". Entonces, la letra chica de la estadística debería decir cómo, cuándo y donde se hizo la encuesta, el número de casos, y alguna idea del margen de error estadístico.
Volviendo a la analogía con los remedios, más que leer la letra pequeñísima de los prospectos el paciente confía en su médico, que a su vez confía en la escuela que lo formo, que cree en las instituciones reguladoras, que a su vez lo hace en la comunidad científica. Las estadísticas también derivan su validez de una comunidad responsable, científica y comunicacional. Los que hacen seriamente su trabajo estadístico (que son muchos) juegan su prestigio y lo exponen al escrutinio de los expertos.
El debate social (sobre las elecciones, la pobreza o el dólar) sin datos concretos es irresponsable, tanto como la proliferación de estadísticas sin una discusión metodológica seria que permita que el usuario pueda consumirlas con tranquilidad, como los remedios o las comidas de un restaurante confiable.
El autor es profesor de Udesa e investigador del Conicet
sábado, 16 de agosto de 2014
Leyendas y dragones de la Econometría
Magos, espadas y rosas: leyes y leyendas de la econometría
por Walter Sosa Escudero
Una vez alguien puso en un blog de matemática la siguiente pregunta ¿Hay algún número que es tan pequeño que uno pueda tomarlo como si fuese cero? A todos nos suena a disparate esta pregunta, pero la vida cotidiana está llena de reglas y atajos que nos permiten proceder con comodidad. A modo de ejemplo, si alguien me pregunta mi edad, respondo “48 años”, y no “48 años, 8 meses, 12 dias, 6 horas, 26 minutos, etc.”, porque hemos convenido, sin firmar papel alguno, que la edad se pregunta y responde en años. Entonces, cualquier regla es un intento de resumir algo complejo, lo cual es necesariamente bueno y malo, tan malo como que mi edad no es exactamente 48 años, y bueno como que la discrepancia entre mi verdadera edad y 48 es socialmente insignificante, y es lo que permite comunicarnos sin volvernos locos. Ahora ¿Dónde está escrito que la edad se comunica en años? ¿Y las distancias en cuadras?
La econometría no está exenta a esta dinámica. Existen varias reglas, que mucha gente usa pero que ningún teórico de la econometría admite haber pronunciado. Entonces, vaya aquí una colección incompleta y disparatada de “reglas econométricas”, que todos usan y nadie admite. Deliberadamente omitiré las fuentes, por por lo menos una de las siguientes razones (no mutuamente excluyentes): 1) Se dice el pecado, pero no el pecador, 2) Las desconozco, 3) Las conozco pero los que las inventaron son prestigiosos colegas a quienes no quiero desprestigiar. Solo daré algunas pistas para que en estos tiempos berreta de Google, hagan su propio trabajo arqueológico.
1. n>30. Quizas la más vieja de las reglas econométricas. Muchos estudiantes usan esta regla para hablar de “muestra grande”, es decir, en esta lógica maniquea 29 es “chico” y 31 es “grande”. Cuando en mi curso básico pregunto “cuán grande debe ser una muestra para ser considerada grande” (una pregunta bastante pavota, por cierto), por alguna razón esotérica mucha gente responde “más de treinta”. El autor de la regla ha sido injustamente olvidado. O quizás todo lo contrario.
2. T>20. Este es el límite de observaciones temporales más allá del cual el sesgo por panel dinámico no debería molestar. Es decir, con T>20 uno podría usar el estimador de efectos fijos y dejarse se embromar con Arellano-Bond y otras cosas estrambóticas. Esta cifra fue recientemente actualizada (a 30) en un paper de Judson y Owen. Los autores de la regla “abandonaron la institución, nunca más se supo de ellos, del caso no se habló más” como decían los Fabulosos Cadillacs de los oficiales que vieron morir a Manuel Santillán, El León.
3. G>50. Se dice por ahí, en los bajofondos de la econometría, que con más de 50 clusters los estimadores “cluster robust” son confiables y que con menos hay que apelar correcciones por sesgos, wild bootstrap y otras invocaciones mefistofélicas. Con mas de 50, con vce(cluster) alcanza. Ahora, ¿no es realmente sospechoso que 50 se parezca, misteriosamente, a la cantidad de estados que hay en los Estados Unidos de America? Mmm.
4. (p=f+1). Esta regla dice que la cantidad de rezagos (p) a incluir en un modelo dinámico (o en un ARMA) es la frecuencia de los datos (f) más uno. Por ejemplo, con datos trimestrales, f=4 (cuatro trimestres), ergo hay que incluir 5 rezagos. Y la cuenta da 13 para datos mensuales (y 2 para anuales). Esta regla me fue comunicada en una intersección de dos caminos de tierra que no figuran en ningún mapa, en el estado de Illinois, en una media noche de luna llena. Había un tipo con una guitarra, me escondi hasta que se fuera y recién ahí me aposté con mi notebook y mi PCGive.
5. F>10. Esta está en el libro de Angrist y Pischke, pero ellos no dicen quien la invento (asi cualquiera, que vivos!). Le regla reza que si el F de la primera etapa es mayor que 10, no hay un problema de instrumentos débiles. Ahora, si F es menor que 10, terribles cosas pueden suceder. Me contaron de un econometrista de Springfield, Arkansas, que quiso publicar un paper con F=9.99, tras lo cual su esposa lo abandonó, perdió toda su fortuna y ahora se dedica a escribir cadenas de mensajes por Facebook.
6. l= 1600. Dice la leyenda que Prescott se negaba sistemáticamente a publicar el famoso paper del “filtro de Hodrick y Prescott” (escrito en 1981 y publicado recién en…1997!) porque lo consideraba demasiado trivial. Como todos saben, el filtro necesita la previa determinación de un parámetro de suavizado, que los autores sugieren fijarlo en 1600, para datos trimestrales. Se cuenta de un grupo de econometristas dinamarqueses que fijaron l=1613, y que en el intervalo de un congreso en donde iban a presentar sus resultados, adujeron salir por unas cervezas, tras lo cual nunca más nadie oyó hablar de ellos.
Como las brujas, las reglas no existen, pero que las hay, las hay. ¿De cuales me olvide?
Buenas noches.
Econometría Avanzada
por Walter Sosa Escudero
Una vez alguien puso en un blog de matemática la siguiente pregunta ¿Hay algún número que es tan pequeño que uno pueda tomarlo como si fuese cero? A todos nos suena a disparate esta pregunta, pero la vida cotidiana está llena de reglas y atajos que nos permiten proceder con comodidad. A modo de ejemplo, si alguien me pregunta mi edad, respondo “48 años”, y no “48 años, 8 meses, 12 dias, 6 horas, 26 minutos, etc.”, porque hemos convenido, sin firmar papel alguno, que la edad se pregunta y responde en años. Entonces, cualquier regla es un intento de resumir algo complejo, lo cual es necesariamente bueno y malo, tan malo como que mi edad no es exactamente 48 años, y bueno como que la discrepancia entre mi verdadera edad y 48 es socialmente insignificante, y es lo que permite comunicarnos sin volvernos locos. Ahora ¿Dónde está escrito que la edad se comunica en años? ¿Y las distancias en cuadras?
La econometría no está exenta a esta dinámica. Existen varias reglas, que mucha gente usa pero que ningún teórico de la econometría admite haber pronunciado. Entonces, vaya aquí una colección incompleta y disparatada de “reglas econométricas”, que todos usan y nadie admite. Deliberadamente omitiré las fuentes, por por lo menos una de las siguientes razones (no mutuamente excluyentes): 1) Se dice el pecado, pero no el pecador, 2) Las desconozco, 3) Las conozco pero los que las inventaron son prestigiosos colegas a quienes no quiero desprestigiar. Solo daré algunas pistas para que en estos tiempos berreta de Google, hagan su propio trabajo arqueológico.
1. n>30. Quizas la más vieja de las reglas econométricas. Muchos estudiantes usan esta regla para hablar de “muestra grande”, es decir, en esta lógica maniquea 29 es “chico” y 31 es “grande”. Cuando en mi curso básico pregunto “cuán grande debe ser una muestra para ser considerada grande” (una pregunta bastante pavota, por cierto), por alguna razón esotérica mucha gente responde “más de treinta”. El autor de la regla ha sido injustamente olvidado. O quizás todo lo contrario.
2. T>20. Este es el límite de observaciones temporales más allá del cual el sesgo por panel dinámico no debería molestar. Es decir, con T>20 uno podría usar el estimador de efectos fijos y dejarse se embromar con Arellano-Bond y otras cosas estrambóticas. Esta cifra fue recientemente actualizada (a 30) en un paper de Judson y Owen. Los autores de la regla “abandonaron la institución, nunca más se supo de ellos, del caso no se habló más” como decían los Fabulosos Cadillacs de los oficiales que vieron morir a Manuel Santillán, El León.
3. G>50. Se dice por ahí, en los bajofondos de la econometría, que con más de 50 clusters los estimadores “cluster robust” son confiables y que con menos hay que apelar correcciones por sesgos, wild bootstrap y otras invocaciones mefistofélicas. Con mas de 50, con vce(cluster) alcanza. Ahora, ¿no es realmente sospechoso que 50 se parezca, misteriosamente, a la cantidad de estados que hay en los Estados Unidos de America? Mmm.
4. (p=f+1). Esta regla dice que la cantidad de rezagos (p) a incluir en un modelo dinámico (o en un ARMA) es la frecuencia de los datos (f) más uno. Por ejemplo, con datos trimestrales, f=4 (cuatro trimestres), ergo hay que incluir 5 rezagos. Y la cuenta da 13 para datos mensuales (y 2 para anuales). Esta regla me fue comunicada en una intersección de dos caminos de tierra que no figuran en ningún mapa, en el estado de Illinois, en una media noche de luna llena. Había un tipo con una guitarra, me escondi hasta que se fuera y recién ahí me aposté con mi notebook y mi PCGive.
5. F>10. Esta está en el libro de Angrist y Pischke, pero ellos no dicen quien la invento (asi cualquiera, que vivos!). Le regla reza que si el F de la primera etapa es mayor que 10, no hay un problema de instrumentos débiles. Ahora, si F es menor que 10, terribles cosas pueden suceder. Me contaron de un econometrista de Springfield, Arkansas, que quiso publicar un paper con F=9.99, tras lo cual su esposa lo abandonó, perdió toda su fortuna y ahora se dedica a escribir cadenas de mensajes por Facebook.
6. l= 1600. Dice la leyenda que Prescott se negaba sistemáticamente a publicar el famoso paper del “filtro de Hodrick y Prescott” (escrito en 1981 y publicado recién en…1997!) porque lo consideraba demasiado trivial. Como todos saben, el filtro necesita la previa determinación de un parámetro de suavizado, que los autores sugieren fijarlo en 1600, para datos trimestrales. Se cuenta de un grupo de econometristas dinamarqueses que fijaron l=1613, y que en el intervalo de un congreso en donde iban a presentar sus resultados, adujeron salir por unas cervezas, tras lo cual nunca más nadie oyó hablar de ellos.
Como las brujas, las reglas no existen, pero que las hay, las hay. ¿De cuales me olvide?
Buenas noches.
Econometría Avanzada
domingo, 25 de mayo de 2014
El rol del álgebra matricial en Econometría
The Matrix
por Walter Sosa Escudero
Facebook del autor
Levanten la mano los que están a favor del uso de matrices en un curso básico. Ahora levanten la mano los que están a favor del uso de matrices en un curso avanzado. Ahora levantenlá los que están a favor de que las matrices desaparezcan por completo. Y ahí parece que me quedo solo como un idiota con mi mano alzada.
La pregunta de esta nota se refiere, obviamente, a cuánta álgebra matricial usar en un curso básico de econometría. Antes de argumentar, vayamos a las pruebas por autoridad o enumeración. A ver, en los libros muy básicos (Gujarati, Ashenfelter, etc.) no hay matrices, o están relegadas a un capitulo o un apéndice. En los libros más avanzados (Johnston, por ejemplo) hay matrices a troche y moche. Tambien las hay en Greene, en Davidson y MacKinnon, si vamos al caso. Ahora, en el libro de posgrado de Wooldridge casi no hay matrices (en todo caso, si aparecen, es como productos externos de vectores) y en el capitulo de Newey y McFadden (del Handbook of Economerics IV) no hay ningún matriz. Empiricamente parece haber una suerte de “curva de Kuznets” de las matrices: cuando uno empieza no hay matrices, después aparecen por todos lados, y luego desaparecen, como Kuznets decía que ocurria con la desigualdad a medida que una economía se desarrollaba. Ahora si en vez de movernos en el “grado de desarrollo” (Gujarati, Johnston, Newey) nos movemos en el tiempo, las matrices desaparecen aun más rápido: hay muchas menos matrices en el nuevo texto de Hansen o en las notas de Joris Pinkse que en Johnston-Di Nardo. Ni hablar del libro de Angrist y Pischke que creo que no tiene ninguna matriz (nuevamente, ¡los productos externos no cuentan!)
Mi primer encuentro con la econometría fue allá lejos en los ochenta, en épocas sin computadoras personales. Más allá de los esfuerzos de mis profesores (a quienes evoco con mucho respeto), el recuerdo que tengo de la econometría de otrora es el de una maraña infame de algebra matricial.
La impresión que le queda a varios es que el derrotero de la madurez econométrica pasa por las matrices, es lo que separa a las niñas de las damas; los machos sabemos matrices, los niñitos no. Ahora, existe un resultado viejo, pero revitalizado por Davidson y MacKinnon, rebautizado como Teorema de Frisch-Waugh-Lovell, que casi, casi, tira a las matrices por la borda. Una de las muchas consecuencias de este teorema es que casi cualquier resultado del modelo lineal con K variables estimado por el método de minimos cuadrados (o cualquier otro que proyecte, como minimos cuadrados generalizados o variables instrumentales) es reducible al caso de dos variables. En particular, cualquier elemento del vector de estimadores MCO puede escribirse como el resultante de un modelo con dos variables. O sea, y por sorprendente que parezca, parece que el modelo con K variables es un caso particular del modelo con dos variables. Si. Los reyes magos son tus padres, la lucha profesional es falsa y el “reduce fat fast” (que publicita Erik Estrada) no sirve para nada. El día que me enteré de esto (hace unos 20 años) casi me largo a llorar. ¡Tanto tiempo invertido en estas malditas matrices para que un teoremita me diga que en realidad casi todo puede escribirse sin matrices! Bueno, bueno, uno podría argumentar que para probar este teorema es necesario meter matrices, pero tampoco es estrictamente cierto (y si no me creen, vean el libro de Angrist y Pischke).
En síntesis, estoy casi convencido de que es posible dictar perfectamente un curso básico sin matrices y sin perder rigor. Por el contrario, liberados los alumnos del oprobio del algebra matricial sin sentido, pueden focalizar en interpretar los métodos y resultados o concentrarse en la formalidad correcta. Segundo, y contra lo que muchísima gente cree, uno debería pasar mucho más tiempo con el modelo simple con dos variables, que teorema de Frisch-Waugh-Lovell mediante, contiene en sus fauces al modelo con K variables.
No es este un argumento en contra de las formalizaciones, sino todo lo contrario. Quizas en un curso más avanzado convenga invertir en demostrar el teorema de Frisch-Waugh-Lovell para muestras finitas, y hasta para la población, lo que justifica una sana inversión en espacios de Hilbert.
Mi invitación honesta es a no formalizar al divino botón. Las cosas relevantes tienden a ser complejas, pero no necesariamente al reves. Y a veces pienso que los docentes complicamos las cosas para hacerles creer a los alumnos que son relevantes. Y ahí perdimos todos.
- - - - - - - - - - - - - - - - - - - - - - - - - - - -
PD: por contadictorio que parezca, opino que el economista medio sabe poco y mal álgebra. Un libro que me cambio mi visión del mundo es el de Axler (Linear Algebra Done Right), cuyo titulo patotero sugiere que va a hacer las cosas “de otra manera” (sin determinantes, con ooperadores lineales). No es lectura fácil, pero es realmente distinto al resto.
por Walter Sosa Escudero
Facebook del autor
Levanten la mano los que están a favor del uso de matrices en un curso básico. Ahora levanten la mano los que están a favor del uso de matrices en un curso avanzado. Ahora levantenlá los que están a favor de que las matrices desaparezcan por completo. Y ahí parece que me quedo solo como un idiota con mi mano alzada.
La pregunta de esta nota se refiere, obviamente, a cuánta álgebra matricial usar en un curso básico de econometría. Antes de argumentar, vayamos a las pruebas por autoridad o enumeración. A ver, en los libros muy básicos (Gujarati, Ashenfelter, etc.) no hay matrices, o están relegadas a un capitulo o un apéndice. En los libros más avanzados (Johnston, por ejemplo) hay matrices a troche y moche. Tambien las hay en Greene, en Davidson y MacKinnon, si vamos al caso. Ahora, en el libro de posgrado de Wooldridge casi no hay matrices (en todo caso, si aparecen, es como productos externos de vectores) y en el capitulo de Newey y McFadden (del Handbook of Economerics IV) no hay ningún matriz. Empiricamente parece haber una suerte de “curva de Kuznets” de las matrices: cuando uno empieza no hay matrices, después aparecen por todos lados, y luego desaparecen, como Kuznets decía que ocurria con la desigualdad a medida que una economía se desarrollaba. Ahora si en vez de movernos en el “grado de desarrollo” (Gujarati, Johnston, Newey) nos movemos en el tiempo, las matrices desaparecen aun más rápido: hay muchas menos matrices en el nuevo texto de Hansen o en las notas de Joris Pinkse que en Johnston-Di Nardo. Ni hablar del libro de Angrist y Pischke que creo que no tiene ninguna matriz (nuevamente, ¡los productos externos no cuentan!)
Mi primer encuentro con la econometría fue allá lejos en los ochenta, en épocas sin computadoras personales. Más allá de los esfuerzos de mis profesores (a quienes evoco con mucho respeto), el recuerdo que tengo de la econometría de otrora es el de una maraña infame de algebra matricial.
La impresión que le queda a varios es que el derrotero de la madurez econométrica pasa por las matrices, es lo que separa a las niñas de las damas; los machos sabemos matrices, los niñitos no. Ahora, existe un resultado viejo, pero revitalizado por Davidson y MacKinnon, rebautizado como Teorema de Frisch-Waugh-Lovell, que casi, casi, tira a las matrices por la borda. Una de las muchas consecuencias de este teorema es que casi cualquier resultado del modelo lineal con K variables estimado por el método de minimos cuadrados (o cualquier otro que proyecte, como minimos cuadrados generalizados o variables instrumentales) es reducible al caso de dos variables. En particular, cualquier elemento del vector de estimadores MCO puede escribirse como el resultante de un modelo con dos variables. O sea, y por sorprendente que parezca, parece que el modelo con K variables es un caso particular del modelo con dos variables. Si. Los reyes magos son tus padres, la lucha profesional es falsa y el “reduce fat fast” (que publicita Erik Estrada) no sirve para nada. El día que me enteré de esto (hace unos 20 años) casi me largo a llorar. ¡Tanto tiempo invertido en estas malditas matrices para que un teoremita me diga que en realidad casi todo puede escribirse sin matrices! Bueno, bueno, uno podría argumentar que para probar este teorema es necesario meter matrices, pero tampoco es estrictamente cierto (y si no me creen, vean el libro de Angrist y Pischke).
En síntesis, estoy casi convencido de que es posible dictar perfectamente un curso básico sin matrices y sin perder rigor. Por el contrario, liberados los alumnos del oprobio del algebra matricial sin sentido, pueden focalizar en interpretar los métodos y resultados o concentrarse en la formalidad correcta. Segundo, y contra lo que muchísima gente cree, uno debería pasar mucho más tiempo con el modelo simple con dos variables, que teorema de Frisch-Waugh-Lovell mediante, contiene en sus fauces al modelo con K variables.
No es este un argumento en contra de las formalizaciones, sino todo lo contrario. Quizas en un curso más avanzado convenga invertir en demostrar el teorema de Frisch-Waugh-Lovell para muestras finitas, y hasta para la población, lo que justifica una sana inversión en espacios de Hilbert.
Mi invitación honesta es a no formalizar al divino botón. Las cosas relevantes tienden a ser complejas, pero no necesariamente al reves. Y a veces pienso que los docentes complicamos las cosas para hacerles creer a los alumnos que son relevantes. Y ahí perdimos todos.
- - - - - - - - - - - - - - - - - - - - - - - - - - - -
PD: por contadictorio que parezca, opino que el economista medio sabe poco y mal álgebra. Un libro que me cambio mi visión del mundo es el de Axler (Linear Algebra Done Right), cuyo titulo patotero sugiere que va a hacer las cosas “de otra manera” (sin determinantes, con ooperadores lineales). No es lectura fácil, pero es realmente distinto al resto.
domingo, 8 de septiembre de 2013
Cursos online gratuitos de econometría
Econometrics: Free Online Courses
written by Samridhi Shukla
The culture of open online courses and MOOC portals is steadily on the rise, and not without good reason! Indeed, many would argue that it is a great advantage to be able to access and learn technical knowledge, free of charge from top professors from leading universities, while sitting in the comfort of one’s home or an internet cafe.
In this post, we have compiled for you a list of free, open online courses in the discipline of Econometrics, including courses in statistical software. Some other popular online resources in Econometrics have already been presented in an earlier blog post. All courses listed here are available in English and range from beginner to advanced levels in terms of difficulty. While some are open tutorials available at any time of the year, others have opening and closing dates for participation.
1. Model Thinking
Course provider: Coursera
Duration: 10 weeks
Background needed: Knowledge of basic Algebra & Calculus is helpful
Course provider: Coursera
Duration: 10 weeks
Background needed: Knowledge of basic Algebra & Calculus is helpful
2. Introduction to Computational Finance and Financial Econometrics
Course provider: Coursera
Duration: 10 weeks
Background needed: Basic prior knowledge of Finance & Econometrics needed
Course provider: Coursera
Duration: 10 weeks
Background needed: Basic prior knowledge of Finance & Econometrics needed
3. Full Course in Econometrics
Course provider: University of Oregon
Duration: Open
Background needed: No special background needed
Course provider: University of Oregon
Duration: Open
Background needed: No special background needed
4. Econometrics Models
Course provider: Econometrics Academy
Duration: Open
Background needed: Progressive knowledge of models may be needed as the learner advances
Course provider: Econometrics Academy
Duration: Open
Background needed: Progressive knowledge of models may be needed as the learner advances
5. Introduction to Stata
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
6. Introduction to R
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
7. Introduction to SAS
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
Course provider: Econometrics Academy
Duration: Open
Background needed: No special background needed
8. Econometrics
Course provider: Saylor
Duration: Open
Background needed: No special background needed
Course provider: Saylor
Duration: Open
Background needed: No special background needed
Some other courses like Introduction to Econometrics theory (Udemy) can be taken for a small fee (at the time of writing it was $49). There is also the MIT Open Courseware resource in Econometrics. However, this offers only static reading material without accompanying audio/visual supplements.
If you have knowledge of more open courses in Econometrics, please do share them with us!
Photo Credit: Quinn Dombrowski
martes, 3 de septiembre de 2013
viernes, 23 de agosto de 2013
jueves, 22 de agosto de 2013
miércoles, 21 de agosto de 2013
Suscribirse a:
Entradas (Atom)