Mostrando entradas con la etiqueta economía computacional. Mostrar todas las entradas
Mostrando entradas con la etiqueta economía computacional. Mostrar todas las entradas

lunes, 10 de diciembre de 2018

La distribución de ingresos puede deberse a eventos fortuitos

Si eres tan inteligente, ¿por qué no eres rico? Resulta que pueder ser sólo una casualidad.

Las personas más exitosas no son las más talentosas, solo las más afortunadas, confirma un nuevo modelo informático de creación de riqueza. Tomarlo en cuenta puede maximizar el rendimiento de muchos tipos de inversión.


Emerging Technology from the arXiv 

La distribución de la riqueza sigue un patrón bien conocido a veces llamado una regla de 80:20: el 80 por ciento de la riqueza es propiedad de un 20 por ciento de la población. De hecho, un informe el año pasado concluyó que solo ocho hombres tenían una riqueza total equivalente a la de los 3.800 millones de personas más pobres del mundo.

Esto parece ocurrir en todas las sociedades a todas las escalas. Es un patrón bien estudiado llamado ley de poder que surge en una amplia gama de fenómenos sociales. Pero la distribución de la riqueza se encuentra entre las más controvertidas debido a los problemas que plantea sobre la justicia y el mérito. ¿Por qué tan pocas personas tienen tanta riqueza?

La respuesta convencional es que vivimos en una meritocracia en la que las personas son recompensadas por su talento, inteligencia, esfuerzo, etc. Con el tiempo, muchas personas piensan que esto se traduce en la distribución de riqueza que observamos, aunque una buena dosis de suerte puede desempeñar un papel.




Pero hay un problema con esta idea: mientras que la distribución de la riqueza sigue una ley de poder, la distribución de las habilidades humanas generalmente sigue una distribución normal que es simétrica con respecto a un valor promedio. Por ejemplo, la inteligencia, medida por las pruebas de CI, sigue este patrón. El coeficiente intelectual promedio es de 100, pero nadie tiene un coeficiente intelectual de 1.000 o 10.000.

Lo mismo ocurre con el esfuerzo, medido por las horas trabajadas. Algunas personas trabajan más horas que el promedio y otras trabajan menos, pero nadie trabaja mil millones de veces más que nadie.

Y sin embargo, cuando se trata de las recompensas por este trabajo, algunas personas tienen miles de millones de veces más riqueza que otras personas. Además, numerosos estudios han demostrado que las personas más ricas generalmente no son las más talentosas por otras medidas.

¿Qué factores, entonces, determinan cómo los individuos se hacen ricos? ¿Podría ser que la oportunidad juegue un papel más importante de lo que nadie esperaba? ¿Y cómo pueden explotarse estos factores, cualesquiera que sean, para hacer del mundo un lugar mejor y más justo?

Hoy recibimos una respuesta gracias al trabajo de Alessandro Pluchino en la Universidad de Catania en Italia y un par de colegas. Estos muchachos han creado un modelo informático de talento humano y la forma en que las personas lo utilizan para explotar oportunidades en la vida. El modelo permite al equipo estudiar el papel del azar en este proceso.

Los resultados son algo así como una revelación. Sus simulaciones reproducen con precisión la distribución de la riqueza en el mundo real. Pero los individuos más ricos no son los más talentosos (aunque deben tener un cierto nivel de talento). Ellos son los más afortunados. Y esto tiene implicaciones significativas en la forma en que las sociedades pueden optimizar los rendimientos que obtienen por las inversiones en todo, desde empresas hasta ciencias.

El modelo de Pluchino y compañía es sencillo. Está formado por N personas, cada una con un cierto nivel de talento (habilidad, inteligencia, habilidad, etc.). Este talento se distribuye normalmente alrededor de algún nivel promedio, con alguna desviación estándar. Así que algunas personas son más talentosas que el promedio y otras lo son menos, pero nadie es más talentoso que nadie.

Este es el mismo tipo de distribución que se observa para varias habilidades humanas, o incluso características como la altura o el peso. Algunas personas son más altas o más pequeñas que el promedio, pero nadie es del tamaño de una hormiga o un rascacielos. De hecho, todos somos bastante similares.

El modelo de computadora grafica a cada individuo a lo largo de una vida laboral de 40 años. Durante este tiempo, los individuos experimentan eventos afortunados que pueden explotar para aumentar su riqueza si tienen suficiente talento.

Sin embargo, también experimentan eventos desafortunados que reducen su riqueza. Estos eventos ocurren al azar.

Al final de los 40 años, Pluchino y sus colegas clasifican a los individuos por riqueza y estudian las características de los más exitosos. También calculan la distribución de la riqueza. Luego repiten la simulación muchas veces para verificar la robustez del resultado.

Cuando el equipo clasifica a los individuos según la riqueza, la distribución es exactamente igual a la que se ve en las sociedades del mundo real. "Se respeta la regla '80 -20 ', ya que el 80 por ciento de la población posee solo el 20 por ciento del capital total, mientras que el 20 por ciento restante posee el 80 por ciento del mismo capital", informan Pluchino y compañía.

Eso puede no ser sorprendente o injusto si el 20 por ciento más rico resulta ser el más talentoso. Pero eso no es lo que pasa. Las personas más ricas no suelen ser las más talentosas o cercanas a ellas. "El éxito máximo nunca coincide con el talento máximo, y viceversa", dicen los investigadores.

Entonces, si no es el talento, ¿qué otro factor causa esta distribución desigual de la riqueza? "Nuestra simulación muestra claramente que tal factor es simplemente pura suerte", dicen Pluchino y compañía.

El equipo lo muestra clasificando a los individuos según el número de eventos afortunados y desafortunados que experimentan a lo largo de sus carreras de 40 años. "Es evidente que las personas más exitosas también son las más afortunadas", dicen. "Y los menos exitosos también son los más desafortunados".

Eso tiene implicaciones significativas para la sociedad. ¿Cuál es la estrategia más efectiva para explotar el papel que juega la suerte en el éxito?

Pluchino y sus colegas estudian esto desde el punto de vista de la financiación de la investigación científica, un tema claramente cercano a sus corazones. Las agencias de financiamiento de todo el mundo están interesadas en maximizar su retorno de la inversión en el mundo científico. De hecho, el Consejo Europeo de Investigación recientemente invirtió $ 1.7 millones en un programa para estudiar la casualidad, el papel de la suerte en el descubrimiento científico, y cómo se puede explotar para mejorar los resultados de financiamiento.

Resulta que Pluchino y compañía están bien preparados para responder a esta pregunta. Utilizan su modelo para explorar diferentes tipos de modelos de financiamiento para ver cuál produce los mejores rendimientos cuando se tiene en cuenta la suerte.

El equipo estudió tres modelos, en los que la financiación de la investigación se distribuye por igual a todos los científicos; distribuido aleatoriamente a un subconjunto de científicos; o dado preferencialmente a aquellos que han tenido más éxito en el pasado. ¿Cuál de estas es la mejor estrategia?

La estrategia que ofrece los mejores rendimientos, resulta, es dividir los fondos de manera equitativa entre todos los investigadores. Y la segunda y tercera mejores estrategias involucran la distribución aleatoria al 10 o 20 por ciento de los científicos.

En estos casos, los investigadores pueden aprovechar mejor los descubrimientos casuales que hacen de vez en cuando. En retrospectiva, es obvio que el hecho de que un científico haya hecho un descubrimiento importante en el pasado no significa que sea más probable que lo haga en el futuro.

Un enfoque similar también podría aplicarse a la inversión en otros tipos de empresas, como pequeñas o grandes empresas, nuevas empresas de tecnología, educación que aumenta el talento o incluso la creación de eventos afortunados al azar.

Claramente, se necesita más trabajo aquí. ¿Qué estamos esperando?

Ref: arxiv.org/abs/1802.07068 : Talent vs. Luck: The Role of Randomness in Success and Failure

miércoles, 27 de junio de 2018

La hiperinflación boliviana superada gracias a una Commodore 64


Informática en los ’80: Una Commodore 64 que salvó a Bolivia y pasó a la historia

El Despertador


 Por Marcelo Brusa.
Publicado en la revista K64 nº 26, Argentina, mayo de 1987.


En agosto de 1985, el flamante presidente de Bolivia, Víctor Paz Estenssoro, convocó al joven economista boliviano Juan Cariaga (en la foto) y le encomendó hacer en un plazo máximo de tres semanas un plan económico que salvara al país del desastre. La inflación llegaba al 30 mil por ciento anual y el plan debía ser elaborado en secreto. Veinte días después el gobierno tenía su receta económica, planificada en tiempo récord gracias a la Commodore 64 del hijo de Cariaga. Con esa computadora más un datassete (unidad de almacenamiento en casetes de audio) y un televisor color común, Cariaga elaboró durante tres semanas el programa económico de emergencia que salvó a ese país del colapso y bajó en forma abrupta la inflación a solo 60 puntos cada 12 meses.
Computadora Commodore 64 conectada a un datasete y un televisor común similares a los utilizados por Cariaga.

Cariaga recibió a un equipo periodístico de K64 en su casona de estilo colonial en el barrio de Calacoto en La Paz. En el curso de una extensa entrevista reseñó el nacimiento de un programa económico desarrollado en la computadora de su hijo y que logró un éxito prácticamente inédito en todo el mundo por su efectividad.


“En agosto de 1985, al día siguiente de que asumiera el presidente Víctor Paz Estenssoro, me convocó a su despacho junto con otro economista, dos políticos y dos empresarios para pedirnos que elaboráramos un plan económico de emergencia. En aquellos días la inflación superaba el 30 mil por ciento anual, el papel moneda había perdido su valor y el doctor Paz nos anticipó que el país se encaminaba hacia un colapso total en muy corto plazo”.

El joven funcionario añadió que el jefe de estado les había indicado que el plan debía hacerse en absoluto secreto, tenía que ser simple de aplicar y de efectos rápidos para poder superar la crisis. Las exigencias de completa reserva, algo indispensable para evitar que la desenfrenada especulación de aquellos días se incentivara aún más, forzó a Cariaga a “expropiar” la Commodore 64 de su hijo y trabajar recluido en el despacho de su casa.


“Ni siquiera tenía una impresora, solo la grabadora de casete y el teclado conectados al televisor de casa, así que a medida que avanzaba en los resultados, tenía que copiarlos a mano para mostrárselos al presidente, porque si yo hubiese tratado de conseguir una impresora, quizás habría dado una pista de que estábamos preparando algo y no podíamos darnos ese lujo”.

El eje central de los trabajos consistía en analizar los ingresos y egresos del sector público, y con todos los datos concretos en la mano “poder determinar cuánto entraba y recortar cuánto salía, evitando el déficit y la emisión de moneda sin respaldo”. Los primeros siete días de trabajo fueron empleados por el ministro para diseñar “a mano” un programa que permitiera analizar los movimientos de dinero.


“Fue muy trabajoso y no se imagina cuán grande resultó mi sorpresa cuando, una vez que todo se hizo público, supe que en realidad yo había reescrito desde cero el Lotus”.

(Nota: Lotus 1-2-3 era un programa muy popular que se vendía en aquel entonces. Fue uno de los antecesores de la planilla electrónica Microsoft Excel).

Cariaga explicó que hacía más de 15 años que casi no tenía contacto con la computación desde que había estudiado ciencias económicas en Estados Unidos entre 1966 y 1971. En aquella oportunidad fue alumno nada menos que del profesor John Kemeny, el creador del lenguaje BASIC, quien en aquella época “nos pronosticó que en veinte años la computación estaría al alcance de todo el mundo”.

En el año 1985, meses antes de ser convocado a “salvar Bolivia”, Cariaga viajó a la Universidad de Harvard para dar una conferencia sobre hiperinflación, y una tarde en una tienda “vi una Commodore 64 con su datasete, por poco más de 200 dóiares. Era sin duda un precio que la ponía al alcance de todo el mundo. De inmediato recordé lo que nos había dicho Kemeny veinte años antes y me decidí a comprarla para regalársela a mi hijo”. La primera sorpresa de Cariaga –que por supuesto aún ignoraba el destino que tenía reservado esa computadora– al leer las especificaciones y capacidades de la máquina y luego al probarla, “fue descubrir que esa pequeña maquinita podía hacer las mismas cosas que los gigantescos equipos General Electric 360 que usábamos en nuestras épocas de estudiantes en las universidades norteamericanas”.
La paciencia de un presidente

Cariaga elogió la paciencia del casi octogenario jefe de estado Víctor Paz Estenssoro y recordó que “cuando estábamos diseñando el plan, él se acercaba muchas tardes hasta mi estudio en casa para preguntarme algunas cosas, por ejemplo qué pasaba si el precio del estaño –una de las principales exportaciones de Bolivia– bajaba, por ejemplo, un tres por ciento. Entonces el doctor Paz tenía que esperar con gran paciencia muchos minutos hasta que yo ubicaba con el datasete el programa correspondiente a la COMIBOL (Corporación Minera Boliviana), alimentaba los nuevos datos y le copiaba a mano en un papel los resultados”.
 
Dr. Víctor Paz Estenssoro (1907–2001), cuatro veces presidente de Bolivia. En su último mandato (1985–1989) cambió la orientación económica estatista por la neoliberal friedmaniana e impulsó una serie de políticas económicas que frenaron en seco la hiperinflación.

Cuando finalmente todos los datos del programa económico estuvieron listos en el plazo récord de veinte días, tal como había pedido el presidente, fue anunciado el Decreto Supremo 21.060 que liberó los precios, devaluó la moneda hasta ubicarla en un nivel real, cambió el signo monetario e introdujo una estricta disciplina fiscal en cuanto a ingresos y egresos en el presupuesto, esto último a través de un seguimiento constante de información hecho en la Commodore 64. Según el ministro Cariaga, la conjugación inicial del impacto psicológico del programa y la confianza generada posteriormente por el cumplimiento de las metas anunciadas, permitió superar la hiperinflación y reactivar la economía.

Ahora, a casi dos años del inicio de este plan económico considerado como un “modelo” en muchas universidades del mundo, el “seguimiento diario” de la información sobre ingresos estatales –indispensables para determinar los gastos y mantener la efectividad de las medidas– se efectúa sobre un equipo de computación profesional instalado en el Ministerio de Finanzas. La Commodore 64 desde la cual nació todo sigue en la residencia del ministro y en su uso se alternan el hijo del funcionario, a veces su esposa y otras veces él.
 
Juan Cariaga en 2005. Foto: Bolivia.com

Fuentes:


Artículo original publicado en la revista K64:
https://imgur.com/xgIW8Ip

Revista K64:
http://k64.bytemaniacos.com

Enciclopedia y Biblioteca Virtual de las Ciencias Sociales, Económicas y Jurídicas: La hiperinflación boliviana:
http://www.eumed.net/cursecon/ecolat/bo/Sabino-bolivia.htm

Videos de Juan Cariaga en YouTube:


.

.

Histórico discurso del presidente Víctor Paz Estenssoro al anunciar la Nueva Política Económica a través del Decreto Supremo 21.060 en 1985:

.

Biografía del Dr. Víctor Paz Estenssoro en CIDOB:
http://www.cidob.org/es/documentacion/biografias_lideres_politicos/america_del_sur/bolivia/victor_paz_estenssoro

Wikipedia:
http://es.wikipedia.org/wiki/Commodore_64
http://es.wikipedia.org/wiki/Victor_Paz_Estenssoro

martes, 22 de marzo de 2016

El juego del Coronel Bolotto resuelto al fin

Después de casi un siglo, el escenario del coronel Blotto en Teoría de Juegos fue resuelto
Universidad de Maryland



Aunque las reglas del coronel Blotto son relativamente simples, las estrategias potenciales que un jugador puede emplear son casi ilimitadas, dependiendo del número de campos de batalla y los recursos totales disponibles para cada jugador.

Un equipo de científicos de la computación de la Universidad de Maryland, la Universidad de Stanford y Microsoft Research es el primero en resolver un escenario de la teoría de juegos que ha desconcertado a los investigadores durante casi un siglo. El juego, conocido como "coronel Blotto," se ha utilizado para analizar los posibles resultados de las elecciones y otros conflictos entre dos partes similares desde su invención en 1921. Hasta ahora, sin embargo, el juego ha sido de uso limitado, ya que carecía de una definitiva solución.
Un nuevo algoritmo desarrollado por el equipo dirigido por la UMD es capaz de resolver el escenario coronel Blotto. Un logro notable en su propio derecho, el algoritmo podría también proporcionar estrategas políticos, líderes empresariales y otros tomadores de decisiones con una nueva y poderosa herramienta para la toma de decisiones informadas. El equipo informó de sus hallazgos en la Association for the Advancement of Artificial Intelligence (AAAI) Conference en Phoenix el 15 de febrero de 2016.

"Nuestro algoritmo potencialmente puede utilizarse para calcular la mejor estrategia de inversión de recursos para cualquier competidor contra un solo oponente," dijo Mohammad Hajiaghayi, el Jack y Rita G. Minker Profesor Asociado de Ciencias de la Computación en UMD y del plomo en el proyecto. "Siempre y cuando se dispone de datos suficientes sobre un escenario dado, podemos utilizar nuestro algoritmo para encontrar la mejor estrategia para una amplia variedad de líderes, como candidatos políticos, equipos deportivos, empresas y líderes militares."

Coronel Blotto enfrenta a dos competidores contra otras, y cada uno requiere para tomar decisiones difíciles sobre cómo implementar recursos limitados. En su forma más simple, cada jugador asigna un número limitado de recursos, o tropas, a una serie de campos de batalla. Los jugadores deben hacer esto sin ningún conocimiento de la estrategia de su oponente. Los jugadores ganan un campo de batalla dada si se asignan más tropas que su oponente; el jugador que gana la mayoría de los campos de batalla también gana el juego.

El juego se puede extender a los escenarios del mundo real, tales como las elecciones generales presidenciales EE.UU.. En este ejemplo, cada candidato es un jugador; recursos como el personal de la campaña, el tiempo muñón y la financiación son las tropas; y cada estado es un campo de batalla. El juego también se puede aplicar a la competencia de alto perfil de productos de consumo, tales como la batalla en curso entre el iPhone de Apple y los productos de telefonía móvil Android de Google.

"A partir de las elecciones presidenciales a las decisiones de marketing, la competencia por la atención y la lealtad es una parte de la vida diaria. Sin embargo, el comportamiento de los individuos en respuesta a este tipo de competiciones aún no está bien entendido ", dijo Hajiaghayi, que también tiene un nombramiento conjunto en la Instituto de Altos Estudios de Informática de la Universidad de Maryland (UMIACS). "Se demuestra que este tipo de comportamiento estratégico es computacionalmente tratables. Dada la descripción de la competición, podemos determinar qué estrategias de maximizar los resultados para un jugador dado ".

Aunque las reglas del coronel Blotto son relativamente simples, las estrategias potenciales que un jugador puede emplear son casi ilimitadas, dependiendo del número de campos de batalla y los recursos totales disponibles para cada jugador. La solución alcanzada por Hajiaghayi y sus colegas no favorece necesariamente a un jugador sobre otro, sino más bien representa un equilibrio en el que ambos jugadores han desplegado la mejor estrategia que sea posible en relación con la estrategia de su oponente.

La gran variedad de posibles estrategias ha sido el obstáculo clave para encontrar una solución computacional para el juego. Hajiaghayi y su equipo superaron este problema limitando el número total de posibles estrategias para un puñado de opciones representativas.

"Hemos encontrado que las estrategias de los jugadores se pueden representar con precisión por un razonablemente pequeño número de posibilidades", dijo Hajiaghayi. "Este es un enfoque más general, pero funciona bien como una prueba de concepto. Muchos otros han tratado de resolver el coronel Blotto para escenarios específicos, pero son los primeros en adoptar un enfoque más general y resolver la teoría ".

Esta solución permitió al equipo para desarrollar un algoritmo generalizado, que ahora se pueden aplicar a situaciones específicas, tales como la elección presidencial de 2016.

"Nuestro algoritmo sólo funciona para los dos competidores, por lo que tendrá que esperar a que la elección general para tratar de esto", dijo Saeed Seddighin, un estudiante graduado en ciencias de la computación en UMD que presentará los resultados del grupo en la reunión AAAI. "Si sabemos cómo votó un estado dado en las elecciones anteriores en relación con los recursos de cada candidato invertido en ese estado, entonces podemos utilizar los mismos datos de inversión del ciclo de las elecciones de este año para predecir si cada candidato ha desplegado su mejor estrategia posible en todo el país ".

Además de Hajiaghayi y Seddighin, UMD co-autores incluyen Sina Dehghani (estudiante graduado, Ciencias de la Computación) y Hamid Mahini (ex investigador postdoctoral, Ciencias de la Computación.)

El estudio, "A partir de duelos a los campos de batalla: Computación Equilibrios de Blotto y otros juegos," AmirMahdi Ahmadinejad, Sina Dehghani, MohammadTaghi Hajiaghayi, Brendan Lucier, Hamid Mahini y Saeed Seddighin, fue presentado en la Asociación para el Avance de la Inteligencia Artificial (AAAI) Conferencia en Phoenix.

Scientific Computing

domingo, 14 de febrero de 2016

Complejidad: La economía como una suma de apuestas

En el corazón de la economía, un juego de azar




¿Tiene el billete de lotería el valor de dos dólares? ¿Debo tomar una póliza de seguro adicional? Apuestas simples se extienden a través de todas las ramas principales de la teoría económica. Y, de acuerdo con un nuevo informe de Ole Peters de SFI y Murray Gell-Mann, hemos sido erróneamente conceptualizando ellos por unos 350 años.
El documento, que aparece en la revista Chaos, presenta dos enfoques para la evaluación de los valores de apuestas-expectativa y promedios de tiempo. El enfoque de la expectativa-valor imagina todas las posibilidades y las medias a través de ellos de una manera lineal aditivo. En palabras del matemático del siglo 17 Christiaan Huygens ,: "si alguien debe poner 3 chelines en una mano sin decirme cuál, y 7 en el otro, y me des la elección de cualquiera de ellos; Digo, es lo mismo que si me debería dar 5 chelines. "La perspectiva temporal de la media se imagina que un juego de azar se reproduce varias veces y calcula qué pasa con el tiempo. A menos que la repetición es aditivo, las dos perspectivas dan diferentes respuestas.
"El primer punto de vista, teniendo en cuenta todos los mundos paralelos, es la adoptada por la economía convencional", explica Gell-Mann. "La segunda perspectiva a lo que ocurre en nuestro mundo a través del tiempo, es el que se explora y que no se ha apreciado en la economía hasta el momento."
En vez de mirar cómo los individuos optimizar la riqueza a través de mundos paralelos, la perspectiva basada en el tiempo considera cómo optimizar la riqueza a medida que pasa el tiempo. "Lo que sucede cuando cambiamos perspectivas es sorprendente. Muchos de los problemas clave de la teoría económica abiertos tienen una solución elegante dentro de nuestro marco," dice Peters.
El documento Chaos ilustra los diferentes enfoques a través de un juego de azar. Tirar una moneda; Si sale cara muestra su riqueza se multiplica por 1,5, si sale cruz muestra se multiplica por 0,6. Sigue repitiendo el juego de azar. Mientras que el valor esperado (el promedio de todos los mundos posibles) crece exponencialmente, su riqueza en cualquier realidad se atenúan exponencialmente con el tiempo.
Debido a que la evaluación de apuestas simples está en el centro del campo, la perspectiva temporal puede informar a todas las ramas de la economía. "Resulta que la diferencia entre cómo se comporta la riqueza individuo a través de mundos paralelos y cómo se comporta el paso del tiempo cuantifica cómo cambia la desigualdad de la riqueza", dice Peters. "También permite refinar la noción de mercados eficientes y resolver el rompecabezas de la prima de riesgo."

Segunda nota

Como consecuencia de la crisis financiera, muchos empezaron a cuestionar los diferentes aspectos del formalismo económica.

Esto incluyó Ole Peters, miembro del Laboratorio de Matemática de Londres en el Reino Unido, así como profesor visitante del Instituto de Santa Fe en Nuevo México, y Murray Gell-Mann, un físico que fue galardonado con el Premio Nobel 1969 de Física por su contribuciones a la teoría de las partículas elementales de la introducción de los quarks, y ahora es un miembro distinguido en el Instituto de Santa Fe. Encontraron que sea especialmente curioso que un campo tan importante para nuestra forma de vivir juntos como una sociedad parece tan seguro de que muchos de sus preguntas claves.
Así que le preguntaron: ¿Podría haber una dificultad fundamental que subyace a nuestra teoría económica actual? ¿Hay alguna supuesto oculto, posiblemente cientos de años de antigüedad, por detrás de no uno, sino muchos de los problemas científicos actuales de la teoría económica? Tal problema fundamental podría tener graves consecuencias prácticas porque la teoría económica informa a la política económica.
Tal y como informan en la revista Caos, desde AIP Publishing, la historia que surgió es un ejemplo fascinante de la historia científica, de cómo evoluciona la comprensión humana, se queda atascado, consigue despegarse, ramas, y así sucesivamente.
"Nos encontramos, por ejemplo, que Daniel Bernoulli cometió un error poco visible, pero consecuente en 1738 que fue corregido por Laplace en 1814, pero de nuevo por Menger en 1934", dijo Peters. "Este es uno de los factores que frenaba el desarrollo de nuestra perspectiva."
Los conceptos clave de tiempo y el azar son el centro de su trabajo. "Las cuestiones de carácter económico se situó en el comienzo del pensamiento formal sobre la aleatoriedad en el siglo 17", explicó. "Todos estos son conceptos relativamente jóvenes, no hay nada en Euclides acerca de la teoría de probabilidades." Pienso en ello simplemente en términos de: ¿Debo apostar dinero en un juego de dados? ¿Cuánto debo pagar por un contrato de seguro? ¿Cuál sería un precio justo por una renta vitalicia?
"Todas estas preguntas tienen que ver con el azar, y la manera de tratar con ellos en el siglo 17 era de imaginar mundos paralelos que representan todo lo que podría suceder", dijo Gell-Mann. "Para evaluar el valor de algunas de riesgo incierto, una media se toma entre los mundos paralelos."

Este concepto sólo se ha cuestionado en la mitad del siglo 19, cuando se utilizó la aleatoriedad formalmente en un contexto diferente en la física. "Aquí, la perspectiva surgió siguiente: para evaluar algunos de riesgo incierto, preguntarse cómo le afectará en un mundo sólo-es decir, aquella en la que vive, a través del tiempo", continuó Gell-Mann.
"El primer punto de vista, teniendo en cuenta todos los mundos paralelos, es la adoptada por la economía convencional", explicó Gell-Mann. "La segunda perspectiva a lo que ocurre en nuestro mundo a través del tiempo, es el que se explora y que no se ha apreciado en la economía hasta el momento."
El impacto real de esta segunda perspectiva proviene de reconocer la omisión del concepto clave de tiempo de los tratamientos anteriores. "Tenemos unos 350 años de teoría económica que es la aleatoriedad de un modo sólo-por considerar mundos paralelos", dijo Peters. "Lo que sucede cuando cambiamos perspectivas es sorprendente. Muchos de los problemas clave de la teoría económica abiertos tienen una solución elegante dentro de nuestro marco."
En cuanto a las aplicaciones para su trabajo, su concepto clave se puede utilizar "para derivar todo un formalismo económica", dijo Peters. En su artículo, Peters y Gell-Mann explorar la evaluación de un juego de azar. Por ejemplo, esta apuesta es mejor que la apuesta? Este es el problema fundamental de la economía. Y a partir de una solución conceptualmente diferente viene un nuevo formalismo completa.
Ellos pusieron a prueba después de su amigo Ken Flecha-un economista que fue el ganador conjunto del Premio Memorial Nobel de Economía con John Hicks en 1972, sugirió la aplicación de la técnica de los contratos de seguro. "Predice nuestra perspectiva o explicar la existencia de un mercado de seguros grande? Lo hace, a diferencia de la teoría del equilibrio general competitivo, que es el formalismo dominante en la actualidad", dijo Peters.
Y así un significado diferente del riesgo surge toma demasiado riesgo no sólo es psicológicamente incómodo, pero también conduce a pérdidas de bienes en dólares. "Una buena gestión del riesgo que realmente impulsa el rendimiento con el tiempo", agregó Peters. "Esto es importante en el replanteamiento actual de los controles de riesgo y la infraestructura del mercado financiero".
Este concepto va mucho más allá de este reino y en todas las principales ramas de la economía. "Resulta que la diferencia entre cómo se comporta la riqueza individuo a través de mundos paralelos y cómo se comporta el paso del tiempo cuantifica cómo los cambios desigualdad de la riqueza", explicó Peters. "También permite refinar la noción de mercados eficientes y resolver el rompecabezas de la prima de riesgo."
Una de las aplicaciones de importancia histórica es la solución de los 303 años de edad paradoja de San Petersburgo, que consiste en un juego de azar jugado por lanzar una moneda hasta que sale cruz y el número total de lanzamientos, n, determina el premio, lo que equivale a $ 2 a la enésima potencia. "El premio esperado diverge-no existe", explicó Peters. "Esta apuesta, sugerido por Nicholas Bernoulli, se puede ver como la primera rebelión contra la dominación del valor que la expectativa promedio a través de mundos paralelos que se estableció en la segunda mitad del siglo 17".
¿Cuál es el siguiente paso para su trabajo? "Estamos muy interesados ​​en desarrollar plenamente las implicaciones para la economía del bienestar y las cuestiones de la desigualdad económica. Este es un tema sensible que necesita ser tratado con cuidado, incluyendo el trabajo empírico", señaló Peters. "Se está haciendo mucho detrás de las escenas-ya que esta es una forma conceptualmente diferente de hacer las cosas, la comunicación es un reto, y nuestro trabajo ha sido difícil publicar en las principales revistas de economía."
Sus resultados descritos en el caos se generalizan fácilmente, lo que es necesario reinterpretar el formalismo completo. Pero "no se puede añadir mucho en términos prácticos, y se pone un poco técnico". Así que es un futuro "elemento de tarea" para Peters y Gell-Mann.
"Nuestro papel caos es una receta para acercarse a una amplia gama de problemas," dijo Peters. "Así que ahora vamos a través de todo el formalismo con nuestros colaboradores para ver dónde más nuestra perspectiva es útil."...

Lea el artículo on Phys.org (February 2, 2016)

Read the paper in the journal Chaos (February 2, 2016)

miércoles, 10 de febrero de 2016

La ayuda computacional en mejorar el sistema penal

Proyecto de datos "Ley, orden y algoritmos" de ingenieros de Stanford tiene como objetivo identificar el sesgo en el sistema de justicia penal
Un equipo de ingenieros utiliza herramientas de análisis computacionales para raspar la información de incidentes relacionados con la policía para revelar la discriminación y reducir el crimen.

Por Edmund L. Andrews - Stanford News



Estudiantes graduados de Stanford Sam Corbett-Davies, izquierda, y Camelia Simoiu, Profesor Adjunto Sharad Goel y profesor visitante Ravi Shroff han examinado millones de incidentes de la policía para identificar el sesgo en el sistema de justicia criminal.

Si los futuros estudiosos de la historia de Estados Unidos de 2015 recordarán un tema definitivo, bien podría ser el escándalo público que se levanta sobre los encuentros desagradables y, a menudo fatales entre la policía y los ciudadanos negros.

El tiroteo de la policía de Michael Brown en Ferguson, Missouri, junto con videos de homicidios de la policía en la ciudad de Nueva York, Cleveland y Chicago, encendió el movimiento Negro Vive la materia. vídeos igual de gráficos de Tejas - de un desbaste oficial de policía a las niñas adolescentes en una fiesta en la piscina o del agente que amenazó con usar un Taser en Sandra Bland después de tirar de ella sobre por no señalar un cambio de carril - intensificaron los cargos que la policía injustamente objetivo africana americanos y otras minorías.

Como prensión de este tipo de incidentes son, todavía ascienden a anécdotas individuales que pueden dirigir una narrativa. Para proporcionar un análisis imparcial, basada en datos de tales problemas, los investigadores de la Facultad de Ingeniería de la Universidad de Stanford han puesto en marcha lo que ellos llaman el Proyecto de Project on Law, Order & Algorithms.

El proyecto está dirigido por el científico social computacional Sharad Goel, profesora asistente de ciencias de la administración y la ingeniería. También imparte un curso en Ingeniería de Stanford que explora la intersección de las cuestiones científicas datos y la política pública en torno a la actuación policial.

Entre otras actividades, el equipo de Goel está construyendo una gran base de datos abierta de 100 millones paradas de tráfico de las ciudades y pueblos de todo el país. Los investigadores ya se han reunido datos sobre unos 50 millones de paradas de 11 estados, registrando datos básicos acerca de la parada - hora, fecha y lugar - además de los datos demográficos disponibles que no revele la identidad de un individuo. Estos datos demográficos podrían incluir raza, sexo y edad de la persona.

Basándose en su trabajo hasta el momento, la Fundación Knight recientemente galardonado con el equipo de una subvención de $ 310,000 al menos el doble del tamaño de la base de datos, la compilación de datos de hasta 40 estados, que se remonta cinco a 10 años.

El proyecto en curso tiene varios propósitos. La primera y más tópica objetivo es producir un método estadístico para evaluar si la policía discriminan a las personas sobre la base de raza, etnia, edad o sexo, y, en caso afirmativo, con qué frecuencia y en qué circunstancias. Un segundo pero igualmente importante propósito es ayudar a las fuerzas del orden diseñar prácticas que son más equitativo y eficaz en la reducción de la delincuencia.

En última instancia, Goel y sus colegas planean tomar el know-how que se han adquirido a través de su análisis de las paradas de tráfico y crear un conjunto de herramientas de software que otros podrían utilizar para adquirir datos de los gobiernos municipales o del condado y realizar análisis similares. Su idea es permitir que otros investigadores académicos, periodistas, grupos comunitarios y los departamentos de policía para hacer el mismo tipo de minería de datos que hoy requiere la experiencia de los investigadores experimentados como los miembros del equipo de Goel.

¿Precinto o perjuicio?

El apetito del público por los datos precisos y completos ha aumentado considerablemente. A raíz de la muerte de Michael Brown en Ferguson, el Departamento de Justicia de EE.UU. llegó a la conclusión de que la policía de Ferguson habían dirigido habitualmente a los negros y frecuentemente violados sus derechos civiles. Afroamericanos representaron dos tercios de la población de Ferguson, pero el 85 por ciento de todo el tráfico se detiene, el 90 por ciento de todas las entradas y el 93 por ciento de todas las detenciones. A nivel estatal, un informe separado por el fiscal general de Missouri, como se describe en el New York Times, la policía encontró que eran 75 por ciento más probabilidades de dejar de conductores negros que los blancos.

"Técnicamente, gran parte de esto ya es información pública, pero a menudo no son fácilmente accesibles, y el análisis tanto, incluso cuando se dispone de los datos, no ha habido", dijo Goel.

Cuando los investigadores hacen tomar una inmersión profunda en los datos, los resultados pueden ser tan reveladora para los departamentos de policía como lo son para grupos de la comunidad.

En un nuevo estudio de las políticas de parada y registrar la Ciudad de Nueva York, "Recinto o prejuicio," Goel y dos colegas encontraron que la policía estaba de hecho paradas y registros negros e hispanos a tasas desproporcionadas. Centrándose en unos 760.000 paradas en las que los agentes de policía paró y registró a las personas bajo la sospecha de que sostiene un arma ilegal, los investigadores encontraron que los afroamericanos que habían sido detenidos fueron significativamente menos propensos a tener un arma que los blancos que habían sido detenidos.

Cuando los investigadores analizaron los datos para descubrir por qué, se encontraron con que la mayor razón de la disparidad racial fue el hecho de que la policía centraron sus esfuerzos parada y registrar en recintos de alta criminalidad fuertemente pobladas por minorías. Sin embargo, incluso después de ajustar por los efectos de la ubicación, se encontraron con que los negros y los hispanos fueron detenidos una cantidad desproporcionada de tiempo.

Quizás el hallazgo más importante en "Precinto o prejuicio", sin embargo, fue que la policía de Nueva York podrían haber recuperado la mayoría de las armas mediante la realización de sólo una pequeña fracción de las operaciones de parada y registrar. El análisis de una larga lista de factores que los agentes de policía citados como razones para detener y cachear a las personas, los investigadores encontraron que sólo un puñado tenía ningún valor predictivo. Aprovechando toques de "movimiento furtivo", por ejemplo, era casi inútil.

De hecho, los investigadores llegaron a la conclusión, si la policía se había llevado a cabo las operaciones de parada y registrar basado en sólo tres factores - un bulto sospechoso, un objeto sospechoso, y la vista o el sonido de la actividad criminal - que podrían haber encontrado más de la mitad de todos las armas sí encontraron con sólo un 6 por ciento mayor número de paradas.

La predicción de la delincuencia

Goel es muy consciente de que las tecnologías para "modelado predictivo", tales como el uso de datos para predecir si una persona es probable que vuelva a cometer un crimen violento, puede tener un lado frío. Sin embargo, señala que un riguroso ensayo controlado aleatorio de una herramienta de predicción utilizado por las autoridades de libertad condicional Filadelfia apareció para hacer la vida más fácil para personas en libertad condicional sin aumentar su riesgo de re-violación.

"Hay todo tipo de maneras que esto puede salir mal", advirtió Goel. "Por otra parte, esto puede ser una situación de ganar-ganar Todo el mundo quiere reducir el crimen de una manera que es de apoyo de la comunidad Nos gustaría ayudar a los organismos encargados de hacer cumplir la ley a tomar mejores decisiones -.., Decisiones que son más equitativa, eficiente y transparente ".

Más allá de la construcción de la base de datos de controles de tráfico, Goel y sus colegas están usando herramientas estadísticas para mejorar otros aspectos del sistema judicial. En un esfuerzo, los investigadores están trabajando con el fiscal de distrito de una gran ciudad para mejorar las prácticas de detención preventiva. En muchos casos, las personas detenidas por delitos menores no pueden permitirse el lujo de pagar la fianza y permanecer atrapado en la cárcel por semanas mientras esperan el juicio.

"Me he quedado sorprendido por todo el interés en el campus en este enfoque computacional para la justicia criminal", dijo Goel. "En mi Ley, Orden y Algoritmos clase, los estudiantes de los departamentos de toda la universidad están trabajando juntos en proyectos que abordan algunos de los problemas más acuciantes en el sistema de justicia penal, desde la detección de la discriminación a la mejora de las resoluciones judiciales."

viernes, 6 de diciembre de 2013

¿Por qué los economistas necesitan Mathematica?

¿Por qué Mathematica para la economía?
Los lectores se habrán dado cuenta de que algunos de mis posts anteriores que contienen gráficos interactivos que requieren Mathematica CDF Player para verlos. Lo que podría dejarle con la duda por qué elegir a usar Mathematica como mi herramienta computacional para "hacer economía".

Así que pensé que podría esbozar aquí por qué lo hago.


fuente de la imagen

Y la respuesta es, sobre todo, porque era fácil de aprender.

1. La documentación en Mathematica es muy completo y entregado en un formato portátil (interfaz de Mathematica 'front end'), por lo que puede modificar los ejemplos y poner a prueba lo que su modificación hace a la salida.

Muchas funciones útiles están integradas, y aún mejor, las funciones se suelen llamar por su nombre matemática real.

Para mí, que necesito una herramienta que puede manejar el análisis de gráficos y redes, puede hacer la manipulación simbólica, producir gráficos, manejar diversos tipos de archivos, análisis de datos textuales (por nombres coincidentes y otras cadenas de grandes conjuntos de datos). He raspado datos de sitios web utilizando Mathematica, analizando las redes sociales, y más.

Ahora, Mathematica seguramente no es la única herramienta para estos trabajos. A muchos les gusta el software libre R, otros como Matlab, y las regresiones básicas Stata es una herramienta común. No quiero iniciar un debate sobre qué herramienta es la mejor para el que trabajo - en última instancia, se trata de una elección de los usuarios acerca de la inversión de su tiempo para aprender una o la otra, y sobre la capacidad de uso continuo.

2. Me gusta la integración de una funcionalidad diferente. Hay libros reales y electrónicos escritos completamente en Mathematica. Se ha incorporado en las opciones de presentación de diapositivas para tener cálculos y gráficos en vivo e interactivas en las presentaciones. Herramientas interactivas y despliegue web fáciles (pero los espectadores sí necesitan el reproductor gratuito CDF).

3. Una de las cosas que los usuarios de Mathematica parecen destacar es la programación funcional. En lugar de escribir bucles de construir cálculos, sólo tiene que escribir la función y se puede asignar de forma automática a través de listas y otras estructuras de datos. Una vez que te acostumbras a esto, usted no tendrá que escribir bucles de nuevo. Esto también significa que es fácil de obtener cálculos bastante complejos codificados rápidamente.

4. Un grupo de usuarios muy útil, sobre todo en StackExchange.

Por último, la RBA produce sus cartas y hace un montón de análisis con Mathematica (aunque el uso de paquetes personalizados ). Algunos consejos útiles Mathematica de la RBA Luci Ellis están aquí, y aquí es un blog útil sobre cómo las capacidades gráficas dinámicas son buenas herramientas de enseñanza.

Fresh Economic Thinking

sábado, 24 de agosto de 2013

La evolución premia a los solidarios

Be nice. Evolution will punish you if you’re not, says study
Selfish people have short-term advantage, but co-operation and communication win out in the long term
JAMES VINCENT

New research has challenged the notion that evolution favours self-interest above co-operation, suggesting instead that selfish individuals eventually ‘compete each other out of existence’.


The study, published in the journal Nature, used models of evolutionary game theory (EGT) to show how co-operative populations are more successful than selfish ones in the long run.

Researchers used computers to play through vast numbers of “games” simulating scenarios of co-operation and betrayal. By tweaking the strategies of the virtual players they were then able to compare which behaviours resulted in survival.

The study pitched players following so-called “zero determinant” strategies (those who acted selfishly) against others taking more benevolent approaches. While the selfish strategists enjoyed a brief advantage, opponents eventually came to recognise and overcome selfish individuals.

“Communication is critical for cooperation – we think communication is the reason co-operation occurs,” said Christoph Adami, a professor at Michigan State University and the lead author of the paper. “In an evolutionary setting, with populations of strategies, you need extra information to distinguish each other.

“We found evolution will punish you if you’re selfish and mean. For a short time and against a specific set of opponents, some selfish organisms may come out ahead. But selfishness isn’t evolutionarily sustainable.”

Much of what we understand about the working of selfish and selfless behaviour in society comes from game theory, a branch of mathematics concerned with decision making. It was developed throughout the middle of the 20th century but came to prominence first through the works of John Nash and then as a guiding political ideology during the cold war.

One of game theory’s most infamous studies is the “prisoner’s dilemma”, a hypothetical scenario where two prisoners are offered their freedom if they inform on the other. Under Nash’s explanation it seemed to show that individuals should pursue their own interests because they cannot predict how others will act.

The problem with such examples is that they are abstract and theoretical – they don’t take into account the many nuances of real-world scenarios where individuals have the opportunity to gauge how trustworthy others are, discuss their options, and also evaluate other people’s past behaviour.

Despite the apparent humane message of the findings of the new research, they do not contradict the concept of the “selfish gene” – the theory that living organisms exist only to propagate their genetic material.

Instead, the findings may complement it, as co-operative behaviour benefits whole species and thus the existence of a wider gene pool. Co-operation within a group does not preclude selfishness outside of it.

The Independent

domingo, 30 de junio de 2013

La teoría de juegos no solo para economistas anymore


Gaming the System

Economists have long used game theory to make sense of the world. Now engineers and computer scientists are using it to rethink their work.

Asuman Ozdaglar
Asuman Ozdaglar

You and an accomplice in a major heist have been nabbed by the cops and are being interrogated in separate rooms. If you both keep quiet about the crime, you’ll each get a year in prison on a lesser charge. If you both squeal, you’ll each get five years. But if just one of you squeals, that one will go free while the other gets 10 years. If you don’t know what your accomplice will do, what’s the rational decision?

This conundrum, known as the prisoner’s dilemma, is the most familiar example of a game, in the technical sense employed by game theorists. Game theory is a mathematical way to describe strategic reasoning, and the prisoner’s dilemma illustrates the three basic requirements of the situations it encompasses: the game must involve multiple agents (here, the two accomplices); each must make a decision (squeal or don’t squeal); and every decision must carry a quantifiable payoff (the prison terms) that varies according to the other agents’ decisions.

Game theory has been a staple of economics research since 1950, when John Nash, who taught at MIT from 1951 to 1959 and is the subject of the movie A Beautiful Mind, published the seminal paper that would win him the Nobel Prize in economics. As game theory has matured, it’s become even more central to that field. In just the last eight years, the Nobel Prize has gone to game theorists three times, for shedding light on, among other things, the logic of nuclear deterrence, the circumstances in which free markets can and cannot maximize public welfare, and the best solutions to “matching problems”—organs and patients, medical residents and hospitals, and the like.

But recently game theory has been drawing attention in engineering and computer science, too. Researchers are using it to analyze thorny problems such as optimizing traffic flow or preventing blackouts.

Asuman Ozdaglar, SM ‘98, PhD ‘03, a professor of electrical engineering and computer science, says the rise of the Internet has made this necessary. Historically, the engineers of communication networks had to contend with a wide range of technical questions—such as power constraints and the relative merits of centralization or decentralization. But with the Internet, they suddenly had to deal with human agency, too.

If a Comcast subscriber in Boston and an EarthLink subscriber in San Francisco are exchanging data, their transmissions are traveling over networks maintained by several different providers: Comcast, EarthLink, and others in between. “The whole operation relies on both collaboration and competition of these different parties,” Ozdaglar says. “How do you design protocols that will actually yield the right incentives for people to collaborate?” In other words: why does the Internet work even though it is made up of individual networks? Game theory provides a way of answering that kind of question.

As engineers began bringing game theory to bear on questions within their field, however, they also realized that the tools of their trade were applicable to outstanding questions of game theory. Indeed, of the handful of researchers in the Department of Electrical Engineering and Computer Science (EECS) who work extensively on game theory, all have spent substantial time on questions more typically addressed by the social sciences.

Going once
EECS professor Constantinos Daskalakis is a good example. In 2008, he won the Association for Computing Machinery’s dissertation prize by showing how techniques drawn from theoretical computer science could shed new light on one of the central concepts in game theory: equilibrium.
Constantinos Daskalakis
Equilibrium is the idea that won Nash his Nobel, and the Nash equilibrium is the type of equilibrium most commonly studied. It describes a balance of strategies that no player of a game has a motive to change unilaterally. The most basic example of a Nash equilibrium involves the so-called penalty-kick game. In soccer, a penalty kick gives an offensive player a free shot on goal with only the goalie defending. The ball travels so quickly that the goalie has to guess which way to dive before it’s struck. In the game-theoretical version, if both players pick the same half of the goal, the goalie wins; if they pick different halves, the shooter wins.


The equilibrium state for this game is for both players to pick a direction randomly on any given kick but to ensure that, overall, they choose both directions with equal frequency. In that case, they’ll each win half the time, and neither can improve his or her odds by deviating from that strategy. For instance, if the goalie suddenly started going the same direction every time and the shooter stuck to the original strategy, the goalie’s winning percentage would merely stay the same. However, a shooter who noticed the shift could win every kick by going the opposite direction every time, so the goalie has no incentive to make this change.

But the penalty-kick game is one of the simplest of games. Finding equilibria for even slightly more complex games can be enormously difficult. In his dissertation, Daskalakis proved that for some situations that can be described through game theory, the Nash equilibrium is so hard to calculate that all the computers in the world couldn’t find it in the lifetime of the universe. In those cases, Daskalakis argues, humans probably haven’t found it through trial and error either. That means game theorists need analytic tools other than the Nash equilibrium if they want any hope of describing the real world.

Fortunately, in the same way that computer science has developed a battery of techniques for determining the complexity of computations such as those that produce Nash equilibria, it’s also developed a battery of techniques for identifying approximate solutions to otherwise intractable problems. Daskalakis and his students, for example, were able to find one for an economics problem that had stood for 30 years.

In 1981, the University of Chicago’s Roger Myerson showed how to structure an auction for a single item so that if all the bidders adopted the bidding strategies in their best interest, the seller would realize the greatest profit. That work helped earn him the 2007 Nobel Prize. It also raised a related question: what is the best way to structure an auction for more than one item? (In economists’ jargon, any market with a single seller and multiple buyers counts as an auction; a Christie’s auction is one, but so are sales at a retail store.) It’s a question with “such large complexity that there’s no succinct description for the auction that gives you the optimal profit,” Daskalakis says. To maximize revenue across multiple items, the seller probably has to sell each item at less than the highest price someone would be willing to pay. But the discount varies according to factors like the mix of items being sold and the populations from which the buyers are drawn.

Computer science offers a fresh perspective on the problem—what Daskalakis calls the approximation perspective. “Maybe you are unable to find the optimal auction,” he says, “but an auction that guarantees 99 percent of the best revenue is a good auction as well.” Daskalakis and his students showed that for any multi-item market, the ideal auction—one that maximized the seller’s revenue—could be approximated by a combination of the results of simpler auctions.

A somewhat different approach to auction problems characterizes the work of engineering professor Silvio Micali. He and EECS professor Shafi Goldwasser are the most recent recipients of the Turing Award, the highest award in computer science. In large part, the award honors their work on so-called interactive proofs, in which a questioner with limited computational resources tries to elicit the result of a calculation from an unreliable interlocutor with unlimited computational resources. One example is a zero–knowledge proof, in which one of the participants establishes possession of a piece of information, like a cryptographic key, without revealing what it is. Zero-knowledge proofs are used to secure transactions between financial institutions, and several startups have been founded to commercialize them.


Micali is pursuing several game–theoretical research projects, but one of them is very close in spirit to zero–knowledge proofs. In many public auctions—as, for instance, when the federal government auctions unused radio spectrum to telecom companies—the auctioneer is bound to disclose all participants’ bids for the sake of transparency. For a company that participates in such an auction and loses, “it’s really the worst of all possible outcomes,” Micali says. “Your competitors now know how much you value this thing, from which they can deduce how large a clientele you serve or what technology you have available.”

So Micali’s group is developing auctions in which participants can publicly disclose enough information about their bids to decide a winner, without revealing the bids themselves. “I believe that eventually this will become mainstream in game theory,” Micali says. “You cannot really have a meaningful science of human behavior while disregarding privacy.”

Who’s in control?
For many situations that can be expressed as games, the Nash equilibrium may be, as Daskalakis showed, nearly impossible to compute. But that doesn’t mean that the players’ behavior is random. Consider a grid of city streets where drivers are making countless decisions at dozens of intersections. Even if the drivers aren’t evaluating every possible consequence of alternative decisions, they’re still adopting some simple strategies—say, if you’ve been sitting still for too long, turn down a side street. According to Munther Dahleh, the associate head of EECS, analyzing such systems brings game theory very close to his own field, control theory, which investigates strategies for controlling dynamic systems such as robots’ limbs and planes’ wings. “We have a different view of these problems,” Dahleh says. “As opposed to imposing the notion of equilibrium and saying ‘What strategies would people play under that equilibrium?’ we look at the controlled dynamical behavior and ask the question ‘What notion of equilibrium emerges?’”

Dahleh has indeed applied the tools of game theory to the analysis of traffic flow, investigating the types of road layouts that can best accommodate the closing of particular routes. His approach also applies to other large-scale dynamic systems, such as the electricity grid.

Every day, power producers—operators of nuclear plants, coal-fired plants, wind farms, and the like—offer new schedules of how much electricity they’re willing to produce, at what price, at what times of day. The utilities that deliver electricity also have administrators who decide, on the basis of expected consumer demand, how much power to purchase from each provider. Power production and consumption must match exactly or the consequences are disastrous.

Using the tools of game theory to analyze the incentives of both power providers and consumers, Dahleh and Mardavij Roozbehani, PhD ‘08, a principal research scientist in the Laboratory for Information and Decision Systems, showed that “smart meters” in the home, which can provide information about spot pricing in the electricity market and let consumers defer energy-intensive household tasks until they are most affordable, could actually cause spikes in demand that would bring down the whole grid.
power surge graph


Dahleh has also collaborated with Ozdaglar and her husband, the MIT economist Daron Acemoglu, to analyze how information propagates through populations. The “game” in this case is one in which people weigh the truth or falsity of information that reaches them, as they strive to maximize the accuracy of their own beliefs.

“These are questions that have been studied in both sociology and economics,” Ozdaglar says. Traditionally, however, these investigations have assumed that any person in a given population can receive information directly from any other. What engineers offer, Ozdaglar argues, are well-honed tools for analyzing the underlying network structure of the population. Most people, for instance, in fact receive most of their information from just a few immediate neighbors in the network—and they assign different probabilities to the accuracy of different neighbors’ claims.

“In the past, I think that social science and economics were dealing with problems differently than engineers,” Dahleh says. “Now we’re all talking about social networks—decisions in social networks, dynamics on networks—so I think the two fields are converging.”

MIT News Magazine