¿Es posible la mano invisible?
Martín Krause

Es Académico Asociado del Cato Institute y profesor de Economía de la Universidad de Buenos Aires.  Sus escritos fueron publicados en las obras “Soluciones de Políticas Públicas para un País en Crisis” (2003), “Claves para interpretar la Argentina” (2004) de la Fundación Atlas para una Sociedad Libre.




Publicación original en Procesos de Mercado: Revista Europea de Economía Política, Vol. XVI, n.º 1, Primavera 2019, pp. 213 a 247.
“Every individual is continually exerting himself to find out the most advantageous employment for whatever capital he can command. It is his own advantage, indeed, and not that of the society, which he has in view. But the study of his own advantage naturally, or rather necessarily, leads him to prefer that employment which is most advantageous to the society.”
“He generally, indeed, neither intends to promote the public interest, nor knows how much he is promoting it. By preferring the support of domestic to that of foreign industry, he intends only his own security; and by directing that industry in such a manner as its produce may be of the greatest value, he intends only his own gain, and he is in this, as in many other cases, led by an invisible hand to promote an end which was no part of his intention.  Nor is it always the worse for the society that it was no part of it. By pursuing his own interest he frequently promotes that of the society more effectually than when he really intends to promote it. I have never known much good done by those who affected to trade for the public good.”
Adam SmithAn Inquiry into the Nature and Causes of the Wealth of Nations (London: Edwin Cannan, 1904), Book IV, Cap. II.
Las famosas citas de Adam Smith reflejan una, y tal vez la más grande, de las contribuciones de la ciencia económica para la comprensión de los órdenes espontáneos que configuran lo que llamamos “sociedad”. Muestran, también, una visión optimista de la cooperación social, planteando que no solamente es ésta posible, sino que además es compatible con la búsqueda del interés personal.
Doscientos años de avance, aunque sea parcial, en el sentido que el autor escocés planteara muestran los resultados y que su visión no parece haber sido errada. El ingreso per cápita promedio en el mundo se ha multiplicado por treinta y esto ha permitido que la población también lo haga.
No obstante, ese optimismo de Smith, que los resultados parecieran confirmar, no se ha sostenido de la misma forma en buena parte de la ciencia económica moderna. La “magia” de la cooperación social espontánea y voluntaria comenzó a ser discutida desde dentro mismo de la disciplina, encontrándose todo tipo de fallas que disminuyen sus resultados o incluso hasta impiden alcanzarlos. Esto llevó, además, a la conclusión que ninguna mano invisible puede existir sin una “mano visible” que fuerce la cooperación cuando los incentivos individuales llevan a su debilitamiento o extinción. Esa mano visible se ha vuelto cada vez más visible y presente, cubriendo áreas que nunca antes había ocupado, y extrayendo más recursos de los generados por los órdenes espontáneos.
Consideraciones sobre la discrepancia entre el interés personal y el social tienen larga data, pero recibieron tal vez su expresión más formal en el marco de la Teoría de los Juegos y en particular del conocido Dilema del Prisionero. A diferencia del resultado positivo de la cooperación social en procesos de tipo mano invisible, aquí la búsqueda del interés personal lleva indefectiblemente a un equilibrio negativo, o al menos inferior al resultado de la cooperación.
No obstante, en las últimas décadas ciertas áreas de la economía están recuperando la visión positiva sobre las posibilidades de la cooperación social voluntaria. Nuevos desarrollos en la Teoría de los Juegos Evolutivos, la Economía Experimental, la Psicología Evolutiva y nuevos aportes de la Escuela Austriaca han renovado el interés en el análisis de los elementos cooperativos de las relaciones humanas y, como resultado, plantean también dudas respecto a la inevitabilidad de la mano visible. Yendo más allá, hasta dejan abierta la puerta a posibles órdenes sociales basados solamente en órdenes espontáneos, en la cooperación voluntaria.
En este trabajo, revisaremos las últimas contribuciones en las áreas mencionadas y analizaremos en qué resuelven los dilemas de la cooperación social.
Teoría de los juegos
El Dilema del prisionero presenta una situación bastante particular, en la cual dos presos se encuentran en celdas separadas, sin contacto entre sí. Enfrentan dos opciones: cooperar con el otro jugador para obtener un resultado medianamente positivo, o traicionarlo y obtener un resultado aún más favorable. La lógica de la búsqueda del interés personal, en particular en este caso de la maximización del resultado, los lleva a elegir la segunda opción y obtener un resultado peor que el de la cooperación o el de la traición unilateral. Al perseguir su mejor opción individual termina obteniendo el peor resultado total: La solución del dilema es un equilibrio de Nash, el resultado de que cada jugador persiga su mejor resultado individual. La búsqueda del interés personal se contrapone con el interés social. La mano invisible fracasa.
                                                                                          Gráfico 1
Si las valoraciones del Gráfico 1 se refieren a años de prisión y los individuos persiguen su interés personal, el orden de preferencias de A, con valores a la izquierda sería (TC, CC, TT, CT). También el de B, con valores a la derecha. Pero al seguir su primera preferencia (T), terminan los dos en TT. Podría interpretarse este dilema también como el “dilema de la naturaleza”, donde los participantes se plantean la alternativa de respetar el derecho de propiedad de los demás o no hacerlo y terminan en TT, donde la vida es “solitaria, pobre, desagradable, bruta y corta” (Thomas Hobbes).
La forma de resolver este dilema es estableciendo un “contrato social” para crear una agencia que detente el monopolio de la coerción y la utilice para castigar la no cooperación. Así, con un castigo a la traición, digamos, de 3 unidades, el dilema se transformaría, para quedar de esta forma
                                                                                          Gráfico 2
Ahora los incentivos se han modificado y el equilibrio de Nash es CC. La mano visible resuelve el problema de la cooperación social. Por cierto, queda pendiente el tema de cómo se va a asegurar el cumplimiento de ese contrato social, ya que también tiene una estructura del tipo dilema del prisionero, que lleva a los jugadores a traicionar, y que demandaría a su vez una agencia superior a los firmantes y la agencia disciplinante, y así sucesivamente (de Jasay, 1995).
El DP, por cierto, plantea una situación bastante limitada:
  • Los jugadores no tienen forma de comprometerse a seguir una determinada estrategia: esto es, no pueden amenazar o adquirir compromisos creíbles.
  • No hay forma de saber lo que hará el jugador contrario.
  • No hay forma de eliminar al otro jugador ni de abandonar la interacción entre ambos.
  • No se pueden modificar las recompensas del otro jugador.
  • Las condiciones del juego son tan estrictas que, aunque ambos sean inocentes, se sentirán motivados a confesarse culpables.
Por otro lado:
  • No es necesario que las recompensas de los jugadores sean comparables. Uno puede recibir la libertad si confiesa, mientras al otro puede ofrecérsele evitar la horca.
  • No es necesario que las recompensas sean simétricas: es decir, que ambos reciban no solamente el mismo tipo de recompensa, sino también la misma cantidad.
  • Las recompensas no tienen que medirse en una escala absoluta, sino en relación unas con otras.
  • La cooperación no siempre es un objetivo deseado (tal como la cooperación entre dos criminales, para no confesar). (Axelrod, 1984)
Luego veremos cómo se modifican las conductas cuando las decisiones son secuenciales, cuando los jugadores pueden dialogar entre sí, cuando pueden abandonar el juego, todas ellas más cercanas a relaciones sociales que tenemos a diario. Pero ha sido sobre todo importante, considerar las conductas en casos en que las interacciones fueran repetidas, es decir, no fueran solo juegos de una sola vez.
Robert Axelrod organizó un torneo entre distintos expertos en teoría de los juegos y sistemas, solicitando que diseñaran lo que ellos estimaban que era la mejor estrategia que debería aplicarse en un juego repetido del dilema del prisionero.
El torneo fue estructurado como “todos contra todos”; esto es: que cada propuesta era comparada con todas las demás. Como se había anunciado en las normas del torneo, cada una era además comparada con ella misma y con RANDOM, un programa que aleatoriamente coopera y traiciona con igual probabilidad. Cada juego consistió exactamente en doscientos movimientos. La matriz del juego otorgaba 3 puntos por la cooperación y 1 punto a cada uno por la traición de ambos. Si un jugador traicionaba y el otro cooperaba, el traidor recibía 5 puntos y el cooperador 0, como en la matriz del Gráfico 1.
La estrategia ganadora fue la denominada TIT FOR TAT, la que inicia el juego con una elección de cooperar y de ahí en adelante elige lo que el otro jugador haya hecho en la jugada anterior. Quiere decir que en principio A coopera y lo seguirá haciendo en tanto en cuanto el otro jugador lo haga, pero ante una traición de B responderá con traición, y así lo seguirá haciendo mientras B traicione. Si este decide volver a cooperar, A hará lo mismo. Curiosamente, fue también la más simple de las estrategias presentadas.
En 200 jugadas, los resultados posibles varían desde 0 a 1.000. Estos extremos serían los casos en que uno cooperara siempre y el otro traicionara siempre. Es difícil imaginar a un jugador cooperando siempre ante la continua traición del otro, por lo que todos los resultados se encontraron entre esos dos extremos. La estrategia ganadora obtuvo 504 puntos.
El resultado general obtenido por Axelrod es que las estrategias que priorizaron la cooperación, en lugar de tratar de aprovecharse del otro jugador, obtuvieron mejores resultados, demostrando que aun cuando dos jugadores tienen en cuenta solamente sus intereses, les conviene cooperar entre sí. La cooperación, entonces, surge espontáneamente. ¿Cómo puede ser eso posible? Para confirmar los resultados, Axelrod organizó un segundo torneo, en el que se presentaron 62 propuestas. Todos los participantes sabían el resultado del primero, no obstante lo cual el ganador fue el mismo con la estrategia TIT FOR TAT.
Según Axelrod, esto es precisamente lo que TIT FOR TAT logra en tanto en cuanto no sea un individuo solo, tratando de cooperar en un mundo de completos traidores. Es más: sostiene que si tan solo hubiera un pequeño número de individuos dispuestos a cooperar, obtendrían un mejor resultado que los completos traidores con tan solo un muy pequeño número de interacciones entre sí, mientras que los otros se estarían traicionando todo el tiempo. Este mínimo requisito le daría viabilidad.
Una vez establecida esa estrategia, resulta robusta, pues ninguna otra que no sea “amable” —es decir, que no comience cooperando— puede obtener mejores resultados y, por ende, extenderse. Por ello es estable, ya que rechazaría invasiones de estrategias “no amables”. TIT FOR TAT, además de “amable”, castiga a quien no coopera retribuyendo esa actitud, perdona cuando la otra parte coopera luego de haber traicionado, y es, además, clara y sencilla (Axelrod y Dion 1988). Incluso un pequeño grupo de individuos que cooperan entre sí sobreviviría y hasta llegaría a controlar una población de “no-cooperadores”. Los cooperadores se relacionarían entre sí y no con los “no-cooperadores”; de esa forma obtendrían los beneficios de la cooperación a los que no accederían los segundos y terminarían predominando. La cooperación se podría sostener, pese a que hubiera “no-cooperadores” por allí (McCabe et al 2007).
Por último, Kreps, Milgrom, Roberts y Wilson (1982) demostraron que aun cuando un individuo se encontrara con otros de los que no sabe qué estrategia van a seguir en un juego repetido del dilema del prisionero le conviene comenzar cooperando, por más que exista una probabilidad de 0,99 de que el otro sea un jugador poco amable. En particular, si bien el incentivo de un jugador en un DP es a traicionar, si el juego es secuencial el incentivo cambia, ya que el segundo jugador hará lo que el primero. Adelantando esto, al primero le conviene cooperar, TIT FOR TAT (Fehr & Schmidt, 2006, p. 58)
No obstante, si el juego repetido es finito existe un incentivo para seguir una estrategia cooperativa, pero traicionar en la última jugada, tras lo cual, y comprendiendo ese incentivo, el otro jugador tendría el incentivo de traicionar en la anteúltima, y así hasta el comienzo, la estrategia cooperativa fracasaría. Esto no ocurriría en juegos infinitamente repetidos o, al menos, en aquellos en los que existiera incertidumbre respecto al final del juego, como sucede en muchas relaciones sociales.
De todas formas, TIT FOR TAT no es buena para hacer frente a una posible traición por error, ya que desencadenaría traiciones hasta el final. Por esa razón, sus resultados serían superados por estrategias tales como TIT FOR TWO TATS, que permite una traición y solamente actúa recíprocamente en caso que se repita, y TIT FOR TAT ARREPENTIDA, que permite a quien traicionara por error, repararlo en la siguiente jugada.
A partir de aquí la teoría de los juegos fue aplicada a la biología donde, con los trabajos de John Maynard Smith, avanzó hacia una teoría de los juegos evolutivos (Ridley, 1996, p. 59). Hasta entonces los juegos repetidos comparaban distintas estrategias, pero los jugadores las mantenían durante el trascurso de todo el juego. La teoría de los juegos evolutivos introdujo la posibilidad de que los jugadores cambien de estrategias durante el juego. Martin Nowak diseñó juegos donde los jugadores cometen errores aleatorios o donde los jugadores cambian de estrategias aleatoriamente. Como había demostrado John Maynard Smith, en los juegos evolutivos, incluso si los depredadores (halcones) predominan sobre los cooperadores (palomas), luego comienzan a encontrarse entre sí y pierden con GENEROUS TIT FOR TAT, una estrategia que perdona una de cada tres veces.
GENEROUS es tan generosa que permite que florezcan otras más generosas aún, como SIEMPRE COOPERAR. Pero una vez que éste se extiende no puede detener la depredación de SIEMPRE TRAICIONAR. ¿Es un ciclo? ¿No hay un equilibrio estable? ¿Después de todo este camino hemos llegado al punto de partida del Dilema del Prisionero? Karl Sigmund y Martin Nowak vieron que una vez que predomina TIT FOR TAT, una estrategia como SIMPLETON (también llamada PAVLOV) puede predominar sin ser invadida por SIEMPRE COOPERAR y así llegar al ciclo. En esta estrategia, si gana (CC, TC) repite esa decisión, pero si pierde, cambia. Es amable, recíproca y perdona, pero también castiga a los que cooperan siempre y así abren la puerta a los depredadores que traicionan siempre, ya que cada tanto coopera y pierde.
Como conclusión de esta sección, la misma Teoría de los Juegos que planteara el Dilema del Prisionero, la irrevocable condena a la cooperación voluntaria y la necesidad de una mano visible que fuerce la cooperación a través del castigo, llega a la conclusión que la cooperación voluntaria es una estrategia sostenible, incluso antes la presencia de depredadores.
Economía experimental
La economía experimental aplica métodos de laboratorio para investigar las conductas de los individuos cuando toman decisiones interactivas con otros individuos, en el marco de ciertas normas explícitas e implícitas. Las normas explícitas son generalmente diseñadas por quien organiza y controla el experimento; las implícitas son normas, tradiciones y hábitos que la gente ya posee como parte de su herencia cultural o biológica y las que no son controlados por el experimentador.
Tal vez una de las principales contribuciones de la economía experimental ha sido la de verificar los resultados de la Teoría de los Juegos en experimentos con gente real, no ya asumiendo, como lo hace ésta, el individuo maximizador de utilidad y, en particular, de ingresos.
Ya desde los primeros experimentos este supuesto comenzó a ser cuestionado. Marwell y Ames (1979, 1980 y 1981), reclutaron a estudiantes por teléfono y les dieron unos vales que podían ser cambiados por dinero. Podían elegir entre depositar esos vales en una cuenta privada, que daba un retorno del 1%, o en una cuenta grupal, cuyo retorno crecía según el número de estudiantes que participaran. Si el número era pequeño, el retorno sería menor que el de la cuenta privada, y se les dijo que cada grupo tendría unos 80 participantes, aunque en realidad tenían cuatro. Los resultados mostraron que los estudiantes, incluyendo los de economía, tendían a colocar la mitad de los vales en la cuenta grupal.
En cuanto a los objetivos de este trabajo, nos interesan en especial los experimentos sobre la provisión voluntaria de bienes públicos, ya que se dirigen al corazón del argumento acerca de la viabilidad de los órdenes espontáneos en tanto la provisión de su marco institucional tiene las características de bien público.
Un experimento para verificar la conducta de los individuos ante un caso de “bien público” podría ser de esta forma (Ledyard 1994): se invita a cuatro personas a sentarse en una mesa y se les da una suma de dinero a cada una. Se les comunica que pueden decidir invertir parte o todo ese dinero en un proyecto grupal, y se les entregan sobres para que cada uno ponga dentro lo que quiera. Luego el investigador recogerá los sobres, sumará el dinero, duplicará la cantidad total y la dividirá en partes iguales entre los cuatro.
Según el supuesto maximizador de riqueza, no deberíamos esperar que se recaude nada, ya que todos pensarían que les conviene no hacerlo y recibir una parte de aquello que los demás contribuyan. Es el problema del free rider. ¿Qué dicen los experimentos realizados?
Smith (2002) se refiere al juego denominado “ultimátum”: el experimentador pone a disposición de dos participantes una suma de dinero “m” (digamos 100 dólares, en billetes de 10); el jugador 1 juega primero y ofrece una suma “x” al jugador 2, quedándose con el resto (m – x). El jugador 2 solamente puede aceptar o rechazar la oferta, recibiendo x, si la acepta, o nada, si la rechaza. Si nos aferráramos al supuesto del individuo maximizador, el mismo que asume el dilema del prisionero, entonces deberíamos descubrir que el jugador 1 ofrece la unidad de cuenta mínima —en este caso un billete de 10 dólares, porque tiene que ofrecer algo—, y se queda con 90. Pero no solo eso: según este supuesto, el jugador 2 acepta esta propuesta, ya que recibe esos 10, y la alternativa es rechazarla y recibir cero.
Pero si este intercambio es interpretado por las partes, o al menos por el jugador 2 como parte de una relación social regida por ciertos valores que lo hacen merecedor de una cierta suma mínima, entonces el jugador 2 puede llegar a rechazar una oferta inferior a ese mínimo. En tal caso, el jugador 1 —previendo ese rechazo, y para poder completar el juego y obtener su resultado— puede ofrecer un monto superior a ese mínimo. También podría ser que el jugador 1 realmente disfrute compartiendo ese dinero con el otro.
¿Cómo se asigna a las personas el papel del jugador 1 o el jugador 2? Hay varias alternativas: “Divide $100”: se divide en forma aleatoria; “Concurso”: se realiza un concurso previo, en el que hay que contestar a unas diez preguntas de conocimiento general; los que más contestan serán jugador 1; “Intercambio”: se supone que uno es vendedor y otro es comprador; “Concurso/Intercambio”: se combina el concurso previo con la asignación de funciones de vendedor/comprador. La forma de asignación no es de menor importancia, porque, según lo perciban los participantes, generará en ellos una sensación de tener “derecho” o no a una cierta proporción.
En ninguno de los casos se observa que la conducta sea la esperada en el dilema del prisionero, o en teoría de los juegos en general. En el caso “Divide 100”, el mismo nombre del experimento sugiere la “división”; por otro lado, seguramente se piensa que es más justa una división pareja, porque las funciones fueron asignadas al azar. En ese caso el promedio de ofertas fue de 44,1% —comparemos esto con el 10% que hubiera señalado una conducta maximizadora— y el rechazo llegó al 3,7% —comparado con el cero en el modelo maximizador—. Cuando la posición de jugador 1 es resultado de un concurso, se supone que hay una justificación, porque “se ha ganado esa posición”, y el porcentaje ofrecido baja a 36,2%, sin rechazos.
Si se modifica el juego, eliminando la posibilidad de que el jugador 2 rechace la oferta, nos encontramos en un “juego del dictador”. El punto que se trata de probar es que, si hay alguna percepción de “justicia” en una distribución más pareja, debería también presentarse aquí, pero en este caso la oferta baja a 23,3%. Entonces, no sería una cuestión de “justicia”; no obstante, ¿cómo los “dictadores” están entregando una cuarta parte del ingreso? Una respuesta podría ser que el anonimato de los participantes no es total y eso los lleva a hacer esas ofertas. Para verificar esto, se volvió a realizar el experimento, asegurando un total anonimato para los participantes, en cuyo caso el porcentaje cayó a 10,5%. Una conclusión que se puede sacar de esto es que, cuando la gente está segura de no ser observada, tiene un mayor incentivo a perseguir su propio interés y maximizar su utilidad, sin compartir esto con los demás. Y esto es cierto, pero la conclusión más importante que debe sacarse es que, de alguna manera, la vida en sociedad atempera este instinto y vuelve al más “egoísta” en “cooperador voluntario”.
Veamos ahora un juego algo más sofisticado, llamado un “juego de confianza”. En estos juegos el que mueve primero entrega algo de valor, a cambio de un potencial beneficio futuro, pero recibirlo depende de la reacción del segundo jugador ante la decisión del primero. El segundo jugador tiene la opción de buscar su mayor beneficio o de responder en forma recíproca para obtener el mejor resultado conjunto. Alcanzar este resultado implica un costo de oportunidad para cada uno de ellos. Algunos ejemplos de este tipo de situaciones (McCabe et al, 2003, p. 267): un joven le deja la computadora a su hermana, esperando que podrá usarla más tarde; el juego del “matrimonio”, en el que la pareja va una noche al fútbol, suponiendo que la próxima vez irán al teatro; un comprador de Internet realiza el pago de un producto que no ha visto, y espera recibirlo en un envío futuro y que se ajuste a lo promocionado.
Gráfico 3
En el nodo 1, el jugador 1 puede elegir ir hacia la derecha o hacia abajo y dejar la decisión en manos del jugador 2. Si va hacia la derecha, cada uno obtiene una recompensa de $10. Si se mueve hacia abajo, el jugador 2 tiene dos opciones, B y C. En ambas el total de la recompensa se ha duplicado, pero las opciones para elegir son tales que, si va a B, el jugador 1 termina en mejor situación —en verdad, ambos lo hacen—, pero si va a C, el jugador 2 se lleva todo y el jugador 1 se queda sin nada. B es la solución cooperativa. La solución de equilibrio sería A, porque el jugador 1 anticiparía que, llegado al nodo 2, el jugador 2 tiene un fuerte incentivo para tomar todo y dejarlo sin nada, y preferiría entonces esa solución, aunque la recompensa total fuera menor, pero también el riesgo. Claro que en ese caso el jugador 1 está suponiendo que todos pretenden maximizar su ingreso, sin tener en cuenta ninguna otra circunstancia. Pero veamos lo que puede pasar por la mente del jugador 2, una vez que el jugador 1 ha elegido mover hacia abajo: ¿por qué lo hizo? Si todos suponen que cada uno maximizará su recompensa, este es un movimiento irracional por parte de A, destinado a recibir cero. Algo más debe haber, y el jugador 2 puede comprender que el jugador 1 ofrece confianza y espera reciprocidad; de esa forma él mejora su resultado e incluso no le importa que 2 lo mejore aún más (Smith 2002, p. 541). Esto sería algo parecido a la forma como se intercambian favores con amigos o parientes; o como cuando se deja una propina en un restaurante en una ciudad extranjera, a la que probablemente nunca se regrese —y hasta es probable que nunca se regrese a un restaurante en la propia ciudad donde se vive, y sin embargo se deja propina—, o se dejan monedas a quien toca un instrumento en el subterráneo, cuya música escuchan todos los demás como usuarios gratuitos (Smith 2002, p. 540).
El experimento, realizado con estudiantes universitarios, mostró que el 50% se movía hacia el nodo 2 y el 75% de los jugadores 2 reciprocaba. Parece que la gente está dispuesta a cooperar más de lo que creemos y más de lo que algunas teorías dicen.
En el experimento, la conducta del jugador 2 es recíproca, pese a que es costosa, porque es un premio al jugador 1, basado no solamente en el resultado que el jugador 2 obtiene, sino también en las intenciones que motivaron la decisión del jugador 1. Se establece una relación de confianza recíproca, en la que los participantes ponen su atención en las ganancias mutuas. No es simplemente que el jugador 2 infiera que el jugador 1 se movió hacia abajo, porque quiere más dinero; debe comprender que lo hizo porque se considera en una relación de confianza mutua.
Para testear estas dos interpretaciones, Mc Gabe et al. (2003) comparan los resultados antes analizados con los que se obtienen en un experimento en el que se elimina la posibilidad de enviar señales de confianza mutua, con lo que el jugador 2 ya no tiene posibilidad de una “lectura” de las intenciones. En este caso se elimina el primer movimiento y el juego queda configurado así:
Gráfico 4
El resultado obtenido en este caso es: 18 de 27 participantes (66,67%) se movieron a C; es decir, no cooperaron. Solo un tercio lo hicieron moviéndose a B, a diferencia del experimento anterior en el que el 75% reciprocaban.
Los sujetos no actúan con la conducta maximizadora que plantea la teoría de los juegos; los participantes incluso modifican su conducta, cuando se cambia la palabra que describe con quién estarán interactuando. En un experimento (Burnham et al 2000) simplemente se cambió la palabra de “oponente” a “socio”, y el resultado cooperativo recibió un porcentaje mucho mayor de las decisiones. En otro (Hoffman et al 2000) se agregó a las instrucciones para los participantes del juego del dictador una sugestión para que el oferente tome en cuenta la posible reacción de la otra parte. Si los participantes actuaran como “teóricos de los juegos”, entenderían el carácter estratégico y su camino para maximizar su utilidad no cooperando con el otro. Pero si el participante ingresa al experimento con una propensión natural a la reciprocidad y al castigo para el que no reciproque, entonces comprenderá que el sentido del juego es cooperar y ser generoso, para no ser rechazado. La sugerencia de las instrucciones, entonces, convierte al juego en una relación más personal.
Estos aportes de la economía experimental resultan centrales para el tema que estamos considerando, porque no sólo la Teoría de los Juegos revela que relaciones repetidas promueven la cooperación y estrategias cooperativas son evolutivamente sustentables, sino que los experimentos muestran que las personas son más cooperativas de lo que el supuesto de la Teoría de los Juegos establece. Pero esto es sólo el comienzo de lo que ha aportado esta área de la economía. Ha profundizado el estudio de la cooperación mucho más, en particular con experimentos sobre la provisión voluntaria de bienes públicos.
La provisión voluntaria de bienes públicos
Los juegos sobre la provisión de bienes públicos tienen características similares al Dilema del Prisionero, donde la no cooperación lleva a la no provisión del bien público. Los jugadores reciben fondos y deciden si contribuyen o no a un pozo general, lo recaudado se multiplica y se reparte por partes iguales entre los participantes. Fácilmente puede verse la similitud con el DP: si todos contribuyen el máximo la recompensa total será máxima, pero la recompensa individual se maximiza cuando no se aporta nada, y los demás sí lo hacen. Si todos maximizan de esta forma la recaudación final, o su equilibrio de Nash, sería cero.
No obstante, nuevamente la lógica del individuo maximizador de los juegos no se obtiene en experimentos con gente real. En experimentos de una ronda las contribuciones son mucho mayores, entre 40 y 60% del óptimo. ¿Qué explica esta conducta? Según una interpretación, una preferencia social por el altruismo. Curiosamente, cuando los juegos son repetidos las contribuciones comienzan dentro de esos márgenes, pero luego declinan en sucesivas rondas hasta alcanzar un 10% al final. La preferencia por el altruismo parecería debilitarse en tanto los altruistas comienzan a encontrarse con free riders y reducen su contribución. Esto llamó la atención acerca de la composición de los grupos, los individuos no serían ya homogéneos sino diversos.
No solamente los jugadores no actuaban como individuos maximizadores, sino que tampoco respondían a un patrón único. Los experimentos fueron mostrando que se reparten, aproximadamente entre altruistas (10%), free riders (23%) cooperadores condicionales (55%) y “triangulares” (12%). Un altruista es quien contribuye, en promedio, toda su dotación y no modifica su conducta a lo largo del experimento; un free rider no contribuye nada y tampoco la modifica. Un cooperador condicional es quien contribuye, en promedio, la mitad de su dotación y cambia su conducta (luego veremos qué lo lleva a cambiar} y finalmente los triangulares serían aquellos que incrementan su contribución promedio al ritmo que los demás, pero hasta un cierto techo, luego del cual su contribución declina (Villeval 2012/13, p. 394).
La mayoría, entonces, son cooperadores condicionales, los que hacen depender sus contribuciones de las creencias ex ante respecto al comportamiento de los otros, y luego al ver cómo se comportan (Chauduri, 2011, p. 10).
Formación de grupos
Los resultados mejoran con la exclusión de los free riders, lo que señala que es importante la forma en que se conforman los grupos. Ésta puede ser endógena o exógena. En éste último caso hay dos tratamientos: 1) los grupos se arman al azar en cada período o, 2) se arman según alguna regla que puede o no ser conocida por los jugadores. En este segundo caso, cuando la regla utilizada tomaba en cuenta lo que los jugadores contribuyeran en la jugada anterior, las contribuciones fueron más altas. Pero, sobre todo, los resultados son mejores cuando los grupos son endógenos, es decir, la gente puede elegir con quien formar el grupo. Se observa que existe un movimiento constante de creación de nuevos grupos, donde los cooperadores abandonan los grupos invadidos por free riders. La existencia de un derecho de exclusión también es importante. Con la posibilidad de seleccionar grupos, la cooperación se impone aun cuando la mayoría de los jugadores actúen como free riders.
Esto es importante a los efectos de lo que estamos considerando aquí porque los órdenes espontáneos o anárquicos son, precisamente, de formación endógena.
Las contribuciones también aumentan cuando hay comunicación entre los participantes (ver más adelante), cuando el experimento incluye un “punto de provisión”, esto es, cuando se establece de antemano el mínimo que el grupo tiene que alcanzar para que el resultado sea efectivo y, no es de extrañar, cuando es más alto el retorno marginal per cápita (MPCR).
Sanciones
La cooperación se sostiene, además, en el tiempo, cuando existen sanciones a los free riders. Hasta aquí, los individuos solamente reaccionaban tomando decisiones sobre sus propias contribuciones, y luego incorporamos la posibilidad de seleccionar grupos. Ahora se suma la posibilidad de aplicar sanciones a los no cooperadores, también llamadas “sanciones altruistas”. Ese nombre plantea que nos encontramos ante un problema de provisión de un bien público de segundo orden, y el consiguiente incentivo a ser free rider, ya que aplicarlas es costoso. Y es necesario castigar a los free riders, pero también a cooperadores que no castigan free riders.
Para  verificar esto se realiza un experimento en dos etapas: la primera es un juego de bien público lineal, y en la segunda se puede sancionar a otros jugadores, sacrificando parte de sus propios recursos. Cada punto utilizado en la sanción quita un 10% de las ganancias de la primera etapa del otro jugador. Nuevamente, la estrategia maximizadora sería no castigar en la segunda etapa, pero el resultado muestra que la contribución media cae hasta el 19% sin sanciones, pero se mantiene hasta el 58% con ellas (Villeval, 2012/13, p. 399).
Experimentos realizado por Fehr & Gächter (2002), los resultados con o sin sanciones se muestran en el siguiente gráfico:
Gráfico 5
Fuente: Fehr & Gäechter (2002, p. 38)
De Angelo & Gee (2018, p. 6) concluyen que son efectivas tanto las sanciones centralizadas como descentralizadas o “peer to peer”. Fehr & Williams (2018, p. 3), confirman la efectividad de las sanciones, promoviendo una cultura de cooperación, e incluso cuando pueden moverse a un marco de sanciones centralizadas continúan con las sanciones “peer to peer”.
Gürerk et al (2006) analizaron también la evolución de las preferencias sobre sanciones. Cuando los participantes pudieron elegir, comenzaron eligiendo en una buen proporción un entorno sin sanciones, pero a medida que se desarrollaba el experimentos cambiaron hacia instituciones con sanciones, como muestra el siguiente gráfico:
Gráfico 6
Fehr & Williams (2017, p. 15) confirman estos resultados, pero con un ajuste incluso más acelerado. Al comienzo del experimento 37% eligen el entorno sin castigo, pero cae al 25% ya en la segunda ronda, y a menos del 20% en adelante. Incluso algunos están dispuestos a pagar para poder sancionar (De Angelo & Gee, 2018, p. 8).
¿Por qué castigan? Distintas teorías han buscado explicar estas conductas: motivaciones altruistas (Fehr & Gaechter, 2002, 137), relaciones de parentesco, reciprocidad directa (Axelrod, 1984), construcción de una reputación y también el placer de castigar (Quervain et al, 2004). Una fuerte disputa se ha desarrollado entre las visiones que enfatizan motivaciones altruistas o el interés propio. ¿Por qué castigarían en juegos de una sola ronda? ¿Por qué lo hacen cuando son reasignados a otros grupos después de cada ronda? Interesante discusión, aunque lo relevante en nuestro caso es que efectivamente lo hacen.
Y no solamente el castigo a los free riders favorece la cooperación, pero es costoso. No obstante, es probable que no sea necesario, la amenaza de castigo podría ser suficiente (Kosfeld & Riedl, 2004, 7). Esto puede observarse cuando la contribución en la primera ronda de un juego de bienes públicos es más alta cuando tiene sanciones que cuando no.
¿Cómo sancionan los jugadores? Para Albrecht et al (2016, 4) un 47,1% son castigadores “pro-sociales”, quienes dirigen su castigo a quienes no contribuyen nada o muy poco, mientras que 40,3% son “no castigadores” o free riders en este segundo nivel, quienes no castigan. El resto no muestra conductas sistemáticas. Además, la cooperación y los castigos parecen estar alineados, ya que el 55% de los cooperadores condicionales son castigadores pro-sociales, y 56% de los free riders también lo son en cuanto a los castigos. Curiosamente, esto implica que el 35% de los cooperadores condicionales no castiga, y el 32% de los free riders sí lo hace.
¿Sancionar es un comportamiento irracional? No parece. Los castigos responden a la ley de la demanda, esto es son menos cuando son más costosos (Chauduri, 2011), crean una utilidad emocional inmediata y hacen que los castigados reaccionen positivamente.
¿Castigos o recompensas? ¿Garrotes o zanahorias? Los castigos son más eficientes, sostienen el nivel de contribuciones. Pero, ¿son eficientes netos, es decir, tomando en cuenta el costo del castigo? La eficiencia se define como la cantidad de puntos que se deducen del castigado por cada punto de castigo aplicado por quien castiga. Si el jugador A gasta un punto en castigar a B y el experimentador deduce dos puntos al castigado, el efecto es dos. Lee-Penagos (2016) cita dos trabajos que muestran la efectividad de los castigos: 
Gráfico 7
En este caso, T31, significa que el jugador tiene que pagar tres puntos para que se deduzca uno de castigo, mientras que en T13 paga uno para que se deduzcan tres. El promedio de contribuciones aumenta claramente con el castigo.
Mejores resultados se obtienen cuando los castigos son elegidos por los participantes y cuando los participantes pueden migrar a otros grupos. Y no solamente cuando pueden irse (salida) sino también cuando pueden rechazar alianzas o vínculos con otros (Nozenso & Tufano, 2017).
Chauduri (2011) considera el impacto de sanciones monetarias y no monetarias. Inicialmente, ambas serían efectivas, pero a medida que el juego se extiende las primeras son más efectivas que las segundas. Angelovski et al (2017) revisan la literatura que considera mecanismos de recompensas para la provisión de bienes públicos, tales como concursos, loterías, premios.
Por último, diferencias culturales tienen un alto impacto en la efectividad de las sanciones, tanto monetarias como no monetarias (Hermann et al, 2008).
Gráfico 8
Aunque el castigo a los free riders parece estar más regularmente distribuido, el castigo anti-social, castigo a quienes castigan, muestra claras diferencias culturales. Ese “contra-castigo” puede ser “pro-social”, y adquirir dos formas: castigo a quienes realizan castigo “anti-social” en la primera ronda castigando a quienes más colaboran y, a aquellos que no castigan a los free riders. Estos castigos favorecen la cooperación, reduciendo el número de free riders o de quienes realizan castigo “anti-social”. El contra-castigo “anti-social” por otro lado, es aquél que los free riders imponen a los cooperadores. Parecería que lo más eficaz es un castigo prudente y que los castigados no reaccionen con contra-castigos (Rockenbach & Wolff, 2016).
Detección
Pero antes de sancionar, hay que detectar al free rider. Mejoras en la detección tendrían efectos positivos superiores a aumentos de las sanciones. De Angelo & Gee (2018) encuentran que cuando esa detección es exógena las sanciones de una institución centralizada son más efectivas que las sanciones de pares, aunque la diferencia no es significativa. Sin embargo, cuando la detección es endógena, esto es, las realizan los mismos “vecinos”, las sanciones centralizadas son menos efectivas que las sanciones de pares.
Comunicación
Desde los primeros experimentos en la provisión voluntaria de bienes públicos (Dawes et al, 1977), (Isaac & Walker, 1988), se vio claramente el impacto de la comunicación en las contribuciones voluntarias. Chauduri (2011) cita a Bochet & Puttermnan (2006) en experimentos posteriores donde se utilizan tres tipos de comunicación: cara a cara; chat y numérica. En el primer caso, los participantes pueden hablar cara a cara; en el segundo se envían mensajes de chat por computadoras y en el tercero informan solamente la cantidad que están dispuestos a aportar. Cuando se permite la comunicación cara a cara, las contribuciones saltan hasta el 96% del máximo. Si además se permiten castigos, las contribuciones suben a 97%. La comunicación vía chat obtiene resultados parecidos, del 96% con castigo y 81% sin él. La información de cantidades no mejora los resultados respecto a juegos sin comunicación.
También mejoran las contribuciones si se informa a todos los participantes los nombres y sus respectivas contribuciones y se refiere a los participantes como una “comunidad” (Chauduri, 2011).
Tamaño del grupo
Todo lo anterior es importante, pero podría pensarse que la cooperación social voluntaria puede darse en grupos de reducido tamaño, no así en grupos grandes. De hecho, ésta es la hipótesis Olson (1965). Pero, contrario a lo que la intuición sugiere, pareciera que la provisión de bienes públicos no es más deficiente en grupos grandes, y hasta podría ser mejor. Según Weimann et al (2018, p. 2), la tesis de Olson se aplicaría solamente en casos donde grupos grandes tratan de producir un bien público con un retorno marginal per cápita (MPCR) cercano a cero.
La posibilidad de castigar y el tamaño del castigo no se modifican con el tamaño del grupo, pero sí la información disponible sobre los otros participantes (Kosfeld & Riedl, 2004). La lógica sería que a medida que el tamaño del grupo aumenta, lo hace más que proporcionalmente la cantidad de pares que están observando una determinada conducta (Kamei, 2018, p. 13). Cuanta más gente hay, sería más fácil ser free rider, pero también hay más gente observando a cada free rider, por lo que no sería obvio que la cantidad total de castigo se reduzca (Carpenter, 2004). Es más, Kamei (2018) afirma que superaría lo que es “eficiente”.
Guzmán et al (2006) sostienen que la presencia de conformistas incrementa dramáticamente el tamaño del grupo que puede sostener la cooperación. Con conformismo (por ejemplo, un inmigrante se suma a un “grupo” y sigue sus normas) y castigos se alcanzan altos niveles de aportes y creciente tamaño del grupo. Algo similar concluye Gächter et al (2017), señalando que mucha gente tendría una preferencia intrínseca a conformarse con lo que es colectivamente considerado como “apropiado” e incluso estarían dispuestos a sacrificar una ganancia material para cumplir con dichas normas.
Instituciones
Este tema es mucho más importante de lo que aquí va a considerarse. Experimentos realizados por Engl et al (2017) consideran como “institución” a una regla que establece la contribución de cada jugador en un juego de provisión de bienes públicos. En el tratamiento exógeno la norma la pone el experimentador, en la endógena es el mínimo propuesto por los participantes, por lo que es, entonces, unánime.
El principal resultado del experimento es que, en ambos casos, institución exógena o endógena, se obtienen mejores resultados. Pero el experimento evalúa también el impacto en contribuciones en un juego donde no hay reglas, lo que se llama “efecto externo” o externalidad. Se observa que esos resultados externos son positivos e importantes, alrededor de 30 a 40% del efecto directo, pero en el caso de instituciones endógenas los efectos aumentan con el tiempo, mientras que en caso de instituciones exógenas no muestran una tendencia en particular.
En resumen, respecto a esta sección. Los individuos no parecen actuar como individuos maximizadores de utilidad monetaria y, por ende, proclives a ser free riders y traicionar la cooperación voluntaria. La cooperación es mayor cuando los grupos se forman voluntariamente y los participantes pueden irse o impedir el ingreso de free riders. La cooperación se sostiene y las contribuciones aumentan cuando hay sanciones a quienes no lo hacen, y más aún cuando esas sanciones son entre pares; igual con la detección. La comunicación mejora notablemente la cooperación, la que parece no sufrir mucho por el tamaño del grupo y también cuando se establecen reglas endógenas. Todos estos elementos, parte de la cooperación voluntaria, hacen referencia a los órdenes espontáneos y a la organización social voluntaria, no coercitiva.
Psicología evolutiva
La psicología evolutiva es un área joven pero muy fértil dentro de las ciencias sociales. Su nacimiento está asociado a un cuestionamiento del modelo estándar de las ciencias sociales (MECS), según el cual, los seres humanos llegamos al mundo con una mente tal como una “hoja de papel en blanco” (Barkow, Cosmides & Tooby, 1992), y vamos llenando esas páginas con información que recibimos a través de los sentidos. Por el contrario, la psicología evolutiva sostiene que nuestra mente no solamente viene cargada con las instrucc
 

Últimos 5 Artículos del Autor
[Ver mas artículos del autor]