Índice Portada Prólogo Introducción 1. Un puente sobre el Bósforo 2. La inteligencia colectiva puede salvar vidas 3. Dios no suele proporcionar experimentos naturales 4. ¿Nos quitarán los robots nuestro empleo? 5. Un economista en busca de la felicidad 6. Los políticos no la saben meter 7. El análisis de datos, la profesión más sexy del siglo xxi 8. Neurociencia y trampas de pobreza 9. ¿Es España un país para jóvenes? Repensando la emigración 10. Innovación: todo lo que se pueda hacer mal, se hará mal 11. Microinnovación a la vuelta de la esquina 12. La gestión compleja de empresas: un nuevo management para una nueva época Epílogo Bibliografía Notas Créditos Te damos las gracias por adquirir este EBOOK Visita Planetadelibros.com y descubre una nueva forma de disfrutar de la lectura ¡Regístrate y accede a contenidos exclusivos! Próximos lanzamientos Clubs de lectura con autores Concursos y promociones Áreas temáticas Presentaciones de libros Noticias destacadas Comparte tu opinión en la ficha del libro y en nuestras redes sociales: Explora Descubre Compa Prólogo Toda frase breve acerca de la economía es intrínsecamente falsa. ALFRED MARSHALL Economista británico (1842-1924) El pescadero que sabía de expectativas racionales MANUEL CONTHE Desde hace muchos años voy los sábados a Aurelio, un pescadero de Las Rozas de merecida fama, basada en un magnífico pescado, a buen precio, cortado y despachado con maestría. Con los hombres se muestra más serio, pero con las clientas habituales está siempre de broma. A unos y otros nos aplica, sin embargo, una misma técnica, que provoca risas entre quienes pueden ver la báscula: cuando le pides pescado al peso (bonito, salmón, emperador, rape...), te corta una pieza cuyo peso indefectiblemente supera en un 15 o un 20 por ciento lo que le pediste. Si se acerca al peso solicitado —y no digamos si no lo alcanza—, él mismo se sorprende y se echa a reír. Algunas clientas rezongan y en ocasiones piden que les quite el exceso, pero la gran mayoría de clientes siempre damos por bueno el corte. ¿Cómo explicar tan tolerante actitud? Obedece, a mi juicio, no sólo a la calidad del producto y al espíritu jovial de la clientela, sino al fenómeno conocido en macroeconomía como «crítica de Lucas», «tesis de la ineficacia de las políticas» (policy ineffectiveness proposition) o hipótesis de las «expectativas racionales» (rational expectations): como todos los clientes habituales conocemos la «regla de Aurelio», pedimos menos de lo que en realidad queremos, para acabar con un peso cercano al que deseamos. En suma, incorporamos a nuestras expectativas la «regla de Aurelio», adaptamos a ella nuestra conducta y, por ello, la hacemos ineficaz. El fenómeno lo conocen también los especialistas en análisis económico del derecho (Law & Economics): saben que las normas legales, salvo cuando se aprueban por sorpresa y se aplican con carácter retroactivo, rara vez logran redistribuir renta entre las partes, pues aquellos a quienes perjudican se protegerán de ellas. Así, en aquellos remotos tiempos del servicio militar obligatorio, las empresas sorteaban la obligación legal de conceder excedencia especial a los trabajadores llamados a filas contratando sólo a mozos con «servicio militar cumplido». Por parecido motivo, hay quien piensa que las medidas de protección laboral a las trabajadoras gestantes, aunque bienintencionadas, pueden también estar dificultando en la práctica la contratación o promoción de mujeres en edad fértil con pareja. Es cierto que, en ocasiones, las autoridades logran sorprender al mercado, como lo consiguió también Aurelio hace un par de años, cuando le pedí kilo y medio de rape para la comida de Navidad y me cortó dos kilos, ¡un exceso superior al 30 por ciento! (no me fue mal, porque luego vino más gente de la prevista). Pero desengañémonos, son casos excepcionales: cuando hay libertad para llevar a cabo o no un acto regulado, el carácter tuitivo o reglamentista de la norma puede resultar ineficaz. Por eso, la autoridad benevolente que desee redistribuir rentas debe estar dispuesta a privar a sus víctimas de elección. Espero, sin embargo, que Aurelio no lo sepa nunca y no acabe ordenándonos a sus devotos clientes cuánto le tenemos que pedir antes de que nos lo pese. Pues bien, en este libro promovido por los editores de Sintetia se encontrarán algunos ejemplos como el que he puesto del pescadero Aurelio. Como ven, hasta yendo a la pescadería se puede aplicar buena economía. Les invito a que se queden y sigan leyendo. Contradicciones en mi conducta optimizadora EMILIO ONTIVEROS ¿Está mi comportamiento habitual informado o condicionado por principios económicos? Si esa pregunta se la hubieran formulado a las personas más cercanas, a mis hijos, por ejemplo, que son arquitectos los dos, habrían contestado que mis numerosas apelaciones a la racionalidad en las decisiones o al análisis en nuestras frecuentes discusiones no siempre son del todo consistentes en mi práctica diaria. Las discusiones acerca de cómo asignar el tiempo disponible a usos alternativos, por ejemplo, o sobre la secuencia para llevar a cabo alguna tarea más o menos cotidiana, eran constantes cuando pasábamos más tiempo juntos. Y tengo que confesar que en no pocas ocasiones me ponían en un brete cuestionando la racionalidad implícita en mis propuestas o la apelación al coste de oportunidad, con la que con frecuencia me tomaban el pelo. Dejadme que os ponga un ejemplo reciente. Acabo de alquilar una casa en Cantabria, en la frontera con Asturias. Es un sitio precioso, al borde de un acantilado. Fue el pasado agosto cuando estuve en ella por primera vez. El deseo de volver, de no perder la oportunidad de disfrutar de otro agosto, e incluso de hacer alguna escapada en otra época del año, me ha llevado a alquilarla durante todo el año, pagando un precio equivalente a tres veces la cuantía que pagué por el mes de verano. Han sido los animal spirits, la emoción asociada a poder tomarme un café a primera hora de la mañana en esa terraza, en lugar de instalarme en el hotel cercano, cómodo y, desde luego, mucho más barato, los que han cuestionado cualquier principio optimizador. Ha quedado también en evidencia un coste de oportunidad derivado de la obligada limitación de destinos alternativos, de diversificar o propiciar otras búsquedas. Tampoco en mis decisiones personales de inversión he conseguido sustraerme a consideraciones que me distanciaban aparentemente del más primario principio de maximización de la rentabilidad convencional. He invertido en proyectos de los que tenía suficientes elementos de juicio a priori acerca de su elevada probabilidad de fracaso o sobre su inferioridad frente a asignaciones alternativas. Es en el ejercicio de mis responsabilidades en la consultora Afi donde procuro que esa conducta no se distancie en exceso de lo que es la racionalidad más estricta. Intento que cualquier decisión se ajuste a una metodología más informada, susceptible de ser aplicada por cualquiera con independencia de las funciones de utilidad individuales. Con todo, en esta reflexión a la que me obligan los autores de este sugerente libro, he de confesar que una cosa es predicar y otra bien distinta es dar trigo. Es muy útil tomar en consideración lo que sugieren las vías de razonamiento del análisis económico, pero también es en ocasiones gratificante ser consciente de que podemos saltárnoslas, concediendo virtualidad a esas sugerencias que hizo Keynes sobre los animal spirits o las más recientes orientaciones de la behavioral economics, que nos recuerdan el estrecho parentesco de nuestros análisis con otras disciplinas también sociales, como la psicología o la sociología. La cultura del ahorro y la gestión de recursos escasos a través de la paga a mis hijos DANIEL LACALLE Todos los días usamos la economía en nuestras vidas. La familia es la unidad económica más solidaria y completa. Mi ejemplo más claro es la paga semanal que muchos niños y jóvenes reciben. Es una pequeña recompensa por cumplir con una obligación —estudiar, comportarse bien—, pero no es un «soborno». Nos ayuda a aprender a valorar el dinero y a administrarlo. Cuando yo era pequeño, por ejemplo, ahorraba lo que podía para poder comprar discos. Me di cuenta de que una copa y un paquete de tabaco eran equivalentes a un disco o un libro de segunda mano en mi tienda favorita. Así que ni fumar ni beber. Es una decisión económica de coste-beneficio y de valorar recursos limitados. El beneficio que me aportaba comprar un disco o un libro superaba con mucho la gratificación de tomar una copa y, no digamos, de probar el tabaco y fumar. Sin embargo, cuando conocía a una chica y quedaba con ella, o cuando me encontraba con un buen amigo, de vez en cuando me gustaba invitarles. El valor social de esa decisión económica trascendía el de un objeto material y de uso habitual, un bien cultural —un disco—, para ser inmaterial, establecer o fortalecer una relación personal, que puede durar mucho más y ser mejor a largo plazo que un disco o un libro. Como todas las decisiones que tomamos, son un reflejo del valor que le damos a lo inmediato comparado con algo más duradero y potencialmente placentero o útil. Saber que no vas a disponer de más dinero si dilapidas tu paga, también ayuda a entender el valor del ahorro. Por eso toda nuestra vida son decisiones económicas. Incluso las que consideramos «emocionales» y las decisiones caritativas. Siempre son un análisis de coste y beneficio, aunque dicho beneficio sea supuestamente intangible o colectivo. Asumir que una decisión no es económica por no centrarse en el individuo o una rentabilidad pecuniaria es un error. La rentabilidad personal, la caridad y la generosidad son parte de lo que esperamos que se transmita a las decisiones económicas de los demás a través del ejemplo, y nunca existen —o se desvirtúan— si el ahorro desaparece. Cada día hacemos un análisis de ingresos y gastos, y precisamente para proteger a los más débiles, los mayores y los niños, evitamos despilfarrar. Y el ahorro nos permite disponer de dinero cuando una decisión de inversión, aunque sea en amistad o emocional, es de mayor calado que nuestro gasto discrecional diario. Todo ello sólo se aprende desde la administración del ahorro y la renta disponible, no desde el gasto. Por eso siempre me ha sorprendido ver que los políticos que defienden incurrir en déficits eternos y gastos inútiles no lo hacen en su familia. Porque los incentivos al gastar tu dinero no son los mismos que al gastar el de los otros, el que recaudas a los demás. En este sentido, el valor educativo de la paga semanal desaparece cuando el niño viene y te dice que se ha gastado todo lo del viernes y que le des más el sábado, que «ha quedado». Se pierde el ejemplo educativo de administrar y conocer el valor del dinero por el antiejemplo de «no importa, papá paga». Y se genera una sociedad irresponsable, que traslada las decisiones económicas estatales («que pague el BCE o Merkel»). Recuerdo una entrevista en Telecinco con Gaspar Llamazares en la que comentaba que él sería un buen ministro de Economía porque, como buen padre, era muy austero y no tenía enormes deudas ni grandes gastos. Su objetivo, claramente, era administrar su dinero de la manera más adecuada y con el menor riesgo para asegurar que sus hijas no solamente tuvieran un futuro sólido, sino que se educasen en un entorno de responsabilidad. Admirable, ciertamente. Sin embargo, esas mismas valiosas lecciones que aplicamos a nuestra vida diaria y al ente más social y caritativo de todos, que es la familia, las olvidamos para entregarnos al gasto «por si acaso», a la inversión improductiva y la deuda. ¿La diferencia? El dinero de los demás siempre nos parece poco. De la misma manera que el chico que se lo ha gastado todo el viernes y exige, sin remordimiento —de hecho, muchas veces con arrogancia—, que su padre o su madre le dé dinero para el sábado, «que he quedado», el intervencionista siempre piensa que usted gana mucho y él gasta poco. Daniel Lacalle es economista y autor de Nosotros, los mercados, Viaje a la libertad económica y La madre de todas las batallas (todos en Deusto), traducidos al inglés y al portugués. El economista observador... que compra coche JOSÉ CARLOS DÍEZ Cuando contactaron conmigo desde Sintetia para prologar este libro me sentí halagado y contento. La economía es algo innato al ser humano y su estudio empezó con Jenofonte y el nacimiento de la filosofía. Luego la ciencia ha ido evolucionando e incorporando herramientas matemáticas; la profesión ha ido derivando al tecnicismo y pretendemos ser físicos, pero no se nos olvida que estudiamos el comportamiento humano ante problemas económicos. Lo primero que aprendes y ahora enseño en la universidad a los nuevos economistas es la ley de la escasez y el concepto de restricción presupuestaria. Si no hubiera escasez, especialmente de dinero, no habría problemas económicos y los economistas no existiríamos. Cada día los individuos tomamos varias decisiones económicas. Nuestro subconsciente ya se ha adaptado a un mundo de recursos escasos y toma decisiones. Quién no recuerda de niño a sus padres diciéndole que no podías tener todos los juguetes y regalos del mundo porque costaban mucho dinero. Duro choque con la realidad del niño que nos negábamos a aceptar, y a la mínima oportunidad intentábamos conseguirlos de nuevo con chantaje emocional. Cuando vamos al supermercado, cuando decides ir en coche o en transporte público, cuando decides el lugar de vacaciones o asumes, como muchas familias, que no puedes ir de vacaciones, cuando decides estudiar o empezar a trabajar, etcétera, en todas esas ocasiones estás tomando decisiones económicas. Lo que hacemos los economistas es observar y modelizar ese comportamiento y la lógica de la decisión. Personalmente, estudiar economía ha sido muy útil en mi vida personal. Hace quince años decidí comprarme una vivienda, fue sobre plano, 100 metros por 150.000 euros. Fui prosperando en mi vida profesional y tuve la oportunidad de cambiarme de casa y comprarme una de medio millón en el momento de mayor euforia de la burbuja. Pero en aquel entonces explicaba que el precio de la vivienda en España estaba sobrevalorado un 30-40 por ciento. Eso me llevó a la conclusión de que cambiar de casa y endeudarme para comprar un bien que iba a caer de valor no era una buena opción. Apliqué la lógica económica a mi propia vida y protegí el patrimonio de mi familia. Desde que llegué a la Facultad de Económicas de Alcalá me ha apasionado estudiar la incertidumbre y sus efectos sobre la economía. George Akerloff escribió un trabajo precioso en el que analizaba la decisión de comprar coches de segunda mano. Por este trabajo, consiguió el Premio Nobel. El comprador tiene dudas sobre el estado del coche y paga un precio menor al que debería tener en condiciones de certidumbre. Es lo que se denomina un fallo de mercado, pero tiene mucha lógica. Tras comprender esta lógica, este economista observador nunca se ha comprado un coche nuevo y siempre ha tenido coches de segunda mano. Consigo romper la incertidumbre comprando los coches en los concesionarios donde reviso mi coche. Me hago amigo del jefe de mecánica y cuando necesito cambiar de coche le aviso sin prisa para que me ofrezca oportunidades. Siempre busco coches de alta gama con menor demanda de segunda mano. A la gente de renta media alta le gusta estrenar coche. Con menos de cinco años y unos 50.000 kilómetros. Hago unos 15.000 kilómetros al año y cambio de coche cuando tiene 200.000 kilómetros. Por lo tanto, compro el coche normalmente un 50 por ciento más barato que uno nuevo y me dura 10 años. Te deseo, querido lector, un buen viaje por este libro. Y recuerda las sabias palabras del gran economista John Stuart Mill: «Si no eras egoísta antes de estudiar economía, hacerlo no provocará que lo seas». Hoy es el taxista quien te explica todo un manual sobre economía en lo que dura un trayecto JOSÉ M.a GAY DE LIÉBANA Y SALUDAS Responder con el ánimo elevado a la invitación que proponen unos auténticos mosqueteros de la economía es todo un lujo. Así que en primer lugar agradezco su deferencia y, en segundo lugar, destaco el enfoque rompedor y agradecido de un libro de apetecible lectura, cuyos capítulos despiertan interés y su mera ojeada anuncia los cauces por los que discurre la obra. Alguien diría, a simple vista, que se le ha perdido el respeto debido a la ciencia económica y que hay cada vez más economistas, jóvenes o maduros, que profanan el sanctasanctórum de los templos más sagrados de la antes temida economía. Nada de eso. Algo ha cambiado en nuestras vidas. Tiempo atrás, el fútbol —que impregna también ciertos pasajes de esta obra— era el caballo de batalla de nuestras triviales conversaciones, el arma con la que romper el hielo en una reunión de negocios, el tema que sacar en una formal comida familiar o el modo de entablar una brevísima conversación vecinal en el ascensor de casa. Hoy, el as que cada cual lleva en la manga, el comodín que usar en todo momento y circunstancia en sustitución del tópico del tiempo que hace, es, sin duda, la economía. Todos los españoles —bueno, algunos, como mi mujer, no— tenemos alma de entrenador de fútbol —sobre todo, del club de nuestros amores— y vocación de seleccionador nacional, retando al mismísimo genio que es Vicente del Bosque. Todos sabemos y entendemos de fútbol y opinamos sin remilgos. Hacemos y deshacemos, montamos tácticas y ponemos a futbolistas sobre el terreno de juego o los sacamos con la misma facilidad que echamos una ojeada al móvil o, más en la onda, smartphone. El lado empírico de la economía ha venido protagonizado por la crisis. Antes de que estallara aquella crisis anunciada por algunos cenizos, que es esta de hoy, todo era jauja. Creíamos que el crecimiento económico no tenía límites, que nuestros salarios se irían multiplicando a perpetuidad, que los bonus seguirían lloviendo a final de año, que al acabar de pagar el coche ya nos lo cambiaríamos por un flamante modelo, que volveríamos a comprarnos el piso de nuestra vida, que la hipoteca se iría agrandando según se ensancharan nuestras dimensiones, que España tenía pocos restaurantes con las tres estrellas Michelin y... De repente, ese sofisticado decorado se vino abajo. Si la experiencia curte, el duro transitar por esos tiempos difíciles se convierte en erudición. Siempre ilustrarán obras maestras en lides económicas, beberemos en las sabias fuentes enciclopédicas, devoraremos fecundos trabajos de insignes economistas, releeremos a los clásicos, nos embobaremos con las disertaciones de ilustres gurús, pero, desde luego, lo que sí es todo un magnífico, aunque doloroso, ejercicio de aprendizaje es ser protagonista antes que testigo de esta tremenda etapa para nuestros bolsillos. Hoy es el taxista quien te explica todo un manual sobre economía en lo que dura un trayecto. Hogaño es el «gasolinero» quien te pone al tanto de la realidad semanal con ejemplos que no requieren de sofisticadas fórmulas matemáticas más allá del sumar y restar, aunque a veces sea necesario dividir más que multiplicar. Ahora es la dependienta de la tienda de barrio quien te anuncia las tendencias de las próximas semanas. La economía refuerza su vis empírica. Todos estamos instruyéndonos en el esforzado día a día. Paseando por las calles vemos tiendas con las persianas bajadas, comercios históricos que cierran sus puertas cediendo su excelente enclave a una cadena internacional de comida rápida, ventas navideñas que son sinónimo de curiosear in situ para comprar después vía internet, gasolineras sin gasolineros, parkings sin parkingueros, correos sin sello y sí énfasis emailero, aeropuertos sin largas filas en los mostradores del check-in, chavales que ni por asomo se acercan a esos grandes almacenes que han marcado parte de nuestra vida. Vivimos en clave de globalización, y mi sobrino se echa novia en Dallas, a la que visita un fin de semana por lo menos cada mes y me explica que le sale más barato el ir y venir de aquella peliculera ciudad texana que ir a esquiar al Pirineo catalán. En fin, que igual estamos ante un inmenso cambio de escenario económico en vez de sumergidos en una deplorable crisis. La metamorfosis que vivimos vaticina, pues, un nuevo orden, un cambiante statu quo. Ya nada será igual, y como dijo, creo, Groucho Marx: «El futuro ya no es lo que era». Mi gratitud a Javier, Abel y Andrés no sólo por invitarme a escribir estas líneas, sino sobre todo por ayudarme a reflexionar sobre un hoy en brutal transformación y un mañana que no sé ni por asomo cómo diantre será. Disfrutad de la lectura seria a la vez que divertida de las páginas que siguen. Introducción JAVIER GARCÍA, ANDRÉS ALONSO Y ABEL FERNÁNDEZ La primera gran virtud del hombre fue la duda, y el primer gran defecto, la fe. CARL SAGAN Tarde o temprano, todo economista habrá de enfrentarse en su vida a la inevitable pregunta por parte de un amigo o familiar: «¿Qué acciones debo comprar?». Algunos célebres economistas han buscado recursos ingeniosos para librarse de la dichosa pregunta: Gregory Mankiw escribió una columna en The New York Times titulada «¿Qué acciones debo comprar? Mamá, por favor, ¡no me preguntes!»; a Xavier Sala i Martín le suele gustar responder a preguntas de este tipo lo siguiente: «Invierta en Bodegas XYZ. Si le va bien, se forrará; si lo pierde todo, al menos tendrá vino para una buena fiesta». Estas respuestas ingeniosas sólo reconocen un hecho paradójico para los ajenos a la disciplina: que un economista no sabe invertir mejor que un ciudadano medio. ¿Para qué entonces estudiar economía si no aprenderemos a invertir mejor que el resto de personas? La respuesta a esta pregunta suele sorprender de nuevo al no iniciado, cuando no predisponerlo en contra de lo que defendemos: la economía es un conjunto de herramientas para pensar acerca del mundo y la sociedad. Y dichas reglas pueden aplicarse tanto a asuntos estrictamente monetarios como al más banal de los problemas cotidianos de las personas, como una dieta, el dejar de fumar... ¡o incluso una cita romántica! Este tipo de consejos suelen ser recibidos con estupefacción cuando son escuchados de viva voz, siendo más fácil articularlos correctamente por escrito. Los tres editores que coordinan este libro nos conocimos durante los últimos años de los estudios de economía en la Universidad de Oviedo, y coincidimos también como ayudantes de investigación en su departamento de Economía. Y, aunque ninguno acabó finalmente dedicándose a la vida académica, los tres desarrollamos una gran pasión por la estadística, el trabajo empírico y, en general, la forma de pensar desde la economía. El destino quiso que uno se dedicara a la empresa, otro a las finanzas y el tercero al análisis económico, pero la cuestión es que, años más tarde, Javier (desde Asturias), Andrés (desde Madrid) y Abel (desde Valencia) seguimos debatiendo casi a diario las noticias de economía, alarmados por la falta de rigor de muchos medios tradicionales. Después de un año de detalladas discusiones por correo, surgió la idea natural: ¿por qué no hacemos públicas dichas discusiones y animamos a nuestros compañeros y contactos a sumarse a las mismas? Y así nació Sintetia.com, cuya mayor cualidad ha sido la constancia y lo prolífico de nuestros análisis: el esfuerzo continuo es la única explicación para que tres economistas no académicos, jóvenes y desconocidos, hayan tenido una cierta voz en la discusión de diversos asuntos de la economía, la política y la empresa en España. Encontramos facilidad para coordinarnos, y además, el tiempo nos acompañó para que la capacidad de impulsar nuevos proyectos de Javier coincidiera con una renovada pasión por investigar de Abel y una vocación de perpetuar la época de analista de mercados de Andrés. Después de tres años escribiendo nos dimos cuenta de que el portal Sintetia.com tenía un aspecto diferencial: no nos interesaba adoctrinar, sino educar y debatir. Explicar los hechos y la evidencia disponible de la forma más neutral, y que la opinión la pusiera el lector. Por eso, una de las únicas condiciones que nos marcamos en el origen del proyecto fue no caer en la tentación de discutir sobre situaciones que a todas luces usaban la economía incorrectamente, pero de forma deliberada, y por ello casi nunca hemos criticado las incorrecciones o falsedades que a menudo proclaman nuestros representantes políticos. No es menos cierto que en ocasiones sí caímos en la tentación de debatir asuntos bastante cercanos a los valores y preferencias individuales. Nos vimos debatiendo sobre Cataluña con el mismísimo Xavier Sala i Martín, a pesar de que el fin de nuestro argumento era que «esto no es un debate económico, es político». De modo similar, hemos tenido que hablar del «caso Bárcenas», de rescates bancarios y del programa económico del nuevo partido Podemos. Sin embargo, lo que más nos ha enorgullecido ha sido construir debates sobre la economía menos usual. Quizás el mejor ejemplo sea una comida en un restaurante de Madrid, donde, tras un pantagruélico homenaje a base de hamburguesas, uno de nosotros nos sorprendió pidiendo sacarina con su café ¡y encima justificándolo basándose en el efecto renta y sustitución! Sin nada que objetar, comenzamos a entender cuál era nuestro fuerte: explicar la vida a través de los ojos de un economista. En ese momento nos dimos cuenta de que habíamos hablado de felicidad, inteligencia colectiva, complejidad, árboles de decisión, escoger tu pareja ideal, cómo hacer tu currículum o mejorar tus charlas en público gracias a herramientas que usamos en economía. ¡Así es! El psicólogo Daniel Kahneman nos ha ayudado a entender que los humanos sumamos a corto plazo pero promediamos a largo, pues tenemos dos sistemas para pensar y procesar nuestras vivencias: uno rápido o intuitivo y otro lento o consciente. Hay evidencia de que el primero sabe estimar una media, pero no sumar. Piense ahora cuando explica su historial de méritos a un encargado de recursos humanos en una entrevista de media hora escasa. Con poco tiempo, tenemos que pensar rápido y, además, queremos que se acuerden de nosotros a largo plazo. Por eso, ¡no llenemos nuestro currículum de líneas innecesarias de méritos! Seamos inteligentes y mantengamos nuestra media alta. Llamemos la atención con la calidad media porque ¡no todo suma igual! Ésta es la propuesta que hacemos en el libro: no nos preguntéis en qué acciones debéis invertir, porque lo único que sabemos es que ¡no somos mejores que vosotros averiguándolo! Esta humildad que nos caracteriza y separa de cualquier ideología no debe tomarse como algo colateral. Es la herramienta central que se va desmenuzando en sus doce capítulos: la duda como herramienta de investigación científica. Explicaremos que la economía es la ciencia de la incertidumbre, y el método de «prueba-error» es la palanca del progreso humano. Esto siempre ha sido así, y la historia del progreso como sociedad ha sido la historia de un remix continuo. James Watt crea el motor de vapor intentando reparar el motor de Thomas Newcomen. Christopher Latham Sholes diseña la primera máquina de escribir moderna en un piano, la cual evoluciona durante cinco años hasta el modelo QWERTY actual. Thomas Edison no inventó la bombilla: lo que realmente consiguió fue la primera bombilla comercialmente viable. Los descubrimientos más grandes de la historia vienen de usar la «combinación» de materiales existentes: Gutenberg populariza la imprenta en 1440, pero todos los componentes de la misma tenían cientos de años; la dinastía Song, en China, llevaba medio siglo utilizando imprentas de tipos móviles. Henry Ford inventó el primer modelo de coche estandarizado, el modelo T. Para ello combinó las cadenas de montaje (ya existentes) con componentes de coches ya creados. La propia World Wide Web es una transformación y combinación de sistemas de protocolos ya existentes. Y, cómo no, el célebre caso de Xerox, en cuyos sistemas Apple se basó completamente para crear su primer ordenador personal. ¿Dónde innovó Apple y qué hace que se posicione como líder del mercado? Apple innovó en la creación de una versión tremendamente más eficiente en costes, haciendo el ordenador personal algo comercialmente viable. El ejemplo que mejor recoge este espíritu innovador es la reducción de costes de producción del ratón, desde su desorbitado coste inicial hasta los 10 dólares, lograda al combinar la idea original con el mecanismo de los desodorantes de bola. Sintetia.com nos ha traído muchas alegrías, alguna en forma de premio, pero, sin duda, la más valiosa ha sido el descubrimiento de grandes economistas a cuyas voces hemos sido capaces de dar un altavoz. Algunos están firmando aquí con nosotros este primer libro, y por ello se lo agradecemos de corazón. Tanto como al resto de la familia que ha firmado alguna columna, y a los que queremos dar aquí las gracias igualmente: Simón González de la Riva, Lilian Fernández, Sebastián Puig, Mercedes Storch, Carlos Aparicio, Gian-Lluís Ribechini Creus, Manuel Illueca o Pablo Blasco, entre muchos otros. Esperamos que el libro te ayude a cultivar la duda en su forma de analizar nuestra realidad. Quizá tu reacción cuando leas el título sea pensar que no sólo los economistas tienen que dudar para ser fiables, sino que debe dudar cualquier persona o gran profesional. La duda es el combustible para seguir investigando, es el incentivo para pensar y mejorar en ese acercamiento hacia la verdad (siempre tozuda y cargada de aristas). Y la tarea de un economista no sólo está en comprender y explicar qué es la deuda, el déficit o cómo funcionan los impuestos. Aspiramos a que como lector tomes prestadas algunas de las herramientas de los economistas a la hora de pensar en tu día a día: te resultará a la vez útil y divertido. ¡Prometido! 1 Un puente sobre el Bósforo ABEL FERNÁNDEZ, ANDRÉS ALONSO Y JAVIER GARCÍA La ciencia será siempre una búsqueda, jamás un descubrimiento real. Es un viaje, nunca una llegada. KARL P OPPER Cada mañana, el puente sobre el estrecho mar que separa la parte asiática y la parte europea de Estambul se convierte en el escenario de insólitas imágenes. Pocas vistas en el mundo condensan tanto poderío visual e histórico como la antigua Constantinopla observada desde un punto suspendido sobre el Bósforo. Castillos y palacios a ambas orillas son testimonio de la importancia estratégica que el estrecho ha tenido durante la mayor parte de nuestra historia, desde la fundación original de la ciudad como polis griega, pasando por la ocupación persa, su época bizantina y la definitiva conquista otomana. Las vistas más espectaculares se encuentran hacia el oeste, con los perfiles de las mezquitas sobre el Cuerno de Oro, el brazo del Bósforo que se adentra en la parte europea de Estambul. No nos engañemos; la mayoría de los habitantes cruzan el Bósforo en los ferris de línea regular, aunque sólo sea porque pocos pueden permitirse el estratosférico precio de la gasolina. Pero Turquía ha experimentado un fuerte crecimiento económico durante la última década, concentrado principalmente en las regiones más cercanas a Estambul, y entre sus más de setenta millones de habitantes ha emergido una clase acomodada que utiliza el automóvil como señal de estatus. Además, el centro económico y comercial de la ciudad se encuentra en su parte europea, mientras que los grandes puertos y la capital del país, Ankara, se encuentran en la parte asiática. Y, si algo abunda en el puente sobre el Bósforo cada mañana, es tiempo de sobra para admirar las maravillas arquitectónicas y para recordar los momentos históricos que tal encrucijada de culturas ha dejado para la posteridad. ¿El motivo? El inevitable atasco que cada día se produce en las horas punta. Aunque existe otro puente sobre el Bósforo cinco kilómetros al noreste, dichos dos puentes son el único paso directo de vehículos entre las dos partes de una ciudad en la que habitan trece millones de personas. Una de las consecuencias de este rápido desarrollo es que, cada día, 180.000 vehículos cruzan el puente principal sobre el Bósforo, garantizando un atasco que suele comenzar con varios kilómetros de antelación. Se podría argumentar que parte del problema es regulatorio, puesto que un peaje más alto reduciría el tráfico y aliviaría la situación. Y, si bien ello es cierto, no lo es menos que una mejor coordinación del tráfico podría aumentar el número de coches que cada hora pasan por el puente sin producirse atascos. Si los 180.000 vehículos que diariamente cruzan el Bósforo lo hiciesen en fila ordenada por cada uno de los seis carriles abiertos, guardando 30 metros de separación y a una velocidad de 90 kilómetros por hora, en sólo diez horas la totalidad de los vehículos habría cruzado sin necesidad de detenerse. ¿Qué fenómeno impide entonces el tráfico fluido? Un equipo de físicos de la Universidad de Nagoya, tras realizar simulaciones con tráfico real y virtual, llegó a la conclusión de que un leve frenazo es motivo suficiente para detener completamente el tráfico de una autopista. El fenómeno comienza cuando un conductor realiza un cambio de carril, bien sea para intentar ganar unos segundos o para tomar una salida, y obliga al coche al que sigue a frenar levemente. La fracción de tiempo necesaria para que el conductor que va detrás reaccione le obliga a frenar con una intensidad un poco mayor, y lo mismo sucede también con el coche que circula inmediatamente detrás. Cuando la distancia entre los coches que circulan es pequeña, ello genera una onda de frenazos que, como observó el equipo de investigadores, se propaga con intensidad creciente en dirección contraria al tráfico a una velocidad de unos 20 kilómetros por hora. En esta situación, lo único que puede evitar el parón final absoluto es que la distancia entre dos vehículos de la autopista sea tal que el segundo no necesite frenar. ¿Quién es entonces el culpable de un atasco? Generalmente, el culpable original acaba siendo un conductor que ni tiene en cuenta ni le importa la repercusión que su cambio de carril tendrá sobre todos los que le siguen; al fin y al cabo, ¡tiene que tomar su salida! Los economistas tienen un nombre para este problema de coordinación: externalidad. Las externalidades negativas se producen cuando un agente realiza una acción con consecuencias negativas para otras personas, sin que dicho perjuicio se vea incorporado en el coste de la acción. Por ejemplo, cuando una persona sale de noche por una zona de bares, el precio de las consumiciones no tiene en cuenta el ruido que los bares generan. Para que un mercado genere la cantidad óptima de un bien, sus precios deberían tener en cuenta las consecuencias externas de dicho mercado. En un mercado regulado, una solución habitual consiste en introducir un impuesto sobre el fenómeno que genera externalidades negativas. ¿Sería posible esto en el caso de los frenazos? Por ahora, esta posibilidad es realmente difícil. La única solución a los colapsos consistiría de momento en la introducción de un peaje que reduzca el tráfico, pero esta solución distaría mucho de ser la perfecta porque, como hemos visto, si la coordinación en la conducción fuese perfecta, las actuales vías de circulación podrían soportar mucho más tráfico que el que actualmente soportan. Mientras los conductores soportan estoicamente el embotellamiento —pocos se enfadan, o eso parece cuando uno les observa, pues saben de antemano lo que les espera—, un pequeño milagro de la coordinación humana sucede simultáneamente: un gran número de ciudadanos ofrece todo tipo de servicios a lo largo del atasco, atendiendo necesidades aparentemente variopintas, pero íntimamente ligadas a los problemas que genera un atasco. Algunos cubren necesidades evidentes, vendiendo comida y bebida fresca, pero el ingenio de muchos vendedores es realmente sorprendente. Unos venden cargadores de coche para todo tipo de móviles, anticipando que en un largo atasco muchos conductores agotarán su batería hablando por teléfono o navegando por internet. Otros, ataviados con chalecos reflectantes, ofrecen sus servicios como mecánicos para reparar los numerosos coches que se detienen en el arcén con el embrague quemado o el motor recalentado. Y los más creativos ofrecen flores, que probablemente serán regaladas a alguna cita que espera pacientemente en un restaurante de la vieja Estambul. Y una característica curiosa de todo este conjunto de personas que sobreviven solucionando los pequeños pero urgentes problemas de los conductores es que, desde el punto de vista de la normativa que rige el comercio en los países desarrollados, ¡su actividad es ilegal! Cualquier actividad comercial, por pequeña que sea, suele estar sometida en nuestros países a una regulación más o menos estricta que intenta velar por el bienestar del consumidor. Por un lado, miles de ciudadanos intentan coordinarse bajo unas ciertas normas de tráfico para atravesar un puente, pero son incapaces de evitar el atasco diario. Cada frenazo y cada golpe de volante inoportuno por parte de un conductor acaba perjudicando a todos los que le suceden. Pero, en ese mismo lugar, los mismos ciudadanos logran realizar intercambios provechosos para todas las partes sin crear molestias a los demás, a pesar de que las regulaciones estatales prohíben formalmente la prestación de este tipo de pequeños servicios. Es decir, una acción coordinada resuelve algunos de los problemas que otra acción coordinada crea. ¿Por qué algunas interacciones entre ciudadanos libres fracasan y otras, en cambio, tienen éxito? Este tipo de preguntas constituye la esencia misma de la disciplina de la Economía (sí, con mayúsculas), especialmente en lo que se refiere a los investigadores que estudian el punto de encuentro entre los mercados y el papel del Estado. Cuando las preguntas no se formulan sobre cuestiones triviales que ocurren sobre un puente en Estambul, sino sobre problemas más cercanos y que nos afectan de lleno, las personas tenemos una preocupante tendencia a admitir respuestas sencillas y englobadas en un mismo marco ideológico. Así, los liberales más convencidos suelen argumentar que la libertad en la coordinación de nuestras acciones es mejor que la intromisión de un regulador, que rara vez soluciona nada y que, además, añade siempre costes y efectos secundarios desconocidos. Por otra parte, los más intervencionistas tienden a ver infinitas oportunidades de mejora mediante cambios regulatorios en nuestras interacciones con el resto de los ciudadanos. En cambio, la preciosa estampa del puente sobre el Bósforo nos enseña que ninguna respuesta es tan sencilla, sino que los seres humanos, al coordinarse en libertad, crean a menudo situaciones lejanas de ser óptimas. Y así como las regulaciones pueden, en ocasiones, solucionar problemas, también los crean donde no los hay, o impiden la solución de problemas existentes, como sucedería con el pequeño ecosistema de servicios que se produce sobre el puente. Conviene recordar que, a menudo, el ser humano tiene la suficiente flexibilidad como para hacer la vista gorda ante la pequeña irregularidad de quien vende un cargador de móvil en un atasco, reconociendo que la ley vigente no es siempre la mejor respuesta a todos los casos. La complejidad de la economía como disciplina Las ciencias sociales son el conjunto de disciplinas que estudian las interacciones entre los seres humanos; dentro de dichas ciencias sociales, la economía es la disciplina que se ha ocupado históricamente de, valga la redundancia, las actividades económicas entre las personas; es decir, todo lo relacionado con la actividad laboral y empresarial, así como la regulación desde el sector público de dichas actividades o la provisión de servicios públicos. Las ciencias sociales buscan entender y dar explicación a la increíble complejidad de estas relaciones humanas, por lo que no es extraño que los avances producidos en las mismas sean muy inferiores a los de disciplinas como la física o la biología. En la economía o la sociología, los intereses y motivaciones de millones de seres humanos interactúan formando uno de los más complejos sistemas conocidos. Existe, además, otro problema que afecta mayoritariamente al desarrollo de las ciencias sociales, un problema que también sufren otras disciplinas como la climatología o la astronomía: así como la mayoría de las disciplinas tiene un cierto margen para la experimentación, las ciencias sociales han de basar sus estudios empíricos en datos observacionales, es decir, en datos obtenidos de la observación y el registro de la realidad. ¿Por qué supone esto un problema? En primer lugar, como las mediciones no se realizan en las condiciones controladas de un laboratorio, dichas mediciones están a menudo contaminadas con errores de medición. Por ejemplo, el producto interior bruto (PIB) de un país, vital para la investigación macroeconómica, es el resultado de un complejo proceso de estimación, ya que no se puede observar directamente; por otro lado, el nivel de empleo se obtiene a través de encuestas como la Encuesta de Población Activa (EPA), las cuales sufren inevitablemente de error muestral. Pero el problema más profundo que trae consigo la naturaleza observacional de los datos es que un cierto comportamiento observado nunca es producido por un único factor. Cuando un gobierno introduce una reforma laboral, suele ser poco útil analizar qué ocurre durante los meses siguientes con el paro y la ocupación de un país: la actividad económica está sujeta a fuerzas cíclicas mucho más poderosas que el alcance a corto plazo de una reforma laboral o de cualquier otra reforma estructural. Así, la pregunta relevante a la hora de analizar los resultados de, por ejemplo, una medida contra el fracaso escolar no es «¿qué ha pasado con el fracaso escolar tras la medida?», sino «¿qué hubiera pasado con el fracaso escolar de no haber entrado en funcionamiento la medida?». Las ciencias sociales llaman «contrafactuales» a estos mundos paralelos hipotéticos que han de ser el marco de comparación de nuestra realidad tras una medida. Y ¿cómo construyen el resto de las disciplinas dicho contrafactual? El método más sencillo es la experimentación, que consiste precisamente en mantener inalterada una parte de la muestra de todo estudio como «grupo de control», una suerte de mundo alternativo contra el cual comparar los resultados de la muestra con la que se experimenta. En un experimento, los individuos son asignados aleatoriamente a cada grupo, a los cuales se les administra un distinto «tratamiento». Debido a la ley de los grandes números, las características iniciales de los grupos son prácticamente idénticas si la muestra tiene un tamaño razonable. Y, como el tratamiento que cada grupo recibe depende de un proceso aleatorio, las diferencias que surgen entre ambos grupos son debidas al distinto tratamiento. Así, mientras la química o la medicina pueden abordar numerosos problemas desde la sencillez de la experimentación, las ciencias sociales han de recurrir a estrategias empíricas mucho más complejas, buscando de forma creativa sustitutos de la variabilidad experimental. Y éste es precisamente uno de los temas que se tratan en este libro. ¿Cómo podemos extraer relaciones causales entre fenómenos ante la complejidad de nuestra realidad? Los economistas llevan tiempo liderando, dentro de las ciencias sociales, el desarrollo de métodos dirigidos a abordar este problema. Por un lado, también en nuestra disciplina se están empezando a realizar numerosos «ensayos aleatorizados» —éste es el nombre técnico que suelen recibir los experimentos en ciencias sociales —, aunque éstos se encuentran al alcance de muy pocos investigadores debido a su elevado coste y también a ciertas barreras éticas que tienen que ver con qué se puede experimentar y con qué no: si queremos saber el efecto sobre el bienestar de un programa de desarrollo, ¿es ético elegir aleatoriamente ciertas poblaciones subdesarrolladas y dejarlas sin recibir ayuda para constituir con ellas el «grupo de control»? Pero el gran salto cualitativo de la investigación empírica en economía se ha producido a partir de la obsesión de los economistas por resolver el mencionado problema de la causalidad. Los experimentos diseñados son raros en economía, pero la historia, la naturaleza o algunas decisiones humanas producen a menudo situaciones equiparables a las de los experimentos formales. Por ejemplo, en este libro descubriremos las curiosas enseñanzas ocultas que nos pueden mostrar celebraciones como el premio especial de la lotería de Navidad o tragedias como el atentado terrorista del 11 de marzo de 2004. La realidad genera de vez en cuando perturbaciones que pueden ser utilizadas por los economistas como seudoexperimentos mediante técnicas estadísticas desarrolladas durante las últimas décadas. La investigación económica es, pues, compleja y se encuentra todavía lejos de los logros de muchas otras disciplinas, pero los avances recientes están siendo importantes, y el crecimiento de la disponibilidad de datos sin duda acelerará este proceso. Ya empezamos, por lo tanto, a explicar por qué este libro se titula Nunca te fíes de un economista que no dude. La duda es realmente una palanca de progreso para la economía, porque ésta no está repleta de leyes físicas, por desgracia. Una disciplina llena de conclusiones contraintuitivas Como mostraba el ejemplo del puente sobre el Bósforo, las simplificaciones que a menudo se publican en los medios de comunicación —y a las que también suelen estar abonados los representantes políticos— suelen ayudar muy poco a comprender la realidad de un país. Y es que la economía no es sólo una disciplina en la que las respuestas claras escasean, sino que, allí donde sí existe una respuesta ampliamente aceptada, ésta es a menudo contraintuitiva. Es cierto que existen fuertes discrepancias entre grupos y corrientes de economistas, y es probable que esas discrepancias perduren durante bastante tiempo debido a la dificultad de obtener evidencia empírica clara, pero entre los economistas existen también fuertes consensos alrededor de algunas cuestiones en las que la visión del ciudadano medio está muy alejada. El consenso entre economistas es prácticamente total en afirmaciones como que los controles de precios son perjudiciales para el consumidor, que las barreras a la importación reducen el bienestar de un país, que la protección a la agricultura (¡o a cualquier sector!) es perniciosa para el interés general o que los sistemas de pensiones actuales son insostenibles debido a los desequilibrios demográficos acaecidos durante el siglo XX. La metáfora de la mano invisible es ridiculizada en público, incluso cuando prominentes economistas progresistas como Paul Krugman o Joseph Stiglitz han basado la investigación que les llevó a su Premio Nobel en dicho principio. ¿Por qué son contraintuitivas muchas de las conclusiones de nuestra disciplina? Existen numerosas hipótesis, aunque la mayoría de ellas tienen como denominador común el hecho de que somos animales que evolucionamos para sobrevivir y razonar en un entorno muy distinto al actual. Hace 50.000 años, las consecuencias de nuestros actos tenían sólo una repercusión inmediata, y las decisiones de carácter colectivo rara vez alcanzaban a más de un puñado de individuos sin más sistema económico que la caza y la recolección. La economía fue durante decenas de milenios un sistema cercano a la «suma cero» en el que lo que ganaba un individuo era a menudo una pérdida para otro, y el hombre es, en términos evolutivos, idéntico hoy a aquellos humanos con una incipiente sociedad primitiva. Hoy, por el contrario, las decisiones de naturaleza colectiva afectan a millones de agentes que anticipan dichos cambios y reaccionan a los mismos, con numerosos mecanismos de transmisión intertemporal impensables hace sólo 500 años. Por un lado, las posibles consecuencias futuras de nuestros actos como país rebotan hacia el presente en forma de tipos de interés que incrementan los costes de financiación. Por otro, los precios de muchas materias primas se negocian habitualmente con años de antelación, y dicha estimación del futuro afecta de nuevo a las posibilidades actuales de explotación de las mismas. Las reformas laborales mejoran o empeoran las condiciones laborales de las personas actualmente con trabajo, pero producen a menudo el efecto opuesto sobre aquellos trabajos que aún están por crearse. Tratar de solucionar los problemas de impagos y desahucios de quien tiene hipotecas concedidas y no las puede pagar puede hacer más difícil que una persona que quiera tener una hipoteca por primera vez lo logre. De la misma forma, aunque muchos teoremas de equivalencia muestran la impotencia de los gobiernos a la hora de afrontar ciertos problemas, ello no impide que los políticos finjan conocer la solución para arañar votos de los ciudadanos más crédulos. En definitiva, existen muchos ámbitos donde hay muchos argumentos contraintuitivos y, lo que es peor, unívocos. La mente humana se encuentra mucho más tranquila cuando es capaz de encontrar una narrativa coherente al mundo que la rodea, pero la complejidad del sistema económico actual excede con mucho su capacidad de comprensión. Y, ante la dificultad de comprender el sistema de precios como mecanismo de transmisión de información y coordinación descentralizada, nuestra mente primitiva salta con facilidad a la imagen de un gran sistema coordinado centralmente por grandes empresas y políticos. De la misma forma que adjudicamos al gobierno la responsabilidad sobre la evolución de dicho sistema, tendemos a confiar demasiado en promesas que apelan a creencias erróneas. La respuesta política a la crisis vivida durante los últimos años es un perfecto ejemplo de esta simplificación en la forma en que vemos las propuestas de política económica. En los medios de comunicación se produjo una polarización entre los partidarios de un fuerte estímulo fiscal —un aumento del gasto público financiado con deuda— frente a quienes defendían la necesidad de ser austeros para que la senda de la deuda pública no se volviese incontrolable. Incluso se llegó a rescatar una antigua división ideológica en el campo de la macroeconomía, la que se dio entre los «economistas de agua dulce» y los «economistas de agua salada», que hace referencia a las discrepancias producidas durante los años setenta entre los economistas de universidades como Chicago, Minnesota y Rochester (todas situadas a la orilla de los Grandes Lagos) y los profesores de universidades como el MIT, Harvard, Berkeley, Yale o Columbia (todas ellas a la orilla del agua salada del mar). Los economistas de agua salada, influenciados por la obra de Keynes, defendían el sencillo modelo clásico keynesiano y la capacidad del gobierno de atenuar los ciclos económicos mediante la política fiscal y monetaria, mientras que los economistas de agua dulce, con Milton Friedman, Robert Lucas o George Stigler a la cabeza, cuestionaban la capacidad del gobierno de moldear con facilidad la economía al tener en cuenta la posible anticipación de los agentes a las decisiones políticas: por ejemplo, si los mercados de deuda anticipan un aumento de la inflación, reaccionarán ajustando al alza los tipos de interés para tener en cuenta la futura pérdida de capacidad adquisitiva del dinero. La división inicial fue superándose con los años, y, finalmente, la mayoría de las nuevas ideas de los economistas de agua salada fueron incorporadas a la corriente ortodoxa de la macroeconomía. La siguiente generación de macroeconomistas (entre los que destacan economistas como Michael Woodford, Larry Christiano o Ben Bernanke, desconocidos en su faceta de investigadores para el gran público) construye modelos que mantienen elementos de la tradición keynesiana, pero están plagados de incertidumbre, expectativas racionales y de las numerosas imperfecciones que se han descubierto durante los últimos años. Como se puede comprobar, los actuales modelos macroeconómicos son de una complejidad difícilmente accesible para el común de los mortales, ¡e incluso para la mayoría de los economistas no especialistas en la materia!, y ofrecen respuestas mucho menos claras y precisas que los primeros modelos keynesianos. Pero, mientras tanto, la prensa y los creadores de opinión han preferido resucitar un debate inexistente y basado en preguntas fáciles y respuestas precisas. Al fin y al cabo, los ciudadanos demandan respuestas ante la gravedad de la crisis, pero no tienen el tiempo de aprender los complejos mecanismos de interacción existentes entre todos los agentes... ¡ni paciencia para aceptar respuestas ambiguas! El imperialismo económico también puede ser divertido El puente sobre el Bósforo, con sus atascos, mecánicos, flores y cargadores de móvil, ofrece una buena ilustración de los dilemas sobre los que trata la disciplina de la economía. Y es normal que una pregunta salte a la mente: ¿no debería la economía encargarse principalmente de problemas más importantes y generales, como el crecimiento, las exportaciones e importaciones, la inflación o el desempleo? Durante muchas décadas, este tipo de preguntas fueron consideradas las cuestiones centrales de la disciplina, y eran raros los trabajos que se atrevían a analizar otros campos. Pero Gary Becker, de la Universidad de Chicago, rompió para siempre el aislamiento de la disciplina al comenzar a utilizar las herramientas clásicas del pensamiento económico para analizar y comprender problemas aparentemente lejanos como la delincuencia o las relaciones familiares. El impacto de sus trabajos fue tal que muchos otros economistas comenzaron a aproximarse a problemas de otras disciplinas con los métodos típicos de la economía: coste de oportunidad, escasez, oferta, demanda, preferencias, etc. Las disciplinas más afectadas por esta invasión fueron, por supuesto, aquellas más cercanas por su carácter de ciencia social: la sociología, la ciencia política, la historia o incluso la geografía. Y este entremetimiento generalizado llegó incluso a generar una expresión con nombre propio, «imperialismo económico», no exenta de una evidente connotación negativa. Como sucede en estos casos, la colonización de otras disciplinas ha estado plagada de numerosos excesos y de aproximaciones simplistas a problemas complejos que otras disciplinas habían tratado ya con mucha mayor profundidad. Además, la mayor notoriedad y tamaño de los departamentos de economía era suficiente, a menudo, para eclipsar las aportaciones realizadas desde otros departamentos con muchos menos recursos. Pero había un motivo especialmente poderoso por el cual el enfoque económico estaba ganando terreno: la enorme ventaja en el desarrollo de las técnicas cuantitativas con respecto al resto de las ciencias sociales. Debido al hecho de que la economía había tratado desde siempre con datos, los economistas fueron desarrollando una parte de la estadística hasta el punto de crear un nombre propio para la misma: econometría. La dificultad para extraer relaciones de causalidad entre los distintos fenómenos económicos ha llevado al desarrollo de técnicas estadísticas extremadamente sofisticadas, muchas de las cuales han constituido desarrollos fundamentales en la estadística, como el concepto de cointegración o el método generalizado de los momentos (MGM), avances que exceden con mucho el propósito de este libro pero que han llevado a sus autores a recibir el Premio Nobel de Economía. Pero, así como una parte de las áreas invadidas repudiaba los excesos de los economistas metidos a, por ejemplo, sociólogos, otra parte importante de los investigadores en ciencias sociales vio el potencial de muchos de los conceptos básicos de economía a la hora de comprender los problemas sobre los cuales llevaban ya años investigando. La consecuencia del imperialismo económico ha sido finalmente positiva para el estado de la investigación en ciencias sociales, ya que las áreas que han recibido dicha influencia han adoptado finalmente las ideas más útiles, mientras que la economía ha adoptado también muchas ideas ajenas, enriqueciendo así su forma de ver el mundo, como, por ejemplo, ha sucedido con las ideas sobre la racionalidad adoptadas de la psicología o las ideas sobre las instituciones provenientes de la sociología o la historia. Como pequeño homenaje al crecimiento imperialista de nuestra disciplina, en este libro tratamos también numerosos ejemplos de la vida cotidiana en los que una mirada económica puede arrojar una luz especial, como puede ser el caso de las dietas, el amor, la felicidad o cómo se podría utilizar la ingeniería financiera para abordar problemas globales y complejos como, por ejemplo, buscar tratamientos efectivos contra el cáncer. Las leyes de la oferta y la demanda rigen mucho más allá de los mercados formales, y fenómenos como el efecto sustitución y el efecto renta pueden ayudarte también a comprender mejor algunos de tus problemas del día a día. La economía es una ciencia compleja, pero puede ofrecer algunas lecciones sencillas sobre problemas aparentemente muy lejanos. Sus respuestas nunca te permitirán conocer las profundidades insondables del amor, pero quizá sí puedan iluminar algún aspecto del mismo inadvertido para ti hasta ahora. Un viaje apasionante La economía es, por lo tanto, una ciencia compleja y apasionante que parte de las motivaciones más elementales de los individuos para intentar comprender cómo éstos se relacionan entre sí, tanto en fenómenos asociados con la vida económica como en el ámbito personal... ¡o incluso en la relación de los individuos consigo mismos! Cualquier escenario es una buena oportunidad para pensar en términos económicos, como el mencionado puente sobre el Bósforo, en el cual se producen simultáneamente numerosos éxitos y errores de coordinación, así como también pequeños dilemas regulatorios. Proponemos al lector un apasionante paseo por esta complejidad a través de la aplicación de la economía a todos estos problemas, y además prometemos que el paseo no sólo será instructivo... ¡sino también divertido! Al menos, todo lo divertido que puede ser un libro que trata también problemas serios como la discriminación de la mujer o el terrorismo a través de una lupa conocida como la «ciencia lúgubre». Y es que algo ha cambiado desde el momento en que nuestros abuelos aprendieron lo que es la prima de riesgo. La economía y las finanzas se han incrustado en nuestras vidas como un meteorito caído del cielo del cual comprendemos poco. Las opiniones de analistas y tertulianos sobre los orígenes y soluciones de los problemas son abundantes, y llevan al error de considerar a los economistas como médicos que, dados unos síntomas, pueden recetar soluciones rápidas y eficaces. En cambio, nuestra experiencia nos permite darte un consejo: desconfía de un economista que no dude; el mundo es demasiado complejo e impredecible. Y esto no es nada peyorativo hacia los economistas, o no debería serlo. La economía no es un dogma, más bien al contrario. La duda es la mejor herramienta de todo científico. De hecho, a nosotros nos encanta dudar, y por eso estudiamos economía, la ciencia de la incertidumbre. Los economistas casi siempre fallamos en nuestras predicciones. Xavier Sala i Martín, catedrático en la prestigiosa Universidad de Columbia, describe nuestra labor como la de un conductor que dirige su coche mirando por el retrovisor: ... si la carretera es recta y no giras el volante, no pasa nada y todo el mundo piensa que sabes lo que haces. Ahora bien, si giras cuando no hay curva o tiras recto cuando la hay, te vas directo a la cuneta y la gente se ríe de tu incompetencia. No obstante, y en contra de la sabiduría popular, la caja de herramientas de la economía es muy potente a la hora de analizar tanto nuestros problemas económicos como aquellos derivados de la vida cotidiana. Es una caja de herramientas variada e interesante que bebe de muchas disciplinas, pero que desde luego no sirve para todo, y mucho menos para asentar dogmas de fe. Los economistas estamos más o menos cómodos explicando las curvas pasadas, pero (sabemos que) el futuro de la carretera es impredecible. Tan sólo aspiramos a no descarrilar. Aspiración que en 2008 se quebró, como Lehman Brothers. Caímos con todo el equipo pendiente abajo. Hasta tal punto que obligamos al ciudadano medio a familiarizarse con conceptos antes reservados para aburridos analistas que tenían sus cinco minutos en los medios de comunicación (momento ideal para desconectar). De repente, la bolsa, la prima de riesgo, el déficit o la crisis bancaria eran temas que estaban en las tertulias de todos los medios, pero también en el bar de la esquina. Lo mejor de ser economista es que ves las cosas con otra mirada, con otras gafas. Dejas de ver certezas (bueno, hay algún gurú muy asertivo que juega a la política y pretende adoctrinar) y comienzas a ver todo con probabilidades. Por eso nosotros proponemos dejar de lado los déficits, la macroeconomía y los mercados financieros, y ayudarte a graduar tu vista con las gafas de un economista. Igual hasta te gusta lo meticuloso que se puede llegar a ser. Te avisamos desde el primer momento, es muy adictivo. Felicidad, dietas, mentiras, terrorismo o la independencia de Cataluña. Éstos son algunos de los temas que nos gustan y que, vistos con las gafas de un economista, pueden ser analizados con otros prismas que te ayuden a pensar «de otra manera», o como gusta decir a los expertos en innovación, «pensar fuera de la caja». Éste es precisamente el objetivo de este libro, ayudarte a pensar sobre una amplia variedad de temas que están en tu vida diaria. Aparcamos ese metalenguaje, que muchas veces es una combinación de pedantería y de dificultad para explicar conceptos complejos, para descubrir en cambio si es rentable pedir sacarina con el café después de una comilona o si, en mitad de una dieta, tiene sentido tomarse una tarta de chocolate. Y qué decir si un economista te puede dar algunas claves para ligar, rellenar un currículum o hacer una presentación en público. Incluso aportaremos propuestas para mejorar las condiciones de pobreza en África o curar el cáncer, ¿ambicioso verdad? Todo esto lo haremos asumiendo que tenemos sesgos que nos desvían del ya famoso «homo economicus racional». Pero no nos asustemos, usando la terminología de John List, uno de los economistas más brillantes en el campo de la economía experimental y conductual, veremos cómo encajan los sesgos psicológicos individuales con el supuesto neoclásico de racionalidad colectiva. Si queremos hacer un viaje de Barcelona a Madrid, por ejemplo para ver un partido en el Santiago Bernabéu, la teoría neoclásica nos llevaría hasta, por ejemplo, Getafe. Pero necesitamos la teoría de la economía conductual para llegar desde Getafe hasta nuestro asiento en la fila 15 del estadio. Entraremos en este nuevo y vertiginoso campo de investigación para explicar que no deberíamos asumir tan alegremente que las personas suelen ser racionales y que toman sistemáticamente las decisiones adecuadas. Estamos contaminados por múltiples sesgos que la psicología ha estudiado, los cuales afectan tanto a las finanzas corporativas como a las familiares, a las empresas que nacen y a las que lanzan grandes proyectos de inversión. El riesgo y la incertidumbre son silenciosos y difíciles de ver, y nuestro comportamiento influye muchas veces para la toma de decisiones «inteligentes». Esta irracionalidad individual puede agregarse y convertirse en racionalidad colectiva, tal y como nos explica James Surowiecki en The Wisdom of Crowds ( «La sabiduría de las masas»). Éste es el poder de la inteligencia colectiva, otro camino por el que te introduciremos. Es un camino muy atractivo porque en este mundo complejo e impredecible hay mecanismos muy efectivos para aprender a predecir mejor o, incluso, para curar a personas con enfermedades extremadamente raras. Quizá compartes con nosotros que estamos saturados de los análisis financieros y bursátiles aparentemente avanzados que inundan los medios de comunicación. Carentes de memoria, nadie nos avisa de los historiales de acierto y error de los gurús, y perdemos la perspectiva de que la mayoría de las opiniones y recetas que nos proponen son meras ocurrencias que se quedan en el olvido. Los medios se desvían sistemáticamente de la verdad, que dista de ser única y cierta. Una incertidumbre que ha dado pie a que el brillante economista Matthew Gentzkow analice el sesgo de los medios de comunicación y nos explique cómo funciona. Comentamos estudios muy peculiares de economistas brillantes y apasionados que usan esas herramientas de la lógica económica para múltiples problemas no-económicos. Aprenderemos a saber por qué mentimos y comprobaremos si Bárcenas decía la verdad. Veremos cómo herramientas denostadas por la crisis como la titulización de activos pueden servir para montar un plan de financiación de la cura del cáncer, y usaremos las técnicas de nudge para ver cómo los incentivos por sí solos pueden lograr que los propios ciudadanos cuiden de sí mismos, lo cual nos da una idea sobre cómo suavizar el problema de las pensiones en España o el fraude fiscal. Estamos acostumbrados a analizar la pobreza como un fenómeno muy concreto de falta de recursos, de problemas educativos y sanitarios. Tenemos la foto de los mendigos, de los vertederos llenos de niños, de África. Pero la pobreza en el siglo XXI está tomando nuevos matices. Cada vez son más los costes que genera la pobreza y la exclusión social, y es muy compleja la solución a estos problemas globales que requieren de políticas con nuevos diseños. Hablaremos de estos costes, de estas políticas y de qué impacto puede tener esto en un país como España, con una gran bolsa de desempleo joven y no tan joven, crónico y de larga duración. Y qué decir de la complejidad a la que tienen que hacer frente las organizaciones para innovar y crear riqueza. Piensa en el supermercado al que acudes a comprar, tiene más de 25.000 referencias de productos alimentarios distintos. La realidad nos demuestra todos los días que ningún plan de negocio soporta el primer contacto con un cliente, porque se queda obsoleto. Crear algo diferencial es cada vez más barato, pero también más y más difícil. En las empresas ya no sólo se gestionan cuerpos que trabajan cuarenta horas a la semana en tareas predecibles y predeterminadas; la complejidad radica en que son imprescindibles para avanzar modelos de gestión de mentes, con sus motivaciones, con sus limitaciones y, sobre todo, con su capacidad de adaptación. Las jerarquías se tambalean. Los riesgos son cada vez más silenciosos e impredecibles. Así que si estás asustado porque el mundo te parece más y más complejo cada día, deja de asustarte, ¡es así! Y tenemos que usar nuevas lógicas para enfrentarnos a él. En definitiva, como puedes comprobar, éste no es un libro de economía «usual», sino que pretende ser un viaje apasionante, ameno (prometido), a través de casos reales. La economía no es una herramienta perfecta y se enfrenta de forma constante a nuevos desafíos, para lo cual necesita integrar y ampliar nuevos conocimientos de otras disciplinas. Y ése es precisamente el objetivo de este libro: dar a conocer estas nuevas aplicaciones y formas de ver el mundo, que afectan tanto al transcurso de la historia como a nuestros pequeños quehaceres diarios. Como podrás comprobar a través de casos muy cercanos a la realidad de cualquiera de nosotros, nunca te fíes de un economista que no dude. 2 La inteligencia colectiva puede salvar vidas ANDRÉS ALONSO Diversidad e independencia son importantes porque las mejores decisiones colectivas son producto del desacuerdo y el debate, no del consenso o compromiso. JAMES SUROWIECKI, en The Wisdom of Crowds (2004) Pensemos en internet. Miles de personas independientes y dispersas crean de manera descentralizada páginas web, referenciándose unas a otras. El algoritmo de Google todo lo que hace es agregar esta información de manera eficiente, tal que cuando tecleas una consulta en el buscador, su respuesta nos parece en ocasiones impresionantemente inteligente. La importancia de una página web es un problema inherentemente subjetivo que depende del interés de los lectores, de su conocimiento y de sus inclinaciones. Aun así, se puede decir objetivamente mucho sobre la importancia relativa de las páginas web. Así comienza uno de los artículos científicos más importantes de la historia, al menos en términos de su impacto inmediato sobre la realidad económica y social: «The PageRank Citation Ranking: Bringing Order to the Web», en el que Larry Page y Sergey Brin sentaban las bases de lo que sería el buscador de Google. Este artículo describe PageRank, un método para valorar las páginas web de forma objetiva y mecánica, midiendo de forma efectiva la atención e interés humanos dirigidos hacia cada página. Comparamos PageRank con un «web surfer» aleatorio idealizado. Mostramos cómo calcular de forma eficiente el PageRank para un número grande de páginas y mostramos cómo utilizar el PageRank para la búsqueda y navegación de los usuarios. De los 24 millones de páginas web que su primera versión consiguió indexar, internet ha crecido hoy hasta superar, según estimaciones razonables, los 4.000 millones de direcciones distintas. Dado que el algoritmo ha de buscar no sólo los vínculos de primer orden que una página recibe, sino también los de órdenes superiores, el problema real no se encuentra en la idea original de cómo medir la relevancia en internet, sino en lograr indexar el mayor porcentaje de sitios existentes en la red (¡miles de millones!) y en evaluar los vínculos que entran y salen de cada web. La gran pregunta es: ¿Cuándo se puede decir que un grupo es inteligente? ¿Por qué Google es tan inteligente en opinión de los usuarios? ¿Se debe al algoritmo o al proceso de creación descentralizada de información por millones de usuarios? Ésta es la pregunta que se hace el centro de investigación Centre for Collective Inteligence (CCI) del prestigioso Instituto Tecnológico de Massachusetts (MIT). Técnicamente, definimos inteligencia colectiva como un grupo de individuos que actuan juntos de manera tal que parecen inteligentes. Pero ¿puede ser un grupo de personas más inteligente que cada una de ellas por separado? Ésta es una pregunta muy importante, sobre todo cuando se trata de reducir la complejidad con la que tenemos que desenvolvernos en el mundo real. En realidad, siguiendo la definición del MIT, la inteligencia colectiva ha existido desde hace miles de años: ejércitos, compañías, países o familias actúan en determinadas ocasiones de forma muy inteligente para un observador externo. Thomas Malone, director del CCI, inició en 2006 el reto de juntar expertos de campos tan diversos como la neurociencia, la psicología social, la informática y las redes sociales, e investigadores especializados en aplicar las bases de la psicología conductual en los modelos económicos. El objetivo de Malone era conseguir una medida de inteligencia colectiva que nos permitiera evaluar el rendimiento de un grupo y tratar de llegar a predecir el éxito del mismo. Siempre que trabajamos con la inteligencia de las personas tenemos un componente subjetivo y que tiene que ver con cómo de hábiles somos resolviendo una tarea concreta. Es decir, primero debemos definir la tarea a realizar y luego valoramos nuestra capacidad de resolverla. Esto es lo que mide la medida estadística conocida como Test de Cociente Intelectual (CI), ampliamente utilizado en las valoraciones de individuos aislados. Esta subjetividad tiende a llevarnos a equívocos; por ejemplo, a pensar que las personas que son buenas resolviendo problemas numéricos no lo serán en tareas de letras, o viceversa. En cambio, esto es algo que hoy sabemos que no es cierto. Aquellos que destacan en su habilidad analítica, en promedio, suelen ser mejores que la media en todos los campos. Es lo que los psicólogos llaman el «Factor G», la existencia de un factor general de inteligencia que subyace a las habilidades para la ejecución de las tareas intelectuales. Es precisamente este Factor G, y no el CI, la única variable que estadísticamente nos ayuda a estimar cuán exitoso puede ser el futuro de una persona (profesión, salario, reputación). Hoy Thomas Malone trabaja con grupos de personas desarrollando medidas al estilo Factor G para colectivos, y ¿sabes cuál es la primera gran conclusión científicamente demostrada? Algo que muchos sabemos por experiencia propia: Hay grupos de personas muy ineficientes compuestos por personas muy inteligentes. El reto consiste en comprender qué hace a un grupo inteligente como tal, puesto que no son los mismos factores que hacen a las personas inteligentes como individuos. Pensemos en el paseo de la Castellana un lunes por la mañana, con cientos de coches en fila india sincrónicamente avanzando y adelantándose. O en la Gran Vía de Madrid un sábado por la tarde, con miles de personas intentando llegar de Cibeles a plaza de España en el menor tiempo posible. Algo que para un observador externo surge como de manera espontánea es la demostración empírica de un colectivo que se comporta de manera inteligente. En el capítulo en el que hablaremos de la potencia de la analítica de los datos ponemos el ejemplo de las hormigas, que encuentran el camino más corto para llegar a su casa tras recolectar comida, mas, por separado, ninguna sería tan eficiente. Pero ¿qué hay en los grupos humanos que los convierte a veces en entidades sumamente inteligentes y otras en entidades estúpidas? Nos tenemos que remitir a un artículo de 1907 de la revista Nature para conocer la ciencia que hay detrás del poder de los colectivos. Cuenta la historia conocida como «el buey de Galton». Sir Francis Galton fue un estadístico que inventó el uso de la línea de regresión, realmente importante y conocida por todos los que hayamos tenido algún que otro acercamiento con la estadística. También fue pionero explicando el concepto de regresión a la media, popularizó el uso de la distribución normal e introdujo el concepto de correlación. Este gran estadístico acudió a una feria de ganado en Plymouth, donde le llamó la atención una competición sobre el peso de un buey. El objetivo era adivinar el peso de la pieza una vez descuartizada y preparada. Cerca de 800 personas participaron escribiendo su predicción en un pedazo de papel. El ganador se llevaría un premio. Sir Francis Galton recopiló todos los datos y los analizó estadísticamente y comprobó que la estimación media de todos los participantes estaba sorprendentemente cerca del peso real del buey (1.198 libras). En concreto, se desviaba sólo por 1 libra. Esta estimación no sólo era mejor que la del ganador individual de la competición, sino que era mejor que las cifras que muchos expertos habían aportado. En un estudio posterior descubrió que la mediana se comportaba incluso como mejor estimador. Nace de aquí el concepto que en 2004 popularizó el periodista de la revista The New Yorker James Surowiecki en su libro The Wisdom of Crowds, en el que lucharía por explicar el poder de la agregación de la información y por averiguar cuándo los grupos se comportan de manera inteligente y cuándo no. Esquemáticamente, son cuatro las condiciones que se tienen que dar para que un grupo se comporte bien: A. Diversidad: Todos los miembros del grupo deben poseer su propia fuente de información privada. B. Independencia: Nadie debe dejarse influir por el resto de miembros del grupo. C. Descentralización: Cada cual debe poder especializarse en una parte pequeña del problema planteado. D. Agregación: Debe existir algún mecanismo de agregación de la información; por ejemplo, Galton usó la media y finalmente propuso la mediana. Y como veremos a lo largo del capítulo, hoy conocemos mucho más cómo son las encuestas ponderadas y los mercados de predicción. Quizá el proyecto que más ambiciosamente trabaja el estudio de estos mecanismos de agregación sea el Good Judgement Project, un grupo de investigación de la Universidad de Pennsylvania liderado por el catedrático Philip Tetlock, autor del superventas Expert Political Judgement. Philip Tetlock se propuso averiguar por qué ningún supuesto experto en el campo de la política podía consistentemente predecir lo que ocurriría en el futuro cercano. Y no sólo hablamos de expertos mediáticos, sino también de catedráticos en sociología y politólogos: nadie sabía más que el resto cuando se recopilaban sus respuestas a problemas que posteriormente se resolvían, con lo que se podía verificar la eficacia de las predicciones de cada cual. La realidad es que cuando los expertos fallan, raramente aparecen en prensa y nadie toma nota de sus opiniones, y si se les pregunta sobre su escasa puntería, normalmente achacan el fallo a falta de precisión en el momento de cuándo sucedería o a que estamos ante un evento de baja probabilidad, totalmente impredecible. No es menos cierto que, a falta de que haya dinero de por medio, nadie te paga por tus aciertos; en cambio, los expertos que aparecen en prensa, medios o televisión, reciben una recompensa importante: reputación. Ante este hecho, la premisa de Tetlock es que cuanto más conocido es un experto y más frecuentemente aparece citado en los medios, menos fiables serán sus predicciones sobre el futuro más probable que va a venir. Es decir, la precisión de las predicciones de los expertos tiene una relación inversa con la autoconfianza, el renombre y, llegado cierto punto, incluso con el (exceso) de conocimiento en profundidad de una materia. Efectivamente, ¡cuanto más sabes de una materia, menos fiable puedes llegar a ser! Un matemático cuyos escritos toda mente inquieta tiene que tener como libro de cabecera es John Allen Paulos, quien en su libro El hombre anumérico nos recuerda: Hay una tendencia general muy fuerte a olvidar los fracasos y concentrarse en los éxitos y los aciertos. Los casinos abonan esta tendencia haciendo que cada vez que alguien gana un cuarto de dólar en una máquina tragaperras, parpadeen las lucecitas y la moneda tintinee en la bandeja de metal. Con tanta lucecita y tanto tintineo, no es difícil llegar a creer que todo el mundo está ganando. Las pérdidas y los fracasos son silenciosos. Lo mismo vale para los tan cacareados éxitos financieros frente a los que se arruinan de manera relativamente silenciosa jugando a la bolsa, y también para el curandero que gana fama con cualquier mejoría fortuita, pero niega cualquier responsabilidad si, por ejemplo, atiende a un ciego y éste se queda cojo. Pero volvamos a los supuestos expertos y a por qué fallan, a veces de forma estrepitosa, al predecir la realidad. Una pista del porqué esto puede suceder es la cualidad de la diversidad, que James Surowiecki nos recuerda que deben tener los grupos para funcionar de manera inteligente: cuantas más fuentes de información, si son independientes y están bien agregadas, más fácil resulta que se eliminen los sesgos (errores) de opinión. Así, Tetlock comenzó preguntando a 244 personas que se dedicaban profesionalmente a dar recomendaciones sobre tendencias económicas y políticas. Les pidió que aportaran sus estimaciones sobre la probabilidad de que ciertos sucesos fueran o no a ocurrir. ¿Terminaría el Apartheid en África? ¿Sería expulsado en un golpe Gorbachov? ¿Se disolvería Canadá como nación? ¿Iría Estados Unidos a la guerra del golfo Pérsico? Cuando terminó el estudio, en 2003, había recopilado más de 82.000 predicciones; además, también había realizado encuestas de personalidad a los expertos que aportaban sus estimaciones, con el objetivo de medir cómo habían aportado su conocimiento, cómo se comportaban al comprobar los resultados de las preguntas y cómo accedían e incorporaban la nueva información que iba surgiendo a sus estimaciones ya realizadas. Tetlock midió estadísticamente la capacidad de anticipar tendencias, así como la capacidad de acierto de sucesos puntuales. El resultado no fue muy impresionante, por esperado. Los seres humanos que se dedican profesionalmente a estudiar cómo puede ser el futuro no son mejores anticipando lo que puede ocurrir que unos monos lanzando dardos en un diana. Imagínate quién podía negar las palabras de todo un lord Kelvin, presidente de una de las mejores asociaciones científicas del momento, la Royal Society, cuando dijo que «máquinas voladoras más pesadas que el aire, imposible».[1] O qué se nos pasa por la cabeza después de repasar esta cita de uno de los economistas que mejor ha comprendido los problemas de la complejidad y las dificultades de las predicciones, Tim Harford, en su libro Adáptate: Los sectores innovadores son la excepción a la regla. Como el software en código abierto y las aplicaciones del iPhone son una fuente muy visible de innovación y se pueden inventar en una residencia de estudiantes, solemos dar por sentado que cualquier innovación se puede inventar del mismo modo. No es así. Sigue pendiente la curación del cáncer, la demencia y las enfermedades coronarias. En 1984 se identificó el VIH y la secretaria de Sanidad de Estados Unidos, Margaret Heckler, anunció una vacuna para prevenir el sida en el plazo de dos años. Llevamos más de un cuarto de siglo de retraso... ¿Y qué decir de una fuente verdaderamente efectiva de energía limpia: fusión nuclear o paneles solares tan baratos que pueden emplearse para empapelar paredes? Quizás una de las partes más interesantes del estudio de Tetlock fue el poder calibrar la importancia de la intensidad del conocimiento en una materia. Saber un poco sobre un tema concreto aporta capacidad predictiva, pero saber demasiado ofrece «rendimientos predictivos decrecientes». Expertos en economía dentro del grupo de estudio fueron en ocasiones mucho más precisos en asuntos de política que los expertos del grupo en dicha materia, y viceversa. La sobreconfianza desempeñaba un papel clave a la hora de asignar probabilidades. Tetlock dio con la medida de uno de los pecados más humanos que existen: nos enamoramos de nuestras pasiones y odiamos estar equivocados. Nos obsesionamos con la complejidad que nos rodea, y somos incapaces de discernir patrones sencillos cuando los vemos. El propio Tetlock cuenta un experimento que presenció en una clase de la Universidad de Yale: En un tablero con forma de T un investigador ponía en ocasiones comida en cada uno de los extremos izquierdo y derecho de dicha T, mientras que desde la parte inferior salía una rata que debía elegir si ir hacia un lado u otro esperando que saliera la comida por dicho lado. Se aleatorizó la frecuencia con la que salía la comida por cada extremo de la T, pero de media la distribución era sencilla: un 60 por ciento de las veces salía por la izquierda y un 40 por ciento por la derecha. Se pidió a los estudiantes que adivinaran por qué lado saldría consecutivamente la comida, y a la vez, la rata hacía lo oportuno. Con el tiempo, la rata aprendió la secuencia, y casi siempre se iba a la izquierda, acertando un 60 por ciento de las veces. Un aprobado justito, pero aprobado. En cambio, los estudiantes, obsesionados con averiguar un patrón oculto y poder batir al animal, acabaron acertando un 52 por ciento de las veces, ¡prácticamente un suspenso! Las predicciones mediáticas muchas veces no son diferentes a este experimento. Cuanto más elaboradas y estructuradas, más tirón entre el público, que adjudica una capacidad analítica al experto por su ingenio. Esta misma idea rige en la existencia de la teoría de extremos ideológicos en los medios de comunicación. Si bien en la teoría política el centro es quien lidera la estrategia de los partidos, en medios de comunicación el teorema de Hotelling no funciona: situarse en la neutralidad o centro no es la estrategia dominante para los intereses de la prensa. El brillante economista Matthew Gentzkow (medalla John Bates Clark en 2014 al economista más brillante menor de cuarenta años) es quizá la más conocida referencia en este asunto. «¿Están los medios al servicio del gobierno?». Los conservadores sólo quieren validar sus propias ideas, y por el lado de la izquierda, los progresistas quieren lo mismo. Por eso eligen qué medios leer para su satisfacción. En vez de buscar información que rete nuestra predicción y nos ayude a demostrarnos que estamos equivocados, somos proclives a buscar la autoconfirmación. Por otro lado, en su brillante obra Decídete, los hermanos Dan y Chip Heath analizan con el máximo rigor una de las cuestiones más difíciles a las que nos enfrentamos todos los días, en casi todos los ámbitos de la vida: la incertidumbre asociada a la toma de decisiones. Y hay una cita que explica con mucho rigor cómo funcionan los sesgos de una forma individual: En la vida normalmente acostumbramos a abrazar una rápida creencia sobre una situación y luego buscamos información que reafirme nuestra creencia. Este hábito nocivo se llama «sesgo de confirmación»... Cuando la gente tiene posibilidad de recopilar información del mundo, es más probable que seleccione información que apoye sus actitudes, creencias y acciones preexistentes. [...] El sesgo de confirmación probablemente sea el único gran problema en los negocios, porque ni la gente más experimentada lo entiende. La gente sale a recopilar datos y no se da cuenta de que está amañando las cuentas. Cuando queremos que algo sea cierto, iluminamos las cosas que lo respaldan y, luego, cuando sacamos conclusiones de esas escenas iluminadas, nos felicitamos por haber tomado una decisión sopesada... ¡pues sí que...! El futuro tiene una capacidad asombrosa para sorprendernos. Con el foco no podemos iluminar áreas que no sabemos que existen. Y esto conecta claramente con las conclusiones del propio Tetlock: las personas que mejor predicen son precisamente las que luchan internamente por demostrarse erróneas, y en dicho ejercicio, acaban aprendiendo un poco de muchas materias, pero su curiosidad no les permite centrarse excesivamente en un único campo. Abren el foco y tratan de vacunarse contra los sesgos más típicos y tan difíciles de combatir. Aparece así la aplicación de la histórica metáfora del erizo y el zorro: «El zorro sabe muchas cosas, pero el erizo sabe una gran cosa». Pues bien, los zorros son mejores prediciendo. Hoy sabemos además que para que un grupo sea inteligente, no sólo tiene que poseer miembros con cualidades de «zorro», que como ya sabemos no es técnicamente lo mismo que ser puramente inteligentes en el sentido de un elevado cociente intelectual. Thomas Malone, como comentamos, en su intento de descubrir un CI colectivo, nos ha demostrado que, por ejemplo, los grupos con mayor proporción de mujeres ¡son más inteligentes! ¿Sorprendido? Este estudio, del que se hizo eco la Harvard Business Review, explica que las mujeres tienen, de media, mayor percepción social.[2] Son capaces de comprender más rápidamente qué sucede a su alrededor, lo cual les ayuda a seleccionar fuentes de información dispersas y a beneficiarse de la descentralización en el aprendizaje. En concreto, tres son los factores estadísticamente significativos a la hora de evaluar la inteligencia de un grupo: primero, la percepción social media de los individuos del grupo; segundo, la igualdad en la contribución de sus miembros, y tercero, la ratio de hombres contra mujeres que componen el grupo. ¿Te imaginas saber científicamente qué debe tener un grupo para ser inteligente? Podríamos diseñar departamentos de trabajo óptimos en las empresas, ministerios más eficientes e incluso organizar de manera inteligente nuestras ciudades. Hemos aprendido mucho sobre las cualidades de los miembros, pero una tarea pendiente es investigar más sobre los mecanismos de agregación que ya mencionamos, y a esto precisamente es a lo que se dedica Tetlock en su Good Judgement Project: a estudiar los mecanismos que mejor resultado dan y a saber por qué, cómo y cuándo. Su fin último sería poder responder a la pregunta: ¿Podemos aprender a predecir mejor? Para tal fin, el grupo se propuso elaborar una macrocompetición de predicciones sobre economía, política y relaciones internacionales. A semejanza del «buey de Galton», pero con mayor ambición. Consiguió financiación de la agencia IARPA (Intelligence Advanced Research Projects Activity), que se dedica a la investigación en temas de inteligencia y está asociada al Ministerio de Defensa de Estados Unidos. La competición es abierta y cualquiera puede participar. Actualmente ya están por la cuarta temporada, y su funcionamiento es sencillo a la vez que sorprendente. Se establecen grupos de participantes, a los que se les pide estimar la probabilidad de ocurrencia de determinados sucesos. ¿Firmará un acuerdo comercial Estados Unidos con la zona euro? ¿Estallará una guerra en Corea del Norte? Los participantes responden usando dos mecanismos: encuestas y mercados de predicciones. Lo hacen por grupos aleatorizados al inicio, y luego seleccionados según rendimiento, de modo que el objetivo último de la competición es poder construir el grupo de «superpredictores» que consistentemente hayan batido a la suerte y puedan demostrar ser los mejores prediciendo. Los superpredictores, ¿nacen o se hacen? En una de las últimas rondas del Good Judgement Project, competían profesionales de la Agencia Central de Inteligencia (CIA) estadounidense junto con gente común como la señora Ritch, de sesenta años y ama de casa, que cuando se registró no pensaba que supiera mucho, y menos sobre acontecimientos mundiales. Durante los dos primeros años se dedicó a «escoger números» para asignar las probabilidades de ocurrencia de los sucesos sobre los que le preguntaban, y sorprendentemente ¡acabó en el 1 por ciento superior de los mejores participantes! Efectivamente, entre los mejores predictores ¡había gente que sabía más que la propia CIA! Ritch no gozaba de ninguna fuente especial de información, ni tenía conocimientos fuera de lo normal sobre cualquier materia. Sin embargo, de media las respuestas del grupo de superpredictores eran un 30 por ciento más precisas que las del resto de 3.000 predictores. ¿Recurría a informarse en oscuros lugares de internet ante preguntas sobre si, por ejemplo, habría algún nuevo ataque terrorista en Israel? La respuesta es no, y más sencilla de lo que pensamos: ¡tan sólo se dedicaba a buscarlo todo en Google! ¿Cómo puede esto ser cierto? Gran parte del éxito está en el diseño del grupo, para lo cual los incentivos son clave. Los mercados de predicciones He hablado varias veces de los mercados de predicciones, pero ¿qué son? Uno de los mecanismos utilizados en el Good Judgement Project, como decía, eran las encuestas: preguntas en formularios que de forma estática evaluaban las respuestas de los competidores. Sin embargo, en psicología conductual sabemos que los incentivos son la gasolina de las personas: «Pon tu dinero donde tengas tu boca». Tetlock ya se dio cuenta de que la razón de que existan expertos es que éstos son remunerados por la reputación, y sólo un grupo selecto de personas es capaz de conseguir monetizar la reputación. Sin embargo, en su libro, Tetlock concluye que la evidencia encontrada en contra de la capacidad predictiva de los expertos no es argumento crítico contra la existencia de los mismos. Un experto no sólo es aquel que predice bien, es aquel que comunica, entiende y transmite con maestría los asuntos relacionados con cierto campo de estudio. De este modo, ¿qué podemos hacer para motivar a los verdaderos expertos nomediáticos? El dinero es el incentivo más conocido por todos nosotros. Si bien no es el único, es el que más fácilmente alinearía los incentivos de personas que no se conocen entre ellas. Siguiendo estas premisas, en economía tenemos un mecanismo que permite juntar la información dispersa mediante los incentivos monetarios: el mercado. Cada cual tiene su opinión, unos piensan que hay que tener más acciones en cartera, y compran, mientras que otros piensan que hay que tener menos, y venden. Lo único que hace el mercado es llevar la cuenta de las opiniones dispersas de los individuos mediante el precio. El economista y físico Robin Hanson es quizás el pionero y más firme defensor de los mercados de predicciones, que no son otra cosa que una plataforma para poner a los individuos a competir acerca de si sucederá o no un acontecimiento futuro, y resumir la opinión mayoritaria en un precio o probabilidad. Si nos preguntan quién ganará las próximas elecciones en España, todos tenemos cierta parte de información, ya sea adquirida por propia experiencia o incorporada a través de algún medio informativo. Sin embargo, tal y como nos explica la teoría del ruido y la señal, ampliamente popularizada en los últimos años por el estadístico estadounidense Nate Silver[3] (aquel que acertó todos los resultados en las elecciones presidenciales estadounidenses de 2008), todo paquete de información se compone de una parte veraz que llamamos señal y una parte de ruido. La gran cuestión es: ¿qué parte es veraz y qué parte ruido? Esta tarea es la que Robin Hanson propone que dejemos al mercado. Cuando las personas que participan en el mismo tienen un nivel de creencia suficiente como para arriesgar su dinero, aportarán su mejor informació, y encontrarán las excusas necesarias para no contestar cuando no estén seguros de la respuesta. Mientras que la inferencia estadística tradicional se basa en modelos de estimación propios según unos supuestos de comportamiento de las variables aleatorias que queremos predecir, los mercados de predicciones aspiran a hacer predicciones «libres de modelo», ya que se basan en la selección natural que logramos poniendo todos los modelos disponibles a competir entre sí y quedándonos con lo mejor de cada uno. Si de nuevo nos remitimos a las condiciones iniciales que nos explicaba James Surowiecki de independencia y diversidad, es fácil intuir que estadísticamente si nuestro grupo está simétricamente distribuido, la agregación correcta de opiniones puede llevarnos a conseguir que el ruido de unos miembros se compense con el ruido de otros miembros, permitiendo que surja una poderosa suma de señales que ganarán en capacidad predictiva a la mejor de las señales que hay en el propio grupo. Vendría a ser algo así como que la cadena es más fuerte que el eslabón más fuerte de la misma. ¿Cuándo es una apuesta y cuándo una predicción? En el fondo, lo que nos propone Hanson no es más que pedir a los potenciales expertos que «apuesten» a lo que a su juicio es más probable que ocurra. ¿Qué diferencia hay pues con las apuestas deportivas, por ejemplo? Para entender el poder de los mercados tenemos que seguir adentrándonos en la idea de la señal y el ruido. En deporte, ¿cuánta información veraz podemos conseguir sobre la posible victoria de nuestro equipo favorito? Casi todo es ruido, aleatoriedad. Algo podemos extraer del seguimiento de las características de la plantilla, del historial incluso de victorias, pero en realidad, prácticamente todo es aleatoriedad. De este modo, cuando jugamos a aleatoriedad decimos que estamos apostando. En cambio, si sabes más que el resto, no estás apostando, estás invirtiendo. En concreto, invirtiendo en la calidad de tu señal. En política, por ejemplo, sí podemos pensar que habrá expertos que sepan más sobre la intención de voto o sobre la calidad del programa electoral de cierto candidato. Estas personas sí que podrán aportar buena parte de veracidad en su información gracias a un mercado especulativo. Pero si los mercados provocan crisis económicas, ¿cómo me puedo fiar de ellos? No debemos confundir la eficiencia asignando recursos económicos con la eficiencia informativa. Los mercados son la institución, demostrada, que mejor recopila información disponible y dispersa. No hablamos de dinero cuando hablamos de inteligencia colectiva. Muchos de los mercados de predicciones existentes no usan dinero real, sino ficticio, unido a rankings y otros incentivos de participación no monetarios. No aspiramos a especular para hacernos ricos, sino a especular para encontrar la mejor opinión dentro del grupo de individuos. A fecha de hoy, el hecho es que el mercado es la institución más eficiente que conocemos para recoger información dispersa. No se trata de decir que los mercados son la mejor alternativa absoluta, sino la mejor alternativa en términos relativos que conocemos hoy en día. De este modo, los mercados de predicciones deberían aspirar a diferenciarse de las apuestas online, por su finalidad social productiva. Las inversiones de expertos pueden aportarnos luz sobre las tendencias futuras. Y esto es algo que Tetlock ha demostrado y está utilizando en su Good Judgement Project. Una correcta combinación de mercados de predicciones y encuestas ponderadas aporta el marco perfecto de agregación de opiniones. El mismo MIT aspira a medir y diseñar colectivos inteligentes, para lo cual precisa de los mercados de predicciones como mecanismo de agregación de los grupos. Una encuesta sería una foto, potencialmente sesgada, ya que en el fondo lo único que me juego es mi reputación. En cambio, un mercado de predicciones es un vídeo, ¡e insesgado! Gracias a los incentivos, las personas pueden ir aportando o cambiando su opinión dentro del mercado, comprando o vendiendo según evolucione el precio, que no es otra cosa que la probabilidad que estima el consenso del mercado de que el suceso cotizado ocurra. Por esta razón, en 2008 la revista Science publicó un famoso alegato a favor de los mismos: «The Promise of Prediction Markets». El artículo original lo firman varios premios Nobel de Economía, como Kenneth J. Arrow (Nobel 1972), Thomas C. Schelling (Nobel 2005), Robert Shiller (Nobel 2013) y Vernon L. Smith (Nobel 2002, con Daniel Kahneman). Junto a ellos se encuentra también el principal motor intelectual de los mercados de predicciones, Robin Hanson, a quien acompañan otros investigadores con bastante repercusión mediática, como es el caso de Justin Wolfers o Eric Zizewitz. El artículo está también firmado por personalidades del mundo de la economía conductual como Paul C. Tetlock, Philip E. Tetlock (Good Judgement Project) y Cass R. Sunstein. Les acompañan también Robert Forsythe, Michael Gorham, Robert Hahn, John O. Ledyard, Saul Levmore, Robert Litan, Paul Milgrom, Forrest D. Nelson, George R. Neumann, Marco Ottaviani y Erik Snowberg. Y para finalizar tenemos uno de los mayores microeconomistas vivos, el actual economista jefe de Google, Hal R. Varian (también padre del lema «Statistics is sexy»). La conclusión es que los mercados de predicciones deben regularse por separado de las apuestas, en tanto que «la habilidad de grupos de personas para hacer predicciones es una potente herramienta de investigación que debería liberarse de innecesarias restricciones gubernamentales». Si bien hoy en día no tenemos aún un marco regulatorio sólido, la verdad es que los mercados siguen abriéndose camino a base de su altísima capacidad predictiva demostrada de manera empírica, y existen ya permisos para la apertura de mercados de predicciones para las próximas elecciones generales de 2016 en Estados Unidos: Predict It! La idea es que no sólo aspiramos a predecir acontecimientos, sino ¡a encontrar a las personas que son auténticas expertas! Esto no va de adivinar el futuro, se trata de lograr un proceso auditado para que democráticamente las personas que naturalmente saben más de una materia hablen más alto que el resto del grupo de manera automática gracias a la memoria del propio mercado, que llevará la cuenta con el cálculo del rendimiento de cada partícipe. Un mercado de predicciones para curar enfermedades raras Los mercados de predicciones se vienen utilizando satisfactoriamente en multitud de campos: a nivel corporativo para predecir, por ejemplo, el cumplimiento de metas empresariales. El mismo Google lo ha utilizado dentro de su plantilla con éxito. O, el Iowa Electronic Market, el primer gran mercado de predicciones regulado en Estados Unidos, donde se pueden cotizar acontecimientos políticos con apuestas de importes reducidos, pero suficientes para incentivar y batir a las encuestas políticas. O la plataforma Hollywood Stock Exchange (HSX), donde cotiza la taquilla de los estrenos de cine y el caché de los principales actores, siendo su capacidad predictiva sobre el éxito de las películas tan valiosa que una entidad financiera, Cantor Fitzgerald, acabó adquiriéndola. El marketing es otro de los campos donde más éxito han tenido estos mercados. Preguntando, por ejemplo, «¿qué componente será el más importante en el éxito del producto X?, ¿cuánto tardará el producto Y en batir determinado nivel de ventas?», etc., se consigue un fuerte poder de predicción sobre el éxito empresarial mediante un sistema coste-eficiente de apuestas rápidas que baten a la tradicional investigación de mercados. El economista Jared Heyman fue pionero, con su empresa Infosurv, en la comercialización de este tipo de tecnología. Tras años de éxito aplicando mercados de predicciones en empresas, Heyman decidió vender Infosurv y emprender la vuelta al mundo. Durante el viaje, Jared hubo de convivir con la larga enfermedad que padecía su hermana pequeña. En tres años, tras la visita de varios médicos especialistas, nadie había conseguido diagnosticar qué le ocurría a su hermana, cuyo síntoma principal era un cansancio crónico. La agonía finalmente terminó tras más de 200.000 dólares invertidos y años de sufrimiento, pero este caso dio a Jared la idea de aplicar la tecnología de mercados de predicciones al campo del diagnóstico médico. ¿Realmente no había ningún médico que supiera la respuesta? Jared, como experto en la materia de inteligencia colectiva, se planteó romper, pues, otro tabú: ¿estamos dejando fuera del campo sanitario a una diversidad de expertos que potencialmente podrían mejorar los diagnósticos? Partiendo de esta idea, en 2013 creó la empresa CrowdMed, donde mediante una plataforma propia de mercado de predicciones plantea el reto de resolver misterios médicos a una batería de «detectives médicos» que cotizan los diagnósticos más probables a las enfermedades planteadas. Quizás el mayor reto de CrowdMed sea luchar contra el prejuicio moral de introducir incentivos monetarios en el diagnóstico médico, algo que por ejemplo en España choca con el actual sistema de sanidad pública. Sin embargo, los resultados hablan por sí solos, y en un año escaso de vida, la empresa ya supera una tasa de acierto del 60 por ciento, dando esperanza a casos que no han encontrado solución en el cauce sanitario ordinario. Este sistema de obtener una segunda opinión médica de manera coste-eficiente es una forma de luchar contra la «infoxicación» del «doctor Google», donde la información a la que tenemos acceso nos sobrepasa e incluso perjudica. Estableciendo los incentivos adecuados, podemos conseguir que un oncólogo de Virginia cure a un paciente de Nuevo México, quien ha establecido una recompensa muy pequeña en su caso, pero que se apalanca por el mayor incentivo que quizás ofrece CrowdMed a sus detectives médicos: un mecanismo democrático para demostrar su mérito. La meritocracia medida de forma robusta (no sólo por títulos académicos o fama de una u otra universidad) que ofrecen los mercados de predicciones hace que en CrowdMed los médicos no sean los únicos que curan pacientes: estudiantes de medicina, farmacéuticos, enfermeras o ¡antiguos pacientes! colaboran aportando sus paquetes de información al cotizar qué enfermedad es más probable que tenga el paciente. El propio Heyman comprobó los resultados del mercado en su caso familiar, y concluyó: «Mediante la externalización a la multitud, los usuarios fueron capaces de identificar en dos semanas lo que los médicos tardaron tres años en diagnosticar». ¿A qué esperamos para romper tabúes y darle una oportunidad a la inteligencia colectiva bien aplicada? En Estados Unidos, CrowdMed goza de una fuerte financiación privada por parte de prestigiosos fondos de inversión de capital riesgo. Pero hay más modos en que los mercados pueden ayudar a la sanidad. La siguiente gran innovación que usa la inteligencia colectiva del mercado para salvar vidas viene de la mano de Andrew Lo, uno de los matemáticos más famosos en el campo de la ingeniería financiera. Así es, uno de esos expertos cuantitativos que bien podría estar dedicándose a ganar fortunas en los fondos de inversión (hedge funds) ha reconducido su investigación hacia un fin mucho más valioso: se propone curar el cáncer en el mundo. Financiación colectiva inteligente para curar el cáncer «Ingeniería financiera para curar el cáncer.» Éste es el sugerente título de una ponencia del profesor Andrew Lo, del MIT. Hablamos de un tema serio, no sólo por el fin último del tema tratado, financiar la cura del cáncer de manera factible, sino porque Lo es uno de los padres de las finanzas cuantitativas, siendo archiconocido su artículo «A NonRandom Walk Down Wall Street». Por lo tanto, no nos dejemos llevar por el titular únicamente y atendamos al detalle del debate que introduce Lo. Su idea es que la ingeniería financiera ofrece herramientas que convertirían la financiación de proyectos de investigación del cáncer en algo perfectamente viable económicamente. En concreto, se trata de la titulización y la gestión moderna de carteras. Los últimos descubrimientos en la investigación contra el cáncer apuntan a que la solución puede estar en una futura personalización de los tratamientos. Es decir, la base genómica de la enfermedad haría inviable una estandarización del tratamiento, de modo que la financiación tradicional de un proyecto de investigación farmacéutico no se aplicaría en este caso. Típicamente, cuando una empresa como Pfizer investiga en un proyecto como el Viagra, éste tiene una característica básica: una probabilidad baja de tener un resultado de gran impacto. Pfizer sabía que si su investigación fructificaba, los ingresos derivados de la venta de ese medicamento explotarían, en tanto que podría aplicarse a gran escala por ser un tratamiento homogéneo a todos los pacientes objetivo. El modo de valorar esto es típicamente mediante opciones financieras y árboles de decisión (aspecto que explicamos con más detalle en otro capítulo), que nos permiten incorporar el valor temporal de esa opción contingente que posee Pfizer (opción entendida como la posibilidad «de que el medicamento salga bien»). Por ello, la financiación de estos grandes proyectos es algo costosa, pero posible hoy en día, precisamente porque, al ser capaces de incorporar el valor de esta opción, demostramos que el rendimiento esperado del proyecto, ajustado a su riesgo, es positivo, ya que aunque la probabilidad de éxito es baja, el impacto de un resultado positivo de estas investigaciones traería una corriente enorme de ingresos. ¿Qué ocurre en el caso del cáncer, donde los pacientes objetivo no son homogéneos, sino que cada cual precisa una variedad diferente de medicamento?: su tratamiento no es homogéneo. Ésta es la esencia de la dificultad de su financiación. No podemos pedir a los inversores que inviertan en una gran empresa como Pfizer que aspire a curar ella sola el cáncer. Técnicamente esto implica que la esperanza de invertir en un solo proyecto de cura del cáncer no es positiva, pero la esperanza de invertir en una cartera diversificada de proyectos de cura del cáncer sí tiene esperanza positiva. Y esto es así porque gracias a juntar muchos proyectos, conseguimos reducir la volatilidad de los retornos de la cartera. En concreto, a partir de juntar unos 150 proyectos diferentes, la desviación estándar de esos rendimientos de la cartera comienza a disminuir ¡convirtiendo el proyecto global en algo en lo que poder invertir! Así, la solución de Andrew Lo pasa por agrupar los cientos o miles de posibles curas que posiblemente se vayan descubriendo, y vender participaciones de esas inversiones a millones de inversores, ¡el poder de la agregación! Aquí es donde Lo introduce magistralmente algo que conocemos muy bien: la titulización. Técnicamente, en mercados financieros, por muy heterogénea que sea la deuda, podemos agruparla, segmentarla y valorarla para venderla por tramos (tranches) de diferente perfil de riesgo para diferentes tipos de inversores. ¿Te suena conocido? Efectivamente, en el caso de la financiación de hipotecas tenemos algo muy similar. En concreto, piensa en hipotecas subprime, ¿cómo financiar el acceso a la vivienda de millones de personas con bajos recursos económicos? Mediante megatitulizaciones. Estas emisiones de bonos de titulización permitieron, por encima de todo el desastre que hoy podamos ver (que el tronco no nos impida ver el bosque), el acceso a la vivienda en propiedad de millones de estadounidenses. Éste era un proyecto político bautizado como Estrategia Nacional de Acceso a la Vivienda, que se consiguió satisfactoriamente con la ingeniería financiera: introduciendo a las agencias públicas como Fannie Mae y Freddie Mac en la titulización de préstamos subprime que garantizaran los tramos de mayor riesgo. En Estados Unidos, desde la introducción en 1995 de esta estrategia, la tasa de vivienda en propiedad se disparó. Además, la gestión de carteras nos aconseja invertir la mayoría de nuestro capital en alternativas seguras, pero siempre hay cierto espacio para exponernos a un mayor riesgo a cambio de mayor remuneración. Es decir, todos nos beneficiamos de tener parte de los ahorros en «boletos de lotería», entendidos en función de nuestra capacidad de asumir riesgos. Unos inversores desearán invertir en deuda del Estado y en acciones de elevada capitalización, pero otra opción es invertir un poco de nuestro capital en empresas como Pfizer, buscando un potencial fuerte impacto positivo sobre nuestra cartera. Con la solución de Lo, podríamos pedir a los inversores que compraran un solo bono de titulización «del cáncer», y con ello, exponerse a un potencial gran éxito. La financiación colectiva, mediante la titulización, puede ser clave en la investigación del cáncer. Por ello, Lo quiere darle vida de nuevo a la mal juzgada titulización. Tema diferente es el fallo (monstruoso) que se cometió con la comercialización y regulación de estos bonos de titulización hipotecaria en Estados Unidos, que se empaquetaron, y reempaquetaron una y otra vez, y se vendieron a bancos e inversores de manera inadecuada. Pensemos en todo lo aprendido y en las herramientas que la gestión moderna de carteras nos enseña: la correlación entre los proyectos de cura del cáncer (hipotecas en su día) es algo que hoy sabemos más importante aún, y que podemos medir e incluso cotizar. En su día, el gran problema de juntar hipotecas para titulizarlas fue que eran un activo demasiado correlacionado, y cuando las condiciones empeoraron, las tasas de impago se dispararon todas a la vez: cuando la economía va mal, caen salarios y todos tendemos a impagar la hipoteca más fácilmente ¡y a la vez! Sin embargo, los proyectos de cura del cáncer, en tanto que son investigaciones heterogéneas, no estarán tan correlacionadas, ofreciendo una mayor estabilidad potencialmente en las carteras titulizadas. La realidad es que la ingeniería financiera no está hecha sólo para los hedge funds, sino para usos mucho más potentes. Podemos aprender de los errores, y hoy tenemos experiencia regulando este tipo de mercados de titulización. Lo sueña en concreto con un fondo de unos 30.000 millones de dólares, construido por aportaciones de 3.000 dólares por 10 millones de inversores. ¿Quién no quiere invertir un poco de sus ahorros en curar el cáncer? Como veremos en otro capítulo del libro, la gestión de carteras nos enseña que nuestras inversiones en felicidad no deben estar correlacionadas, por lo que invertir en salud es algo que ciertamente conviene a más de uno de nosotros, y no sólo a millonarios. Además, la titulización puede ofrecer la posibilidad de que invirtamos en tramos de ese fondo de inversión con diferente perfil de riesgo. Si eres Bill Gates y tienes una fundación con tu mujer, Melinda, puedes invertir en los tramos equity o de mayor riesgo, pero si eres inversor minorista puedes irte a un tramo super-senior que incluso avale un gobierno. ¿No piensas que la idea es preciosa? No invirtamos en la cura del cáncer como un proyecto único u homogéneo, sino como su realidad está descubriendo que es: algo puramente heterogéneo. Para lo cual la solución pasa por agrupar los cientos o miles de posibles curas que probablemente se vayan descubriendo, y vender participaciones de esas inversiones a millones de inversores. Este tipo de proyectos pueden estructurarse, mediante titulizaciones, y pueden valorarse, mediante gestión moderna de carteras. Movilizando a las masas de manera inteligente Podemos ir un poco más allá incluso: ¿Y si ofrecemos la posibilidad en la declaración de la renta de, por defecto, invertir el importe que nos saliera a devolver en un tramo de la «titulización nacional para curar el cáncer»? Hemos aprendido que los grupos de individuos pueden ser inteligentes; existen factores que nos permiten medir su inteligencia y aspiramos a poder diseñar mejor a los colectivos. A su vez, hemos hablado de los mecanismos de agregación más eficientes y concluido su inmenso poder, que a nivel de mercado nos permite incluso asignar recursos de manera más inteligente. Para ello, los incentivos son clave. Pero sólo hemos hablado del dinero como incentivo «natural», ¿y si hubiera un sistema de incentivos más efectivo que el dinero? Sobre el diseño de incentivos para movilizar de manera inteligente a colectivos de individuos tenemos un campo de investigación con grandísimo potencial denominado nudge, título del superventas de Richard H. Thaler y Cass Sunstein (firmantes del ya comentado «The Promise of Prediction Markets») Un pequeño empujón (Nudge). La teoría que hay detrás de este campo de estudio es el «paternalismo blando», que se enfoca hacia la consecución del mejor fin para los miembros de un grupo, indicándoles naturalmente el camino, pero dejándoles que lo recorran libremente. Se trata de ese empujón inconsciente que los padres dan a los hijos, por su propio bien, y sin que ellos en realidad sean conscientes del mismo. El nudge puede llevar al mismo tipo de objeción que el paternalismo más duro y clásico: ¿por qué han de obligar los gobiernos a sus ciudadanos a realizar acciones que sólo afectan al propio individuo? Por ejemplo, bien se puede argumentar que la decisión de ahorrar para una hipotética jubilación es algo que entra dentro del ámbito estrictamente privado. ¿Por qué los gobiernos hacen obligatorias las pensiones? La respuesta se encuentra en una sencilla aplicación de la teoría de juegos. Consideremos el problema como un juego secuencial entre dos agentes: el individuo y el Estado. Primero, el Estado debe decidir entre declarar o no la obligatoriedad de un sistema de pensiones. Tras ello, el individuo tiene la opción de ahorrar o no ahorrar para su jubilación. Es decir, existe una disyuntiva inicial entre el paternalismo estatal y la libertad individual. ¿Por qué los gobiernos escogen sin excepción la primera vía? El mejor resultado final sería aquel en el que los individuos ahorran sin ser obligados a ello: todo el mundo tiene su pensión y la libertad individual sigue intacta. Pero dicho equilibrio no existe en el mundo desarrollado, pues los gobiernos son conscientes de que la no obligatoriedad llevaría a otro tipo de equilibrio: muchos individuos no ahorrarían, pero, a la hora de la verdad, un Estado moderno no permitiría que un ciudadano de más de setenta años falleciese en la miseria absoluta y le acabaría proporcionando una pensión aun sin haber cotizado o ahorrado. Ese problema es precisamente el origen de nuestro sistema de pensiones de reparto, que se remonta al año 1889, cuando el gobierno prusiano de Otto von Bismarck estableció el primer sistema de seguridad social para evitar la miseria entre los ciudadanos con demasiada edad para trabajar. Por lo tanto, la solución actual es lo que se conoce en la jerga como un second best, al reconocer que el óptimo social (first best) parece inalcanzable dada nuestra conciencia social. Ello no quiere decir, no obstante, que toda intervención sea justificable mediante este argumento. Pero sí que es un buen punto de partida para comprender el enfoque público de muchos temas relacionados con los riesgos (seguros de automóviles, sanidad, etc.). Veamos algunos ejemplos demostrados de la efectividad del nudge: — La impresión de las calorías de la comida en los restaurantes induce a comer más saludablemente. — El desglose del gasto eléctrico por electrodomésticos puede llevar a un ahorro de electricidad del 40 por ciento. — Cambiar las opciones por defecto de un contrato laboral ayuda a ahorrar de una manera mejor. ¿Por qué no diseñar entonces un sistema de incentivos para colectivamente mejorar las pensiones en España? Incentivos tipo nudge para solucionar la financiación de las pensiones Respetando los principios del nudge, el ahorro de los trabajadores podría ser sólo voluntario, pero con un pequeño detalle sin importancia aparente: la opción por defecto sería «Sí ahorrar» una pequeña fracción del sueldo. La economía conductual ha identificado una fuerte tendencia de las personas a aceptar las opciones por defecto, por lo que este pequeño detalle podría ayudar a ahorrar a muchas personas. Quien no quisiese ahorrar más (o prefiriese hacerlo mediante un fondo privado) sólo tendría que indicar a la Seguridad Social que no desea aportar ¿un 2 por ciento? de su sueldo al fondo y quedaría fuera de la acción del Estado. ¿Cuánto podría suponer un pequeño ahorro del 2 por ciento a lo largo de la vida de un trabajador? Otro sesgo bien conocido por la economía conductual es la dificultad del ciudadano medio para comprender el poder de la capitalización compuesta de los ahorros en el largo plazo. Por ejemplo, un pequeño ahorro del 2 por ciento sobre el sueldo medio en España, 22.790 euros en 2012, al cual se le aplicase una rentabilidad real del 3 por ciento —algo factible gracias a la mayor rentabilidad en el largo plazo de la renta variable—, supondría a lo largo de una vida laboral unos 45.000 euros ahorrados en términos reales, es decir, a precios de hoy. La propia Seguridad Social podría así añadir a los pensionistas un aumento vitalicio de la pensión a cambio de la cantidad ahorrada, que para dicha cantidad supondrían alrededor de 300 euros mensuales, cantidad nada desdeñable en comparación con los 940 euros de la pensión media actual. De esta manera, Thaler y Sunstein proponen incentivar a la sociedad de manera inteligente. Sin embargo, para que funcione este tipo de incentivos, los miembros del colectivo no deben ser conscientes del diseño paternalista que se esconde detrás del mismo, lo cual ciertamente puede chocar con la ética civil del quién regula al regulador. La verdad es que hoy tenemos países que ya utilizan estas técnicas, con su cierto control y apoyados por una inmensa evidencia científica. En Reino Unido existe un equipo especializado en estas técnicas llamado Behavioral Insights Team, más comúnmente conocidos como «Unidad Nudge», liderado por el psicólogo David Halpern. De modo similar, en Estados Unidos, Cass Sunstein trabajó como director de la Oficina de Información y Asuntos Regulatorios del gabinete de Barack Obama. Y sin ir más lejos, en Dinamarca nació la Agencia Danesa del Nudge, liderada por Pelle Guldborg Hansen. En última instancia, se trata de «facilitar la vida a las personas», siendo conscientes de que podemos influir en las decisiones de los individuos para su propio bien cuando sabemos que sus comportamientos son predecibles. La inteligencia no entiende de jerarquías en la empresa En el maravilloso libro del fundador de la revista Fast Company, William Taylor, Hazlo distinto y triunfa, se ponen ejemplos reales muy interesantes sobre el poder de esta inteligencia colectiva y cómo esto es un tren ya imparable. Así, por ejemplo, entre las muchas cosas que nos cuenta Taylor, habla de la empresa fundada por el gran tecnólogo Joe Marino, el cual creó un mecanismo interno de inteligencia colectiva en su empresa, a través de mercados de predicción, que le permitieron obtener innovaciones realmente rompedoras en el mercado y que fueron en verdad exitosas y rentables. El secreto, según Marino le contaba a Taylor, es que: ... como fundadores, lo único que sabemos es que no lo sabemos todo. Nuestro trabajo es crear un entorno en el que gente pueda expresar sus ideas, independientemente del lugar que ocupen en la organización, y luego dar sentido a todas las ideas que emergen. La forma en la que lo hicieron fue realmente innovadora: Los nuevos empleados, desde el primer día, reciben 10.000 dólares en «dinero de opinión» y son invitados a formar parte de la bolsa de ideas interna de la empresa, una tecnología que diseñaron para fomentar la creatividad. Esta bolsa es un mecanismo para llevar la relación con los empleados más allá del nivel de transacción —yo te pago, tú haces un trabajo—, a un nivel emocional en el que tengan confianza con la dirección futura de la empresa, puedan opinar, sean escuchados y sean recompensados por las buenas ideas. Nosotros preguntamos: ¿qué podemos hacer con esto, con lo que sabemos? Y el mercado bursátil nos ayuda a obtener las respuestas. Cualquier empleado puede proponer que la empresa adquiera o desarrolle una tecnología nueva, entre en una nueva línea de negocio o haga una mejora de eficiencia en costes. Estas propuestas se convierten en títulos, acompañados de sus propios identificadores, lista de discusión y alertas de e-mail... y empiezan a negociarse a un precio de 10 dólares. La interfaz de usuario es como un terminal de Bloomberg, con valores de cartera, cotizaciones y demás. Los empleados muestran su entusiasmo invirtiendo por una idea y, mejor aún, ofreciéndose voluntarios para trabajar en un proyecto, para lograr «los pequeños pasos que hacen que una idea prospere». Los voluntarios comparten sus beneficios en forma de dinero real si el título genera beneficios reales. ¿Has visto? Una cita larga, pero un ejemplo precioso para pensar en que hay otra forma de hacer las cosas, y los economistas tienen mucho que ayudar en ello. Pero de estas cosas seguiremos hablando en el capítulo de complejidad y management. ¿Y en España, existe inteligencia colectiva? Esta pregunta no la podemos responder los aquí firmantes, sólo sabemos que la inteligencia es algo subjetivo que depende de un observador externo, así que ¡que cada lector opine por sí mismo! Pero en nuestro esfuerzo por introducir este campo de estudio hemos creado el primer mercado de predicciones en España, llamado FuturaMarkets.com. Estás invitado como lector curioso a probarte en los terrenos de economía, política y deportes. Ya puedes hacer tus predicciones y ¡medir tu rendimiento! Infinitas aplicaciones inteligentes Hemos aprendido que los mercados de predicciones pueden ayudarnos a sacar a la luz enfermedades raras no encontradas en el cauce sanitario ordinario. El poder de la agregación de riesgos financieros puede ayudarnos a encontrar el acceso para colectivamente financiar la cura del cáncer, y mediante técnicas de nudge podemos llegar a una larga lista de objetivos para mejorar nuestro bienestar sanitario, como, por ejemplo, salvaguardar la sostenibilidad de nuestro sistema de pensiones, incrementar las tasas de donación de órganos gracias a la reciprocidad o reducir el error médico en la prescripción de medicamentos. Este prometedor campo de estudio tiene una lista de aplicaciones casi infinita, y por ello esperamos que en un futuro sigamos escuchando más desarrollos en el terreno de la inteligencia colectiva. Sin ir más lejos, los mercados de predicciones se usan para predecir tendencias en la evolución de enfermedades infecciosas o como tecnología en la ayuda del rastreo de los restos del avión de Malaysia Airlines MH 370 desaparecido en marzo de 2014. Sirva como curiosidad decir que Richard H. Thaler es uno de esos «candidatos permanentes» desde hace tiempo a ganar un día el Premio Nobel de Economía. 3 Dios no suele proporcionar experimentos naturales ABEL FERNÁNDEZ Apoyamos lo visible, lo incorporado, lo personal, lo narrado, y lo tangible; despreciamos lo abstracto. NASSIM NICHOLAS T ALEB, en El cisne negro ¿Puede un grupo terrorista alterar unas elecciones? El 11 de marzo de 2004, poco más allá de las 7.30 horas, España sufría el mayor atentado terrorista de su historia reciente. Una serie de explosivos colocados en varios trenes de cercanías provocó una descomunal tragedia que acabó con la vida de 192 personas y con casi 2.000 heridos de diversa gravedad. Los dos días siguientes, inmediatamente anteriores a las elecciones generales del 14 de marzo de 2004, han pasado a la historia por la polémica vivida, minuto a minuto, en torno a la autoría de los atentados. Durante las primeras horas, el gobierno la atribuye a la banda terrorista ETA, a pesar de que fuentes cercanas a la misma niegan cualquier implicación en el suceso. Durante horas, los altos cargos de la Administración reciben la consigna de atribuir a ETA la autoría de la masacre, pero a media tarde comienzan a aparecer unas primeras pruebas —mochilas no detonadas, una furgoneta abandonada y una cinta con versículos del Corán— que apuntan a una posible autoría de origen islamista. Tras la aparición de dichas primeras pruebas, el gobierno prefiere seguir centrando la principal línea de investigación en torno a la hipótesis de ETA, pero los medios de comunicación empiezan a dar un mayor eco a la hipótesis alternativa, que es reforzada por un comunicado en Londres de un grupo terrorista vinculado a Al-Qaeda. A lo largo del viernes comienzan a acumularse evidencias que apuntan en mayor medida al grupo islamista que a ETA, pero el gobierno continúa apuntando a esta última como autora de los atentados; así lo muestra la portada del diario El Mundo del sábado 13 de marzo, en la que Mariano Rajoy, candidato a la presidencia del gobierno por el Partido Popular (PP), afirma: «Tengo la convicción moral de que fue ETA». A lo largo del mismo sábado, jornada de reflexión anterior a las elecciones generales, el partido en el poder siguió manteniendo su posición a pesar de que las pruebas comenzaban a apuntar de forma abrumadora hacia la hipótesis islamista, con la detención de varias personas de origen marroquí y del depósito en Telemadrid de una cinta de vídeo en la que el grupo vinculado a Al- Qaeda reivindicaba de nuevo la autoría. ¿Por qué mantuvo el gobierno la hipótesis de ETA a pesar de que la evidencia comenzaba a inclinarse mayoritariamente sobre el grupo islamista radical? Durante las primeras horas, tras los atentados, todos los grupos políticos, incluidos Izquierda Unida (IU) y el Partido Socialista Obrero Español (PSOE), se habían alineado con el PP en la condena unánime a ETA. Pero la aparición de pruebas en el sentido contrario hizo sospechar a los partidos de la oposición que el gobierno podría estar intentando retener evidencias hasta que las elecciones hubieran pasado. Difícilmente sabremos hasta qué punto la posición del PP fue fruto de una convicción real o de un intento de manipulación informativa, ya que el origen de los atentados podría condicionar el resultado de las elecciones: el electorado seguramente interpretaría un atentado islamista como consecuencia de la participación española en la guerra de Iraq, mientras que un atentado de ETA habría reforzado, en cambio, una necesidad de unidad nacional que ha formado parte de los valores tradicionales del PP. El comportamiento del PP provocó una oleada de protestas de parte de la ciudadanía, que sentía que el gobierno estaba aprovechando su posición de poder para ocultar información y retrasar la revelación de la hipótesis principal de la autoría islamista. La polémica campaña improvisada del «Pásalo» recorrió toda España en cuestión de horas a través de mensajes de texto, incitando a la participación electoral y denunciando la posible manipulación informativa del PP. Finalmente, el domingo 14 de marzo, el electorado español daba un vuelco al panorama político del país al otorgar la victoria al PSOE con un 42,6 por ciento de los votos, mientras que el PP se quedaba en un 37,6 por ciento. ¿Habían influido los atentados terroristas en los resultados electorales? ¿Perdió el PP las elecciones por su intento de ocultación de información? En los meses siguientes se produjo un encendido debate sobre el efecto del 11-M: independientemente de las motivaciones del PP y de las causas e implicaciones de los atentados, las formaciones políticas y sus ciudadanos afines mostraban una lógica preocupación por la posibilidad de que un grupo terrorista hubiera influido en el resultado de unas elecciones democráticas. A estas alturas, es normal que el lector se esté ya preguntando: «¿Y qué tienen que ver los atentados del 11-M con la economía, sus rarezas y complejidades?». Paradójicamente, y como descubriremos en este capítulo, el mayor atentado terrorista sufrido en la democracia constituye uno de los mejores ejemplos de la corriente que ha revolucionado la economía empírica durante estos últimos años: el aprovechamiento de los experimentos naturales como solución al problema de la causalidad. Abordando el problema de la causalidad Dentro de la corriente de popularización que ha experimentado la estadística durante el último lustro — probablemente debida al auge del «periodismo de datos» y a la exitosa etiqueta del «Big Data»—, pocas frases de la jerga han calado tanto como la célebre «correlación no implica causalidad». De hecho, la frase ha adquirido tanta popularidad que incluso ha llegado a generar un pernicioso efecto: la creencia de que ninguna correlación puede probar la causalidad. Como se explicaba en el primer capítulo, la economía es una disciplina que sufre especialmente del problema de la causalidad, o, como acostumbran a decir los economistas, el «problema de la identificación». El problema de la identificación consiste en la dificultad de poder probar una hipótesis ante la presencia de causalidad inversa o fenómenos externos que pueden causar correlaciones espurias. Hace dos años, un artículo en el New England Journal of Medicine relacionaba el consumo per cápita de chocolate de un país con el número de ganadores per cápita de un Premio Nobel. El instinto natural de quien tiene un mínimo de pensamiento analítico es preguntarse qué tipo de factor está causando ambos fenómenos a la vez, y el examen cuidadoso de las primeras posiciones en ambos fenómenos —Suiza, Austria, Alemania, los países escandinavos, Reino Unido e Irlanda— invita a especular que el chocolate es un fenómeno cultural europeo, que es a su vez el continente que ha dominado, para bien o para mal, el mundo durante los últimos cinco siglos, hasta la aparición de Estados Unidos. Además, países como Japón o China, cuya orientación hacia la investigación internacional es muy reciente, consumen unas cantidades muy bajas de chocolate. Por último, con la salvedad de Japón, que es un país rico, el consumo de chocolate parece estar muy ligado a la renta per cápita de los países, lo cual parece la forma más fácil de explicar el mayor número de Premios Nobel per cápita. Nuestra mente racional busca, por lo tanto, una evidencia que nos confirme que comer chocolate probablemente sea de poca ayuda a la hora de obtener un Premio Nobel. No obstante, pretendiendo indagar más sobre el tema, la revista Nature entrevistó a 260 científicos, de los cuales 23 tenían el Premio Nobel y el resto no. Pues bien, entre los 23 científicos galardonados, el 43 por ciento tomaba chocolate dos o más veces por semana, mientras que, entre el resto de entrevistados no galardonados..., ¡sólo el 25 por ciento lo hacía! La diferencia entre ambas proporciones es altamente significativa, lo cual abre la puerta a que sí pueda haber algún efecto causal, puesto que ya no se comparaban países de todos los colores, sino investigadores preseleccionados con una cierta entidad. Parte del motivo podría estar en los flavonoides, un compuesto altamente asociado a las capacidades cognitivas en el ser humano. Esta serie de evidencias distan mucho de ser concluyentes, pero apuntan a lo complejo que es adquirir conocimiento relevante cuando existen múltiples mecanismos de causalidad entrelazados. ¿Podría existir alguna forma de corroborar si existe dicha relación entre el chocolate y la excelencia investigadora? Sin duda. Un experimento aleatorio realizado sobre un gran número de investigadores podría revelar el efecto real, siempre y cuando su diseño se planificase cuidadosamente. Por ejemplo, imagina que pudiésemos elegir a miles de doctores salidos de un cierto conjunto de universidades y convencerles para que participasen en el siguiente experimento: a partir de una asignación aleatoria, un grupo se abstendría para siempre de consumir chocolate, otro lo comería una vez por semana, otro dos y así hasta los siete días de la semana. Los siete grupos estarían, por lo tanto, recibiendo un «tratamiento» distinto, siguiendo la misma metodología que se realiza en los ensayos clínicos en medicina. A continuación, habría que seguir a dichos investigadores a lo largo de toda su carrera (o, al menos, durante dos o tres décadas, el período más productivo de sus vidas investigadoras tras la obtención del doctorado). Como la asignación se habría realizado aleatoriamente, las preocupaciones por su país de origen, su cultura o su renta no entrarían en juego, por lo que las diferencias que emergiesen entre ambos grupos podrían atribuirse con mucha mayor certidumbre al efecto del chocolate. No obstante, como habrás pensado ya, ¿cuál es la probabilidad de que este estudio se lleve a cabo? Además de la complejidad de su diseño, implementación y seguimiento..., ¡habría que encontrar a miles de doctores dispuestos a arriesgarse a no comer chocolate durante muchos años! Intolerable, por supuesto. Esta dificultad a la hora de realizar experimentos, que parece anecdótica en este caso, es, sin embargo, la gran dificultad a la que se enfrentan las ciencias sociales. Como rara vez podrá un investigador realizar un experimento de tal envergadura, habrá de lidiar toda su vida con el problema de la identificación: si quiero saber si un amante del chocolate es más productivo en investigación gracias al mismo, ¿con quién habré de compararlo? Es decir, ¿cuál sería el contrafactual de nuestro investigador? El contrafactual, ese sujeto paralelo que hace las veces de grupo de control, es el Santo Grial de toda investigación empírica no experimental. Cuando un país sube los tipos de interés, suelen suceder muchas cosas, y a menudo se encuentra entre dichas cosas un aumento o un descenso del paro. Pero ¿qué habría ocurrido si dicho país no hubiese subido los tipos de interés? De la misma forma, ¿qué habría sucedido con el desempleo en España sin las reformas laborales efectuadas durante la crisis? No es extraño que fuesen los economistas, dentro de las ciencias sociales, quienes más esfuerzo pusieran en evitar estas limitaciones para ser capaces de aprender de la realidad. La norma hoy en los trabajos empíricos de economía es que, cuando un investigador presenta el problema y la hipótesis a investigar, explique cuál es su estrategia de identificación. Es decir, ¿cómo abordar el problema de la causalidad? ¿Cómo saber si la relación entre dos o varios fenómenos no es espuria, es decir, casual pero no causal? Y aquí es donde nuestra caprichosa realidad ofrece de vez en cuando ciertas variaciones accidentales que pueden servir a los investigadores para construir su contrafactual contra el que comparar la complejidad de la realidad. Este capítulo describe cómo muchos economistas son capaces de usar los denominados «experimentos naturales» para aprender sobre el mundo que nos rodea. Las variaciones accidentales pueden provenir de la naturaleza, de ciertas decisiones políticas aplicadas con umbrales o criterios geográficos arbitrarios, de la aleatorización de procesos como la composición de un tribunal de oposiciones o, como en el tema original de este capítulo, de un atentado terrorista. Aprendiendo de un macabro experimento natural José García-Montalvo es catedrático de la Universidad Pompeu Fabra y uno de los economistas españoles más respetados de su generación. Pero sus logros no se concentran sólo en el mundo académico, sino que fue una de las primeras personas en crear con éxito un blog durante los años previos a la crisis, desde el cual describió con todo lujo de detalles la burbuja inmobiliaria que se estaba gestando en España y las consecuencias catastróficas que podría tener su estallido. Al contrario de muchos otros que presumen de haber predicho la crisis, muchos de los cuales también predijeron otras cuatro que no tuvieron lugar, basaba su análisis y sus predicciones en el análisis económico más sólido. Pero ¿realmente podemos fiarnos de un economista que hace predicciones? Como norma general, es preferible ignorar a los economistas que hacen predicciones genéricas sobre la evolución futura de algún agregado macroeconómico como el desempleo o la inflación. Pero, en ocasiones, la teoría y la evidencia sí pueden advertirnos de que se está gestando un problema de dimensiones considerables. Durante los años que precedieron a 2008, la evidencia comparativa de una burbuja inmobiliaria en España era aplastante, especialmente al comparar el precio de adquisición de una vivienda con el precio medio del alquiler, y el profesor García-Montalvo escribió largo y tendido sobre el tema, enfrentándose a otros supuestos expertos que negaban la existencia de la misma. La principal rama de especialización de GarcíaMontalvo no es, sin embargo, la de polemista a través de internet, sino la econometría, que es el nombre que la economía ha dado al conjunto de técnicas estadísticas utilizadas habitualmente en dicha disciplina. La mente de un experto en econometría no pierde la posibilidad de analizar la realidad buscando posibles contrafactuales, y el profesor García-Montalvo fue la primera persona en percatarse del poderoso y macabro experimento natural que los terroristas del 11-M habían generado con su atentado. Debido a la proximidad del atentado a la fecha de las elecciones generales, el plazo para la emisión de los votos por correo había terminado días atrás, con lo cual un grupo de votantes ya había tomado su decisión antes de producirse el atentado terrorista. Es decir, al preguntarse uno «¿qué hubiera pasado con las elecciones generales si no se hubiera producido el atentado?», el contrafactual necesario para comparar la realidad... ¡se había creado accidentalmente por la separación temporal entre ambos grupos! Los votantes por correo habían pasado a ser un insospechado grupo de control contra el cual comparar los resultados tras el atentado. Lógicamente, la composición de los votantes por correo no es igual que la composición de los votantes presenciales, por lo que en su trabajo García-Montalvo hubo de recurrir a una técnica estadística conocida como «diferencias sobre las diferencias», en la que primero se analizan las diferencias sistemáticas en las elecciones pasadas respecto a los votantes por correo y los votantes presenciales para luego ajustar la estimación de votos que cada partido hubiera tenido en ausencia de los atentados. Parte de la motivación del trabajo era también la de desmontar algunos análisis que se habían producido, en los cuales se argumentaba que, de no haber ocurrido los atentados, el PSOE habría ganado las elecciones de todas formas. Dichos análisis se habían realizado a partir de la encuesta postelectoral del Centro de Investigaciones Sociológicas (CIS), y dicha interpretación escondía graves carencias metodológicas. Además, uno de los resultados inmediatos del 11-M y de la tormenta política sucedida durante los dos días siguientes había sido un incremento muy significativo de la participación electoral presencial respecto a la tasa de participación por correo. Pues bien, la encuesta postelectoral del CIS apuntaba también en la dirección correcta, ya que el 88 por ciento de aquellas personas que declararon haber votado debido a los atentados lo hicieron a favor del PSOE. El resultado del estudio, publicado en la prestigiosa revista The Review of Economics and Statistics, no deja lugar a la duda: de no haberse producido los atentados, el PP habría ganado las elecciones generales con el 42-45 por ciento de los votos, mientras que el PSOE habría obtenido el 37 por ciento. Es decir, un grupo terrorista fue capaz de alterar el rumbo de la democracia española con un atentado. Aunque también cabría preguntarse, ¿puede que la culpa se debiese a la mala gestión de la información del atentado por parte del partido en el gobierno? ¿Podría el PP haber ganado las elecciones si hubiese reconocido inmediatamente que las sospechas apuntaban desde el mismo día hacia la autoría islamista? La pérdida de las elecciones podría así atribuirse tanto al miedo a más atentados como al súbito descontento por las consecuencias sobre suelo español de la guerra de Iraq y como un voto de castigo por una percepción de deshonestidad en el PP. Y, así como el análisis estadístico riguroso puede ayudar a encontrar enseñanzas insospechadas en formas de experimentos naturales, también es muy útil para indicar qué se puede y qué no se puede aprender de unos ciertos datos. La variabilidad natural introducida por el voto por correo nos permite analizar el efecto de todos los hechos en su conjunto —atentados y gestión de la crisis—, pero en absoluto puede atribuir la derrota electoral del PP a uno de los mencionados factores. Y ahí radica precisamente el valor del analista de datos, en saber en cada momento qué tipo de conocimiento se puede obtener de unos datos disponibles. El caso del atentado terrorista es muy ilustrativo por la simplicidad del experimento natural generado, pero rara vez suceden eventos accidentales que generen la situación necesaria para ello. En la mayoría de las ocasiones los economistas han de buscar estrategias de identificación más sutiles y complejas. El techo de cristal Uno de los campos más apasionantes dentro de la investigación en economía laboral consiste, sin duda, en el estudio de las abultadas diferencias salariales entre ambos sexos. Las mujeres tienen en España un salario medio sensiblemente inferior al de los hombres, pero el cálculo de una media no aborda el primer problema metodológico existente en dicha comparación: el hecho de que hombres y mujeres realizan distintos tipos de trabajos. Y quizá la diferencia más significativa a la hora de explicar las diferencias salariales se encuentra en que las mujeres están severamente infrarrepresentadas en los puestos de alta dirección en las empresas. A pesar del esfuerzo de algunas empresas por alcanzar una mayor paridad en la composición de sus consejos de dirección, la proporción de directivas aún dista mucho de equipararse al peso de la mujer en el mercado laboral del país, que se acerca inexorablemente al 50 por ciento. Una de las hipótesis más extendidas a la hora de explicar esta falta de mujeres en el ámbito directivo es la existencia de un «techo de cristal» que les impide progresar, consistente en el hecho de que los hombres suelen ser mayoría en las posiciones de alta dirección o alto funcionariado y podrían estar discriminándolas a la hora de acceder a dicho tipo de puestos. Esta discriminación podría, según la hipótesis, ser debida tanto a un sesgo explícito, es decir, los hombres podrían creer que las mujeres no son igual de productivas que ellos en dicho tipo de posiciones, como implícito: aunque puedan no creerlo, podrían estar discriminando a la mujer instintivamente. Una de las primeras confirmaciones empíricas que parecían apuntar hacia dicha hipótesis se hizo evidente durante la transformación de los procesos de selección de las orquestas sinfónicas estadounidenses ocurrida durante los años setenta y ochenta. Los responsables de las orquestas habían observado que la proporción de hombres seleccionados para las mismas era habitualmente muy superior a la proporción de hombres inscritos en las pruebas. Al fin y al cabo, la valoración de una expresión artística es una actividad sujeta a un grado fuerte de subjetividad, por lo que no parecía descabellado sospechar que el jurado estaba valorando sistemáticamente la calidad artística de las mujeres que se presentaban a la audición. Para impedir este posible sesgo implícito —¡o explícito!— hacia las instrumentistas femeninas, los responsables de las audiciones introdujeron una curiosa novedad en el formato de las audiciones: a la hora de interpretar las obras requeridas, los candidatos tocarían su instrumento detrás de una cortina opaca, y además deberían ir descalzos para dificultar aún más la identificación del sexo del aspirante. El objetivo era, por lo tanto, obtener un juicio mucho más imparcial a través de una audición ciega, lo cual recuerda a uno de los estándares más sólidos de la metodología clínica experimental, en el cual se recomienda que los analistas de las muestras no conozcan qué grupo experimental están analizando para así evitar la inclinación natural a probar la hipótesis favorita del investigador. Los resultados del caso de las orquestas fueron contundentes: tras la aplicación de la política de audiciones ciegas, el número de mujeres que pasaban la primera ronda de audiciones aumentó del 5 por ciento al 25 por ciento, en tanto que la probabilidad de que una mujer obtuviera la valoración más alta en la ronda final se multiplicaba por siete. Es decir, los jurados estaban ejerciendo una fortísima discriminación contra las mujeres, y la sencilla introducción de una cortina había mejorado increíblemente la justicia del sistema de selección. Una pregunta natural a esta observación empírica es: ¿cómo sería posible aplicar un método análogo para otros tipos de selección de personal? Al fin y al cabo, los músicos tienen la suerte de que han de expresar su talento a través de un instrumento, pero esta peculiaridad no siempre es aplicable a otros contextos. Los instrumentos musicales no son, por supuesto, singulares en este aspecto. Por ejemplo, los programadores se expresan también a través de sus particulares instrumentos, las computadoras y los lenguajes de programación, por lo que las empresas que contratan a este tipo de profesionales pueden mejorar su proceso de selección basándose en una revisión de código anonimizada. Pero para cierto tipo de actividades la cosa se vuelve mucho más complicada: ¿cómo podrían las empresas evaluar el tipo de aptitudes personales ligadas a la gestión de equipos? A la hora de contratar a un gerente o directivo, una de las cualidades más valoradas es la capacidad en la gestión de equipos a través de conceptos abstractos como el carisma, el liderazgo o el poder de motivación. Y este tipo de habilidades son muy difíciles de evaluar mediante un instrumento externo al aspirante, que es juzgado habitualmente en su día a día en el trabajo o mediante la impresión personal que pueda causar en un proceso de selección. ¿Cómo sería posible romper el techo de cristal cuando es imposible poner en marcha un proceso que blinde a los entrevistadores de los posibles sesgos contra la capacidad de las mujeres que puedan albergar en su interior? Ante la dificultad de solventar dicho problema, una solución aparente para el mismo consistiría en forzar legalmente una cierta proporción de mujeres en los órganos de administración de empresas y del sector público para poner fin así a la supuesta discriminación implícita de los hombres hacia las mujeres. Este movimiento ha conseguido importantes avances en los últimos años, tanto desde el punto de vista legal como desde el de la responsabilidad empresarial: aunque algunos países como Noruega han legislado explícitamente la necesidad de una paridad entre hombres y mujeres en los consejos de administración; en otros países se ha producido también un movimiento hacia dicha paridad impulsado voluntariamente por las empresas. No obstante, y aunque la equiparación de responsabilidades entre hombres y mujeres tenga numerosos aspectos positivos — por ejemplo, las mujeres podrían tener una mayor propensión a apoyar medidas a favor de la conciliación laboral y familiar en las empresas—, existe aún un aspecto importante de la hipótesis del techo de cristal que no ha sido probado: ¿quiénes son los que realmente discriminan contra las mujeres? ¿Son sólo los hombres? ¿Acaso no podría estar dándose también este fenómeno entre las propias mujeres? Estas preguntas son relevantes porque si las mujeres compartiesen dicho sesgo contra las candidatas de su mismo sexo, la imposición de cuotas por sexos en los órganos de administración sería inútil a la hora de mejorar la posición global de las mujeres en el sistema laboral. Estaríamos maquillando la situación real nombrando consejeras femeninas sin arreglar el problema de fondo de la discriminación, un problema que sí se soluciona, en cambio, con los procesos de selección ciegos o anónimos. Berta Esteve-Volart, de la Universidad de York, y Manuel Bagüés, de la Universidad de Aalto, son dos de los mayores expertos mundiales en este tipo de cuestiones. Su primer trabajo juntos les llevó a explorar un curioso experimento natural que generan las Administraciones Públicas a la hora de elegir los tribunales para las oposiciones públicas. Concretamente, los autores observaron que, en las oposiciones a judicatura en España, la composición de los cinco miembros del jurado de la última prueba oral se produce mediante un sorteo entre el propio cuerpo de judicatura, lo que introduce una aleatoriedad pura en la composición del tribunal: algunos tribunales pueden estar compuestos por una proporción elevada de mujeres, mientras que otros pueden incluso no tener ninguna mujer. Como dicha composición es fruto de una elección puramente aleatoria, el problema de la identificación queda automáticamente resuelto, ya que un tribunal con mujeres es un contrafactual perfecto de otro sin mujeres. Es decir, si observamos los resultados de los tribunales sin mujeres y nos preguntamos «¿hubieran mejorado los resultados si en el jurado hubiera una mayor proporción femenina?», los tribunales compuestos por mujeres supondrían el perfecto marco de comparación. El resultado de la investigación, publicado bajo el título «¿Puede la paridad de sexos romper el techo de cristal? Evidencia de un experimento repetido aleatorizado», recibió una gran atención debido a lo inesperado de sus resultados: las mujeres aleatoriamente asignadas a tribunales con mayoría de mujeres tenían una probabilidad sensiblemente menor de aprobar las oposiciones. Los resultados contradecían la hipótesis de que son los hombres quienes discriminan negativamente a las mujeres y cuestionaban la idea de que la paridad en los órganos de decisión pudiese ayudar a resolver el problema existente de discriminación. ¿Por qué obtenían peores resultados las mujeres en los tribunales con mayoría de evaluadores de su mismo sexo? Los autores profundizaron en esa cuestión y se encontraron de nuevo con otra relativa sorpresa: lo que estaba sucediendo no era que las mujeres valorasen peor a las aspirantes femeninas, sino que estaban sobrevalorando la capacidad de los candidatos masculinos. De nuevo, lo que parecía una hipótesis razonable y universalmente aceptada parecía tambalearse ante el encuentro con la realidad. Es más, es probable que el efecto observado en las oposiciones a judicatura fuese distinto si pudiésemos realizar el mismo análisis sobre otros procesos de selección en otros sectores, ya que muchas profesiones pueden llevar implícitos algunos supuestos culturales sobre el posible desempeño de las mujeres o los hombres (basta para ello comparar la percepción popular de la enfermería frente a la ingeniería). Desde el punto de vista metodológico, lo interesante de este ejemplo es el hecho de que el sector público puede generar también experimentos naturales, dada su habitual propensión a introducir sorteos en multitud de situaciones. Por ejemplo, además de los conocidos tribunales de oposiciones, el sector público ha llegado a introducir sorteos... ¡incluso en la adjudicación de viviendas de protección oficial! En una curiosa concepción del concepto de justicia, numerosas comunidades autónomas repartieron durante muchos años mediante sorteo la posibilidad de comprar viviendas a un precio muy inferior al del mercado, una situación especialmente ventajosa durante los años en que se estaba gestando la burbuja inmobiliaria. Tras hacer una preselección inicial siguiendo criterios lógicos como la renta o la situación familiar, el sorteo permitía a algunas familias el acceso a una vivienda en propiedad o alquiler a precios realmente reducidos mientras el resto de las familias habían de enfrentarse a un mercado inmobiliario completamente enloquecido. Es decir, el Estado transfirió durante años enormes flujos de renta a algunos ciudadanos con el sistema del sorteo, lo cual, sin duda, habrá tenido implicaciones en la vida personal y laboral de dichas personas. A pesar de lo apasionante del asunto, en este capítulo no se analizan los resultados de esta forma de adjudicar viviendas, pues no nos consta que dicho experimento natural haya sido todavía explotado en España. Sólo nos gustaría mostrar cómo en España puede haber numerosísimos experimentos naturales aún por explotar, muchos de ellos generados por el sector público. Jueces compasivos y dependencia de los programas de ayuda En ocasiones, los experimentos naturales pueden nacer de los distintos comportamientos sistemáticos de ciertas personas. Un ejemplo clásico, y muy útil en la investigación jurídica, es el hecho de que haya jueces sistemáticamente más duros o más benevolentes a la hora de decidir. Este hecho es explotado sistemáticamente en Estados Unidos para estudiar todo tipo de efectos, como las consecuencias sobre la reinserción futura de ser condenado a prisión en un centro penitenciario. Algunos jueces son sistemáticamente más propensos a enviar a los acusados a prisión, y como los encausados son asignados aleatoriamente a los distintos jueces, es posible utilizar esa variabilidad sistemática como experimento natural para saber si la prisión es un buen instrumento a la hora de prevenir futuros delitos. No obstante, en este apartado vamos a conocer el fascinante trabajo de Gordon B. Dahl, Andreas Ravndal Kostøl y Magne Mogstad, de las universidades de California-San Diego y de Bergen, en el que intentan responder a la cuestión de si la dependencia de programas de ayudas sociales se transmite intergeneracionalmente. Es decir, ¿puede el sector público crear una «cultura de la dependencia» en las familias a las que ayuda, dificultando su salida de dicha situación a lo largo de varias generaciones? La pregunta es relevante porque, al ayudar a una persona necesitada, el Estado puede estar introduciendo también una perniciosa propensión en sus descendientes a depender también del Estado, con consecuencias negativas para sus perspectivas de desarrollo personal. El problema vuelve a poner de relieve la cuestión de la identificación, ya que las familias que reciben ayudas sociales tienen habitualmente una renta baja o media-baja, y la renta familiar es todavía hoy uno de los principales condicionantes de la renta futura de los individuos. Aunque exista una cierta igualdad de oportunidades mediante las becas para el estudio, incluso en los países más igualitaristas sigue transmitiéndose una desigualdad de resultados dependiente de la renta de los padres. Pues bien, si las familias de renta baja son más propensas a necesitar ayudas sociales, como sus hijos tendrán en la media una renta también inferior a la media del resto de la sociedad, ello provocará a su vez que sean más propensos a necesitar ayudas sociales. ¿Cómo enfocar entonces el problema metodológico? De nuevo un experimento natural ha acudido en ayuda a los investigadores. Siguiendo el ejemplo antes mencionado, existen jueces mucho más benevolentes que otros a la hora de conceder ayudas sociales, y algunos programas de este tipo requieren la intervención de un juez. En este caso concreto, se trata del programa noruego de ayuda a discapacitados, los cuales pueden recibir una pensión en función de su grado de discapacidad. Cuando la petición inicial es denegada, el caso deriva en manos de un juez, entre los cuales varía sustancialmente el grado de benevolencia. Ser asignado a un juez u otro, lo cual es determinado por un proceso aleatorio, puede incrementar significativamente la probabilidad de recibir o no una prestación social. Los resultados fueron de nuevo claros, observándose una fuerte transmisión de este patrón de predisposición a la dependencia social: el mero hecho de haber sido asignado a un juez más benevolente —es decir, más proclive a conceder la prestación— hacía que la siguiente generación de hijos tuviese una mayor propensión a depender de este tipo de programas. La transmisión se producía con especial fuerza de padres a hijos, pero era mucho menor cuando la persona a cargo era de otro rango de consanguinidad. Y ello es un problema porque la recepción de ayuda social suele estar asociada a un cierto estigma y parece condicionar el desarrollo futuro del receptor. ¿Y cuál sería la conclusión de la política económica a extraer de este estudio? Así como en el caso del techo de cristal, el análisis parecía decir que la anonimización de las pruebas podría ser más efectiva que la imposición de cuotas. ¿Qué se desprende de la transmisión intergeneracional de la propensión a la dependencia? Nadie en su sano juicio parecería dispuesto a defender una menor cobertura social para evitar dicha transmisión, y ello subraya un problema adicional de la investigación en ciencias sociales: a menudo, los resultados de las investigaciones arrojan resultados contrarios a nuestros valores y creencias, o señalan problemas sin solución razonable. Aceptar esta realidad no es más que aceptar que nuestra sociedad es un sistema increíblemente complejo con numerosos incentivos cruzados que afectan a cada decisión, y que en muchas ocasiones, a pesar de lo fácil que retratan la realidad muchos expertos televisivos, no existen soluciones factibles a problemas reales. ¿Votamos racionalmente? El curioso caso del Gordo de Navidad Otra de las enseñanzas habituales que suelen producirse al investigar en la intersección entre economía y política es que, a la hora de votar, nos comportamos de forma poco racional. Uno de los principales problemas que ha de afrontar todo ciudadano a la hora de votar es el de atribuir a sus gobernantes la proporción exacta de culpa o mérito que éstos tienen sobre el desarrollo de su propia vida y su felicidad. Quien piense que los ciudadanos son capaces de atribuir correctamente las causas de su dicha o desdicha está muy equivocado. Entre los muchos sesgos cognitivos que afectan al ser humano se encuentran los sesgos de atribución. En el caso de las cosas buenas y malas que nos suceden en la vida, nuestro cerebro tiene una especial propensión a atribuir al mérito propio las cosas buenas que le suceden a uno y a atribuir al prójimo (especialmente, a los gobernantes) las cosas malas que nos ocurren. Incluso la forma que tenemos de ver el mundo puede ser influida por eventos completamente aleatorios en nuestras vidas. ¿Qué nivel de confianza te genera el mercado como mecanismo de asignación de recursos? ¿Hasta qué punto tu sociedad es meritocrática o se basa en el nepotismo? Las respuestas a estas preguntas, que bien podría pensarse que deberían estar ancladas en profundos valores, son sorprendentemente volubles y dependientes de la suerte económica de los individuos. En una ocasión, en Argentina sucedió un experimento natural que nos puede ayudar a comprender parte el problema. Durante la expansión de Buenos Aires, una buena parte de las tierras colindantes estaba ocupada por habitantes que residían sin propiedad legal en tierra ajena. El gobierno puso en marcha un plan de expropiación de tierras para cedérselas a los actuales ocupantes. Algunos propietarios intentaron frenar el proceso, mientras que otros rindieron sus tierras, que fueron transferidas a los ocupantes. Los propietarios que no querían ceder sus tierras se enzarzaron en un eterno litigio con el gobierno, creándose mientras tanto dos tipos de ciudadanos ocupantes: aquellos que habían recibido ya la tierra en propiedad y aquellos que no. Pues bien, las actitudes y las creencias pro-mercado y pro-meritocracia de los receptores de tierra aumentaron considerablemente en comparación con las de los que no habían recibido la propiedad de la tierra. Un hecho fortuito condicionaba su forma de ver el mundo, como detallaba el artículo «Derechos de propiedad y creencias: Evidencia de la asignación de títulos de propiedad sobre la tierra a ocupar», de Rafael Di Tella, Sebastian Galiani y Ernesto Schargrodsky. Así, los ciudadanos tenemos problemas al atribuir nuestras felicidades y miserias, y un curiosísimo caso parece confirmar que los españoles no somos una excepción a este problema. Manuel Bagüés y Berta Esteve-Volart no sólo han dedicado su tiempo a investigar el papel de la mujer en el mercado laboral, sino que, interesados también por muchos asuntos relacionados con la política, se dieron cuenta de una interesante posibilidad que brindaba el sorteo especial de la lotería de Navidad. Cada año se pone en juego, aproximadamente, el 0,3 por ciento del PIB de España, y los billetes de lotería se comparten entre amigos y familiares, lo que hace que el Gordo suela estar repartido, pero también concentrado en la población de la Administración de Lotería que vende dicho número. ¿Cómo afecta recibir el Gordo al comportamiento de los votantes en España? Los autores analizaron los resultados de la lotería desde 1986 y observaron que el impacto medio que para una provincia supone obtener el Gordo equivale a un shock del 3 por ciento de su PIB per cápita (el impacto es, naturalmente, mucho mayor cuando toca en una provincia pequeña que cuando lo hace en alguna de nuestras principales ciudades). Pues bien, cada décimo de lotería premiado está asociado a un aumento significativo de 0,6 votos para el partido en el poder. Dado el gran impacto que supone el Gordo en la provincia media, ello se traduce en un aumento aproximado del 0,63 por ciento de los votos para dicho partido. Los resultados son de nuevo sorprendentes, porque todos los ciudadanos comprenden bien que el resultado del Gordo es aleatorio y no tiene nada que ver con el comportamiento de sus gobernantes. Así que los beneficiados indirectos de este tipo de sorteos son, además de los agraciados..., ¡el partido en el poder en la provincia en cuestión! Y, si bien un 0,63 por ciento podría no parecerle excesivo a algún lector, le pedimos que recapacite sobre el primer efecto mencionado: cada décimo del Gordo vendido incrementa en 0,6 los votos del partido en el poder, con lo cual una de cada dos o tres personas (recordemos que los billetes se comparten a menudo) decide votar al partido en el poder. Ello pone de relieve el grave problema de atribución que sufrimos los ciudadanos a la hora de culpar y dar las gracias por nuestros avatares diarios. El Gordo en forma de orografía: tráfico de esclavos e instituciones Aunque hasta ahora hemos visto unos cuantos casos de experimentos naturales generados por el hombre, también es posible que dicha variabilidad experimental sea provocada por la propia naturaleza, tanto a través de accidentes naturales producidos hoy... o incluso durante el pasado. Durante los siglos XVI-XVIII, las monarquías europeas abusaron de su superioridad tecnológica cometiendo uno de los mayores crímenes sistemáticos en la historia de la humanidad: el tráfico masivo de esclavos provenientes de África, algo no sólo aceptado sino incluso incentivado por reyes y gobiernos que pretendían así obtener mano de obra barata para las nuevas colonias americanas. En el tráfico de esclavos participaron también habitantes de los países expoliados, que se encargaban de capturar a sus propios compatriotas para que fuesen más tarde vendidos como esclavos al otro lado del océano. Y uno de los principales problemas que el tráfico de esclavos produjo fue un socavamiento paulatino de la confianza de los habitantes de dichos países. ¿Es posible que la debilidad institucional actual de muchas antiguas colonias africanas sea consecuencia de los atropellos cometidos durante siglos? El papel de las instituciones políticas sobre el bienestar y el crecimiento económico es una de las preguntas que más ha interesado a los investigadores en economía durante las últimas décadas. La teoría económica dice que para que un país pueda desarrollarse satisfactoriamente, éste ha de contar con una serie de instituciones vitales, como la propiedad privada, la seguridad jurídica o el respeto por los derechos humanos. Actualmente, existen varias fundaciones y grupos de investigación dedicados a evaluar la calidad de las instituciones públicas de cada país, y muchas de ellas elaboran métricas respecto a las mismas que intentan condensar aspectos clave como la limpieza de las elecciones, la corrupción de los funcionarios públicos, la eficiencia del gobierno, la igualdad ante la ley o el respeto por los derechos de los ciudadanos. Entre ellas destaca la base de datos del Polity Project, que ofrece una medida sintética de la calidad de las instituciones de cada país. La inclinación natural a la hora de examinar este tipo de cuestiones es sencilla: ¿por qué no observamos la relación entre el crecimiento o el bienestar de los países y la calidad de sus instituciones? El problema que nos encontramos de nuevo en esta ocasión es que la relación de causalidad puede correr en ambos sentidos: ¿son las buenas instituciones las causantes de un mayor nivel de renta? ¿O acaso el mayor desarrollo económico ha hecho posible el desarrollo posterior de mejores instituciones? ¿Podría incluso haber un tercer factor causando ambos? Diego Puga, profesor del Centro de Estudios Monetarios y Financieros y galardonado en 2008 con el Premio Banco Herrero al mejor economista español menor de cuarenta años, es uno de los mayores expertos mundiales en geografía económica. Atraído por la temática de las instituciones y el crecimiento económico y por el papel de la geografía, se embarcó, junto con Nathan Nunn, de la Universidad de Harvard, en el ambicioso proyecto de desenmarañar dichas posibles relaciones de causalidad. A priori, una mala orografía suponía hace siglos una menor productividad debido a los costes de transporte. Pero en la África del tráfico de esclavos, una orografía sinuosa suponía una bendición para sus habitantes, que podían esconderse con mucha mayor facilidad y evitar ser capturados. Así, las potencias esclavistas centraron sus esfuerzos en mucha mayor medida allí donde más barato y fácil fuese obtener esclavos. Usando un complejo algoritmo para medir la rugosidad del terreno, los autores construyeron un índice de rugosidad específico de país. Y ¿para qué necesitaban los autores dicha información? Porque, en cierto modo, la rugosidad podía interpretarse, mediante la técnica estadística conocida como «variables instrumentales», como un nuevo experimento natural. Ya que la relación entre renta e instituciones no podía estudiarse directamente por el problema de la identificación, los autores estudiaron primero qué parte de la realidad de las instituciones podía explicarse con la rugosidad del terreno africana, descubriendo una relación muy fuerte entre ambas. La primera hipótesis de Puga y Nunn parecía por lo tanto confirmarse: allí donde la orografía era más sinuosa, las instituciones actuales son mucho más seguras y potentes, quizá por no haber sido sistemáticamente socavadas y destruidas a base de desconfianza. El mencionado método de las variables instrumentales consiste en utilizar, a la hora de estudiar un fenómeno —en este caso, ¿causan las instituciones un mayor crecimiento?—, la parte del fenómeno que se debe a motivos puramente aleatorios, o a motivos que no puedan entrar en juego en la relación actual entre instituciones y renta. La orografía es, por lo tanto, un buen ejemplo de experimento natural en este fenómeno, ya que ésta puede causar las instituciones, y las instituciones pueden afectar a la renta per cápita hoy, pero la renta per cápita no puede cambiar la orografía y mucho menos el pasado. El resultado final del trabajo de Puga y Nunn, titulado «Rugosidad: la bendición de una mala geografía en África», muestra que aquellos países africanos con mejores instituciones deben su mejor posición a una peor orografía, y que estas diferencias explican la mayor renta per cápita actual de dichos países, frente a aquellos que sufrieron largos siglos de acoso esclavista y cuyas instituciones se encuentran en mucho peor estado. Experimentos por todas partes Como hemos visto en este capítulo, tanto la acción del hombre como la propia naturaleza del planeta nos proveen a menudo de fantásticos experimentos naturales que nos permiten abordar satisfactoriamente el problema de la identificación. Una gran parte del éxito de los economistas que realizan trabajos de tipo empírico o aplicado depende de su capacidad para encontrar estas variaciones que permiten establecer con mayor claridad las relaciones de causalidad en los fenómenos que estudian. De hecho, podría decirse que, ante el éxito que ha encontrado este tipo de aproximación académica, existe hoy una cierta tendencia entre muchos economistas a buscar antes un experimento natural interesante y a buscar a continuación el problema para el que puede resultar interesante. ¡Tal es la aceptación de este tipo de enfoque entre la comunidad investigadora! Un atentado terrorista, la lotería de Navidad, las diferencias de carácter entre jueces, la rugosidad de África y los tribunales de oposiciones esconden, por lo tanto, una característica común: son pequeñas llaves que abren la puerta a un conocimiento causal más riguroso de lo que las ciencias sociales nos tenían acostumbrados hasta hace pocas décadas. No obstante, existe un ámbito al que este tipo de enfoque todavía no ha llegado, y que sin duda podría beneficiarse del mismo: la empresa privada. El enfoque de la identificación requiere una amplia experiencia investigadora, una mente entrenada para comprender los entresijos de las relaciones de causalidad y una curiosidad innata para observar muchos hechos y fenómenos como posibles fuentes de variabilidad experimental. Como célebremente expresó John Cochrane, de la Universidad de Chicago: «¿De dónde procede la variabilidad de tu variable explicativa? Dios no proporciona a menudo experimentos naturales». Es decir, es muy raro presenciar accidentes que provoquen en nuestros datos variabilidad experimental, y esos milagrosos momentos deberían ser aprovechados hasta su última esencia. 4 ¿Nos quitarán los robots nuestro empleo? JAVIER GARCÍA Cambiaría, si pudiera, toda mi tecnología por una tarde con Sócrates. STEVE JOBS en 2001, entrevista en Newsweek ¿Eres terapista dentista o recreacional, entrenador personal? ¡Enhorabuena! Has tomado una buena decisión laboral: tu nómina está a salvo de los robots. Si eres teleoperador de marketing, contable, auditor o empleado de ventas, continúa leyendo, porque tu empleo tiene una probabilidad superior al 90 por ciento de desaparecer con la introducción de las nuevas tecnologías. Esto es lo que calcularon C. Frey y M. Osborne en el año 2013 en su estudio «El futuro del empleo: ¿Cómo de susceptibles son los trabajos a la computarización?». ¿Qué une al inodoro y al iPhone? Su importancia como hito histórico en el desarrollo humano..., ¡no pienses mal! Pocos avances tecnológicos combinan tanto impacto en nuestras vidas y anonimato sobre su historia como el inodoro. Patentado en 1775 por Alexander Cummings, su instalación masiva a lo largo del siglo XIX fue uno de los mayores avances en materia de salud pública de nuestra historia, al permitir controlar una innumerable variedad de enfermedades, desde la difteria hasta el cólera, muchas de ellas mortales. Así, su relevancia no se debe sólo a su comodidad en términos de higiene, sino también a que ha salvado cientos de millones de vidas. Desde la patente del inodoro hasta el iPhone 6 ha pasado aproximadamente un cuarto de milenio, y las cosas han cambiado mucho. En 1800, en los primeros pasos de la Revolución Industrial, la renta media de una persona en Estados Unidos equivalía a 3.450 dólares anuales (a precios de hoy), mientras que en la actualidad supera los 48.000. Un ciudadano estadounidense no sólo puede comprar mucha más cantidad de bienes y servicios que entonces, sino que hemos logrado pasar de una economía con un centenar de referencias de productos a una, la actual, con más de 10.000 millones de referencias (un gran supermercado en una ciudad media tiene más de 25.000 referencias de productos alimentarios distintos, por ejemplo).[4] O piensa en una tostadora de 50 euros que compramos en cualquier tienda. Tiene más de 400 componentes, que fabrican diversas empresas a lo largo del mundo y con un grado de sofisticación increíble; ¿cómo es posible que llegue esa tostadora tan sencilla a tener ese precio y estar disponible todos los días en cualquier supermercado? Asimismo, se confirma por minutos que el mundo es cada vez más pequeño. Observa simplemente la complejidad mundial de las líneas áreas, y rápido nos daremos cuenta de que, a pesar de internet, estamos a unas horas de cualquier parte. Y además, todos estos cambios se están haciendo a un ritmo realmente aplastante. Como dice César Molinas en su reciente libro: Entre la revolución neolítica (donde surgieron los pueblos, ciudades, escritura, política) y la Revolución Industrial transcurrieron 10.000 años. Resulta que en los doscientos últimos años, el mundo ha cambiado de forma exponencial en riqueza y en posibilidades (han pasado muy pocas décadas entre que llegó la electricidad y apareció internet, y, por ejemplo, el móvil es algo muy reciente). El crecimiento económico, en términos históricos, aún es un bebé. Durante todo este proceso, nuestra relación con el progreso tecnológico ha sido muy difícil, y lo sigue siendo (pon en Google «empleo y robots» y el debate está servido). ¡Las máquinas sustituirán a los humanos! Pero esto no es nuevo, la primera huelga general en España se produce en 1855, siendo el blanco de las iras de los trabajadores las nuevas máquinas que se instauraban con fuerza en las fábricas, especialmente en zonas de mayor tradición industrial, como Cataluña. Las máquinas eran el enemigo que destruía empleo y salarios. Esta percepción del proceso productivo, conocida desde entonces como ludismo, fue perdiendo fuerza paulatinamente ante la evidencia de las mejoras en la calidad de vida que la mecanización y la tecnología trajeron consigo. Por ello, sorprende enormemente el curioso artículo que la MIT Technology Review publicó bajo el rotundo titular «La TI destruye más empleos de los que crea». Poco después, en diciembre de 2014, la Harvard Business Review abordó también este problema. Los robots sustituirían, incluso, a la mano de obra más barata en los países emergentes. Si eso pasa a los trabajadores que menos cobran, ¿qué será lo siguiente? ¿Será el mundo al estilo de la serie de animación Futurama? Si atendemos a nuestro nivel de bienestar medio y a la renta per cápita, los dos últimos siglos han sido únicos en la historia económica de la humanidad. En los largos milenios que van desde el neolítico hasta el reciente siglo XIX, la inmensa mayoría de la población era agrícola y subsistía con una renta mínima. El siguiente gráfico cuenta, posiblemente, la más importante y bella historia de la humanidad: la del acceso generalizado a una mínima calidad de vida. Hasta el siglo XIX rara vez superaba un país los 1.000 dólares per cápita. A partir de la mecanización introducida por la revolución industrial, la renta per cápita se dispara en casi todas las áreas del mundo. Incluso África, con el peor historial de crecimiento del siglo XX, supera con claridad el estándar de vida máximo de toda la historia de la humanidad. La revolución industrial trajo el inodoro, la electricidad, los antibióticos, la máquina de vapor, las lanzaderas volantes y un gran número de avances tecnológicos y científicos que transformaron los procesos productivos. La mecanización y las ganancias de productividad fueron reduciendo las necesidades de mano de obra en el campo hasta representar sólo una pequeña fracción sobre el total del empleo en una economía moderna. ¿Se ha frenado este proceso en la actualidad? Ni mucho menos. Los argumentos en contra de la desaparición del empleo debido a las mejoras tecnológicas en la agricultura y en la industria se dan de frente contra los datos. El siguiente gráfico muestra, para todos los países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la relación entre (1) el porcentaje de empleo en la agricultura y la industria y (2) la tasa total de empleo, esto es, el porcentaje de población mayor de quince años que tiene empleo. El período de cálculo es el de 1992-2010. La relación es fuertemente negativa: mientras que el porcentaje de ocupación en agricultura e industria se redujo del 38 por ciento al 29 por ciento, la tasa de empleo aumentó, incluso considerando los efectos sobre el empleo de la tremenda crisis de 2008. La liberación de recursos de la industria y la agricultura ha traído todavía más empleo para la economía de la OCDE en su conjunto. ¿Cómo funciona este mecanismo tan antintuitivo por el cual la destrucción de empleo se traduce en mayor empleo en otros sectores? Los perritos calientes nos permiten comprender nuestro misterioso problema con la tecnología Para ilustrar la curiosa relación entre tecnología y empleo, hagamos un breve ejercicio de abstracción. Pensemos en España como un país donde sólo se venden dos productos que, además, se consumen juntos: salchichas y bollos de pan. Supongamos, redondeando, que somos 40 millones de personas, de las cuales 20 millones trabajan: 10 millones de personas hacen bollos de pan y los otros 10 millones hacen salchichas. Cada trabajador tiene una productividad diaria de 12 bollos de pan y 12 salchichas. Esto permite que los 10 millones de personas de cada sector logren una producción de 120 millones de perritos calientes y que los españoles puedan comer tres perritos calientes al día (olvidemos por el momento las oportunidades de negocio en la «industria auxiliar» del tratamiento del colesterol). Esta sencilla situación fue propuesta por el maravilloso Krugman en los años noventa para explicar el impacto de la tecnología sobre la productividad y el empleo. Veamos cómo. Supongamos que un equipo de ingenieros del sector de las salchichas encuentra una manera de aumentar su productividad: han averiguado cómo fabricar 18 salchichas al día por cada persona empleada. ¿Qué efecto tendría un cambio así sobre el empleo y sobre nuestro bienestar? 1. Si la asignación de trabajadores no cambiase, España pasaría a generar 180 millones de salchichas al día, mientras que los fabricantes de bollos seguirían produciendo sólo 120 millones. De repente, tenemos un exceso de salchichas y una terrible escasez de bollos de pan en nuestra economía: cada salchicha adicional aporta muy poco, pero cada nuevo bollo es un nuevo perrito caliente. Ha disminuido el valor de cada nueva salchicha y ha aumentado el valor marginal de cada bollo. 2. El resultado es contraintuitivo. En el sector en el que ha aumentado la productividad son necesarios menos trabajadores, mientras que, por la complementariedad entre panes y salchichas, los trabajadores tienen ahora más valor en el otro sector. 3. Con un funcionamiento normal del mercado laboral, la nueva demanda de bollos podría crear millones de nuevos empleos hasta pasar a producir 180 millones de bollos: las ganancias de productividad en un sector se traducen en una mayor demanda y en mayor empleo en otros sectores. 4. Pero si no se crean los nuevos empleos en el sector de los bollos..., ¡podrían incluso destruirse empleos en el sector de las salchichas! Concretamente, podrían destruirse hasta 3,3 millones de empleos y España seguiría produciendo 120 millones de salchichas, como antes. Los españoles seguirían comiendo tres perritos al día, pero para ello es necesario mucho menos trabajo. El titular sería claro: la tecnología destruye empleo. 5. Sin embargo, esos 3,3 millones de empleos «expulsados» del sector de las salchichas se podrían distribuir entre ambos sectores, de forma que el país podría disfrutar de más perritos calientes cada día. Si el sector de los bollos contrata a 2 millones de trabajadores y el de las salchichas a 1,3 millones, entre ambos son capaces de producir 144 millones de perritos calientes, 24 millones más que en la situación inicial. Nuestro PIB —medido en este caso en perritos calientes— ha aumentado un 20 por ciento gracias a la mejora tecnológica de un sector y de cómo esta ganancia se ha trasladado hacia el resto. ¿Y si las ganancias de productividad fueran tan elevadas y nuestra capacidad de producir perritos tan alta que ya no quisiéramos comer más de 4/5 al día? La respuesta es que se abriría una puerta fantástica para crear otros sectores, como el del kétchup, las patatas, los bares, la cerveza..., ¡y sí, ahora sí: la industria del control del colesterol! La acusación del mencionado artículo, «La tecnología de la información destruye más empleo de los que crea», tiene, por lo tanto, una visión alarmista sesgada. ¿Acaso no podemos considerar como «empleos en tecnología de la información» a la plantilla de Inditex, que se caracteriza por uno de los sistemas de logística más avanzados del mundo? Cuando un cirujano utiliza un nuevo software como asistencia en una operación, ¿acaso no es también un puesto de trabajo TI? ¿Y qué me dices de un controlador aéreo? Las TI son una bomba de productividad y eficiencia para toda la economía y nuestro primer motor de innovación: 1 de cada 4 euros en I+D en Europa se destina a las TI en todo tipo de campos: energía, nuevos materiales, logística, etc. La clave: la velocidad de ajuste ¿Dónde se encuentra, pues, la disyuntiva entre tecnología y empleo? En la velocidad del ajuste y sus consecuencias. Las personas que pierden empleo en un sector no necesariamente son las mismas que lo logran en otro sector. Por ejemplo, el dependiente de quiosco que pierde su puesto por una máquina que dispensa golosinas no es quien pasa a diseñar los autómatas dispensadores. El mercado valora cada vez menos las habilidades no cualificadas, una tendencia probablemente irreversible. Recuerda la primera tabla del capítulo: terapistas recreacionales, entrenadores e incluso actores. Empleos con muy alto componente subjetivo, donde el potencial cognitivo es altamente valioso. La caída generalizada de las barreras comerciales, incluso en la prestación de servicios, está deprimiendo los salarios de los trabajadores no cualificados conforme cientos de millones de nuevos trabajadores sin formación se incorporan a la cadena mundial de producción. De hecho, el concepto de cualificación en el trabajo está cambiando desde la formación en habilidades «duras» (formación reglada) a la formación en habilidades «blandas» (creatividad, capacidad de adaptación y «antifragilidad»..., como explicaremos más adelante). Una pista de este cambio: las grandes empresas de internet, en sus procesos de selección, analizan antes si los candidatos se ajustan a sus «valores» que el origen de sus titulaciones universitarias. Lo primero es más difícil de medir, lo segundo hoy en día es más fácil. El mundo lleva más de dos siglos en un imparable proceso de sustitución de recursos poco cualificados por tecnología. Gracias a ello, podemos dedicar nuestros esfuerzos a aquello que peor sabe hacer una máquina: diseñar productos, crear nuevas formas de hacer las cosas, explorar oportunidades y seguir buscando formas de mejorar nuestra calidad de vida. Ninguna máquina va a encontrar por sí misma la vacuna contra la malaria o la solución al cambio climático, ni siquiera va a tomar decisiones sobre qué nuevo producto funcionará en un mercado. Ello requiere de personas que usen el único recurso realmente renovable que tenemos: el conocimiento. El secreto está en la incertidumbre: quien mejor la soporte, ¡gana! Si hay una profesión en el mundo que tiene que lidiar con el riesgo y la incertidumbre, ésa es la del financiero. Como nos dijo Guy Kawasaki en una entrevista que nos concedió en Sintetia, siempre hay alguien en un garaje —a miles de kilómetros — que está haciendo algo que puede suponer la destrucción de tu idea (empresa). La innovación, o forma parte del ADN de toda empresa o no existirá empresa. Y, además, la innovación, o es radical, es decir, aporta una sustancial propuesta de valor al mercado, o no lo será, o dicho de otra manera, será demasiado efímera, con poco impacto. Así que si existiera un indicador del nivel de exigencia para quien lanza una idea al mercado en el siglo XXI, apostaría firmemente por que éste ha aumentado sustancialmente en las dos últimas décadas, y lo hará aún más. Durante décadas venimos asistiendo a una transformación en la forma en la que hacemos las cosas, de una economía industrializada, orientada a una fabricación en masa y unos servicios focalizados en la eficiencia y la productividad de los recursos, a otra economía donde los inputs estratégicos ya no son los recursos naturales ni la localización física en un determinado lugar. Cualquier compañía que quiera ser sólida en el siglo XXI tiene que jugar a las reglas de lo global, con fuertes raíces locales, a detectar, usar y generar un gran valor del talento y de su ecosistema (también más global). No se trata de que internet nos haya unido, generando comunicación instantánea, ni siquiera que genere caudales de información continua sobre compañías, productos o precios. En realidad, se trata de la creación continua de nuevos mercados, nuevas posibilidades para detectar problemas, resolverlos, aportar valor y diferenciarse, independientemente de dónde te ubiques. El talento no se identifica con un título, sino con lo que muestras y demuestras a los demás en un escaparate global. Enseñas y te evalúan por lo que ofreces y aportas. Las buenas ideas, los buenos diseños, las propuestas de valor, se pueden probar y enseñar en mercados globales sin salir del salón de tu casa. Pero la historia no es tan sencilla. Los menores costes de acceso a la información y a la comunicación no se traducen en éxito de forma instantánea. La competencia es global, las habilidades (skills) hay que ganárselas todos los días. Aprender y desaprender forma parte del proceso continuo de la creación. Pivotar es un verbo clave: probar, aprender, mejorar. Absorber es el mejor de nuestros aliados: buscar información, testear y lograr las vías para obtener de ella lo que más nos puede beneficiar. Ahora los valores importan, y esta crisis, sobre todo la institucional, nos demuestra que cada vez son más importantes. Como Gary Hamel siempre nos enseña (lo explicaremos en detalle en el último capítulo de este libro), tenemos que lograr humanizar las empresas, abrirlas, apasionarlas y convertirlas en un organismo vivo que detecte oportunidades constantes. A las personas nos quitarán lo más «fácil y predecible» de gestionar, y la diferenciación real estará en ser capaz de convivir con la incertidumbre, la fragilidad de nuestras decisiones, la interpretación de los datos, el diseño, visionar... En definitiva, la tecnología está obligando a sofisticarnos cada día más. Y en el caso de los financieros, esto es absolutamente determinante. Estamos de acuerdo en que la tecnología ha cambiado la forma en que nos organizamos, pero sobre todo la importancia relativa de los inputs. Quien diseña, quien siente, quien visiona, quien aporta valor, quien asimila información para convertirla en conocimiento de valor, son las personas. Y las personas no son máquinas programables. Los talentos se crean, se incentivan, se forjan con proyectos ilusionantes y con unas nuevas relaciones laborales más humanas, que aporten posibilidades para el desarrollo personal, para el crecimiento y la autoexigencia. Innovar, aportar experiencia en el consumo, vender y comunicar lo hacemos las personas. Y, por lo tanto, estas personas son la esencia de los intangibles que gobiernan y gobernarán la creación de riqueza y empleo en el futuro. ¿Están bien valorados los intangibles en las contabilidades? ¿Y cómo valoramos proyectos de inversión con un entorno tan complejo, cambiante e incierto? ¿Cómo medimos la creación de valor si, precisamente, lo determinante del mismo suele estar fuera de los libros de contabilidad? ¿Cómo se puede predecir, invertir, atender a nuevas exigencias en entornos tan cambiantes y exigentes? Estas preguntas son determinantes para un economista y un financiero en el siglo XXI. Y enfrentarse a ellas es realmente difícil. Requiere de muchas habilidades, conocimientos complementarios, capacidad para escuchar y para tener una visión estratégica. En definitiva, el papel del financiero hoy es radicalmente diferente al de hace cinco décadas, y lo será mucho más dentro de... una década, ¡o incluso mucho antes! Los economistas dedicados a la gestión financiera en las empresas, es decir, el oxígeno que mantiene viva a nuestra riqueza y empleo, se enfrentan a una encrucijada cada vez más importante. Las cosas que nos enseñan en las facultades y en las escuelas de negocios son útiles, pero son sólo meros instrumentos que nos permiten adquirir unas habilidades técnicas necesarias, pero para nada suficientes para poder navegar en una economía del conocimiento, global y dinámica, que requiere de nuevos perfiles de financieros. Si algo enseñó la crisis de 2008 a las escuelas de negocios es a elevar en la jerarquía de asignaturas la ética de trabajo. Los matemáticos que elaboraron modelos cuya finalidad comercial desconocían y los comerciales que vendieron productos cuyos fundamentos no comprendían nos llevaron a un mundo donde, a falta de ética, todo era tecnología. El resultado ya lo sabemos: no funcionó. El financiero del presente, y más aún el del futuro, necesita de nuevas fórmulas para analizar la realidad, adoptar decisiones empresariales, de inversión, asignar riesgos o vías solventes que le permitan acompañar sus habilidades técnicas con las del resto de los profesionales que integran una organización. Sólo actuando de una forma coordinada, casi mimética, con las finanzas y el resto de actividades (I+D, comercial, marketing, compras, contabilidad, logística...) se puede empezar a comprender y trabajar en la creación de ese gran puzle que supone la creación de valor. Veamos un ejemplo muy sencillo de por qué las finanzas necesitan repensarse. Un analista de riesgos, por ejemplo, sólo con lo que le ofrece su pantalla de ordenador, puede estar sometido a severos sesgos de análisis. El siguiente caso es absolutamente real (se omiten nombres y datos que no son relevantes para comprender el problema de fondo). La máquina que se olvida de la información «blanda» Un buen miércoles por la tarde, una empresa comenta a su consultor que una de sus principales competidoras está en apuros y que quiere iniciar un proceso de negociación para su adquisición por las sinergias evidentes entre ambos negocios. Le gustaría, para ello, hablar con la principal entidad bancaria de la empresa en apuros. El consultor se pone de inmediato en contacto con el director de zona del banco, que a su vez hace lo propio con un analista de riesgos en la sede central, a cientos de kilómetros de distancia. El analista repasa las ratios habituales y no observa ningún problema apreciable: «Nada que temer, a esta empresa no le pasa nada». Tras la reacción de incredulidad, se le intentan explicar los pormenores de la situación, que su cliente está atravesando problemas genuinos, pero que hay una empresa que puede ayudar en el proceso mediante una adquisición. Y aunque al analista de riesgos le gustaría quizá poder confiar en el consultor e ir más allá, su labor es clara y está bien definida: si no se puede apreciar en los datos y no se traduce en algún tipo de alarma, no conviene preocuparse. Pocas semanas después, la empresa en apuros entra en concurso de acreedores y la entidad financiera añade gran parte del pasivo de ésta a la larga lista de «créditos de dudoso cobro», tras lo cual la empresa interesada en su adquisición recibe su llamada para retomar el contacto y buscar una salida. ¿Dónde ha radicado el problema? ¿Acaso en la incapacidad del analista? No, éste sólo ha seguido un procedimiento estandarizado que, si bien se expone a riesgos como el mencionado, se ha comportado razonablemente bien en otras ocasiones. El problema se encuentra, por supuesto, en la falta de flexibilidad del proceso a la hora de incorporar información relevante pero difícil de medir. La centralización de los sistemas de riesgos, a pesar de las ganancias de eficiencia y precisión que ha conllevado en muchos casos, falla a la hora de incorporar el capital relacional preexistente: la confianza mutua labrada durante muchos años entre gestores de oficina y sus clientes. ¿Cree que Google hubiera encontrado financiación bancaria en España el día que se creó? Detrás de un tejido empresarial altamente innovador siempre hay alguien asumiendo riesgo. Innovación y riesgo van de la mano, y sin un sistema financiero «entrenado» en aportarlos y rentabilizarlos estaremos frenando las posibilidades de crecimiento económico. En última instancia, un juicio subjetivo puede aportar información relevante a este tipo de decisiones. Por ejemplo, ningún modelo de riesgos informático ponía en 2007 coto a la canalización del crédito hacia la construcción, cuando la mayoría de los analistas llevaban unos dos años esperando el estallido de la burbuja. En pleno 2007, los modelos consideraban la biotecnología como alto riesgo, pero no el ladrillo. En general, los modelos de negocios de alto riesgo y difícil comprensión han tropezado siempre con el escasísimo apoyo de la financiación bancaria, muriendo antes de nacer a pesar de las altísimas rentabilidades esperadas que ofrecen a cambio de su riesgo. Imagina a Sergey Brin y Larry Page, fundadores de Google, dando en sus inicios un paseo por España y enamorándose del país. Atraídos por el sol, la gastronomía y la calidad de vida, deciden desarrollar su empresa aquí. ¿Te los imaginas en un banco español? Peor aún, ¿los concibes consiguiendo crédito para iniciar su actividad? Y, rozando lo pésimo, ¿los vislumbras consiguiendo una participación en el capital de la empresa por parte de un banco? Es necesaria una portentosa imaginación para creer que esto podría haber sucedido, aunque también es justo decir que la financiación inicial de Google en Estados Unidos no provino de la banca. El sistema financiero español —y, por supuesto, el de otros lugares del mundo— está muy entrenado en una única modalidad de préstamo, el hipotecario con garantía para la adquisición de inmuebles: 6 de cada 10 euros de deuda privada bancaria de este país están concentrados en la construcción. No usamos nuevas lógicas financieras, pero tampoco tenemos muchos incentivos para hacerlo Recientemente, The Global Competitiveness Report, publicado por el Foro Económico Mundial, se dedicó a medir un amplio número de variables que determinan 12 pilares de la competitividad para 144 países. Los resultados para España muestran que nuestras grandes barreras son, por orden de importancia, las cuatro siguientes: 1. El acceso a la financiación, 2. el mal funcionamiento de nuestro mercado laboral, 3. la burocracia y 4. la escasa capacidad de generar innovación de las empresas. Por lo que respecta al acceso a la financiación, España se encuentra en el puesto 122 de los 144 países analizados del mundo. El problema es claro, evidente, e impide el desarrollo empresarial, sobre todo de aquellas compañías con mayor capacidad de innovación, que son las que mayor riesgo llevan asociado. Una de las mayores dificultades a las que se enfrenta un emprendedor es lograr financiación bancaria para su proyecto. Después de pasar una etapa donde amigos y familiares te apoyan, aportas tus (mayores o menores) ahorros y empiezas a mover el proyecto entre potenciales «socios financieros» (business angels, capital semilla o convocatorias públicas de ayudas/préstamos), y la realidad se impone: ante cualquier proceso de crecimiento y consolidación de una nueva idea empresarial, se precisa financiación bancaria. Y es ahí donde la tasa de rechazos, las condiciones y las dificultades empiezan a florecer. ¿Cómo puede evaluar una entidad financiera las buenas e innovadoras ideas? ¿Cómo valora el riesgo? Lo habitual es analizar las cuentas. Pero ¿qué ocurre si no las tiene porque es una idea que emerge y no hay nada comparable? ¿Cómo valoras el potencial sin un histórico? Los programas informáticos y de análisis de riesgos están muy acostumbrados a que los alimentemos con datos históricos sobre los que hacer simulaciones y stress tests (cambios de escenarios para analizar cómo se puede o no devolver una deuda). ¿Qué ocurre si no hay histórico? ¿Se rechaza sin más la idea? Si se hiciera esto por defecto, los bancos perderían grandes oportunidades de negocio, y cualquier país se quedaría sin actividad empresarial innovadora. En España, lo habitual son las «garantías», hasta el momento casi siempre hipotecarias. El emprendedor/a pondrá su casa, la de sus padres, los ahorros de sus hijos y todo lo que posea como aval de la deuda. Pero ¿y si las garantías hipotecarias no son suficientes? Aquí es cuando llegamos al problema de fondo, que reside en el tratamiento de la información «blanda» (soft information) o nomedible: las empresas innovadoras se apoyan en una información de nueva generación, blanda, y que no es fácil de contrastar, para explicar la rentabilidad de sus modelos de negocio, y las entidades financieras tienen dificultades para valorar esa información (cualitativa y cuantitativa) y traducirla en la concesión o no de un crédito. Es riesgo, es muy silencioso, y está en todas las partes Es más riguroso asumir sólo los riesgos que uno entienda que tratar de entender los riesgos que uno asume. Vuelve a leer la cita, y piensa en un ejemplo secuencial, en dos pasos. Esta cita es del gran Nassim Nicholas Taleb, en su libro Antifrágil. Las cosas que se benefician del desorden (Paidós, 2013). Lo ideal y estrictamente más correcto sería realizar sólo aquellas operaciones cuyos riesgos asociados son perfectamente comprendidos por nosotros. Sin embargo, muchas veces acabamos en el escenario alternativo: dada mi situación actual, me dedico a entender los riesgos que me rodean ¡y acabo desesperado porque no comprendo dónde estoy! Taleb nos dice que no se puede considerar la «gestión de riesgos» como una ciencia a través de la cual, a partir de unos axiomas, se trata de confirmar una serie de hipótesis verificables. En nuestro día a día, en cualquier empresa, pero sobre todo en las que tratan de navegar y hacerse un hueco en el complejo entramado de la innovación, muchos de nuestros comportamientos no tienen una lógica científica detrás. Simplemente tenemos que adoptar decisiones para sobrevivir, tenemos que dar pasos, y no siempre hay una teoría científica de la que echar mano; quizá no la haya ni siquiera en cientos de años. Vivimos en un mundo incompleto, complejo, sujeto a un gran número de variables interconectadas entre sí que son muy difíciles de prever. Pero esa complejidad y esos riesgos no se pueden acotar de cualquier manera. El debate es el siguiente: ¿Qué prefieres, ir en un avión sin GPS o en uno donde el GPS no tiene programada la ruta a la que tú vas? Pocas personas decidirían subirse al primer avión, si tienen opción. ¿Prefieres un mal mapa antes que no tener mapa? Esta pregunta no es tan sencilla, porque usar medidas incorrectas, sabiendo que son incorrectas, para tomar decisiones no es mejor que no tener medidas. En cambio, en el mundo de la empresa —también en la política, o incluso en la medicina o en cualquier disciplina donde disponer de toda la información es realmente imposible—, actuamos sabiendo que las medidas son incorrectas pero, como es lo único que tenemos, las aceptamos sin más. A veces hasta nos las creemos como si estuvieran escritas a fuego, y, simplemente, son cifras o análisis que no sirven. El caso más evidente es el del plan de negocio, o incluso el del análisis de rentabilidad de una inversión. Asumimos que podemos predecir el futuro, el comportamiento de los clientes, el de los precios, la competencia, el impacto de nuestras inversiones..., en definitiva, un sinfín de variables y de supuestos con los que creemos construir una carretera hacia el estrellato de todo negocio. ¿Has visto algún plan de negocio donde la compañía no sea rentable? ¿Algún análisis de rentabilidad está basado en supuestos ex-ante absolutamente predecibles? La realidad es que no. Entre 2002 y 2007 en España había pocas cosas más seguras, más fáciles de calcular y que más credibilidad generaban a las instituciones financieras que el negocio de las energías renovables (solar y eólica, fundamentalmente). Precios regulados por ley (en quince años sabrías perfectamente cómo iban a ser esos precios), costes e inversiones seguras (los paneles y las torres tenían precios conocidos y fácilmente previsibles). ¿Qué podía fallar? Un negocio seguro con tasas de rentabilidad para el accionista superiores al 12 por ciento en solar y del 20 por ciento en eólica. Todo blindado por la ley. La misma ley que destrozó toda esa rentabilidad y que ha colocado a inversores (apoyados por una ingente cantidad de deuda) a los pies de los caballos. El riesgo es muy silencioso, hasta que se materializa. Y jugando al futuro no existen verdades incuestionables más allá de unas cuantas leyes científicas. La única forma de abordar ese riesgo y tener un cierto (aproximado) control sobre el mismo es a través de la intersección de disciplinas, que no suma. Por lo tanto, si eres un financiero que ha acabado la carrera y que pensabas meterte en un cubículo a contabilizar, hacer presupuestos y olvidarte de conocer «nada más», estás abocado al fracaso profesional. No serás útil. Es más, serás sustituido por máquinas en un futuro no muy lejano. Estas tareas son automatizables, fácilmente delegables y no aportarás valor estratégico. La intersección entre disciplinas es fundamental para crecer profesionalmente en nuestra actualidad. Y eso requiere mucha capacidad de adaptación, de aprendizaje y, por supuesto, de comunicación. Te puedes preguntar en estos momentos, ¿lo mejor es no hacer nada? Ciertamente, la parálisis tampoco es una solución, porque en ese caso estaríamos afrontando riesgos por omisión más que por acción y, a veces, no se sabe muy bien qué es peor. Para que la complejidad no nos pare, seamos estrategas e integremos conocimientos. Y es aquí donde veo un claro y decisivo trabajo en el mundo de las finanzas corporativas; tenemos que dar luz y poder a la estrategia financiera, que no necesariamente está diseñada por financieros. ¿Quiere esto decir que los datos históricos no son importantes y no los debemos utilizar? En absoluto, simplemente que no son suficientes para tomar decisiones de futuro, porque la incertidumbre ha dinamitado el puente seguro que es predecir el futuro a través del pasado. Las finanzas en una empresa ya no pueden ser lo que siempre han sido, departamentos pasivos, cosas a externalizar para anotar contable y fiscalmente lo que ocurre (o se cree que ocurre, porque no todo lo importante se recoge en una contabilidad) en la organización. Una misma persona con el mismo conocimiento podría llevar las finanzas de una empresa de zapatos y de una biotecnológica que está tratando de encontrar la solución al cáncer. ¿No resulta extraño que sea el mismo papel de un financiero en una empresa de zapatos que en una de biotecnología? Si le preguntamos a un asesor contable y fiscal, incluso nos diría que le da más trabajo y quebraderos de cabeza la empresa de zapatos. ¿No falla algo? ¿Dónde hay más riesgo? ¿Dónde se necesita más capacidad de análisis, de evaluación de riesgos, de comprensión del negocio, de comunicación? El papel de las finanzas en la empresa del siglo XXI es radicalmente distinto a lo que estamos acostumbrados. Se necesitan nuevas lógicas, nuevos conocimientos, más capacidad de integrar disciplinas con impacto en las finanzas. Quizá no estamos aún preparados para ello, y quizá sigamos aplicando modelos de gestión de riesgos caducos a problemas nuevos, y con ello matamos la frescura y la capacidad de innovación de las compañías. Pensemos en ello. ¿Cuáles son algunas de esas nuevas lógicas financieras? Nos gustaría hacer una reflexión sobre cómo funcionan el riesgo y la incertidumbre. ¿Cómo pasamos de un mundo predecible a otro totalmente impredecible y qué consecuencias tiene esto? Podríamos dedicarnos a poner un porrón de formulitas, supuestos y números para comprender este fenómeno. Pero a riesgo (como ves, no hay certidumbre plena) de no ser exhaustivo y dejar cosas en el tintero, creo que se puede mostrar de forma muy gráfica e intuitiva la complejidad en que nos coloca tomar decisiones en contextos de incertidumbre o, sobre todo, cuando no somos capaces de anticipar ni cómo va a responder el mercado, ni la competencia, ni siquiera si nosotros mismos cometeremos errores que nos hagan ser ineficaces en las acciones planificadas. Como hemos dicho, los riesgos son muy silenciosos. Supuesto 1. La alegría de vivir en un mundo predecible Pensemos en una situación donde tenemos certidumbre plena sobre el futuro. Tenemos una fórmula que nos dice que si hacemos X vamos a generar Y. Sabemos exactamente cómo se comportan todas las variables que influyen en el proceso. Por ejemplo, sabemos que tenemos tres opciones de inversión: A, B, C. Estas tres opciones sólo se diferencian por la cantidad de euros invertidos y por tener una estrategia de publicidad distinta (por ejemplo, la A podría ser una inversión en la televisión, la B podría ser sólo digital y algo de televisión, y la C, sólo radio). En la alternativa A, habría que invertir, por ejemplo, 5 millones de euros, en la B, la mitad, 2,5 millones, y en la C, tan sólo 500.000 euros. En este mundo predecible, invertir más genera mejores resultados, que van mejorando con el tiempo. Vamos a suponer que los resultados se miden en términos de caja (grosso modo y para entendernos, dinero neto que entra tras acometer la inversión... ingresos menos gastos). En el mundo predecible del gráfico superior, claramente invertiríamos en aquel lugar donde generemos los mejores resultados con la menor inversión posible. Tal y como lo tenemos pintado, para colocarnos en la cima A111, tenemos que invertir 5 millones e ir acometiendo las etapas del camino A. En este mundo predecible, de información perfecta, sabemos qué harán los consumidores cuando invirtamos ese dinero, podemos predecir la competencia, el marco regulatorio o las variables macroeconómicas clave que puedan influir en nuestras ventas (por ejemplo, los tipos de interés, que afectan al consumo, o los impuestos, que afectan a la renta disponible). Como lo sabemos todo, y nuestra formulita nos da el valor exacto..., no hay dudas, apostamos por el mundo A, aunque haya que invertir 5 millones de euros. Supuesto 2. Pero en la vida no hay certezas absolutas ¿Cómo funciona el riesgo en un ejemplo tan sencillo? A través de un concepto muy clave y que reconocemos rápido: la probabilidad. Si queremos predecir el futuro, hay que tener en cuenta que son pocas las cosas que tienen una probabilidad del ciento por ciento. Y en gestión de empresas o inversión, menos. Siempre hay factores que no podemos medir con precisión, o controlar de antemano y, por lo tanto, cualquier ámbito que influya en nuestros resultados y que sea aleatorio (depende del azar o, al menos, no lo podemos medir con precisión) convierte todos los resultados en aleatorios. Así de fácil. Si el éxito de nuestra inversión depende de tres parámetros, por mucho que, por ejemplo, conozcamos dos de ellos perfectamente y los podamos predecir al ciento por ciento, si no podemos ni aislar (separar) ni medir el tercero y, por lo tanto, éste puede ser aleatorio, nuestro éxito se convierte en algo aleatorio. Una forma de verlo gráficamente, en un supuesto muy sencillo, es la siguiente: Ahora resulta que los caminos A y B no son únicos, tienen bifurcaciones. Estas bifurcaciones quieren decirnos que, una vez invertida una cantidad, puede ocurrir una cosa (A1, B1) u otra cosa distinta (A2, B2). Ahora las cosas ya no son tan fáciles como en el supuesto 1. Necesitamos más información y, sobre todo, tenemos muchas más dudas: ¿Qué pasa si invierto 5 millones de euros, pero sale mal y me muevo por el camino A2? Resulta que invirtiendo 2,5 millones, la mitad, podría haber conseguido mejores resultados siempre que con la alternativa A2. ¿Qué riesgo asumo de invertir 5 millones (opción A) y acabar en A2? Ésa es la gran pregunta. Para responder a esa pregunta necesitaríamos saber qué probabilidad existe de que una vez que haya invertido una cantidad vayamos por uno u otro camino. Lo que está claro es que siempre podemos encontrar una probabilidad (en realidad, muchas) que nos coloque en una situación donde la opción B sea la más inteligente. Lo que en un mundo perfecto y predecible no daba lugar a dudas —invertir en A—, ahora se nos plantea con dudas razonables. Demos una vuelta de tuerca más: ¿te imaginas tener infinitas opciones una vez invertida una cantidad? Tener infinitos caminos es como no tener ninguno..., nos estamos jugando los resultados a la lotería. Pues ése es el reto, tratar de tener la mayor información posible para acotar las posibilidades y poder decidir mejor. Nadie puede predecir el futuro, pero al menos podemos estudiar las opciones que consideremos más probables y tratar de decidir con más fundamento. Supuesto 3. En el mundo de la incertidumbre, las opciones valen dinero Podríamos habernos quedado en el supuesto 2, asumir que el mundo es complejo, que en etapas de mercados nuevos y disruptivos es imposible predecir el futuro, y que siempre será una especie de lotería. Así que quien logre invertir 5 millones y situarse en el camino A1 será un gran vencedor, muy rentable y saldrá en todas las portadas de los periódicos. En caso contrario, asumirá que tiene que tirar los millones por el desagüe e irá a engrosar la larga lista de fracasos de inversión. Habíamos dicho que la diferencia entre las tres opciones era la cantidad de dinero, pero, y es importante el pero, también la estrategia publicitaria a seguir. La opción A es gastarse todo el dinero en anuncios de televisión y la opción B es también invertir en televisión pero sobre todo poner el foco en el marketing digital, en internet. Desconocemos qué canal puede llegar mejor a nuestro cliente tipo, pero sabemos que la audiencia televisiva es una vía para mandar un mensaje (caro) a muchísimas personas (sin diferenciar bien sexo, edad o gustos). Ahora asumamos que no toda decisión es indivisible, es decir, que no hay blancos y negros, que podemos experimentar, probar, y que tomamos el modelo más flexible. Empezamos en el mundo B (descartamos la C, para simplificar el análisis). Ahora podemos diseñar una estrategia mixta con el primer millón: «anuncio en televisión y segmentación de nuestros potenciales clientes; tratamos de llegar a ellos a través de anuncios selectivos en internet». ¿Qué estamos haciendo al trocear la inversión y experimentar? Ganar opciones. Cuando tomamos pequeñas decisiones en contextos de alta incertidumbre podemos evaluar, casi al instante, cómo van reaccionando los parámetros clave de nuestra inversión. ¿Nos movemos por B1 o por B2? Imaginemos que estamos en el punto B1, parece que la televisión es efectiva, pero la potencia de internet también tiene sus frutos. Acabamos de construir una opción. Fíjate en el gráfico: Acabamos de trocear el proceso en dos fases. Me reservo la mitad de mi inversión en la opción A, pruebo con la B y, si tengo éxito (puedo evaluar cuál es la estrategia publicitaria con más impacto), pues tengo la opción de reprogramar mi estrategia. Dado el punto en el que estoy (punto destacado en el gráfico), ¿cuánto tendría que invertir para cambiar de curva y pasar a A1? ¿Más o menos de 2,5 millones de euros? ¿Con qué resultados potenciales? ¿Se abren nuevas vías? Son otra vez preguntas difíciles, pero siempre habrá un escenario (en realidad con muchísimas probabilidades) que nos dice que esos 2,5 millones de euros que has conseguido gracias a que te reservaste una «opción» de futuro, ahora pueden lograr colocarte en unos rendimientos muy elevados con «menor» riesgo. A medida que vamos caminando y experimentando, podemos medir, aprender y, por lo tanto, trocear la complejidad del futuro en pequeñas fases (tan pequeñas como podamos) e inyectar el dinero según se vaya aprendiendo de esos resultados. En vez de invertir 5 millones de golpe y jugarte el todo o nada, lo que nos dice esta lógica es: ¡Cuidado! Reserva opciones, que las puedes necesitar. El mundo no es predecible y tienes que tener recursos para invertir a medida que vas aprendiendo. En el mundo de las finanzas esto parece un poco locura, ¿verdad? Pero a que no nos lo parece cuando un deportista de élite va a hacer un ironman, o una escalada peligrosa. La clave no es actuar como si la carrera fuera ciento por ciento predecible, ni que tus fuerzas lo serán. No sabes cómo soplará el aire, el sol, si el calcetín te provocará una herida..., miles de cosas..., ¿qué hacer? Guardar opciones, energía, y dosificarla de forma inteligente. Todo deportista de élite es en realidad un gran estratega que gracias a su alta formación y experiencia va tomando decisiones pequeñas..., pero efectivas y medidas. Pues el financiero tiene que actuar como un deportista de élite. Tiene que ser capaz de asumir que se acabó eso de vivir del pasado (eso es una condición necesaria y un proceso automático y con el valor añadido justo). Ahora la clave está en cómo valorar opciones de futuro, en cómo conectar los recursos financieros con las distintas posibilidades y ayudar a todos los demás departamentos y personas implicadas en los resultados de una compañía. Hoy se construye riqueza a través de valor temporal y expectativas En noviembre de 2013, los jóvenes socios fundadores de Snapchat se convertían instantáneamente en estrellas mediáticas. Y no sólo por su juventud —Evan Spiegel tenía veintitrés años, y su socio, Bobby Murphy, veinticinco— o por haber creado un servicio de mensajería instantánea de popularidad mundial por la autodestrucción automática de sus mensajes segundos después de ser enviados. Se convertían en estrellas mediáticas por decir «no» a uno de los gigantes mundiales «de moda», Facebook. La oferta parecía imposible de rechazar: 3.000 millones de dólares por una sociedad sin beneficios. ¡Incluso llegaron a rechazar otra oferta superior poco después! La noticia generó todo tipo de debates y de preguntas: ¿cómo es posible que desestimasen 3.000 millones de dólares por una empresa sin un solo dólar de beneficios? ¿Es ésta la constatación de una nueva burbuja en internet? La oferta inicial había comenzado en 1.000 millones de dólares, cantidad muy similar a la que aceptó Instagram para pasar a formar parte de Facebook. Los numerosos interrogantes nos han animado a intentar aportar algunas ideas sobre qué hay de singular en estas empresas para que ocurran estas cosas: ¿qué sucedió para que una oferta de 1.000 millones se convirtiera en otra de 3.000 millones? ¿Cómo se puede ofrecer tal cantidad sin generar beneficios positivos? ¿Cómo se valoran este tipo de compañías? ¿Pasarían la «prueba del algodón» financiero clásico, que nos llevaría a estimar unos flujos de caja futuros y descontarlos a su valor presente? Los fundadores de Snapchat ignoraron «la ansiedad por ser ricos» para decidir mejor. El propio Evan lo explicó bien: rechazó la oferta porque consideraba que en 2014 su red de usuarios se multiplicaría, y con ello, el valor de su compañía. En la última ronda de financiación, él y su socio fundador hicieron caja por importe de 10 millones de dólares cada uno. Ahora ya habían despejado una duda: ¿seremos ricos con esta empresa? Ya se imaginaban la respuesta y quitaban la presión sobre el equipo directivo. Y a partir de ahí se decidieron a seguir escalando en su árbol de posibilidades de valoración. Los fundadores preferían esperar y seguir quemando dinero, generalmente de empresas de capital riesgo que creían en ellos y en su modelo de negocio, los cuales parece que también les animaron a esperar para lograr un valor mayor. Esta estrategia de «quemar caja» es habitual incluso en gigantes como Twitter, y consiste en no preocuparse por los ingresos mientras las entradas de capital cubran los gastos y en continuar la propia andadura sin beneficios. Las métricas de usuarios, de generación de ingresos, de investigación y de desarrollo muestran un gran potencial de futuro..., pero la realidad de los ingresos permanece tozuda. A pesar de ello, el primer día de cotización de Twitter se saldó con una revalorización gigantesca, de los 26 dólares iniciales por acción hasta acabar el día con un crecimiento cercano al 75 por ciento. Y todo ello después de que se hicieran públicos los 1.000 millones de dólares que Yahoo pagó por Tumblr o de que Facebook recuperara su valor inicial de salida a bolsa cuando ya se había hablado de «burbuja pinchada». Así es que ahora se habla de lo contrario, vuelve la «burbuja» de valoraciones, de las posibilidades que genera la inversión en modelos de internet. La pregunta es: ¿tienen sentido estas operaciones desde un punto de vista financiero? No seremos nosotros quienes digamos que cada una de estas valoraciones es justa y afinada. Pero sí que queremos llamar la atención sobre algo que no suele estar en la mesa de debate. ¿Cómo se hacen esas valoraciones? ¿Estamos ante un problema del valor o de la técnica utilizada para medir ese valor? Es muy distinto valorar una empresa con una gran trayectoria, buenos balances y cuenta de pérdidas y ganancias —y que además opera en mercados maduros y conocidos— que valorar empresas con modelos de negocio disruptivos (difíciles de comparar, donde las normas de juego del mercado no están aún claras), globales y construidas sobre activos intangibles, difíciles de medir y, por lo tanto, «fuera de balance». Al afrontar la valoración de una empresa, los economistas partimos de dos tipos de técnicas básicas: descuento de flujos de caja o valoración por múltiplos. En el primer caso, recurrimos a Gordon y su teoría de series numéricas para calcular valores residuales; asumimos un escenario de ingresos, gastos, inversiones y repagos de deuda —en definitiva, generación de flujos de caja—, y se actualiza esa caja con una tasa de descuento ajustada al riesgo de la compañía hasta el momento actual. En el segundo caso, nos volvemos auténticos detectives de balances e inventamos multitud de términos para describir lo mismo: la capacidad de generar beneficios. Tomamos como ejemplo empresas «parecidas», a ser posible que ya coticen en bolsa, y se usan métricas que asumimos comparables para hacer valoraciones siguiendo algún parámetro clave como beneficios (EBITDA), valor de capitalización (EV) —que se combina con ingresos o beneficio— o el mismo precio de la acción sobre el beneficio de la misma, conocido como PER (Price to Earnings). ¿Qué ocurre cuando intentamos aplicar estas metodologías a modelos disruptivos y con alta incertidumbre e intangibles? Sucede que nos volvemos locos. Encontramos ratios como el PER por encima de 80 (cuando escribimos esto, el PER de Facebook es de 98), es decir, que el precio de la acción es 80 veces superior a los beneficios anuales que genera, mientras en sectores tradicionales esa ratio puede ser de hasta 3/4 veces inferior (el PER de Coca-Cola habitual está en torno a 20; General Electric, 19, y Apple, 13). Como máxima sofisticación, para empresas basadas en la provisión de servicios por internet nos inventamos ratios no financieras, como los ingresos por usuario, y nos conformamos con valorar empresas según el propio número de usuarios: Facebook vale 20 dólares por usuario, y si Twitter vale 200 dólares por usuario, ¡entonces Twitter está sobrevalorado! ¿O no? El problema de fondo es la forma en la que nos enfrentamos a este tipo de valoraciones: la propia metodología. Para comprenderlo, pensemos en un ejemplo muy sencillo. Imagina, lector, que buscas a la persona de tu vida, con la cual te gustaría pasar el resto de tu vida. Sabes que hay una baja probabilidad de encontrar a esa persona un día cualquiera en un lugar cualquiera. Primero, porque la puedes conocer en el autobús, en internet, en el trabajo o en un sinfín de escenarios. También sabes que la probabilidad de que en la primera cita elijas y sepas que esa persona es la adecuada es muy baja. Lo más probable es que «rechaces» seguir viendo a esa persona. ¿Cómo actuarás si un día quedas con una persona en la primera cita y crees que existen algunas posibilidades de que sea alguien especial? Lo que harás será quedar con esa persona la semana siguiente, y si descartas que la persona sea «una petarda», volverás a quedar, y así durante varias semanas. Si no descartas a esa persona en el proceso, continuarás hasta el punto de vivir juntos, incluso hasta el punto de crear una familia. Cada evento que pasa, cada cita, reduce el riesgo de que se trate de la persona errónea para ti y aumenta la probabilidad de que sea la persona «de tu vida». Ese riesgo, tan elevado al principio, es «troceado» para crear «opciones» de que ocurran otros «eventos». Aun así, hay muchos divorcios, pero el riesgo de divorciarse es muy bajo respecto al riesgo de encontrar a la persona de tu vida en la primera cita. La vida es un proceso secuencial de toma de decisiones, con incertidumbre. Ahora imagina que te imponen una ley represiva: «En la primera cita tienes que elegir quedarte con esa persona para toda la vida o rechazarla». ¿Qué harías? Como la probabilidad de que sea una persona «especial» es muy baja, lo más sensato es que descartes a esa persona casi «por defecto». Si no te dan opciones de «crear más eventos», no puedes evaluar bien ese riesgo ni tomar decisiones con cierto fundamento. Pues esto es más o menos lo que solemos hacer cuando usamos técnicas clásicas como el descuento de flujos de caja y las aplicamos a eventos complejos e impredecibles. Queremos traer al momento presente la decisión de invertir o no en una empresa que necesita todavía «vivir» muchos eventos para probar su modelo de negocio. Al usar como parámetros los flujos (ingresos, gastos, inversiones, capacidad de generar caja) a futuro descontados a un momento presente todo parece ciencia ficción. Por eso le aplicamos una tasa de riesgo o de rentabilidad exigida realmente alta; en startups tecnológicas, hasta del 80 por ciento. La consecuencia es que o bien no invertimos en este tipo de compañías, o bien las valoraciones que hacemos se escapan de nuestra intuición financiera. En cambio, como mostramos con el ejemplo de las parejas, la vida está repleta de opciones y, como tal, debemos dar cabida a valorar el impacto de esas decisiones en el futuro. Una empresa no vale por lo que fue, sino por lo que podrá llegar a ser. Pero ¿cómo valoramos los cambios de régimen o estados de la naturaleza? Nos estamos acercando y dando vueltas alrededor de un concepto clave: las opciones financieras. Con la estimación de opciones se calcula la generación de beneficios potenciales en momentos futuros del tiempo, causando explosiones (o caídas) en las valoraciones de las empresas. No se trata de algo muy novedoso, pues esta forma de operar tiene una gran trayectoria académica. Lo que es realmente complejo es su utilización para fines 100 por ciento prácticos. Las opciones suelen estar muy presentes cuanto mayor es la complejidad de los modelos de negocio y mayor es la incertidumbre: empresas de internet, biotecnología, nanotecnología o, en general, en todas aquellas empresas donde las inversiones están asociadas a un riesgo elevado, difícil de medir y que, además, es secuencial (sólo se conoce ese riesgo después de que ocurra un evento determinado). En definitiva, a las empresas que se enfrentan a mercados con estructura The Winner Takes it All («el ganador se lo lleva todo»). La realidad es que se puede descomponer el valor de toda empresa (o cualquier activo) como la suma de un valor intrínseco más un valor temporal. Toda empresa tiene un valor intrínseco, en tanto que puede generar un ingreso que hoy conocemos, con unos gastos e inversiones que también sabemos hoy. Además, tiene un boleto de lotería en el bolsillo: la opción de generar una nueva corriente de flujos en el futuro si suceden uno o varios eventos. Por ejemplo, ¿cuánto valía Pfizer antes de sacar al mercado la Viagra? Su valor intrínseco podría ser muy bajo, porque vendía medicamentos cuya patente ya había caducado y no tenía exclusividad. En cambio, su valor temporal era altísimo: fruto de muchos (y cuantiosos) esfuerzos en investigación habían encontrado la posibilidad de desarrollar un fármaco con una gran demanda mundial, la Viagra. Una vez que la Viagra era una realidad y se hubieron soportado todos los costes e inversiones para lograr el fármaco, el valor de la compañía explotó. Pues bien, lo mismo está (o puede estar) sucediendo con muchas empresas de internet, con cuantiosas inversiones en investigación o, simplemente, con muchos activos intangibles que trabajan sin que los podamos «percibir» tan fácilmente. Twitter, Facebook o Tumblr, al igual que Snapchat, son las nuevas empresas farmacéuticas. Pueden cambiar el mundo o la forma en la que nos comunicamos e interactuamos con sus productos, compartamos o no dicha opinión. Pero existe la opción, financieramente hablando, de que lo hagan. Y como tal, debemos valorarla. Usar técnicas como las opciones reales no es imprescindible para valorar empresas de internet o empresas con grandes activos intangibles, aunque parece un enfoque bastante adecuado porque ayuda a descomponer el valor futuro de una compañía en sus distintos componentes. Para ello introducimos, cuando hablamos de tiempo discreto, lo que se denominan árboles de decisión (pensemos, por ejemplo, en el típico árbol binomial: pasa/no pasa). En tiempo continuo son habituales herramientas de simulación, por ejemplo, mediante el método de Montecarlo. O, incluso, existen soluciones analíticamente cerradas y bastante sofisticadas, como por ejemplo las adaptaciones de la fórmula de Black-Scholes para la valoración de opciones financieras. En otras palabras, y pensando en el caso más sencillo, al crear dichos árboles de decisión, el tiempo discreto se va dibujando nodo a nodo el valor estimado de la compañía según se asume una u otra decisión, paso a paso, con un minucioso análisis del modelo de negocio (generación de ingresos, gastos, I+D, deuda, pagos, cobros, productividades, publicidad y marketing...). Es una forma muy eficaz para analizar y visualizar gráficamente en qué momento estimamos que una compañía puede aumentar su valor «si adopta ciertas decisiones». A cada camino se le asocia un peso o probabilidad de que ocurra. Quizás es reducida la probabilidad de que Facebook descubra un nuevo «Viagra» con su modelo de negocio, pero haberla, puede haberla y no se debería descartar. Mediante un árbol sería fácil introducir esa posibilidad en el análisis y valorar Facebook «rama a rama» del árbol, componiendo su valor a fecha de hoy mediante este complejo entramado de valores intrínsecos y temporales. ¿Podríamos encontrar el múltiplo perfecto que valorara una empresa como Pfizer, o Facebook, y generar el mismo valor que el estimado por opciones reales? Esa posibilidad es francamente difícil. Podemos observar que Twitter tiene un valor exorbitantemente mayor que Facebook al valorarlo por usuarios, pero ¿y si el valor temporal de Twitter es aún más alto que el de Facebook? ¿Cuál puede ser la razón? Con estas herramientas se puede profundizar muchísimo más en el análisis de la compañía analizada. Y esto es lo que puede estar detrás de la decisión de los fundadores de Snapchat. Todo parecía indicar que estaban pensando que la probabilidad de que su modelo de negocio siguiera creciendo con fuerza (en usuarios y en beneficios) era muy elevada, y creían factible seguir escalando por las ramas «de arriba» del árbol. Esto sesgaba al alza su valoración, pero de manera potencialmente justificada. No tenemos los datos precisos de Snapchat, pero sí conocemos dos cosas importantes: una, que habían hecho caja y habían reducido la «ansiedad de vender» para hacerse ricos (¡ya lo eran!). Y, dos, creían que su empresa tenía mucho recorrido. Estaban viendo nuevos nodos de mayor valor en su «árbol». Sabían cómo hacerlo escalar aún más y tenían la caja suficiente para hacerlo. Creían que encontrarían la forma de generar cash flow en el futuro. Entonces, ¿por qué no iban a hacerlo? Era lo más inteligente por su parte. ¿Y si salía mal? Si salía mal, el valor de su rama quizá no serían 3.000 millones, pero seguro que sería una cantidad sustancialmente importante ya marcada en su propio árbol de decisión, y que, una vez ajustada al riesgo, les había merecido la pena descartar. Esta complejidad hace que se tienda a asumir que adoptar decisiones de inversión de alto riesgo es un arte, donde hay mucha intuición, mucho riesgo y mucho fracaso: en Europa, 6 de cada 10 euros invertidos en capital riesgo (lo que los anglosajones llaman Venture Capital, que está más orientado a inversiones en nuevas tecnologías, innovación) se pierden. En cambio, si se aplicasen de una forma más efectiva y constructiva metodologías que construyen y valoran las opciones de futuro, ese riesgo se podría «objetivar» y se podrían adoptar decisiones más fundamentadas que las basadas en la mera intuición. La inversión en innovación requiere, además, innovación en el uso de las técnicas de análisis y valoración de la propia inversión. Ya no se pueden hacer negocios sin abrazar la volatilidad A principios de 2013, Softonic vende por 82,5 millones de euros el 30 por ciento de sus acciones; esto la coloca en una valoración por encima de los 275 millones de euros. Su modelo de negocio, la publicidad online. Su sueño, cotizar en el Nasdaq. Hoy, a finales de 2014, la empresa entra en un ERE de 200 empleados, la mitad de la plantilla. La razón básica que la propia empresa argumenta es que Google ha cambiado su algoritmo y ahora en las búsquedas el posicionamiento de Softonic ha empeorado. Aunque también se esgrimen otras razones, quizá con más peso, y es que la empresa está cargada de banners y publicidad muy intrusiva (altamente castigada por Google, por un lado, y mucho más por el usuario). Además, esta noticia la conocemos a la vez que se produce una oscilación en bolsa de eDreams que nos demuestra cualquier cosa menos robustez en el modelo de negocio. Estos vaivenes se producen por la pérdida de Iberia como cliente, hasta el punto de ser suspendida de cotización y con posterior rebote. Internet tiene un gran problema, sobre todo para aquellos que no creen en los riesgos silenciosos y que tienen ciertos sesgos de análisis: el problema de internet es que siempre le ha ido bien, incluso a pesar de la crisis.com de principios de siglo, que, sobre todo, ha sido un reajuste importante de expectativas. La realidad es que estamos acostumbrados a que los usuarios crezcan, a que se puedan crear multinacionales de cuatro personas ubicadas en distintas partes del mundo, a que las barreras de entrada sean cada vez menores para hacer negocios en la red y, sobre todo, a que la tecnología permita reducir drásticamente los costes fijos operativos y, con ello, a aspirar fácilmente a un «beneficio ordinario». Los «esteroides» para este modelo parece que siempre pivotan sobre lo mismo: «la publicidad» o, de forma indirecta, el número de usuarios, porque se sobreentiende que, cuando tienes un gran volumen de usuarios, «en algún momento» alguien sabe cómo generar ingresos con ellos. Esta forma de pensar en muy de «caja negra», suelen ser maneras de buscar atajos para explicar por qué tienen «valor» compañías con bajos ingresos, pero con un gran número de usuarios. Como dicen los deportistas, sin haber probado la derrota es imposible valorar la victoria. Así que vamos a hacer la mayor de las críticas a los negocios de internet, aprovechando el caso Softonic, o el de eDreams, pero también el de tantas y tantas empresas que se quedan por el camino y que ni son conocidas ni están en los titulares de medios de comunicación. De hecho, seis de cada diez de estas empresas desaparecen; además, «por cada 10.000 buenas ideas de negocio se crean mil empresas, de las cuales cien llegan a ser evaluadas en capital riesgo y tan sólo dos lograrán salir a bolsa y, por lo tanto, tener cierto liderazgo». Estos datos sólo muestran una cosa, que riesgo, volatilidad e incertidumbre definen a las startups de internet (en general, cualquier negocio nuevo con competencia rápida y global), además de un continuo proceso de destrucción creativa (alta mortalidad, pero también alta natalidad). Las empresas de internet deberían poder desenvolverse con mucha facilidad en estos entornos tan volátiles y aleatorios, deberían ser un ejemplo de lo que el gran Taleb denomina «antifragilidad», esto es: la fragilidad y la antifragilidad se refieren al beneficio o perjuicio potencial resultante de la exposición de algo relacionado con la volatilidad... ese algo pertenece a la familia extensa del desorden: incertidumbre, variabilidad, conocimiento imperfecto o incompleto, azar, caos, entropía, tiempo... Resulta que la incertidumbre, lo desconocido y el desorden son totalmente equivalentes en sus efectos: los sistemas antifrágiles se benefician (en cierta medida) de casi todos ellos y los sistemas frágiles salen malparados... Cuanto más tiempo, más sucesos y más desorden. Pensemos que si podemos sufrir un perjuicio limitado y somos antifrágiles a los errores pequeños, el tiempo acarrea la clase de errores o errores inversos que nos acaban beneficiando. Se trata, simplemente, de lo que nuestras abuelas llaman experiencias. Lo frágil se rompe con el tiempo. ¿Cómo se relaciona este concepto frágil/antifrágil con las startups? Para esto resulta clave repasar los dos componentes que definen el valor de una empresa: el valor intrínseco y el valor temporal. 1. El valor intrínseco son las cuentas a cobrar, los dividendos, los cupones de los bonos a cobrar... Es un valor determinado «por lo que ya has hecho», por los resultados, por la historia. Este valor intrínseco nos permite estimar los flujos de caja (dinero que entra y sale con motivo del negocio), basándonos en el mundo tal y como hoy lo conocemos. 2. En cambio, el valor potencial es la posibilidad de que esa empresa tenga un valor futuro que hoy desconocemos. Típicamente, el valor temporal lo medimos con modelos básicos como el de Gordon-Shapiro mediante el componente residual en el descuento de flujos de caja. Pero esta forma de calcular el valor temporal tiene que basarse en supuestos (precios, comportamiento de la competencia, evolución de las ventas...) que muchas veces no aguantan... un asalto con la realidad. La realidad es mucho más compleja e impredecible, y es difícil enfrentarse a ella con «atajos»; quizá por ello hay que pensar también en una forma más lean (ágil, flexible) para hacer estas estimaciones. Cuando una startup acude a una ronda de financiación, los inversores siempre le preguntan por los flujos de caja. Show me the money! gritan. Pero ¿dónde está el dinero en internet si la gran mayoría de los «negocios» parece que están anclados en la gratuidad total? La forma en la que se tiende a justificar la creación de valor está en los usuarios. «Usuarios» es la palabra favorita, pero no podemos confundir usuario con cliente, ni con el pagano (que acaba pagando). La diferencia entre usuario y cliente es un puente muy complicado de pasar. Encontrar quien esté dispuesto a pagar por lo que ofreces y que ese precio cubra más que los costes de aportárselo es un gran reto en los negocios de internet. Asumir que los usuarios acabarán siendo clientes... y que además acabarán dejando cashflow positivo (más ingresos en caja que salidas) es un supuesto muy «frágil» en el sentido de Taleb. Pero este supuesto tan frágil aún se «exprime más» y se hace más frágil cuando con gran asiduidad se valora a estas compañías (con usuarios pero sin clientes... que paguen) con ratios que en realidad son aproximaciones que no necesariamente tienen que ver con la viabilidad de un negocio. Es aquí cuando la estadística entra en juego. ¿Cuándo nos podemos fiar de que las tendencias de crecimiento de usuarios son estables?¿Cuándo esos usuarios se van a convertir en algún momento en el futuro, y por qué, en ingresos? ¿Y cuándo esos ingresos se van a convertir en creación de beneficios... (la forma que las empresas tienen para construir valor)? En estadística no hay muchas distribuciones que se puedan definir con un solo parámetro (bueno sí, la distribución de Poisson, que usamos para estimar la tasa de quiebra). La misma distribución «normal» nos da la pista: no sólo la media sirve para representar una muestra, también necesitamos conocer la volatilidad. Nos gustaría saber cuántos inversores preguntan por la «volatilidad» de los ingresos de las empresas que evalúan, porque la experiencia en este campo (que ya empezamos a tener...) nos dice que son muy poquitos. Y no nos referimos al tiempo que tardamos en obtener una media positiva de ingresos, sino al riesgo de que los ingresos suban, bajen, vuelvan a subir..., en definitiva, que sean ¡volátiles! En yoga hay un principio que dice que hay que ser «flexibles como el bambú, nos doblamos pero no nos rompemos». La volatilidad es la cualidad que te permite ser flexible. Y de hecho, cuando los inversores dicen «invertimos en equipos o en personas», en realidad (a veces sin saberlo) están invirtiendo en capacidades para que ese equipo pueda ser flexible, pueda afrontar la volatilidad de los cambios de su negocio (que son potencialmente muy importantes y numerosos) y conviertan a la startup en lo contrario de «frágil», es decir, en «antifrágil». Y es que hay sistemas capaces de capear los shocks, y otros muchos que, ante el más mínimo impacto, no sobreviven. En internet, para hacer negocios, o creamos esos sistemas antishock o las cosas serán francamente difíciles. Los sistemas antifrágiles que define Taleb son precisamente aquellos que tienen una respuesta positiva a los incrementos en volatilidad. Por eso, en el siglo XXI, para que haya progreso, innovación y cambios profundos tiene que haber volatilidad. Siempre la hubo en la historia de la humanidad y ahora mucho más, dada la complejidad creciente de nuestro mundo. Por este motivo, si quieres invertir «bien» deberías buscar empresas que «abrazases» esa volatilidad, porque ambos componentes del valor de una empresa se benefician de ello: • Respecto al valor intrínseco, debemos aspirar a ser «antifrágiles», a tener respuestas positivas ante la incertidumbre, a poder beneficiarnos de la volatilidad. Si mi negocio se basa solamente en la media de crecimiento de usuarios, tengo todas las papeletas para que al más mínimo shock se derrumbe. O soy Facebook y tengo 1.000 millones de usuarios, por lo que el Teorema Central del Límite juega a mi favor, y mi muestra se convierte en mi población, o por tener cientos de miles de usuarios no tengo estadísticamente nada • asegurado... Por lo tanto, inventemos algo que nos asegure «antifragilidad» o seremos frágiles..., y lo frágil (con el tiempo) se acaba rompiendo. Y desde luego, el modelo de publicidad únicamente a través de Google no parece el blindaje perfecto... Mira a Softonic. Respecto al valor potencial, como en las opciones financieras, la volatilidad es mi amiga. La volatilidad afecta positivamente al valor de mi opción financiera, y es clave para entender el precio de las mismas, de manera tal que incluso la famosa fórmula de Black-Scholes usa la volatilidad como el input fundamental para comercializar las opciones. Las opciones se compran y venden en volatilidad, no en precio. Recordemos la frase del gran financiero Aswath Damodaran: «Si esperas a que se resuelva la incertidumbre para valorar una empresa, será demasiado tarde». Es en la incertidumbre y en la volatilidad donde se pueden lograr importantes rentabilidades, pero también altos fracasos. ¿Por qué debemos respetar empresas como Snapchat o Spotify a pesar de no tener números negros? Porque tienen un buen posicionamiento ante la volatilidad. Son empresas que se benefician del cambio, que no dependen de un euro extra por usuario y que buscan una respuesta positiva de un shock externo, por el cual apuestan. En el primer caso, cambiar el mundo de la mensajería instantánea, y en el segundo, el cambio de la industria musical. En octubre de 2014, cuando Facebook aportó los datos del tercer trimestre, hablé de WhatsApp. Llevaba perdidos más de 232 millones de dólares en los seis primeros meses de 2014 (casi 4 veces más que en 2013 de pérdidas), pero sus usuarios crecían a buen ritmo. El propio Facebook trata de calmar a sus accionistas diciendo que WhatsApp es un «juego a largo plazo». Quizá debemos preguntarnos: ¿Se ha vuelto más antifrágil WhatsApp con la compra de Facebook? Si la respuesta es afirmativa, entonces sí que puede tener partido... a largo plazo. Créenos, en finanzas hemos vivido todo esto, y con mucha intensidad en los últimos años. Nuestros modelos han quebrado, los parámetros de nuestras distribuciones han volado y los usuarios se han evaporado. A pesar de ello, sigue habiendo negocio. Estadísticamente hemos aprendido grandes lecciones, pero la principal es: «¡Respetemos la volatilidad y abracemos la antifragilidad!». Financieros del mundo, profesionales que trabajan en el duro mundo de tomar decisiones complejas con información imperfecta: si quieren sobrevivir tendrán que inyectarse nuevas estrategias para ser más «antifrágiles» y cuidar mucho al usuario. Vivir en la volatilidad cuesta mucho dinero: es el peaje de hacer negocios en internet. Volvámonos locos, ¡creemos una agencia nacional de calificación de ideas! La creación de un ecosistema empresarial de un territorio (país, región o comunidad de vecinos) es una ensalada compuesta por varios ingredientes: modelos de negocio, acceso a financiación, formación de los emprendedores, networking o capacidad de conexión con más gente con ideas, marco jurídico, fiscal, etc. Con estos ingredientes, no sería descabellado intentar verificar experimentalmente qué sucedería si diéramos una mayor financiación libre a los emprendedores. Mediante un ejercicio aleatorizado, que podría realizar un grupo de bancos españoles junto con el apoyo de una «agencia de tasación de ideas», podríamos obtener información de la relación entre la tasa de mortalidad y la tasa de retorno en una pequeña muestra de empresas para así evaluar si una mayor financiación bancaria sería una buena idea en nuestro país. Las empresas innovadoras se apoyan en una información de nueva generación, blanda, y que no es fácil de contrastar, para explicar la rentabilidad de sus modelos de negocio; y las entidades financieras tienen dificultades para valorar esa información (cualitativa y cuantitativa) y traducirla en la concesión o no de un crédito. El experimento sería sencillo de llevar a cabo. Toda persona que tenga una idea validada por una agencia de calificación de ideas entra en el programa de seguimiento. Acude a un banco y expone su idea, y la entidad sigue con su procedimiento habitual. No obstante, tras la decisión de la entidad (otorgar o denegar la financiación), la agencia de tasación tira una moneda al aire. Si sale cruz, se sigue con el procedimiento establecido, pero si sale cara, el banco ha de otorgar la financiación solicitada. ¿Qué nos permitiría este sencillo experimento? La aleatorización entre dos grupos, uno de empresas que siguen el cauce habitual y otro de empresas que obtienen financiación inmediata, unido al filtro inicial de la agencia de calificación de ideas —para evitar el «todo vale»—, permitiría observar hasta qué punto España está bloqueando talento y oportunidades por culpa de una cultura de la financiación excesivamente basada en las garantías y las actividades tradicionales, fáciles de medir. Muchas empresas innovadoras mueren incluso antes de nacer por este problema, y la prueba de fuego sería la comparación de las tasas de mortalidad y rentabilidad con paradigmas como Estados Unidos o Israel, con una mortalidad del 75 por ciento en las empresas, pero tasas de rentabilidad que compensan el fracaso de las que mueren, generando empleos y riqueza netos. La financiación no tendría en realidad por qué consistir sólo en deuda: también existe el capital, es decir, la participación accionarial en las compañías por parte de entidades financieras. ¿Qué impide a los bancos la entrada en el capital de las empresas emprendedoras? Esta pregunta esconde quizás el motivo por el que España es uno de los países donde menor financiación para pymes innovadoras existe. En primer lugar, falta el know-how, es decir, no tenemos experiencia en funcionar como una agencia tasadora de ideas, estamos demasiado acostumbrados a no evaluar información blanda. Los departamentos de riesgos analizan balances, pero no emplean a ingenieros, biólogos o químicos en evaluar la calidad de las ideas o de los proyectos. No existen capacidades desarrolladas para evaluar ideas y proyectos más allá de capturar «las máximas garantías posibles para controlar el riesgo». Pero, en realidad, la principal restricción para que los bancos españoles participen de forma más activa como inversores en empresas innovadoras es de carácter regulatorio: consume muchísimo capital para el banco asumir este riesgo. Se trata de una restricción autoimpuesta. Y aunque parte del origen del problema está en la regulación europea, podemos afirmar que nosotros mismos nos estamos poniendo trabas para no asumir riesgo, cuando detrás de éste lo que puede (y suele) haber es rentabilidad. El impulso no tiene por qué limitarse a pequeños incentivos fiscales o regulatorios para las entidades financiadoras. Demos créditos fiscales por minusvalías en las inversiones empresariales, concedamos una compensación contra provisión anticíclica por las inversiones en empresas innovadoras, premiando a los bancos que arriesguen fuera de los sectores tradicionales. Porque sólo con riesgo tendremos rentabilidad, y con ella crecimiento. Dejemos de castigar a los bancos, porque estamos poniéndonos trabas a nosotros mismos. Facilitemos al menos la proliferación de nuevos mensajeros: crowdfunding, gestoras de capital riesgo o mercados alternativos bursátiles. Porque dinero, haberlo, haylo; para muestra un botón: los bancos han comenzado a devolver dinero «en cuanto se lo han dejado» al 1 por ciento, como habían conseguido del Banco Central Europeo (BCE) en la famosa primera subasta extraordinaria LTRO. El objetivo es el mismo: intentar bombear oxígeno financiero a las empresas, y mejor cuanto más innovadoras. Pero todo esto no tendrá impacto real si el sistema financiero español, poco dado a asumir riesgos en proyectos innovadores, no empieza a cambiar su forma de operar. Quizás haya que darles un empujón. La vida son opciones, y opciones nos dan la vida Queremos ideas, y ¡queremos valorarlas! El futuro es algo que hoy no conocemos, y por mucha tecnología que aportemos al sistema productivo, lo que hemos aprendido es que no llegaremos a ser mundo al estilo Futurama mientras haya una clase creativa que lidera y navega la incertidumbre inherente al mundo. Las finanzas nos han servido como indicador adelantado de un futuro donde sólo hubiera información dura, datos y poca ética. Hemos visto el futuro al puro estilo del Cuento de Navidad, de Charles Dickens, y estamos a tiempo de cambiar. Tenemos que ser capaces de entender el valor temporal de nuestras decisiones; para ello hemos enseñado conceptos como los árboles de decisión y la simulación estadística bien aplicada. De nada nos sirve pensar que sabemos lo que vendrá, y sólo quien entienda que la incertidumbre está con nosotros para quedarse estará preparado para tener éxito en los negocios. Por cierto, tras la famosa operación frustrada de compra, por parte de Facebook, de Snapchat ¿sabían que esta última ha firmado un acuerdo comercial con Square (líder mundial en pago por móvil)? Impresionante el conocimiento y el dominio que los fundadores de esta empresas tienen de su mapa de incertidumbre, y asimismo, asombrosa su capacidad para entender que el valor de nuestra empresa puede estar ¡en algún nodo futuro de los que hoy no conocemos ni su existencia! Nunca te fíes, nunca, de un economista que no dude, ni mucho menos de uno que diga saber cómo será el futuro, o que la tecnología destruirá el sector laboral español. Sencillamente, cambiará el escenario, pero nadie sabe exactamente cómo. 5 Un economista en busca de la felicidad ANDRÉS ALONSO Todos buscamos la felicidad, pero sin saber dónde encontrarla: como los borrachos que buscan su casa, sabiendo vagamente que tienen una. VOLTAIRE Los economistas también tenemos nuestro corazoncito. No sólo pensamos en maximizar en todo momento los beneficios o en buscar la forma de recortar gastos para ser más eficientes. La economía tiene mucho que ver con la psicología, con las necesidades de las personas y en cómo éstas toman decisiones. Y de esto trata, precisamente, este capítulo. De cómo cubrir las necesidades básicas de las personas y cómo podemos crear herramientas que nos permitan adoptar decisiones que mejoren nuestro bienestar. Así que no te lleves una idea equivocada: los economistas no sólo nos preocupamos del dinero, tenemos diversos focos de atención y existen muchas conexiones con otras disciplinas del pensamiento, como la filosofía, la biología o la propia psicología. Como dice el gran psicólogo Abraham Maslow en su estudio de las necesidades humanas: la pirámide de las necesidades [es] una jerarquía de las necesidades humanas en la que la satisfacción de las necesidades más básicas o subordinadas da lugar a la generación sucesiva de necesidades más altas o superordinadas. Siguiendo el hilo de este gran psicólogo humanista, el reto de este capítulo es mostrar un prisma de los economistas que no es muy conocido: cómo los modelos de teoría económica pueden ayudar a gestionar mejor tu felicidad, tu descanso, prolongar esa dieta que comienzas con la «operación bikini» o aprender a moderar el consumo de alcohol. Por si esto fuera poco, te vamos a proponer un par de trucos para aprender a ligar mejor. ¿A que nunca pensaste que un economista pudiera siquiera darte alguna pista sobre estas cuestiones o necesidades tan básicas de los seres humanos? Haremos caso a Maslow y bajaremos a la base de su pirámide de necesidades para ir escalándola poco a poco ¡y llegar al final del capítulo siendo más felices! Del mismo modo que las matemáticas no son una cuestión única de números, la economía no es materia exclusiva de dinero. Los matemáticos saben que la clave de sus teorías no precisa de números; de hecho, se pasan varios años en su carrera sin ver un solo número, usando letras para abstraerse en todos los razonamientos. Igualmente, en economía no tenemos el único fin de tratar el estudio del dinero, sino que nuestro campo estriba en abstraernos en el estudio del impacto de las decisiones humanas. Por supuesto, ¿cómo cuantificamos el impacto de las decisiones? Midiéndolo en términos monetarios. ¡El dinero convierte toda comparación en homogénea! Pero no es más que eso: una medida para comprender las relaciones humanas y sus decisiones, ¡para lo cual nos encanta medirlo todo! ¿Cuánto vale una acción? Para responder esta pregunta nos preguntamos qué exigiría una persona para decidir cambiar un activo que él conoce perfectamente (dinero en efectivo) por otro cuyo rendimiento futuro es incierto. Nos inventamos, por ejemplo, los modelos de valoración por descuento de flujos de caja para conseguir cuantificar esta decisión humana. De esto hablamos en otro capítulo con mucho más detalle. Los economistas también tienen entre su caja de herramientas conceptos tan abstractos como la «utilidad», entendida como una aproximación a comprender qué determina nuestro bienestar y cómo tomamos decisiones con el objetivo de mejorarlo. Hablamos siempre de bonos, de tipos de interés, de inflación o de producto interior bruto (el famoso PIB). Todo son medidas de la actividad humana dentro de la sociedad. Por eso, la parte más hermosa de la ciencia económica es conjugar la pasión por medirlo todo, usando a veces el sofisticado lenguaje matemático, con la necesidad casi filosófica de querer entender al ser humano. De ahí que la pregunta central que se hace todo buen economista sea: ¿qué mueve a las personas? ¿Cómo podemos adentrarnos en ese mundo tan complejo de las decisiones personales? La respuesta que oiremos siempre a todo buen amante de la economía es que hay un factor, por encima de muchos, y que debe ser un objetivo claro de análisis: ¡los incentivos! Los incentivos mueven montañas; están en todos los ámbitos de nuestra vida diaria, desde que despertamos hasta que nos acostamos. Pongámonos las gafas de un economista para comprender bien este fenómeno y, sobre todo, para analizar qué impacto tiene en todo lo que nos rodea. Hermosa tarea nos queda por delante, y muy alejada de calcular los impuestos o el déficit y la deuda del Estado, ¿verdad? El descanso ¿Te cuesta levantarte por las mañanas? ¿Eres de los que aporrean el despertador cada diez minutos para pedirle otra prórroga de sueño? ¿Eres capaz de pasarte cincuenta minutos haciéndolo y llegar tarde al trabajo? El descanso es una necesidad fisiológica; restringirlo es un coste que tratamos de minimizar al máximo ¡consumiendo hasta el último minuto en la cama! No son los físicos los únicos que han entendido que el equilibrio en la naturaleza surge de fuerzas contrapuestas, también los economistas lo han entendido. Pensemos en términos de descanso. Si nos dormimos, tenemos el placer de disfrutar un poco más en la cama, pero, desgraciadamente, también hay otra fuerza que lo compensa: la consecuencia de ello es llegar tarde a trabajar, iniciar el día con cierta carga de estrés y, lo más probable, tener una sanción o transmitir una imagen de «desordenado» con la que no te quieres identificar. Y, si esto es así, ¿dónde está el problema entre las dos fuerzas que no nos permiten levantarnos de la cama? La razón es que los humanos somos malos midiendo las diferencia del impacto de las decisiones en el tiempo. El sueño es algo que tengo ahora mismo, mientras que la sanción me llegará más tarde. Valoramos demasiado el presente en relación con el futuro. Es difícil sacrificar el disfrute de «ahora» a cambio de algo que pasará, o no, en el futuro. La solución tiene que pasar, inevitablemente, por equilibrar ambas fuerzas. ¿Sabes por qué surgen los emprendedores en el mundo? Porque son capaces de comprender bien estas fuerzas, que en realidad se convierten en necesidades (la necesidad de autobligarme a ser más puntual, descansar más y tener una cierta estabilidad en el medio plazo, frente a la tiranía de lo inmediato). Pues bien, ¿cambiarías tu decisión si cada vez que te duermes tuvieras que pagar por ello? Entra una nueva variable en tu cóctel para decidir, y seguro que estas fuerzas ya no estarán tan desigualadas. Pues bien, esto ya existe, se llama SnuzNLuz. Si quieres poner remedio a tu problema de quedarte en la cama cuando, en realidad, en el fondo de tu ser sabes que tienes que levantarte, el despertador SnuzNLuz, cada vez que aprietas el botón de «retrasar unos minutos», se conecta vía wifi a tu banco y dona 10 euros a la organización que menos sea de tu agrado. Con esta solución, nosotros mismos hemos adelantado la fuerza que compensaba el extra de sueño. Ahora ya tenemos una consecuencia, también inmediata, por un comportamiento que a priori (cuando estamos despiertos y serenos) no nos gusta tener (ir corriendo todas las mañanas y transmitir una mala imagen de nosotros mismos a los demás). Esto ya está más equilibrado, ¿verdad? Un minuto de sueño ahora o una donación de dinero a una organización que no me gusta, y ahora mismo también. ¿Eres socio de la SGAE? Tu donación irá a parar al Partido Pirata. ¿Has dado tu firma para la prohibición de las corridas de toros en Cataluña? Donarás 10 euros a la Asociación Taurina El Prat. Si eres un ecologista convencido, tus donaciones podrían ir a parar a Repsol o a BP Oil. El aparato aprovecha tu período de racionalidad (cuando estás despierto) para alinear los incentivos a levantarse de una persona en una fase mucho más irracional: el sueño. Puede sonar a broma, pero el producto existe, y el sistema de donaciones a organizaciones que te desagraden especialmente, también (¡tú eliges!). Está siendo ensayado con éxito en diversos programas de compromiso (commitment), como por ejemplo para perder peso o dejar de fumar. Inicialmente, en estos programas se solía contar con la participación de una tercera persona que supervisaba el proceso y donaba el dinero que previamente se le había dado a una organización benéfica. El problema era que muchos individuos acababan desistiendo de su intento de adelgazar o dejar el tabaco, alentados por el hecho de que, «al fin y al cabo, mi dinero se va a una causa noble». Ese desincentivo ha desaparecido con este nuevo sistema; es más, ¡ha aumentado fuertemente el incentivo a cumplir lo apostado! La alimentación Después de dormir, la siguiente gran necesidad humana es la alimentación. Si nos referimos al mundo más desarrollado, la gran cuestión sobre la que pivota la felicidad de muchas personas es la dieta. Llega el mes de enero y tocan los propósitos del nuevo año, que normalmente pasan por ir al gimnasio y comenzar una dieta para recuperar la forma física que hemos perdido durante los festines gastronómicos de fin de año. Y qué decir de la primavera y la «operación bikini». ¿Cómo se plantea un economista una dieta? La base de toda dieta es comer menos y mejor. Esto choca con nuestras preferencias de consumo; el instinto (sobre todo cuando tenemos hambre) es comer lo que sea, y si tiene muchas calorías (y grasas), mejor. Es en esos momentos de gula donde somos más vulnerables. Así que el reto es cambiar nuestras rutinas alimentarias, sobre todo de una forma «intertemporal», es decir, aguantar de una forma sostenible en el tiempo la dieta. La mejor dieta es una rutina de alimentación sana, baja en calorías y que te ayude a mantenerte en un nivel de peso adecuado. Reducir el consumo al que nos animan nuestras preferencias nos produce lo que los economistas llamamos algo así como «desutilidad», que básicamente significa que prefiero el jamón y la tortilla de patata a las verduras hervidas. Si no somos capaces de cambiar para siempre nuestras preferencias —es decir, que pase a gustarme de verdad la verdura hervida e interiorice que me ayudará a controlar mi peso y mi salud (aunque me pueda permitir algún que otro «extra»)—, nuestra dieta tiene fecha de caducidad. ¿Cuánto tardaremos en abandonarla? Para responder a esta pregunta un economista tiende a pintar unas cuantas curvas y rectas para comprender bien el problema al que se enfrenta. Como dice Hal Varian, uno de los economistas con más prestigio académico y que ahora mismo ocupa el cargo de economista principal en Google, en su manual de economía,[5] el concepto de utilidad se remonta a la época victoriana, donde filósofos y economistas hablaban de «utilidad» como un sinónimo de bienestar, y se asumía que toda persona toma decisiones en función de esa utilidad con el objetivo de maximizarla. Pero no es tan fácil porque ¿cómo se puede medir la felicidad de tomar un pincho de tortilla? ¿En qué unidades se mide esa felicidad? ¿Esa tortilla aporta más o menos utilidad que unos espárragos a la plancha? Como ves, son preguntas muy interesantes, pero que complican enormemente la forma en la que abordamos esta tipología de cuestiones desde la economía. Por eso, éste es un problema clásico al que se han enfrentado durante décadas y décadas los economistas, y hay una gran cantidad de desarrollo teórico sobre la teoría de la utilidad. Lo que sostiene la teoría económica es que detrás de la utilidad y de las elecciones de las personas están las preferencias. Y lo importante no está tanto en el valor «absoluto» de la utilidad de un bien (o una cesta de bienes) como en el grado en que unas decisiones o unos bienes son más o menos útiles respecto a otras. No sé la utilidad que me aporta comer una chocolatina hoy, pero sí sé que es mucho mayor que comerme una zanahoria cruda. Ojo, hay que gente para todo y puede ocurrir precisamente lo contrario. Eso es lo bueno, que las preferencias suelen ser personales e intransferibles y «para gustos, colores», es decir, que son tus preferencias lo que te mueve a consumir unas cosas y no otras. Una de las exigencias que se suponen a la hora de usar modelos teóricos es que los individuos son capaces de ordenar sus preferencias y con ello las distintas cestas de bienes (y servicios). Es decir, cualquiera puede decir si le generan más utilidad dos chocolatinas y una botella de agua o un refresco y un pincho de tortilla. Si eres capaz de ordenar tus preferencias, es decir, si sabes más o menos lo que quieres, o lo que quieres más, entonces tenemos mucho camino recorrido para tomar decisiones como si fueras un economista. A partir de ahí, se puede construir lo que se llama un mapa de indiferencia. Siempre habrá combinaciones de bienes y servicios que te puedan generar más o menos la misma utilidad. Sería el caso si dices «me es indiferente comer un bocadillo de tortilla y una botella de agua que un trozo de pizza con un refresco». Esas indiferencias se suelen representar en curvas, como las que se muestran a continuación. Lo que dicen estas curvas, sin entrar en más detalles técnicos, es que dadas dos combinaciones de cestas de bienes cualesquiera (que hemos llamado 1 y 2), una persona tendrá más utilidad cuanta más cantidad de ambas cestas de bienes posea. Cuanto más a la derecha se sitúen las curvas de indiferencia, más «utilidad» tiene una persona. Dentro de cada curva de indiferencia, el nivel de utilidad es el mismo. Esto significa que a una persona le es indiferente que le demos una combinación de cesta de bienes 1 y 2 como la del punto A (C1A, C2A) o la del punto B (C1B, C2B). Lógicamente si le damos más de ambas cestas de bienes (punto C en el gráfico), la persona tiene un mayor nivel de utilidad. Y si le damos menos de ambas cestas de bienes (punto D), estará peor, tendrá menos utilidad. Según este gráfico, una persona «siempre quiere más». ¿Saben aquello de que «las necesidades son ilimitadas»?, pues bien, algo así. El problema es que ante necesidades ilimitadas y recursos escasos nos tenemos que enfrentar como personas a muchas restricciones. Restricciones de tiempo o de dinero. Por lo tanto, aquí es donde entran en juego las fuerzas contrapuestas de las que hablábamos antes. Siempre querremos maximizar nuestra felicidad, utilidad o llámalo como más cómodo te resulte, pero —y este pero es muy importante— siempre hay una restricción. Ni tenemos dinero infinito, ni tenemos tiempo infinito, ni podemos hacer todo lo que nos planteemos físicamente, ¿verdad? ¿Cómo se representan las restricciones? Normalmente, como una línea que no puedes traspasar. En el siguiente gráfico, sería la línea P. Esa línea nos dice que si consumimos cero de la cesta 2 de bienes, como máximo podremos consumir P1 de la cesta de bienes 1. Y, de la misma manera, si consumimos cero de la cesta 1, como máximo podremos consumir P2 de la cesta 2. Y entre ambos puntos caben todas las posibilidades del mundo. ¿Cuál es la curva de indiferencia más elevada —la que más bienestar genera— dada nuestra restricción P? En el gráfico se observa que la curva A no es óptima, porque siempre podríamos tener, con el mismo presupuesto, más cantidad tanto de 1 como de 2. La curva B es imposible de alcanzar, no tenemos dinero para pagar esa cantidad de bienes 1 y 2. En el gráfico, la curva más elevada que nos permite cumplir con nuestro presupuesto es la C. La persona estaría en equilibrio y estaría satisfecha —maximiza su bienestar—, si se colocase en el punto E, consumiendo E1 y E2. Con esta rápida inmersión en el mundo de la teoría de la utilidad ya podemos seguir hablando de dietas y de decisiones cotidianas. Para hablar de dieta podemos pintar una situación con dos variables: cantidad de comida y deporte. Una restricción y unas curvas de indiferencia. Hacer dieta es en sí mismo un sacrificio, al menos mientras la hacemos. Por lo tanto, aunque nos gusta comer de todo y en todo momento, si queremos «sentirnos sanos y con buena estética» tenemos que sufrir. Hay que comer menos y hacer más deporte. Esa «desutilidad» nos coloca fuera de nuestro lugar ideal, nuestro «óptimo». Por eso es muy difícil mantenerse en un nivel que no es el que de forma casi «natural» tendemos a elegir. ¿Cómo se logra eso? La dieta tiene un factor clave. Para desviarnos de nuestro consumo preferido debemos utilizar una herramienta que llamamos autocontrol, el cual depende de nuestra voluntad. Pero la voluntad tiene un límite, y si bien se construye con entrenamiento, también se desgasta o decrece con su uso excesivo. Al igual que con los músculos, podemos entrenar y mejorar mucho, pero si nos sobrecargamos, al final el músculo se satura y deja de servirnos para levantar peso. Lo mismo sucede con la voluntad: si abusamos de ella en exceso deja de servirnos para ejercer autocontrol. Gráficamente, lo podríamos mostrar de la siguiente manera: Lo espinoso del asunto es que el entrenamiento de la voluntad sólo se consigue con tiempo, es decir, ejerciéndola, y lleva tiempo y esfuerzo colocarse en un punto óptimo. Un punto donde tienes una voluntad «férrea», pero que no te quema, es decir, que eres capaz de mantener ese nivel durante un largo período de tiempo. Cuando no tenemos muy entrenada la voluntad de la dieta, estamos pasándonos al menos momentáneamente del óptimo, y al final nuestra voluntad nos agota y nos hace desistir, y ¿sabes qué?: abandonamos nuestra dieta y nos volvemos a los pinchos de tortilla. La utilidad de la dieta es muy alta al inicio, cuando perdemos los primeros kilos, pero decrece con el tiempo. Según estamos más en forma, cada hora de gimnasio nos rinde cada vez menos. De hecho, como dicen muchos deportistas de élite, llega un momento en el que sólo entrenas para mantener, no logras mejorar. Por eso, cuanto más tiempo pasa, nuestra desutilidad de la dieta crece porque si no cambiamos nuestras preferencias de una forma estructural (no momentánea), cada vez nos cuesta más usar nuestra voluntad para tener autocontrol. El punto de corte de ambas funciones de utilidad y desutilidad de la dieta nos indicará el momento en el que inevitablemente se producirá el «final de la dieta». Hasta ahora hemos argumentado que nuestro autocontrol dependía exclusivamente de la voluntad, y que ésta, si no se entrena bien y con tiempo, tiende a agotarse. Pero un buen día, Dan Silverman, economista goloso al que le encantaba tomar tarta de chocolate, planteó el problema de una forma novedosa. Nuestro economista, el cual tenía un cierto problema de sobrepeso, era plenamente consciente de que debía hacer dieta, y de hecho así lo hacía, pero no cesaba en su empeño de permitirse una tarta de chocolate como postre en el almuerzo. Mantener la dieta le consumía mucha voluntad, y Dan argumentaba a su compañero Dan Ariely que esta estrategia le permitía aguantar más tiempo desayunando avena y comiendo filetes de pollo a la plancha. La anécdota sirvió de inspiración para un artículo científico, en el cual Dan Silverman se plantea las siguientes preguntas respecto al problema de la dieta: ¿puede el autocontrol recargarse? En caso afirmativo, ¿cómo? Ceder a alguna que otra tentación hace que el nivel de autocontrol suba, porque la tentación relaja nuestro músculo (voluntad). Es decir, si estamos cansados en el gimnasio, nuestro rendimiento disminuirá porque los músculos se cansan, pero si rebajamos algo la velocidad de la cinta de correr, podemos luego levantar más pesas, porque hemos dado un respiro a los músculos. Muchos deportistas de alto rendimiento se permiten un «día libre de dieta»; ese día pueden comer todo lo que quieran, sin remordimientos. Eso les ayuda, precisamente, a afrontar una nueva semana de largas sesiones de entrenamientos y comida de dieta severa. Eso sí, la relación que Silverman planteó entre «acceso a las tentaciones» y voluntad es creciente hasta un punto, a partir del cual comienza a disminuir. Si comemos una porción de pastel de chocolate, nuestra voluntad sube porque reducimos el uso de la misma (descansamos), pero si nos relajamos demasiado y comemos hamburguesa, pizza y pastel, llega un momento a partir del cual la voluntad cae en picado. Gráficamente, la relación sería algo similar a la de la voluntad, es decir, así: Hemos llegado así a la clave del asunto con un modelo muy sencillo. Si de vez en cuando dejamos descansar a nuestra voluntad, ésta nos durará más tiempo. En el caso de Silverman, su mejor manera de dejar descansar la voluntad era tomando un pastel de chocolate, lo cual podía chocar a sus colegas, pero su razonamiento estaba en realidad bien fundamentado. Si nuestras preferencias por el consumo no cambian de manera permanente, porque esto es realmente complicado, la única manera de llegar lejos con la dieta es descansar de vez en cuando y de una forma muy controlada. Por supuesto, la parte artística del problema es calibrar el nivel de descanso que dinámicamente te permite seguir sin dinamitar tu voluntad. ¿Cuántos días tienes que descansar entre sesión y sesión de gimnasio para no agotarte, pero sin perder la motivación para seguir yendo? ¿Qué pequeños caprichos puedes permitirte en la dieta sin perder la disciplina que marca la voluntad? Efectivamente, el pastel de Silverman le hacía adelgazar más lentamente, pero, a cambio, llegando más lejos, por lo que se trata de una estrategia inteligente a largo plazo. Es como quien empieza a correr sin haberlo hecho antes; puede correr un día a gran velocidad todo lo máximo que su cuerpo aguante. Pero si se pasa, el día siguiente será tan duro de agujetas y recordará tanto el sufrimiento de la carrera que casi instintivamente su cabeza le dirá: ¡no vuelvas a correr más! Para ser un buen corredor, hay que empezar caminando, después corriendo muy suave y poco a poco, y con muchas semanas de trabajo continuo, empezar a disfrutar de las carreras. Los atajos suelen ser muy perjudiciales. No comer nada en una semana entera no te llevará a adelgazar, sino a atracarte de todo tipo de comida cuando tu voluntad de seguir a dieta ya esté por los suelos. En definitiva, esto lo podemos dibujar gráficamente de la siguiente manera: Si este modelo no es suficiente para convencerte para ceder de vez en cuando a una pequeña tentación, vaya aquí un breve argumento más, de nuevo muy económico. En esta ocasión, la idea surge en una comida entre los socios de Sintetia en un conocido restaurante de hamburguesas en Madrid. En el momento del postre, nada más terminar un copioso banquete de comida americana, uno de los socios se pide de postre un delicioso brownie de chocolate con helado. La ocasión lo merecía, nada que objetar por lo tanto. Lo chocante fue cuando, en el momento del café, pide al camarero que le traiga sacarina en vez de azúcar. ¿Cómo alguien aparentemente tan inteligente pide sacarina tras un postre así? El beneficio marginal de esa sacarina es tan nimio que, ¿para qué molestarse? La respuesta del economista fue: «¡Todo suma!». Efectivamente, cada caloría suma, y es decisión de cada uno ingerir 200 o 201 calorías. El detalle es: «Cada caloría suma, pero algunas te permiten llegar más lejos con la dieta». Merece la pena profundizar un poco en lo que llamaremos la «teoría de la sacarina». Después de cometer un exceso, es todavía peor idea tomar el café con azúcar. Para comprender esto, vamos a recurrir a un fenómeno que los economistas denominan «efecto riqueza». Este efecto, junto con el «efecto sustitución», es uno de los dos grandes motores que mueven nuestras decisiones. ¿Cómo reaccionamos ante la variación en el precio de un bien? Pensemos en el caso de una subida del precio de la gasolina. Por un lado, nuestra decisión marginal de consumo varía; puesto que la gasolina se ha vuelto relativamente más cara que otros bienes, es posible que decidamos gastar un poco menos en gasolina y salir un día más a cenar o comprarnos esa estúpida camiseta que tanta gracia nos ha hecho. A este cambio en el comportamiento se le denomina «efecto sustitución», puesto que estamos sustituyendo un bien por otro al cambiar su carestía relativa. Pero el efecto sustitución no es lo único que tiene efecto cuando cambia una condición inicial. En el caso de la gasolina, si sufrimos una subida importante del precio pero la necesitamos de todas formas para ir a trabajar... ¡pasamos a ser más pobres de lo que éramos antes! Es decir, tendremos menos renta disponible para consumir, por lo cual el efecto neto de este «efecto renta» es que consumiremos menos cantidad de toda nuestra cesta de consumo. Es decir, todo shock negativo de renta tendrá como efecto un consumo menor de toda la cesta de productos y servicios que solemos comprar. Lo mismo que pasaría si, por ejemplo, un mes un ladrón nos robase la mitad del sueldo: intentaríamos consumir menos de todo al ser, durante dicho mes, más pobres. ¿Y qué tiene que ver el «efecto renta» con la decisión de tomar sacarina o azúcar con el café tras una comilona? Imagina que todos (los que estamos a dieta) tenemos una restricción presupuestaria en forma de las calorías que podemos tomar diariamente (o semanalmente). Así, cada decisión de ingesta de calorías ha de ser tomada en función del «presupuesto» semanal (o mensual, o diario...) que nos hayamos propuesto, aunque éste sólo sea una aproximación. Pues bien, al igual que sucedía con el shock negativo de renta, después de una gran comilona... ¡somos mucho más pobres en nuestro presupuesto! Disponemos de muchas menos calorías para «gastar» en lo que queda de semana, por lo que el coste de consumirlas sube considerablemente. Así que, querido lector, si crees que tras una comilona está más justificado tomar el café con azúcar porque «las calorías del azúcar suponen poco al lado del chuletón de 500 gramos que acabo de comer», debes saber que de nuevo te autoengañas, ya que el hecho de saltarte la dieta hace aún más importante tomarse el café con sacarina, y no menos importante. Además, tras una comilona no podremos decir que el consumo de azúcar evitará una pérdida de fuerza de voluntad, pues nuestro apetito está saciado. Si estás a dieta, ¡no te saltes la sacarina del café! ¿A qué esperas para dejar de autoengañarte? Y hablando de autoengaño, ¿cuántas veces saliste de fiesta y terminaste bebiendo más de la cuenta? Es difícil encontrar un equilibrio, ¿verdad? Por un lado, cuando nos emborrachamos, al menos durante un tiempo, parece que somos más felices. Pero, por otro lado, momentos más tarde, ese alcohol nos pasa factura físicamente, lo cual nos resta felicidad futura. Como exponíamos al principio de este capítulo al hablar del descanso, las personas queremos vivir las recompensas, a poder ser lo antes posible —hoy, ahora— y retrasar los castigos lo más tarde posible. Además, las preferencias, como el dinero, tienen valor temporal. No es lo mismo una satisfacción hoy que la misma dentro de un mes. Las personas, de hecho, sabemos que sobreponderamos los beneficios cercanos en relación con beneficios futuros. Un sencillo experimento demuestra que normalmente una persona prefiere jugar a cara o cruz con un premio de 2 euros hoy que hacer lo mismo dentro de una semana por 5 euros. A pesar de que las probabilidades a priori de ganar en ambos juegos son las mismas y de que el pago de la segunda apuesta es suficientemente superior como para recompensar por el paso de cinco días. Y es que, sencillamente, si un individuo necesita hoy el dinero y no dentro de una semana, preferirá apostar hoy. Otro ejemplo: no es lo mismo trabajar hoy siete horas que trabajar ocho mañana. Retrasar el trabajo hasta mañana puede provocarnos una satisfacción que, traducida a utilidad, hace que descontemos (infravaloremos) mucho esa hora extra más. Y en definitiva, hace que nos recompense retrasar el trabajo, provocando que la opción escogida pueda perfectamente ser la de trabajar ocho horas ¡mañana! De ahí que el refrán «No dejes para mañana lo que puedas hacer hoy», cueste mucho llevarlo a cabo. Hay mucha teoría y trabajo lógico detrás de todos estos ejemplos. En concreto, estamos ante ejemplos de lo que los economistas denominan descuento hiperbólico de las preferencias. Lejos de tener un pensamiento lineal a la hora de ordenar en el tiempo la jerarquía de nuestras preferencias, damos un peso excesivo a todo lo que sucede antes e infravaloramos el impacto de lo que nos espera en el futuro. El descuento temporal de las preferencias (por el dinero) es clave en finanzas. Por eso, podemos aplicar una de las teorías básicas de finanzas para manejarnos algo mejor en nuestra vida diaria a la hora de adoptar decisiones hoy, y que tienen impacto mañana. El ejemplo más ilustrativo quizá sea el de la bebida alcohólica. No cabe duda de que alcanzar un estado de embriaguez tiene cierta recompensa positiva hoy, en términos de felicidad por desinhibición. Sin embargo, el problema vendrá mañana en términos de resaca. Al menos hablando en el corto plazo, porque desde luego a más largo plazo los costes sobre nuestra salud serán muy superiores. Ésta es la clave: cuando vayas a beber piensa que estás pidiendo un préstamo ¡de felicidad! La felicidad que estás adelantando viene en forma de deuda, con intereses pagaderos al día siguiente. Por eso, ¿cuánta felicidad futura estás dispuesto a dejar atrás a cambio de adelantarla con el alcohol a hoy mismo? No tenemos más que recurrir a la teoría de la estructura temporal de los tipos de interés que usamos los economistas para hallar las equivalencias entre dinero presente y futuro. Hazte esta pregunta: ¿cuántos intereses quieres pagar mañana a cambio de tener tu felicidad adelantada a hoy? Si tienes presente esta cuestión, seguro que algunas de tus decisiones cambiarán. Cuanto más alcohol tomes, mayor es el tipo de interés de tu deuda de felicidad. Y en el largo plazo, cuando la rentabilidad no supera el coste de la deuda, ya sabemos perfectamente lo que ocurre: la quiebra. Amor Una de las grandes cuestiones para toda persona es cómo aprovechar lo que sabemos sobre las decisiones humanas para intentar tener más éxito al ligar. Este truco nos lo facilita el psicólogo Dan Ariely.[6] La mejor forma de comenzar la historia es mediante el ejemplo de la suscripción a la revista The Economist. Leyendo el periódico, un día Dan se percató de la siguiente oferta: 1. Suscripción al acceso online, 59 dólares. 2. Suscripción a la versión impresa, 125 dólares. 3. Suscripción al acceso online y a la versión impresa, 125 dólares. ¿Tú qué elegirías? La pregunta se planteó a un centenar de alumnos del MIT, y sus respuestas fueron: 1. Suscripción al acceso online, 59 dólares: 16 alumnos. 2. Suscripción a la versión impresa, 125 dólares: 0 alumnos. 3. Suscripción al acceso online y a la versión impresa, 125 dólares: 84 alumnos. La verdad es que a las personas nos encanta saber que nos llevamos un beneficio sin riesgo en nuestras decisiones, y en el caso planteado está claro que la tercera elección significa beneficiarnos del acceso online puesto que nos sale «gratis». Esto puede explicar que sea la opción mayoritaria. Sin embargo, ¿no te llama la atención que la opción más cara sea precisamente la mayoritariamente elegida por los estudiantes? En una vuelta de tuerca al experimento se eliminó la segunda opción. A priori, no debería ocurrir nada puesto que esta opción no tenía ningún voto. La pregunta relevante es: ¿quitar la segunda opción afecta algo al resultado? Los resultados fueron los siguientes: 1. Suscripción al acceso online, 59 dólares: 68 alumnos. 2. Suscripción al acceso online y a la versión impresa, 125 dólares: 32 alumnos. ¡Impresionante! Eliminando una alternativa no deseada por nadie, ¡hemos dado la vuelta a la revelación de preferencias de los alumnos! El señuelo de la opción intermedia, no estaba ahí en balde. Los profesionales de marketing de la revista The Economist saben muy bien que los humanos decidimos en términos relativos. Somos muy malos valorando las cosas en términos absolutos. ¿Te acuerdas cuando hablábamos de curvas de indiferencia y que decíamos que nos cuesta mucho saber cuánta es la utilidad de comer una onza de chocolate? No sabemos responder a: ¿es mucho pagar 59 dólares por el acceso online a The Economist?, pero sí sabemos responder que al principio el acceso online más la revista impresa era una opción más barata que sólo la revista impresa. Por lo tanto, nos dejamos llevar por los términos relativos. Las comparaciones son innatas en el ser humano Vivimos de comparar las cosas, y cuanto más próximas, mejor comparamos (¿recuerdas las donaciones inmediatas cuando nos retrasamos al levantarnos de la cama?). De hecho, no sabemos lo que queremos hasta que no lo vemos en alguien más. Cuando entramos en una tienda y vemos un camisa en un estante, no sabemos si nos gusta, pero cuando vemos que alguien se la prueba, sabemos que nos puede interesar, o no. No sabemos el trabajo que queremos hasta que un amigo o conocido consigue un trabajo que nos hace desear dedicarnos a algo similar. Lo tenemos delante, pero sin comparación, no podemos decidirnos. Lo mejor de esta cuestión es que esto no sólo resulta irracional, sino que es previsiblemente irracional. Sabiendo este concepto de relatividad, el propio Dan Ariely se propuso realizar fotografías a estudiantes del MIT. Consiguió fotos del rostro de 60 estudiantes: 30 hombres y 30 mujeres. Pidió a sus alumnos que emparejaran por parecidos de «belleza» a esas personas, los hombres con los hombres y las mujeres con las mujeres. Tenemos así 30 parejas de personas semejantemente guapas agrupadas. Las feas estarían juntas, y las guapas también. En este momento, Dan entró en su despacho y de cada pareja de fotos, retocó una de ellas haciéndola un poco menos bonita. Torció un poco la nariz, movió una ceja o hizo algo sutil para que el rostro perdiera la simetría, en tanto que supuestamente la belleza física humana reside en la simetría. Tendríamos así, por cada par de fotos, ahora una foto más con una versión de uno de ellos ligeramente deformada a modo de señuelo. Viene ahora la parte más interesante del experimento, en la que estos 30 paquetes de tres fotos se llevaron de nuevo a ser evaluados por otras personas. Efectivamente, cada vez que se enseñaba un grupo de fotos en los que había una persona «normal», una igual pero ligeramente deformada (señuelo) y otra de belleza parecida, las personas se quedaban con la versión «mejorada» del rostro que tenía comparación directa con el señuelo. De hecho, este rostro era seleccionado mucho más frecuentemente cuando llevaba un señuelo al lado. Por ejemplo, la versión del rostro A(simétrico) se seleccionó muchas más veces cuando se acompañó del rostro-A (modificado) que cuando iba solo. La diferencia era significativa: de hecho, esto ocurrió el 75 por ciento de las veces. De aquí surge la idea: ¿qué hacer si estás soltero o soltera y quieres atraer al mayor número de parejas potenciales? El consejo sería que llevaras a un amigo o amiga que tuviera básicamente tus mismas características físicas (color de pelo, piel, complexión, rasgos faciales), pero que resultara ligeramente menos atractivo/a. Cuando entres en un bar o en una reunión de solteros, a las personas les será difícil evaluarte por tus rasgos de manera aislada o absoluta. Sin embargo, si te comparan con el señuelo (alguien parecido a ti pero un poco peor), pueden hacerte parecer más atractivo/a, en comparación, y puedes atraer más la atención de potenciales parejas. Obviamente, este truco no determina que consigas ligar con total seguridad; la capacidad de conversación y la seguridad en ti serán claves a la hora de encontrar pareja. Pero al menos, te asegurarás de que te presten un poco más de atención. Advertencia de Dan Ariely Ahora que conoces el secreto para ligar, sospecha cuando alguien cercano con cierto parecido a ti, y del mismo sexo, te pida que le acompañes una noche para salir; pregúntate si te ha invitado para disfrutar de tu compañía o simplemente para hacer de señuelo. Un Premio Nobel de Economía por conseguir un matrimonio estable Como no todo en la vida de un economista estriba en ligar, también tenemos ejemplos de grandes mentes de la economía que han reflexionado sobre la mejor manera de conseguir una pareja ¡estable! El Premio Nobel de Economía 2012 fue para Alvin Roth y Lloyd Shapley por su teoría del diseño de mercados. Hay ocasiones en que el mercado no asigna eficientemente los recursos, y un diseño apropiado puede ayudar a ello. Es el caso del conocido algoritmo Gale-Shapley, que Roth aplicó a muchos casos, como el de emparejar eficientemente universidades con alumnos o médicos con hospitales. Pero un ejemplo más cotidiano es el caso del emparejamiento de hombres y mujeres (del cual usamos sólo el ejemplo heterosexual por ser más fácil de ilustrar). Se trata de buscar un matrimonio estable entre un número igual de hombres y mujeres. Pongamos el ejemplo de unas «citas rápidas» (speed dating). Una serie de mujeres se sientan en unas mesas y reciben durante unos tres minutos las solicitudes de diversos hombres. Cada hombre se reúne primero con la mujer que más le gusta. De este modo, una mujer puede tener a varios pretendientes en primera ronda, y en otras, a ninguno. En este momento, las mujeres que han tenido candidatos rechazan a aquellos que no cumplen con su mínimo exigible. Y, lo que es más importante, no toman aún ninguna decisión definitiva. Se reservan hasta el final para escoger a su candidato. A continuación, los hombres rechazados avanzan y seleccionan a la siguiente mujer que más les gusta. Por supuesto, candidatos descartados por alguna mujer llegarán a otras que ya tenían candidatos anteriormente. Así, las mujeres vuelven a tener solicitudes, y vuelven a descartar a los que ahora no cumplen su «nuevo» mínimo exigible. Sucederá que ahora, al haber nuevos candidatos que habían sido rechazados por otras mujeres, las mujeres pueden replantearse su decisión y posiblemente se quedarán con alguno de estos hombres nuevos, descartando alguno de los que antes habían cumplido el mínimo exigido y que se habían reservado. Las mujeres eligen de nuevo entre los hombres descartados. Y las mujeres seguirán descartando y reservándose candidatos en función del mínimo «que se van construyendo» según reciben candidatos. Este proceso se repite hasta que cada mujer se queda con un solo candidato. Fíjate en que es muy posible que el último movimiento de la cadena cambie las elecciones de muchas mujeres. Cuando la mujer «más solicitada» tenga sólo dos candidatos «válidos», al final se decantará por uno solo, siendo el segundo de éstos posiblemente un hombre con gran valor para otra mujer, que al ver que queda libre, si le pide cita, lo puede seleccionar y cambiar por sus candidatos anteriores. Así hasta que nadie más queda libre para solicitar nuevas citas. Ésta es la clave del algoritmo de Roth y Shapley. La idea de no quedarte con tus candidatos a la primera, sino de reservar hasta el final tu elección definitiva. Habrá una especie de ordenación natural de los recursos, en la que no podemos manipular el proceso de decisión. Por ejemplo, no ganamos nada eligiendo a una mujer que no es nuestra primera elección en la primera ronda. Pongamos el ejemplo de la serie de televisión Friends. Sabemos que el personaje de Ross Geller está enamorado de Rachel Green desde siempre. Pues bien, en un speed dating, Ross no ganaría nada si no eligiera en la primera ronda a Rachel, pensando en que ella le podría descartar. Si Ross pide una cita primero a Rachel, pero ella le descarta, Ross siempre podrá escoger como segunda alternativa a, por ejemplo, Phoebe. Pero lo contrario no es posible. Por lo tanto, la estrategia de revelar siempre tu preferencia real es dominante en este juego. Ésa es la fortaleza de este algoritmo: reservar y descartar. En el speed dating estándar sólo hay, en cambio, una fase, siendo la elección estática. Una solución ideal consistiría en que todos los hombres se reunieran con todas las mujeres y que, al final, éstos diesen una lista con los nombres a los que les gustaría que el organizador pasara su contacto. Si hay coincidencia en la elección, el organizador intercambia los contactos para que se citen. Haciendo este juego dinámico, el algoritmo de Lloyd Shapley y Alvin Roth nos indicaría el camino hacia una asignación eficiente y estable. Obviamente, al final quedarían mujeres que preferirían casarse con otros hombres, y viceversa, pero no habría una elección mejor que fuese mutuamente preferida por ambas partes. El problema que en esencia han resuelto Roth y Shapley, en lo relativo al matrimonio estable, es que evita el comportamiento oportunista que un genio como John Nash (también Premio Nobel de Economía) mostraba en la (ficticia) escena del bar de la película Una mente maravillosa, en la que convencía a sus amigos para ignorar directamente a la chica más atractiva. Si la esencia de todo sistema eficiente es su capacidad para extraer y agregar información veraz, los sistemas susceptibles de ser manipulados no conseguirán sacar a la luz la realidad sobre la escasez y las preferencias en un mercado. Cubiertas nuestras necesidades, ¿cómo gestionar la felicidad? Casi todo el mundo conoce a alguna persona que afirma disfrutar yendo a trabajar porque ello le sirve para salir del ajetreo de su vida casera o familiar, lo cual incluye desde los niños hasta las posibles discusiones. Este fenómeno encaja con el hecho documentado de que muchos desempleados, incluso aunque esté compensada su pérdida de nivel de renta, están más descontentos que cuando trabajaban. Los recientes estudios de la economía de la felicidad cuantifican que el efecto no vinculado a la renta es más de cinco veces superior al efecto vinculado a la renta. Es decir, nuestro aumento de insatisfacción al pasar a estar desempleados proviene de dos vías: la primera es que somos más pobres, pero la segunda se deriva del mero hecho de no acudir a trabajar. Tanto es así que el propio Paul Krugman ha utilizado la magnitud de este fenómeno como argumento para luchar aún más fuertemente contra el paro involuntario. Todo es volátil, ¿y coordinado? Lo que más afecta a nuestro estado de ánimo es, en realidad, la variable principal de la gestión de carteras moderna y que más preocupa a los financieros: la correlación. Nuestro nivel de felicidad disminuye realmente cuando sufrimos en varios aspectos de nuestra vida a la vez: cuando en el trabajo nos va mal, cuando discutimos con nuestra pareja y cuando nuestro amigo nos defrauda. Es decir, cuando la correlación entre los activos que determinan nuestros estados de ánimo es altamente positiva. En cambio, si invertimos nuestra felicidad en activos poco correlacionados (lo que los psicólogos llaman «tener parcelas para desconectar», y que son independientes), estamos aplicando el pilar central de la teoría de gestión de carteras: la diversificación como herramienta de mitigación del riesgo «nosistémico» (en nuestro caso, del riesgo a ser infeliz por cuestiones particulares). Un empleo no demasiado apasionante pero estable nos puede ayudar a compensar una mala jornada en casa. Esto justifica por qué en ocasiones oímos que las parejas que trabajan juntas son más propensas a las discusiones en familia: la correlación positiva juega en su contra. Debemos buscar la gestión de riesgos de nuestros estados de ánimo, para lo cual es clave tener en nuestra cartera de felicidad activos no correlacionados. La diversificación no es la única herramienta de la gestión de carteras aplicable a la felicidad. Otros curiosos ejemplos serían: • La religión, que en el fondo es lo que se denomina una cobertura en gestión de carteras: cuando el resto de activos cae de valor (problemas en casa o en el trabajo), la religión nos aporta bienestar. Esta correlación negativa es lo que aporta valor a mi • cartera de felicidad. Flujos de los activos: cada activo tiene unos flujos (monetarios en el caso de activos financieros) que debemos descontar para hallar su valor actual. Esto ayuda a explicar por qué la gente que se dedica a ver la televisión después del trabajo suele ser más infeliz que los que realizan otras actividades como, por ejemplo, tocar un instrumento: la televisión no genera el flujo de ingresos descontados suficiente como para afectar al valor actual de nuestra cartera (estado de ánimo) de manera significativa. En cambio, tocar un instrumento exige una mayor concentración, es decir, aporta más flujos y afecta más rápidamente al valor de nuestra cartera de felicidad. Rentabilidad y riesgo de gestionar tu felicidad Del mismo modo que la correlación de una cartera se reduce al comprar bonos alemanes con rentabilidad negativa, cuando las cosas marchan mal en la vida personal, tener trabajo puede aportar (además de dinero) un sentimiento de utilidad que aporta, en términos subjetivos, felicidad. Por eso, aunque el trabajo en sí mismo no me da felicidad como actividad aislada, al igual que para un gestor de carteras un bono alemán con rentabilidad negativa es una mala inversión en términos aislados, al observar su efecto dentro de toda la cartera de inversión, el bono alemán reduce la correlación global del conjunto de inversiones, ayudando al gestor a tener una cartera más eficiente en términos de rentabilidad/riesgo. Reflexiones para el lector La teoría económica nos ha enseñado que podemos permitirnos una tentación durante nuestra dieta. De hecho, es estrictamente deseable hacerlo para prolongar la vida útil de la misma, pues nos ayudará a recargar nuestra voluntad, que es la responsable de ejercitar el autocontrol. Esto mismo sirve para todas aquellas tareas que deseamos hacer, pero que no se encuentran dentro de nuestras preferencias personales: para empezar a ir al gimnasio no lo hagamos todos los días, para no romper nuestra voluntad; al estudiar una oposición, es mejor descansar un día si ello nos permite prolongar el autocontrol durante una semana más; en definitiva... ¡usemos las tentaciones de manera inteligente! También sabemos que tiene sentido tomar sacarina en el café, aun después de un festín gastronómico, porque dado nuestro presupuesto fijo de calorías, las últimas calorías consumidas son relativamente más caras que las anteriores y, por lo tanto, ¡mucho mejor si las ahorramos! Sabemos también que saber de deuda y tipos de interés es importante para moderarnos en la bebida. Cada vez que bebemos estamos pidiendo un préstamo de felicidad para adelantarla al instante presente. Pero cada copa es una cuota más de intereses que pagaremos mañana en términos de resaca (y de salud). También sabemos que no toda la deuda es mala, sino sólo aquella que no podemos o sabemos rentabilizar. Por eso es muy importante que calcules las copas que serás capaz de «pagar», y rentabilizar, a la mañana siguiente. ¡No te cargues de intereses como un Estado que vende deuda pública! Conocemos nuevas estrategias para ligar, y además podemos usarlas en nuestro beneficio. Se nos da mal evaluar alternativas en términos absolutos, necesitamos comparar. De hecho, pasamos la vida haciéndolo. Por lo tanto, un buen amigo con cierto parecido a nosotros será de gran ayuda: realzará nuestro atractivo relativo y nos facilitará las cosas para buscar pareja. Si decides jugarte una cita en un speed-dating, no hagas caso de John Nash, ¡revela tus preferencias y apuesta por quien más te guste, siempre! Estos trucos te ayudarán, pero recuerda: ¡el éxito dependerá ya de ti mismo, de tu labia y de tu seguridad! Por último, debemos recordar que la diversificación es una herramienta muy potente para gestionar los riesgos de nuestra cartera de felicidad, pero, como siempre en finanzas, el binomio rentabilidad/riesgo es inseparable. Del mismo modo que reduce nuestro riesgo (cambios en el estado de ánimo), también reduce nuestra rentabilidad potencial (felicidad máxima). Es decir, aquellas personas que disfruten de una vida interior dedicada al trabajo, al estudio o a la introspección se mantendrán incorreladas (protegidas) de las desdichas del mundo exterior, y por lo tanto nunca verán su corazón roto, pero a la vez, ¡nunca conocerán la gloria del amor verdadero! 6 Los políticos no la saben meter ROBERTO ESPINOSA BLANCO Las mentiras se construyen, las verdades se descubren. JORGE WAGENSBERG, en La rebelión de las formas Todo el que haya leído Outliers (Fuera de serie [Outliers], en castellano) y al poco tiempo haya tenido un hijo, no habrá podido resistirse y recordar lo que cuenta Malcolm Gladwell en el libro sobre la selección nacional de jóquey sobre hielo de Canadá. Gladwell describe, en lo que él llama «ley de hierro» del jóquey canadiense, que la distribución de las fechas de nacimiento de cualquier grupo de élite de jugadores de jóquey canadiense seguirá esta distribución por trimestre: 40 por ciento - 30 por ciento - 20 por ciento - 10 por ciento. [7] En realidad, esto se ha observado en muchos otros deportes y ámbitos, y tiene el nombre de «efecto de la edad relativa» (utilizaremos en adelante sus siglas en inglés, RAE). El RAE se utiliza para describir la observación de que en determinadas actividades existe una mayor presencia de personas nacidas en un determinado período de tiempo. En el caso que describe Gladwell, el RAE explicaría por qué el 40 por ciento de los jugadores de élite en el jóquey canadiense han nacido en el primer trimestre del año. En realidad, Gladwell no fue el primero en hablar del RAE, pero su libro llevó este efecto a la cultura popular. Y como no podía ser de otra manera, no todo el mundo estuvo de acuerdo y apareció algún artículo negando su existencia en el deporte profesional canadiense.[8] Pero en general existe mucha literatura sobre la existencia del RAE, y es algo mayoritariamente aceptado como una realidad en el mundo del deporte. Por supuesto, también en España se han hecho estudios sobre el RAE en el deporte español. Algunos muy en profundidad y para un ámbito muy concreto, como el de José Manuel González Arazmendi sobre el fútbol guipuzcoano.[9] También podemos encontrar otro interesante artículo firmado por especialistas del Centro de Alto Rendimiento (CAR) de Sant Cugat, entre otros, sobre el baloncesto profesional.[10] Y si vamos a la blogosfera, vemos una infinidad de artículos que hablan del RAE en mayor o menor profundidad, y casi siempre aplicado al mundo del fútbol.[11], [12] Así que empezamos este capítulo proponiéndonos el reto de aportar algo novedoso a un tema ya bastante trillado. Y lo vamos a hacer de varias maneras. Primero, porque esos artículos sobre el fútbol profesional han manejado datos de unos pocos cientos de futbolistas. Nosotros, gracias a Víctor Solà, de BDFutbol.com, hemos analizado la fecha de nacimiento de «TODOS» los futbolistas de primera división nacidos en España de «toda» la historia. Bueno, he exagerado, hay unos 120 de los que no se sabe la fecha de nacimiento. Exactamente hay 6.824 jugadores nacidos en España que alguna vez jugaron en primera división (obviamente, estimado lector, ten en cuenta que esto es a fecha de redacción de este capítulo). Tener tantos datos, y además con tanto histórico, nos va a ayudar a determinar si el impacto del RAE ha cambiado con los años. Y lo siguiente en lo que queremos ser originales, y que no vemos que nunca nadie se haya preguntado, es qué hacen esos chicos a los que el RAE impacta de forma negativa. Es decir, si tomamos como hipótesis (más que probada si vemos los estudios existentes) que los niños nacidos a principio de año tienen más posibilidades de ser exitosos en el mundo del fútbol, ¿qué pasa con el resto? No es lógico pensar que el talento necesario para ser futbolista profesional se distribuye desigualmente en función del mes de nacimiento. Es decir, es más lógico pensar que habrá estadísticamente el mismo talento distribuido en diciembre que en enero; sin embargo, la hipótesis (y la observación) dice que a mismo talento en enero que en diciembre, gracias al RAE, los niños de enero tendrán más probabilidades de ser exitosos en el deporte profesional. Entonces, ¿qué pasa con los niños que nacen en diciembre con una buena dosis de talento y que por ser más pequeños que los niños de su categoría se quedan fuera del primer equipo por no competir con las mismas armas? Déjame primero que intente explicar de una forma sencilla lo que es el RAE. Este efecto se refiere a la ventaja que se tiene en determinadas actividades por tener una edad relativa mayor a la de tus compañeros o competidores. La palabra «relativa» es muy importante, porque efectivamente es relativa a un punto en el tiempo que se fija de forma arbitraria, por ejemplo: cuándo los niños pasan de categoría en función de su nacimiento. Voy a intentar explicarlo de una forma más gráfica. Un equipo de fútbol de categoría infantil A (cada deporte tiene las categorías inferiores organizadas un poco diferentes) incluye niños que cumplen catorce años en el año actual. En el momento en que escribo esto (temporada 2013-2014), serían los niños nacidos en el año 2000. Así, los niños nacidos entre el 1 de enero y el 31 de diciembre de 2000 son considerados categoría infantil A. Sin embargo, utilizando un ejemplo extremo, un niño nacido el 1 de enero de 2000 y un niño nacido el 31 de diciembre de 2000 jugarán en la misma categoría, aunque el primero tenga casi un año más de edad. Así que cuando los entrenadores miran a sus jugadores disponibles y ven que algunos niños están físicamente más desarrollados debido a esa ventaja de edad relativa, es muy normal que los elijan a ellos frente a niños más pequeños. Este comportamiento además es acumulativo, ya que pasa en alevines, infantiles, cadetes... Así que los jugadores de fútbol que llegan a ser profesionales habrán pasado por esa criba durante muchos años de forma repetitiva y siempre con las mismas condiciones. De esta forma, podemos anticipar que este comportamiento agregado tiene un impacto profundo en la distribución por mes de nacimiento de los jugadores profesionales. Dicho esto, y ya que hemos empezado hablando de fútbol, vamos a centrarnos primero en este deporte. Sin embargo, la principal razón de empezar por ahí es que, debido a la cultura de nuestro país, podemos asumir que para una grandísima mayoría de los niños el fútbol es la primera elección. Es el deporte que seguramente primero practican, y seguramente el primero en el que les gustaría triunfar. Además, hemos tenido acceso a la gran base de datos de BDFutbol.com, así que es el lugar natural para empezar. Sabemos que este libro no es un manual de estadística, y no queremos aburrir con tasas de regresión o tendencias, ni, en general, abrumar con datos. Queremos ser muy visuales, que tú también saques tus propias conclusiones, pero también queremos ser lo más rigurosos posible. Hago un pequeño paréntesis para decir que vamos a centrar este capítulo en el sexo masculino. Por varios motivos. Primero, porque sin duda el deporte más practicado en España es el fútbol masculino. Pero además de ser el más practicado, es el más competitivo. La competencia fuerte empieza muy pronto en el fútbol, con lo que el RAE debería ser más pronunciado en este deporte. Los entrenadores tienen más niños entre los que elegir al formar sus plantillas al principio de la temporada. En contrapartida, en otros deportes menos mayoritarios, por ejemplo el voleibol, los entrenadores no tendrán tantos candidatos a principio de cada temporada, y por lo tanto es más fácil que niños relativamente más pequeños terminen compitiendo. De esta manera, lo normal sería que niños con el mismo talento, pero nacidos a finales del año, tuvieron más posibilidades de llegar a categorías más altas, y ya cuando son séniores, con el desarrollo físico igualado, competir de igual a igual en función de su talento. Así que antes de entrar de verdad en harina, vamos a ver si esto se sostiene con datos reales e inmediatos. Vamos a comparar la selección española que ganó el Mundial de fútbol de Sudáfrica con la selección española que ganó el europeo de Voleibol de 1997. FÚTBOL Iker Casillas 20/05/1981 Pepe Reina 31/08/1982 Víctor Valdés 14/01/1982 Joan Capdevila 02/03/1978 Carles Puyol 13/04/1978 Sergio Ramos 30/03/1986 Carlos Marchena 31/07/1979 Raúl Albiol 04/09/1985 Gerard Piqué 02/02/1987 Álvaro Arbeloa 17/01/1983 Javi Martínez 02/09/1988 Xavi Hernàndez 25/01/1980 Andrés Iniesta 11/05/1984 Cesc Fàbregas 04/05/1987 Xabi Alonso 25/11/1981 Sergio Busquets 16/07/1988 David Silva 08/01/1986 Jesús Navas 21/11/1985 David Villa 03/12/1981 Fernando Torres 20/03/1984 Fernando Llorente 26/02/1985 Juan Mata 28/04/1988 VOLEIBOL Pedro Rodríguez 28/07/1987 Rafael Pascual 16/03/1970 Ibán Pérez José Lobato 13/11/1983 Luis Manuel Sevillano 19/02/1977 02/07/1981 Miguel Ángel 24/04/1973 Falasca José Javier 22/03/1984 Subiela Guillermo Falasca José Moltó 24/10/1977 Luis Julián García- 29/06/1975 Torres 08/11/1980 Enrique de la 11/08/1975 Fuente Israel Rodríguez 27/08/1981 Guillermo Hernán 25/07/1982 Un vistazo rápido, y a pesar de ser una muestra «muy» pequeña, sí que parece que se puede intuir lo que decíamos más arriba sobre que una mayor competencia debería traer un mayor impacto del RAE. Si ponemos estos datos en un formato gráfico para poder compararlos mejor, tendríamos esto: Rápidamente podemos ver, a pesar de ser muestras muy pequeñas, unas diferencias muy claras en cuanto a su distribución. Si en el fútbol el 40 por ciento de los campeones del mundo nacieron en el primer trimestre del año, y hay tres veces más jugadores nacidos en ese primer trimestre frente al último del año, en el voleibol (y desde luego hay que insistir en que la muestra es muy pequeña) la distribución es casi perfecta. En el primer trimestre nacieron un 25 por ciento de campeones de Europa, justo los mismos que nacieron en el último trimestre. Debido al tamaño tan reducido de la muestra, no podemos tomar estos resultados más que como un ejercicio de calentamiento para reforzar la idea de que comenzar por el fútbol masculino es seguramente el mejor sitio para empezar a ver el impacto del RAE. Una de las primeras preguntas que nos hicimos al plantearnos este capítulo fue si los nacimientos están en general distribuidos de forma equitativa por meses, haciendo poco más que aleatoria la fecha de nacimiento, o si, por el contrario, están influenciados por la época del año, y por lo tanto hay diferencias sustanciales mes a mes en el número de nacimientos. Curiosamente, es algo que no hemos visto reflejado en muchos estudios sobre el RAE, pero a nosotros nos parece importante primero saber si hay diferencias en los nacimientos por mes para luego poder desestacionalizar los datos. Siguiendo con el ejemplo anterior del equipo de infantil A, imaginemos que nacen muchos más niños en el mes de enero que en diciembre. En ese caso sería lógico pensar que habría más futbolistas profesionales nacidos en el mes de enero que en diciembre, pero no por el potencial efecto del RAE, sino simplemente porque hay más jugadores nacidos en enero. Así que nos hemos ido al Instituto Nacional de Estadística (INE) a ver cómo nacen los niños en España. No hemos podido conseguir los datos sólo para los nacimientos de varones, por lo que vamos a asumir que el sexo no impacta, el mes de nacimiento. Después de empezar a trabajar con los números, y por razones sobre las que te daré más detalles luego, hemos definido dos períodos de tiempo sobre los que hacer el análisis, que también nos van a servir para comparar. Uno desde 1956 hasta 1974, y otro desde 1980 hasta 1995. En esas dos series, hemos sumado todos los nacimientos por meses para todo el período. Para eliminar el efecto del número de días de cada mes, hemos dividido el total de nacimientos para cada mes de toda la serie por el número de días de cada mes (28,25 en el caso de febrero para eliminar el efecto del año bisiesto). Y ese número lo hemos comparado con el resultado de dividir el total de nacimientos por 365,25 días. Es decir, comparamos el número de nacimientos medio por día para cada mes del año con el número de nacimientos medio por día. De esta manera, éste sería el gráfico con los nacimientos completos para la serie de 1956 a 1974: En el gráfico siguiente se ve bastante claro que, aunque no hay diferencias enormes, éstas sí son importantes y, por lo tanto, a tener en cuenta. Vemos, por ejemplo, que entre el mes relativamente con más nacimientos para el período, abril, y el que menos, noviembre, hay 7 puntos de diferencia. De esta manera, para eliminar el efecto tanto del número de días de cada mes como de la diferencia de nacimientos entre los meses utilizaremos este coeficiente para desestacionalizar los datos que vamos a ir viendo. Ésta es la misma información para la otra serie de años en la que nos vamos a centrar, desde 1980 hasta 1995. Otra vez, no hay diferencias enormes, pero sí relevantes: casi 8 puntos de diferencia entre mayo y diciembre. Muy curioso es ver cómo agosto es un mes raro comparado con los dos que tiene al lado. Uno podría pensar que de forma artificial se producen nacimientos en septiembre que de otra forma se producirían en agosto (¿las vacaciones de los ginecólogos, quizá?), pero no es el objeto de este capítulo, así que dejaremos que cada uno saque sus conclusiones. Después de situar ya un poco la conversación y tener los coeficientes para desestacionalizar los datos con los que vamos a trabajar, vamos a saltar directamente al mundo del fútbol y a los datos que tenemos. Como te contaba al principio, después de hablar con bastante gente del «mundillo», tuvimos la suerte de dar con Víctor Solà y su BDFutbol.com, que amablemente nos cedió los datos para realizar este estudio. Nada más y nada menos que la fecha de nacimiento de casi 7.000 jugadores de fútbol. Concretamente, 6.824 jugadores de fútbol nacidos en España que alguna vez jugaron en Primera División. Además también nos aportó los datos de cuáles llegaron a la selección, y la misma información para las selecciones sub-19, sub-20 y sub-21. La información se remonta hasta jugadores nacidos en el siglo XIX. Obviamente, no se puede pensar que el impacto del RAE ha sido igual durante toda la historia. Empezando porque a mayor competitividad en las categorías inferiores, mayor debería ser el impacto del RAE, y sin duda son completamente incomparables las condiciones de la Liga y el fútbol base en los años treinta con las actuales. Asimismo, en la población de futbolistas profesionales tuvo que tener sin duda un impacto importante una situación histórica como la Guerra Civil. Por eso desde el primer momento pensamos que, pese a su interés, teníamos que desechar los datos anteriores a la Guerra Civil, así como los de ésta y de los años siguientes, por los terribles efectos que tuvo en la pirámide poblacional española durante décadas. Por eso, de momento pusimos el corte en los años cincuenta. Después, uno tiene ya años para recordar un acontecimiento tremendamente interesante desde el punto de vista de este estudio que ocurrió en los años ochenta, y del que curiosamente no hemos encontrado constancia en ningún sitio. Yo recordaba que cuando era pequeño la fecha de cambio de año para las categorías en el fútbol era en algún momento del verano. Lo recuerdo porque nací a finales de junio, y era siempre de los pequeños del equipo. La verdad es que nadie nos lo ha podido confirmar. Hemos hablado con varias federaciones regionales, y al final, entre lo que recordaban unos y otros, estamos casi seguros de que la fecha se cambió en 1980, un cambio que se hizo por mandato de la UEFA para homogeneizar las categorías inferiores en Europa. Lo que estaba claro es que en 1980 se pasó a utilizar el año natural para definir las categorías, pero nadie nos terminó de confirmar qué fecha era el anterior «1 de enero». Escuchamos diferentes versiones, pero después de jugar un poco con los números, estamos seguros de que la anterior fecha de corte era el 1 de agosto, y esto también lo verás claramente tú cuando empecemos a entrar en detalles. Si nadie se acordaba de la fecha exacta, nadie pudo tampoco decirnos cómo se hizo el cambio. Yo, que nací antes de 1980, recuerdo que no me afectó hasta juvenil, o incluso regional, por lo que éste fue seguramente progresivo. Esto complicaba el análisis de datos. Después de jugar un poco con los datos, vimos que, efectivamente, a partir de 1980 éstos eran muy claros, por lo que tomamos el 1 de enero de 1980 hasta la actualidad como una de las series. Tomando esos años como referencia, tenemos unos 1.100 jugadores como muestra, lo cual no está nada mal. Y hacia atrás, decidimos dejar unos años antes de 1980, en los que los datos no eran muy claros, seguramente influenciados por ese período de transición. Así que tomamos 1974 como punto final de la segunda serie. Empezamos a trabajar sobre ello, pero también veíamos algo raro, quizá todavía los efectos de la Guerra Civil y la posguerra, o quizás algún cambio anterior en la normativa antes de 1980. El caso es que sobre ese posible cambio no hemos encontrado a nadie que sepa de él, así que después de jugar un poco con los números decidimos que esta serie sería desde 1956 hasta 1974. Más de 1.500 jugadores, lo cual también es una buena muestra. En realidad, aunque ese cambio en la fecha de corte complique un poco el análisis, es una verdadera suerte porque nos permite hacer comparaciones independientemente del mes de nacimiento. Si el RAE existe, y es tan potente como parece, de alguna forma deberíamos ver que el mes de agosto de la serie 1956-1974 debería comportarse como el mes de enero de la serie 1980actualidad. Vamos a empezar a trabajar sobre la serie más actual. Recapitulando, suponemos que en ese período de tiempo la competitividad ha aumentado en el fútbol base español, lo cual debería «realzar» el impacto del RAE, y por lo tanto deberíamos ver un fuerte impacto en la distribución de los jugadores profesionales por mes de nacimiento, de manera que tendríamos que ver un porcentaje significativamente superior de jugadores nacidos en los primeros meses del año frente a los nacidos a finales de año. Déjame que te recuerde que para todos los cálculos y gráficos que vienen a partir de ahora, vamos a utilizar los datos de nacimientos que vimos antes para desestacionalizarlos. Y lo recuerdo ahora para no repetirlo en cada uno de ellos. Bueno, pues vamos a ver ese primer gráfico con los jugadores de fútbol profesionales nacidos en España desde el 1 de enero de 1980 hasta la actualidad (31-121995). Te recuerdo que, para este período, los años de las categorías deportivas coinciden con los años naturales. A simple vista ya se ve el impacto del RAE. No nos haría falta ni la línea de tendencia (que haremos siempre lineal para simplificar) para ver lo marcado del efecto. Tenemos un 37 por ciento de los jugadores nacidos en el primer trimestre del año, frente a un escasísimo 14 por ciento de nacidos en el último trimestre. Hay casi tres veces más de jugadores nacidos en el primer trimestre frente a los nacidos en el último. Vamos a compararlo ahora con la otra serie, la que va desde el 1 de enero de 1956 hasta el 31 de diciembre de 1974. La teoría nos dice que agosto debería ser el mes con mayor número de jugadores, y el trimestre que va de agosto a octubre el que más jugadores tendría, y comparándolo con la otra serie, deberíamos ver un impacto RAE menos marcado porque suponemos que en esa época habría menos competitividad en categorías inferiores. Vamos a ver qué dice el gráfico. De momento vemos que las hipótesis se cumplen. El mes de agosto es, efectivamente, el mes en que más jugadores nacieron durante ese período, frente al mes de enero, que, como hemos visto, fue el mayor para la otra serie. Así que de alguna forma, y para entendernos, agosto era el enero de la actualidad. Vamos a colocar el mes de agosto al principio del gráfico para verlo mejor. El impacto del RAE es también claro en esta serie, y se vuelve a ver muy bien incluso sin la línea de tendencia, pero como ya habíamos anticipado, es menor que en la serie más actual. El «primer» trimestre del año representa un poco más del 30 por ciento del total, frente a un 21 por ciento del «último» trimestre. En este caso, «sólo» hay un 50 por ciento de jugadores más nacidos en el trimestre «agostooctubre» frente al trimestre «eneromarzo». Parece entonces claro que, efectivamente, la competitividad en las categorías inferiores ha crecido con los años, y por lo tanto el impacto del RAE es mucho mayor en la actualidad. Otra hipótesis que podemos formular según lo que hemos visto hasta ahora es que el impacto del RAE se va difuminando con el paso de los años de los jugadores, y al revés, que será mayor en edades más tempranas. De nuevo, la excelente base de datos que tenemos nos permite ver si la hipótesis se cumple o no. Y es que también tenemos los datos de los jugadores que alguna vez jugaron en la selección nacional sub-19, sub-20 o sub-21. Concretamente, tenemos 214 jugadores nacidos en España entre el 1 de enero de 1980 y el 31 de diciembre de 1995 que llegaron a jugar alguna vez en esas selecciones. Otra vez se aprecia a simple vista; impresionante, ¿verdad? Más de un 44 por ciento de los jugadores nacidos entre 1980 y 1995 lo hicieron en el primer trimestre del año, frente a sólo un 10 por ciento nacidos entre los meses de octubre y diciembre. Casi cuatro veces y media la cantidad de jugadores del primer trimestre frente al último trimestre del año. Llegado a este punto, creo que podemos sacar unas conclusiones bastante claras sobre el RAE en el mundo del fútbol profesional español, y para eso vamos a utilizar este gráfico: Así que como principales conclusiones sobre el RAE, podríamos decir lo siguiente: — Existe, y además tiene un impacto importante. Hay casi tres veces más jugadores nacidos en enero que en diciembre para los nacidos entre 1980 y 1995. — A más competitividad, mayor es el impacto del RAE. Y asumiendo que hay más competitividad ahora que hace más de cuarenta años, vemos como la diferencia entre los nacidos entre agosto (primer mes para la serie 1956-1974) y julio, aún importante, es menor que para enerodiciembre para la serie 1980-1995. — El efecto se va mitigando con el paso del tiempo. Es decir, es más importante en las edades más tempranas. Antes de pasar a otros ámbitos, vamos a mirar a otros dos profesionales del mundo del fútbol, árbitros y entrenadores. ¿Tendrá el RAE también un impacto en la distribución de los meses de nacimiento en esos dos colectivos? Empecemos por los entrenadores. Es lógico pensar que sí lo tendrá. Muchos de ellos han sido jugadores profesionales, por lo que tienen el sesgo que ya hemos visto, aunque al ser mayores, el efecto también habrá tenido que disiparse. Como no hay suficientes entrenadores jóvenes que hayan entrenado en primera, segunda y segunda B (volvemos a tirar de la base de datos de BDFutbol.com), nos centraremos en el período 1956-1974. Efectivamente, se cumple lo que habíamos previsto. Se aprecia el impacto RAE, pero más suave. Hay un 29 por ciento de entrenadores nacidos en el «primer» trimestre del año, frente a un 22 por ciento en el último, lo que nos da que es «sólo» un 31 por ciento más. ¿Y qué pasa con los árbitros? ¿Deciden los niños más pequeños dedicarse a arbitrar mientras los mayores juegan al fútbol? Para este análisis hemos vuelto a tirar de BDFutbol.com, pero también del Directorio del Comité Vasco de Árbitros 12-13. Hay que tener en cuenta que las muestras empiezan a ser más pequeñas, sobre todo para el período 1956-1974, para el que sólo tenemos 116 árbitros. Pero atención, de repente vemos ya una diferencia. Tenemos una representación por trimestres muy parecida, y aunque hay una pequeña tendencia «a la baja», es totalmente descartable por la muestra tan pequeña que tenemos. Pero sí, creo que podemos decir que el impacto del RAE en los árbitros nacidos entre 1956 y 1974 es despreciable. ¿Y para el período 1980-1995? Para este período tenemos más datos, en concreto 176. Otra vez la muestra es pequeña para tener datos 100 por ciento concluyentes, pero ojo, es la primera vez que vemos que el último trimestre del año es mayor que el primero. Concretamente, un 26 por ciento de los árbitros nacidos entre 1980 y 1995 nacieron entre octubre y diciembre, frente a un 23 por ciento que lo hicieron entre enero y marzo. Es decir, un 12 por ciento más. Teniendo en cuenta que es para un período de tiempo en el que hemos dicho que existe más competitividad, creo que no es difícil imaginarse a ese niño «pequeño» al que no eligen en el equipo de fútbol, pero que aun así le encanta el fútbol y decide entrar por la «puerta de atrás», a través del arbitraje. Sin duda, no es mi objetivo asustar a ningún padre con un hijo nacido en diciembre y con sueños de que éste sea el próximo Pelé; de hecho, el objetivo de este capítulo (como de todo el libro) es invitar al lector a mirar la realidad que nos rodea de una forma distinta y amena y a que intente descubrir en ella el impacto de hechos que a priori no son relevantes. Por eso, ahora me pongo un poco serio al hablar del impacto del RAE en el rendimiento escolar. Éste es un campo en el que hay estudios serios que confirman consistentemente la existencia del RAE. Sin embargo, y ya que se publicó recientemente el último Informe PISA, concretamente el del año 2012 con datos para los niños nacidos en 1996, vamos a ver qué encontramos. El Informe del Programa Internacional para la Evaluación de Estudiantes (más conocido como Informe PISA) «se basa en el análisis del rendimiento de estudiantes a partir de unos exámenes que se realizan cada tres años en varios países con el fin de determinar la valoración internacional de los alumnos».[13] Hemos trabajado con los datos públicos del Informe PISA 2012, de nuevo centrándonos exclusivamente en niños varones nacidos en España. Concretamente, hemos analizado el número de niños nacidos por mes que responden que han repetido algún curso en primaria o en secundaria. En este caso, desestacionalizamos con los datos de nacimiento del INE exclusivamente para 1996, que curiosamente, es un año bisiesto. Y por cierto, ojo de nuevo al mes de agosto. ¿No nacen niños en agosto, o es que no trabaja ningún ginecólogo en España en agosto? Quizás objeto de análisis para el futuro. Miramos primero qué niños responden que han repetido en alguna ocasión un curso en primaria o secundaria. Nos salen algo más de 4.000 niños, y ésta es su distribución por meses. Asusta un poco, ¿no? El 27 por ciento de ellos han nacido en el último trimestre del año, frente a un 22 por ciento que lo han hecho en el primero. Así que podemos decir que los niños que no jugaban en el primer equipo del colegio, no se dedicaban a estudiar más. Más bien al contrario. De hecho, sería justo decir que este efecto debería ser más acusado si nos fijamos sólo en los que han repetido en Primaria. Éste es el gráfico. Efectivamente, la tendencia es muchísimo más acusada. En este caso tenemos un 31 por ciento de repetidores nacidos en el último trimestre, frente a un 19 por ciento nacidos en el primero. Como ya hemos dicho, el impacto del RAE se suaviza con el paso de los años, y como vemos, no se limita a las actividades físicas. Es fácil también imaginar que un niño nacido el 31 de diciembre, y por tanto un año menor que uno nacido el 1 de enero, tendrá más dificultades en pasar las evaluaciones estándar en los diferentes cursos del colegio simplemente porque es relativamente más pequeño. Viendo esto, decidimos explorar si estos resultados tenían un impacto importante más adelante, en la universidad. Por eso, nos pusimos como objetivo ver si el impacto del RAE en los primeros años de educación se arrastraba y si se veía en los estudios universitarios más exigentes. Hemos tenido la enorme suerte de que la EUIT Aeronáutica de Madrid nos ha permitido gentilmente acceder a la información. Hemos tenido acceso a la fecha de nacimiento de casi 1.300 alumnos (varones) de la escuela desde 1980. Y antes de que nadie se escandalice, «todos» los datos que hemos manejado han sido anonimizados; sólo hemos tenido acceso a la fecha de nacimiento. Pues bien, por un lado podríamos pensar que el sesgo que el RAE introduce en los primeros años de educación impactará fuertemente a los alumnos que acceden a la EUIT, que suele tener una de las notas de acceso más altas de España, y por lo tanto veremos un peso importante de alumnos nacidos en el primer trimestre del año. O, al contrario, podríamos pensar que los niños que no han estado entrenando duro por estar en los primeros equipos de fútbol han tenido más tiempo para estudiar y sacar mejores notas, y por lo tanto podríamos ver una mayor presencia de alumnos nacidos a finales de año o bien una suma de todas estas cosas, con lo que, como también hemos visto, el impacto del RAE tendería a desaparecer con el paso de los años. Pues aunque hay un 12 por ciento más de alumnos que nacen en el primer trimestre del año, parece que el impacto del RAE se ha suavizado mucho. Uno de los objetivos que nos pusimos cuando empezamos a pensar en este capítulo era el de ver si éramos capaces de encontrar una actividad en la que hubiera una presencia significativamente mayor de nacidos a finales de año. Es decir, la actividad a la que se dedican mayoritariamente los niños que no son elegidos para los equipos A de fútbol. Y, por supuesto, la primera que nos vino a la cabeza fueron los videojuegos. ¿Qué puede hacer un niño al que no eligen para los mejores equipos de fútbol pero que aun así tiene una habilidad por encima de la media? Pues hacerse jugador de videojuegos profesional. Así que hablamos con la Liga de Videojuegos Profesional (LVP), una de las ligas más importantes en el ámbito español y europeo, y muy amablemente nos cedieron la fecha de nacimiento de los mejores jugadores de sus diferentes ligas. Para mantener la consistencia, y teniendo en cuenta que todos ellos son muy jóvenes, nos fijamos sólo en los nacidos entre 1980 y 1995, y acabamos con casi 1.000 jugadores, lo cual no está mal. Así que, ¿se dedicarán esos niños relegados al banquillo de los equipos de fútbol a jugar de forma profesional a los videojuegos? Pues parece que no. Sí que es verdad que el mes de diciembre es el mayor, pero hay una distribución muy similar por trimestres. Lo cual de todas formas nos dice una cosa muy interesante: no existe impacto RAE entre los jugadores profesionales de videojuegos, es decir, es un sistema mucho más justo con los niños que el de los deportes offline, si me lo permites. Recuerdo que de muy pequeño (quizás en 6.° o 7.° de EGB) quise montar con otros niños en el colegio un club de videojuegos (una de las principales discusiones que tuvimos fue si para Spectrum o Comodore). La idea era que por una suscripción compraríamos juegos que luego estarían disponibles para los socios. Fíjate, hace treinta años estaba poniendo las bases de la economía colaborativa. Pues bien, ese recuerdo me llevó a otra pregunta: esos niños con más tiempo porque no entrenaban con los mejores equipos, ¿utilizaron ese tiempo para emprender o al menos para desarrollar sus aptitudes emprendedoras? Para esto, nos dirigimos a AJE Madrid, y de nuevo muy amablemente nos pasaron las fechas de nacimiento de sus asociados. Aquí sí que tenemos datos para los dos períodos (1956-1974 y 19801995), pero las muestras son menores (unos 250 datos por serie). Empecemos con la serie 1956- 1974, y ya directamente la colocamos por «año» según la Federación de Fútbol de aquella época. Bueno, no es que sea muy exagerado, pero aun teniendo en cuenta la muestra tan pequeña, podemos ver que el «último» trimestre del año es un 7 por ciento mayor que el primero. Dato, por cierto, que se repite si miramos la serie de 1980 a 1995, donde volvemos a ver un 7 por ciento más en el último trimestre (real) del año. Esto es muy interesante; obviamente, no vemos un peso tan grande como en el mundo del fútbol, pero sí podemos, casi queremos, ver que en una proporción mayor los niños de finales de año, a los que «rechazan» en los equipos de fútbol, se dedican a emprender. Esto nos llevó a pensar: además de emprender, ¿se dedicarán, por ejemplo, al arte? Es decir, ya que en el colegio no los elegían para jugar, ¿decidieron apuntarse al grupo de teatro del colegio? Por eso nos fuimos a la Unión de Actores, que de nuevo muy amablemente nos proporcionó los datos para intentar averiguarlo. De hecho, aquí volvemos a tener una muestra importante: casi 1.000 actores nacidos entre 1980 y 1995, y más de 2.700 para los años 19561974. Empezando por estos últimos, y colocándolos en el «año futbolero»: No vemos nada, la verdad. Si acaso, sorprende el enorme peso de enero. Aunque tenemos que reconocer que, mirando uno a uno los datos, pensamos que muchos actores mienten sobre su edad, al menos sobre su fecha de nacimiento, ya que hay un número exagerado de actores que dicen que su fecha de nacimiento es el día 1 de enero. ¿Y qué pasa con los nacidos entre 1980 y 1995? Pues nos encontramos algo parecido, y la verdad es que nos sorprende. Encontramos que hay un 24 por ciento más de actores nacidos en el primer trimestre del año, por lo que se podría decir que aquí también existe el RAE, y no en el sentido que habíamos esperado a priori. También es verdad que vemos un número especialmente alto (no tanto como en la otra serie) de nacimientos declarados el 1 de enero, lo que sin duda desvirtúa los datos. Lo cierto es que no nos esperábamos encontrar esto, y la única explicación que se nos ocurre es que a la hora de anunciar castings, sobre todo para niños, se establezca como condición el haber nacido en un determinado año, y al final los productores y directores tiendan a elegir a los niños relativamente más mayores. Sin embargo, no conocemos tanto este mundillo como para aventurarnos con más teorías, pero desde luego los datos nos han sorprendido. ¿Y a qué otras actividades se podrían dedicar esos «niños pequeños»? ¿En qué actividad no tiene tanta importancia el tamaño físico y pueden realizar los niños desde pequeños, y sobre todo, de la que podamos disponer de datos de nacimiento? ¡El ajedrez! Así que nos pusimos manos a la obra y conseguimos que de forma muy amable los administradores de Chess-DB nos permitieran acceder a las fechas de nacimiento de los jugadores españoles de su base de datos. Las muestras no están mal, 200 para la serie 1980-1995 y más de 700 para la serie 1956-1974, ya que sólo recogen los datos de los jugadores de ajedrez con mayor ELO del país. Vamos a empezar con la serie 1980-1995 en este caso. La verdad es que aunque en el ajedrez el tamaño relativo físico no tiene ninguna importancia, obviamente la madurez intelectual relativa sí la tiene. Y como ya vimos en el caso de PISA, existe también un impacto RAE muy acusado relacionado con la capacidad intelectual, la «edad mental» relativa si me lo permites. Pero lo cierto es que no me esperaba que fuera tan marcado. El número de jugadores de ajedrez nacidos en el primer trimestre del año es más de dos veces el de los nacidos en el último. Un 31 por ciento frente a un 14 por ciento. Pero, curiosamente, los números se dan un poco la vuelta para la serie que va desde 1956 hasta 1974. Aunque más que decir que se dan la vuelta, deberíamos decir que se equilibran. Y es que es normal pensar que en un deporte como el ajedrez, en el que las carreras de los jugadores son mucho más largas que en deportes físicos, a largo plazo el mes de nacimiento es irrelevante. Quedaría por ver si, en un futuro, el impacto tan grande que hemos visto del RAE en los ajedrecistas más jóvenes termina por desaparecer totalmente. Quizás una idea para la reedición de este libro en treinta años... Y nos vamos acercando al final sin ser capaces de encontrar a qué se dedican los «niños pequeños». Intenté recordar qué hacían los niños menos populares en el colegio porque no eran especialmente buenos en el fútbol o el baloncesto. ¿Qué hacían además de ser promotores de clubes de intercambio de videojuegos? Enseguida lo recordé: ¡eran los delegados de curso! ¿Y a qué se han podido dedicar después los delegados de curso? ¿Cómo evoluciona un delegado de curso en el ámbito profesional? Pues curiosamente la respuesta volvía a estar en mi colegio, y es que el delegado de curso durante muchos años en mi clase terminó siendo alcalde... ¡Así que políticos! Y seguramente sabrás que no somos un país muy transparente en cuanto a la información pública. No se me ocurría cómo encontrar información sobre la fecha de nacimiento de nuestros políticos. La que había estaba muy diseminada, y resultaba muy difícil conseguirla en un formato que nos permitiera trabajar. Finalmente, me dirigí a lo que podría ser la primera división de la política, nuestro Congreso. Uno podría pensar que el Congreso debería de tener la fecha de nacimiento de todos los diputados de la historia. Pues no, tienen algunas; de hecho, tienen algunas en la web, pero por algún motivo que se me escapa, no las tienen en un solo fichero, y me invitaron a que yo recogiera a mano todos los datos que había en la web... Sin comentarios. Entonces me dirigí al Senado. Siguiendo con la metáfora futbolística, la verdad es que no sabría qué división es, pero en todo caso es una información muy interesante. Y ahí sí, de forma muy amable me hicieron llegar el listado con las fechas de nacimiento de todos los senadores de la historia. ¿Veremos el efecto del RAE representado en los delegados de clase convertidos en senadores? La verdad es que incluso la banda entre 1956 y 1974 es una banda muy «joven» para nuestros senadores. De los 1.800 senadores en la base de datos, no son ni 500 los que nacieron entre 1956 y 1974. Así se distribuyen cuando los ponemos en el «año futbolero»: Ya hemos visto que el RAE tiende a desaparecer con los años, pero a pesar de eso, aquí tenemos que hay casi un 21 por ciento más de senadores que han nacido en el «último» trimestre del año comparado con los tres «primeros» meses. Es decir, los niños relativamente más pequeños en la época en la que el corte de las categorías de fútbol se hacía el 1 de agosto, los nacidos en julio, están proporcionalmente más representados en el Senado. Quiero imaginarme a esos delegados de clase a los que nadie quería en su equipo de fútbol evolucionando hasta ser senadores para explicar este gráfico y poder decir que los senadores (y por ende, nuestros políticos) no la saben meter (la pelota claro), pero seguramente es pedir demasiado a los números, aunque escribo esto con una cierta sonrisa de malicia. Nunca ha sido el objetivo de este capítulo el hacer un estudio en detalle y riguroso del RAE. Y, por lo tanto, no es nuestra intención proponer o hablar de las diferentes ideas para mitigar un poco su efecto, que, como en el caso de los estudios, puede tener sin duda aspectos muy negativos. Los profesionales de esto abogan por agrupar a los niños por tramos más pequeños, o incluso en el mundo del deporte, establecer cuotas o sistemas de handicap similares al golf. Sin embargo, como padre de niños aún muy pequeños, si hay una cosa con la que me quedo después de haber escrito esto es que en la base del RAE están la competitividad, las notas, las puntuaciones, las clasificaciones... Y me gustaría que este humilde capítulo de este libro nos hiciera reflexionar sobre las exigencias que ponemos a nuestros pequeños desde demasiado pronto. Hemos visto que, a largo plazo, el mes de nacimiento es irrelevante. Pero a mí me preocupa el efecto que puede tener en mis hijos el que hagamos del mes de nacimiento algo relevante cuando ellos están en plena formación, y cuando la fecha de nacimiento es una constante sobre la que no tenemos influencia. 7 El análisis de datos, la profesión más sexy del siglo XXI JAVIER GARCÍA Y ANTONIO ÁLVAREZ PINILLA Duda de los datos hasta que los datos no dejen lugar a dudas. HENRI P OINCARÉ, polímata (matemático, físico, científico teórico y filósofo de la ciencia) Ya en el año 2009 Hal Varian, economista jefe de Google y uno de los grandes microeconomistas vivos, afirmaba en una fascinante entrevista en el The Wall Street Journal que el «trabajo sexy» de los diez años siguientes sería la estadística. A los tres años, en 2012, la reputada revista Harvard Business Review confirmaba las palabras de Varian, sentenciando que ser «científico de datos» era el trabajo más sexy del siglo XXI.[14] Desde las declaraciones de Varian, el interés por todo lo relacionado con la estadística ha ido aumentando, tanto a escala individual («¿Cómo puedo formarme para trabajar como data scientist?») como en el ámbito social, en la medida en que lo que se conoce como el Big Data —es decir, la disponibilidad de grandes cantidades de datos— promete ser la siguiente gran revolución productiva. No obstante, y a pesar del enorme entusiasmo que nos genera este apasionante tema, nos gustaría dar una visión mucho más apegada a la realidad y, como es el espíritu de este libro, poner énfasis en todos los aspectos que nos hagan dudar como método para hacernos pensar desde otros prismas. El objetivo de este capítulo es, precisamente, adentrarnos en el mundo de los datos, poner ejemplos y dar motivos de por qué son algo así como el «petróleo del siglo XXI». También creemos que aún nos queda mucho para que los datos y todo lo que podemos hacer con ellos lideren en el corto plazo una verdadera revolución industrial, y, sobre todo, pretendemos aportar algunas ideas para reflexionar respecto a qué tenemos que hacer como sociedad para aprovechar al máximo esta ola de riqueza que viene. Análisis versus experiencia En muchas ocasiones, la toma de decisiones importantes se basa en la experiencia o en la intuición más que en el análisis. Éste es el tema central que trata Ian Ayres, profesor de la Universidad de Yale, en un magnífico libro, Super Crunchers, en el que recoge un buen número de casos en los que el análisis de datos se abre camino en campos donde su presencia era muy reducida. Por ejemplo, el libro comienza con la historia de un economista de la Universidad de Princeton, Orley Ashenfelter, que, llevado por su afición al vino, se lanzó a predecir la calidad que tendrían ciertos vinos de Borgoña en el mercado. Sus predicciones empezaron a superar a las de conocidos catadores que sólo basaban sus valoraciones en la experiencia acumulada por los muchos años a sus espaldas. Lo más sorprendente del caso es que Aschenfelter realizaba sus predicciones antes de que el vino saliera al mercado, ya que se basaban en una sencilla ecuación que tenía en cuenta, entre otras cosas, las condiciones climáticas de la zona donde se producía el vino. Éste es uno de los muchos ejemplos que Ayres comenta en su obra, con el objetivo de destacar el papel clave que puede desempeñar el análisis de datos en casi todos los sectores de actividad. Ayres es bastante convincente sobre la importancia de las decisiones basadas en datos (data-driven decision making) escogiendo ejemplos en el deporte, la medicina, la educación o el marketing. En un principio, el libro iba a denominarse «El fin de la intuición», aunque en última instancia decidió cambiarlo debido a los resultados de un ensayo realizado en Google, en el que los internautas mostraron una mayor preferencia por «Super Crunchers». Otro de los casos donde se enfrenta el análisis con la experiencia es el del deporte. Hay un caso bastante conocido, el del equipo de béisbol de los Oakland Athletics, que empezó a utilizar el análisis en un mundo en el que había dominado la experiencia. Esta interesante historia ha sido llevada al cine con la película Moneyball: Rompiendo las reglas, basada en la historia real de Billy Beane (Brad Pitt), que, como dice la propia sinopsis de la película, es «una prometedora estrella del béisbol que, incitado por el fracaso de no haber demostrado en el campo todo lo que se esperaba de él, enfocó toda su naturaleza competitiva hacia el área de la dirección de equipos. Al comienzo de la temporada 2002, Billy se enfrenta a una situación deprimente: su modesto equipo, los Oakland Athletics, ha perdido, una vez más, a sus mejores jugadores a manos de los clubes grandes, y encima tiene que reconstruirlo con sólo un tercio del presupuesto». Ante este comienzo se puede pensar: ¿estamos otra vez ante la típica película de renegados con un gran líder que les hace triunfar y escribir la historia? ¿Estamos ante una peli de motivación, trabajo duro y valentía? En cierta forma, sí; es una película que usa a renegados, profesionales del béisbol que no parece que sirvan para mucho, y que los coloca en una posición de liderazgo y de respeto nunca antes logrado por el equipo. Pero la esencia de la película para unos economistas obsesionados con la estrategia empresarial y los datos como nosotros no es ésa. Moneyball tiene otros ingredientes que la hacen real y fabulosa para ser considerada una referencia en las escuelas de: estadística; negociación y comunicación, y estrategia y management. ¿Por qué? Trataremos de explicarnos sin desvelar muchos detalles para no aguar la fiesta a quien no la haya visto. Pensemos en un deporte (y se puede sustituir deporte por empresa o industria) de gran tradición, que apasiona a mucha gente, donde hay filias y fobias acerca de los jugadores. Hay fans, audiencia y seguidores, y todo tiene mucho de misterio y de pasión (emoción). De la misma forma, hay equipos con mucho dinero y otros relativamente pobres. Fichar «a los mejores» es el sueño de los equipos, pero también son los que «más dinero cuestan». Hasta aquí no hay novedad: a más demanda, mayor precio. Ahora bien, ¿obtiene siempre el equipo con más dinero los mejores jugadores? ¿Cómo se define «mejor»? Si sumásemos los sueldos de los jugadores que componían el equipo de la Roja que ganó el Mundial de Fútbol de 2010 en Sudáfrica, ¿sería el equipo más caro de Europa o del mundo? La respuesta es «no». ¿Tener más dinero no implica poder comprar más talento y, con ello, crear el mejor equipo y ganar? La respuesta, obviamente, es no; puedes comprar talento y «no» ganar. Pero para justificarla solemos utilizar argumentos del tipo «el fútbol es así», «es cuestión de suerte», «una mala tarde la tiene cualquiera», porque no basta con los mejores, sino que éstos tienen que funcionar bien como equipo y canalizar su talento hacia los buenos resultados. Y, efectivamente, éstas son grandes razones para explicar por qué el mejor equipo de béisbol, fútbol o baloncesto o lo que queramos no es necesariamente el mejor pagado. Hay muchos factores humanos, impredecibles y difíciles de explicar, que influyen en los resultados de un equipo deportivo (repetimos, se puede poner aquí la palabra «empresa»). Basta que una noche haya dormido mal para que ese portero sea un coladero o tal bateador no dé ni una. Por eso es muy típico, en este contexto, encontrarte con voces que te dicen «ésta es la forma de hacer las cosas aquí» o, mejor, «la-única- forma-de-hacer-las-cosas». ¿Cuál era la única forma de hacer las cosas hace unas décadas en el béisbol? Moneyball relata dicha época, centrándose en el papel de los «ojeadores». Gente experta que ha visto miles de partidos y de jugadores, que sabe quién es bueno y quién malo por su intuición, por su olfato. ¿Necesitan medir algo? «¿Para qué? Se sabe por la experiencia», suele ser la respuesta típica. Los grandes jugadores tienen liderazgo, destacan en el campo de juego como si fueran pepitas de oro. Todo el mundo confía en ellos, los adoran, a lo cual se añaden el buen dominio de la técnica y otra serie de factores que los ojeadores perciben. Estos líderes son el ingrediente indispensable en el millonario mercado de fichajes. En cambio, si no tienes dinero para pagar a once estrellas para un equipo de fútbol, ¿qué haces? Éste es el caso del gerente del equipo al que da vida Brad Pitt, el cual, casi por casualidad, encuentra a un friki de libro, un apasionado del béisbol y obsesionado con medir hasta el último detalle de cada jugador. Ha estudiado en una de las mejores universidades americanas y trabaja en un equipo recopilando datos, aunque nadie le presta demasiada atención. Pero Brad Pitt entabla cierta relación con él y lo ficha. ¿Se puede hacer un equipo «perfecto» con el dinero que tenemos simulándolo por ordenador? Si mides los indicadores adecuados, posiblemente sí. Buscas puesto por puesto qué necesitas, las funciones que tienen que cumplir, y tratas de comprender cuáles son los factores que te llevan a ganar partidos. Después buscas esas características en la base de datos donde tienes estudiados a muchos jugadores (¡cuantos más, mejor!), y en función de esos elementos podrás elegir. ¿Dónde está la gracia? ¿Por qué los datos pueden ayudar tanto o más que un ojeador? Los ojeadores son personas, tienen prejuicios, gustos, y la intuición como única guía puede fallar, por ejemplo pagando un precio demasiado elevado por algún jugador cuyas funciones podían ser replicadas por otros de menor coste. De hecho, lo que el chico demostraba con sus datos es que había jugadores que nadie los quería porque estéticamente no eran adecuados (una forma «rara» de lanzar, por ejemplo), pero que, en cambio, cumplían perfectamente sus funciones (lanzar muy bien, incluso mejor que ciertas «estrellas»). Si no tienes presupuesto, la clave es encontrar y fichar a estos «renegados», jugadores que, por diversas razones, no cumplían con los criterios de los ojeadores pero que, en realidad, tenían buenos datos y, por lo tanto, podrían ser adecuados para el objetivo: ganar partidos. Su precio de mercado (fijado por los ojeadores de los club, que determinaban quién era deseado y caro o no deseado y barato) eran relativamente bajos, y sería factible crear un nuevo equipo que, sobre el papel, podría tener buenos resultados. Resulta muy interesante ver cómo se desarrolla la película bajo esta idea, en la que el resto de la profesión considera unos locos tanto a la persona obsesionada por los datos como al gerente que le hace caso. Resulta curioso, pero es algo que suele repetirse: a los primeros que rompen las reglas se les suele tachar de locos. Cuando en toda la industria (el béisbol, en este caso) nadie mide, tener una estrategia que implique medir y mejorar puede romper las reglas de juego y crear diferencias muy notables. Y esto fue lo que ocurrió. Ahora, cambiemos de canal y veamos un poco de otra película, también sobre la polémica entre análisis y experiencia en el béisbol. Se trata de Golpe de efecto, con el viejo, gruñón y genial Clint Eastwood. A Clint le traen sin cuidado los ordenadores, las bases de datos y todos esos cacharros tecnológicos para tomar decisiones sobre qué jugador tiene o no talento. Dos películas, dos extremos, dos formas de ver las cosas. Merece la pena verlas simultáneamente y quedarse con la mezcla de los puntos de vista que transmiten sobre la gestión cuantitativa de datos versus la gestión discrecional humana. La época que refleja Moneyball es el mundo donde los ojeadores eran los amos, de miles de tipos que miran y observan, que se fijan casi en las mismas cosas. Existe un público entregado, unos comentaristas —periodistas— especializados y que influyen en la opinión del público y de los propios ojeadores. En este mercado, unas pocas estrellas se llevan los contratos millonarios y todos los clubes compiten por unos escasos jugadores. En ese mundo, surge una forma de diferenciarse, medir. Cuantificar resultados y no fijarse tanto en las personas. ¿Qué queremos comprar, jugadores o resultados? Si queremos resultados, midamos ciertas variables que nos aseguren ganar partidos. Tras una recopilación de datos y análisis de diversas variables, el ranking de mejores jugadores «para la máquina» no necesariamente es igual a los mejores jugadores «para los ojeadores y periodistas». Si eliges las variables adecuadas, es decir, qué medir; si tienes buenos datos y un modelo adecuado, y además tu competencia no hace lo que tú estás planteando, surge un mar de oportunidades. Puedes detectar antes que nadie el talento y puedes hacerte con jugadores «anónimos» con gran potencial que te permiten dos cosas: 1) ayudar a tu equipo a obtener mejores resultados, y 2) hacer inversiones muy rentables, porque, si efectivamente un fichaje es un talento, con el tiempo se lo disputarán y podrás obtener un gran precio. Y ésa es la esencia de Moneyball. En un mundo sin análisis de datos, de pura intuición y gran atención mediática existe una alta probabilidad de pasar por alto el talento potencial de los jugadores. Y eso en sí mismo es una veta para innovar y crecer como club. Billy Beane rompió las reglas del juego introduciendo una nueva forma de hacer las cosas. Y es ahí donde se conectan las dos películas. ¿Qué pasa cuando no hay un ojeador sin una base de datos y sin ordenadores? ¿Qué ocurre cuando todos tienen prácticamente los mismos datos y contratan a las mismas empresas para que se los suministren? Golpe de efecto te enseña que es muy difícil sobrevivir en un mercado con una innovación fácil de copiar por tu competencia. El primero en aplicar ordenadores y crear bases de datos genera una ventaja —a veces muy grande— frente a sus rivales..., hasta que éstos se hacen con las mismas bases de datos y los mismos programas de ordenadores (incluso mejorándolos). Las ventajas iniciales se van limando y los clubes «cada vez se parecen más». Por lo tanto, mal negocio si pretendes diferenciarte por tener un software, una nave, una máquina o un centro logístico. Si funciona pero es fácil de copiar, tu competencia acabará por contratar a las mismas empresas que te vendieron esas «singularidades» o te analizará con bisturí hasta lograr neutralizar esa innovación. Se necesita algo más. Moneyball se basa en una historia real que transcurre en 2001. Golpe de efecto muestra algo que está ocurriendo hoy. Negociaciones muy profesionalizadas, elevado dominio de todos los datos de todos los jugadores de béisbol de todas las ligas... y por todos los clubes. Y es aquí donde se muestra a un Clint Eastwood y a un puñado de viejos más que siguen yendo metódicamente a los partidos de las ligas menores para detectar «potenciales estrellas». Son los «raros» y los «clásicos» en un mercado donde casi todo son «ojeadores de despacho». Sin pisar un campo de béisbol, pueden decidir qué contratar y qué no. El dilema ocurre cuando la base de datos dice una cosa y el «viejo gruñón» otra. Los datos frente a la experiencia. Una experiencia basada en el meticuloso análisis de detalles muy difíciles de cuantificar, como el sonido de la bola cuando se lanza o golpea, o cómo coge el bate un jugador o cómo coloca su cintura. ¿Cómo medir eso? Hay un margen entre el dato y la medición del verdadero potencial. Ese margen se nutre de un intangible muy difícil de medir, que requiere de personas altamente capacitadas para estimarlo. Por eso, hoy en día, algunas de las modernas técnicas de análisis de datos incorporan la experiencia de los agentes bajo la denominación de «conocimiento experto». Lo interesante de ambas películas es que aumentan el foco de la atención en dos extremos de los cuales podemos extraer ideas interesantes, y que nos permiten centrar el debate que queremos abrir en este capítulo: ¿cuál es la importancia real del análisis de datos y qué hay que hacer para sacarle el máximo potencial? Aquí, por lo tanto, están las ideas tras la salida del cine de estos dos economistas: 1. ¿Con medir es suficiente? La respuesta es no. Había que hacer funcionar el equipo de Brad Pitt elegido según los datos (que maximiza unas funciones respecto a un presupuesto máximo). Canalizar su talento hacia un objetivo concreto, que es ganar y hacer bien el trabajo. Y eso no es fácil. Por varios motivos: los que habían sido «elegidos» eran renegados, gente en la que nadie creía, y darles confianza y motivación no es fácil. Éste es un área en la que hay que trabajar. 2. No sólo hay que medir y tener datos, hay que generar conocimiento sobre ellos e interiorizarlos. En Moneyball, los jugadores sólo empezaron a ver su potencial cuando les explicaban sus números, cuando les hacían ver cómo mejoraban cuando hacían ciertas cosas y qué era lo que les hacía tener malos resultados. Cuando lo ves, lo experimentas, mides y conoces tu evolución, empiezas a canalizar el talento que tienes dentro. Y eso se hace con comunicación y comunicación..., y más comunicación después... a partir de buenos datos. 3. Medir no es igual a tener buenos datos. Es tan importante, si no más, saber qué tienes que medir que el acto de medir. Tendemos a destinar mucha más energía y recursos para tener el mejor programa informático (tecnología), que pueda medirlo todo, que a saber qué queremos y para qué lo queremos medir. Y esto suele traer consecuencias (económicas) serias. 4. Obtener datos donde no los había es un gran paso, pero sólo es eso, un paso. Uno de los fallos de muchas empresas —que cotejamos en nuestra vida profesional — es que desconocen la mayoría de sus métricas. En la mayoría de las ocasiones se producen estas dos situaciones: o medimos mucho, pero medimos mal, o no medimos, y no sabemos qué hacemos y con qué impacto. Ahora bien, medir como única estrategia es algo que dura poco tiempo. De hecho, en Moneyball se explica cómo Billy Beane rompió las reglas e hizo historia. Pero también se muestra cómo rápidamente todo el sector pasó a tratar de hacer lo mismo. En el momento en que añades la potencia económica de los líderes a la nueva tecnología (es decir, cuando adoptan las innovaciones de los pequeños) puede ocurrir, de hecho ocurrió, que sus posibilidades mejoren y las brechas entre equipos aumenten. 5. Grandes decisiones bien fundamentadas con datos no necesariamente tienen por qué ser las mejores o las que más éxito generen. La realidad es que no todo lo importante para decidir se puede medir. 6. La experiencia y el alto entrenamiento generan capacidades muy desarrolladas que crean una especie de «olfato», una intuición rica en detalles muy valiosa para decidir. Como se afirma en el libro de Miguel Illescas Jaque mate, este entrenamiento es precisamente una de las fortalezas de los maestros del ajedrez. 7. Las diferencias duraderas se logran gracias a lo que no se puede copiar y alimentar día a día. Y eso suele estar vinculado con lo que hacen las personas, cómo aprenden y cómo aplican sus conocimientos. Normalmente, esto va mucho más allá de un sueldo. Requiere de otros componentes cada vez más importantes, como motivación, pasión, esfuerzo, foco y especialización y capacidad continuada de aprendizaje. Nada de esto se resuelve tan sólo con un programa informático y unas bases de datos o unas hojas de Excel. La tecnología es un gran vehículo para lograr metas cada vez más complejas e importantes. Pero la productividad de una tecnología y sus posibilidades no es algo que esté dado, se tiene que expandir con el desarrollo de las diversas capacidades humanas. Centrémonos ahí, cultivemos valores, formación, propósitos y una motivación para progresar y mejorar... Después habrá una tecnología que te ayudará a conseguirlo o a hacerte la vida más fácil... Y si no la hay, ¡se inventa! Estas reflexiones se abordan con mucho más detalle en otro capítulo de este libro, escrito por Xavier Marcet y Javier García. En definitiva, para centrar el debate sobre la potencia del análisis de datos hay que empezar por la cautela, que luego relajaremos con ejemplos realmente atractivos. Esa cautela reside en que es muy difícil diferenciarse en un mercado mediante algo que puede ser copiado con rapidez por los competidores, como es el uso de una técnica, una máquina o un sistema logístico. La diferencia dura el tiempo necesario hasta que te pueden copiar. En el caso del béisbol, incluso emergieron empresas de consultoría, programas de software y expertos que permitían tener acceso a esas técnicas novedosas de forma rápida y, cada vez, a menor precio. Por lo tanto, la lección es que ciertas cosas, cuando las haces el primero, te permiten crear grandes diferencias respecto a los demás, pero esas diferencias no serán eternas. Algunas empresas no aceptan esta circunstancia y piensan que por el hecho de haber creado diferencias en el pasado éstas van a durar toda la vida. Para crear de forma continua una diferencia se necesita ser muy adaptable, tener una gran orientación hacia el cambio y una experimentación constante en la frontera todavía no explorada por otros. De la misma manera, otra gran lección es que una vez que estas novedades ya están en el mercado, no puedes dejar de implementarlas o, al menos, sacarles el mismo provecho que tu competencia. No te hará mejor, pero, al menos, no te sacará del mercado. Recolectar datos donde nadie lo había hecho, pensar en cómo usarlos, ayudar a tu intuición a tomar decisiones, romper las normas del juego cuando nadie se atreve a ello y luchar ante todo aquel que te dice «esto nunca se hizo así» son elementos necesarios para reinventar nuestras empresas y modelos de negocio. Iker Casillas resumía en una entrevista en El País la clave del éxito de España tras ganar el Mundial: «Somos como un Tetris, todas las piezas encajan». Medir te ayuda a detectar qué piezas son las mejores. Hacer que todas encajen para lograr un objetivo ya es fruto de la maestría, el liderazgo y la motivación, motivo por el cual hablamos en detalle en otro capítulo sobre estas cuestiones. Las nuevas técnicas de análisis Una de las razones por las que el análisis de datos ha crecido en popularidad se debe al desarrollo en los últimos años de un buen número de técnicas que han dotado a la ciencia del análisis de datos de unas capacidades enormes. Éste no es el lugar para hablar en profundidad de estas técnicas, pero creemos conveniente dar unas pinceladas de lo que está sucediendo. Un ejemplo de estas nuevas técnicas son los denominados algoritmos bioinspirados. Estos algoritmos se basan en observar algún fenómeno en la naturaleza que tenga alguna propiedad interesante desde el punto de vista matemático, como el ejemplo de la swarm optimization, que podríamos traducir libremente como «optimización de colonias». Una de las técnicas más conocidas de este tipo son los algoritmos de hormigas. Esto suena bastante extraño, porque la mayoría de la gente desconoce que las hormigas tienen un comportamiento optimizador, minimizando la distancia recorrida hasta la comida. Las hormigas segregan unas hormonas, las feromonas, que tienen una intensidad mayor cuando una hormiga ha encontrado comida y regresa con ella al hormiguero. Cuando una hormiga que está buscando comida detecta una de estas feromonas, intenta seguir el rastro dejado por esa hormiga. Al final, lo que sucede es que todas las hormigas van a recoger alimento siguiendo la misma ruta, y por eso solemos ver esas hileras de hormigas entre el hormiguero y una fuente de comida. Pues bien, estos algoritmos de hormigas, desarrollados por el investigador italiano Marco Dorigo, son muy precisos para resolver problemas complejos de optimización. Por este motivo, cada vez son más empleados, por ejemplo, para trazar rutas logísticas complicadas. Otro grupo de algoritmos que pertenece a la familia de bioinspirados son los algoritmos genéticos. En este caso, el proceso de la naturaleza que se intenta imitar es el de la evolución de las especies, en el sentido darwiniano de la supervivencia de los mejores. La idea que se pretende recoger en el algoritmo es la de que las especies evolucionan hacia individuos con características «mejores». ¿Por qué es deseable imitar matemáticamente esa evolución? El motivo, aunque es en cierto modo un poco técnico, es lo suficientemente importante como para intentar resumirlo. Cuando resolvemos un problema de optimización, buscamos determinar el valor objetivo de una o más variables sobre las que podamos actuar para obtener el valor máximo o mínimo de otra variable de interés. Un ejemplo sería la búsqueda de la frecuencia óptima de autobuses para maximizar el número de pasajeros a transportar o la dosis de pienso que permite producir el litro de leche al mínimo coste posible. El problema radica en que en la mayor parte de las funciones a optimizar existe más de un óptimo. Si pensamos en términos de máximos, habría más de un máximo. Es como si buscásemos la máxima altura en una cordillera de montañas. Hay muchos picos, pero sólo uno de ellos es el más alto, que es el que buscamos. El problema aparece porque la inmensa mayoría de los algoritmos que intentan localizar el máximo global (el pico más alto) se paran en el primer pico (máximo local) que encuentran. Sin embargo, los algoritmos modernos, como los algoritmos bioinspirados, son capaces de encontrar el máximo global, que es el que en realidad nos interesa. Podemos computar con palabras Una de las ventajas de las nuevas técnicas de análisis de datos es que es posible usar palabras (lenguaje natural) dentro de algunos algoritmos. Así, por ejemplo, términos como «lejos» o «sabroso» pueden emplearse sin necesidad de ser transcritos a una escala numérica, que es lo que se solía hacer hasta el momento (y todavía se hace). Estos avances tienen su antecedente en un artículo publicado en 1965 por Lotfi Zadeh en el que desarrollaba su teoría de conjuntos difusos. La idea de Zadeh es que hay grandes categorías de elementos que no pueden ser definidos con precisión. Por ejemplo, mientras que el conjunto de países europeos que tienen costa marítima es un conjunto nítido (crisp), si tenemos una cesta de manzanas y pedimos a varias personas que separen las manzanas «grandes» nos encontraremos con que seleccionan grupos distintos. Eso es debido a que el término «grande» es difuso (o borroso, como se suele decir a veces). Esta aportación de Zadeh ha dado lugar al desarrollo de la lógica difusa (fuzzy logic), una disciplina que está a medio camino entre las matemáticas y la inteligencia artificial y que tiene muchísimas aplicaciones en el ámbito industrial. Un ejemplo que nos ayudará a entender mejor la relevancia del concepto tiene que ver con la forma en que las lavadoras modernas deciden cambiar el agua. Si preguntamos a una persona cómo cree que una lavadora decide cuándo cambiar el agua, probablemente nos conteste que lo hace cada cierto tiempo (fijado en función del programa elegido). Sin embargo, las lavadoras modernas cambian el agua cuando piensan que el agua está «sucia». ¿Cómo puede ser? Decidir si algo está sucio es algo en lo que a los humanos nos cuesta ponernos de acuerdo, por lo que parece casi imposible que una máquina lo pueda hacer. Sin embargo, no es tan difícil. Con un sensor que mida la turbidez y un algoritmo de lógica difusa que permita introducir la noción de «sucio», las máquinas toman esa complicada decisión sin ningún problema. Un caso similar es el del análisis de textos (text mining), en el que algunas empresas como Google han basado una buena parte de su éxito. Las posibilidades que tiene este campo son enormes. Veámoslo con un ejemplo que raya la ciencia ficción. Epagogix es una empresa británica que ofrece sus servicios a empresas del sector cinematográfico para analizar la rentabilidad de una película en función del guion. Lo que hace esta empresa es utilizar un algoritmo (una red neuronal moderna) que le permite predecir los ingresos por taquilla de una película a partir de las características del guion. Cuando los directivos de la empresa presentaron sus servicios a un importante estudio cinematográfico, éste les dio para analizar los guiones de varias películas que ya habían sido producidas y cuyos ingresos se conocían. Los resultados de las predicciones de Epagogix fueron bastante buenos. Lo más sorprendente e interesante de la tecnología de Epagogix es que analiza el guion sin saber quiénes van a ser el director o los actores protagonistas. Éste es un buen ejemplo de un fenómeno que está cobrando dimensiones importantes: la capacidad del análisis de datos para crear nuevos negocios. El poderoso Google y el Big Data Google Flu Trends, el aclamado algoritmo de Google especializado en detectar los brotes de gripe por todo el mundo, ha fallado este año estrepitosamente. La iniciativa había echado a andar hace cinco años, cuando investigadores de Google y del Centro para el Control y Prevención de Enfermedades unieron sus fuerzas en un artículo finalmente publicado en la revista Nature. El artículo mostraba cómo una agregación de las búsquedas de los usuarios acerca de la gripe o de sus síntomas era capaz de predecir en tiempo real los brotes de dicha enfermedad con mayor rapidez y precisión que el propio centro público de control de la misma. Google Flu Trends había funcionado a la perfección durante un tiempo, pero este último invierno la herramienta pronosticó un grave brote de gripe que nunca se llegó a dar. Los datos públicos recopilados muestran que la pasada gripe ha sido más bien leve, poniendo en entredicho la fiabilidad del algoritmo. ¿Qué puede haber fallado en el método de Google? Es pronto para saber qué ha fallado. ¿Hubo una alerta injustificada entre la población? ¿Ha cometido el algoritmo un error en su extrapolación? Independientemente de las respuestas, el incidente ha servido para añadir leña al debate sobre la fiabilidad y los límites del Big Data. Repasemos las posibles causas del error, según han sido apuntadas por expertos y otros opinadores. Una de las supuestas promesas del nuevo campo del análisis de datos es la posibilidad de realizar «predicciones sin teoría», es decir, ser capaces de predecir fenómenos sin invertir tiempo en comprender los mismos teorizando sobre ellos. Esta posibilidad resulta altamente atractiva para las empresas, que podrían así ahorrar numerosos recursos en el análisis de diversos fenómenos. En primer lugar, las predicciones libres de teoría no representan ninguna novedad. Sin ir más lejos, en farmacología se desconoce el proceso por el cual funcionan numerosos principios activos, lo cual no impide que se aprueben y utilicen como medicamentos eficaces. En general, los métodos experimentales, tanto en medicina como en campos tan dispares como los negocios, son esencialmente libres de teoría. Si una medida provoca un efecto deseado y los efectos secundarios son asumibles, ¿para qué es necesario conocer exactamente su mecanismo? En segundo lugar, durante los últimos años se ha desarrollado rápidamente una disciplina que combina informática y estadística, conocida como machine learning («aprendizaje automático»), cuyo propósito fundamental es la predicción. Los métodos de machine learning se basan a menudo en la validación fuera de muestra, es decir, en probar la calidad de los modelos a partir de su capacidad para predecir fenómenos que todavía no ha analizado. Y, sobre todo, es esencialmente «libre de teoría». Entre los mayores logros recientes de dichos métodos se encuentran el reconocimiento facial de Facebook o el reconocimiento de voz de Google. En el desarrollo de dichos métodos hay poca o ninguna teoría sobre qué rasgos hacen que una cara o una palabra sea reconocible. Sólo hay métodos estadísticos generales aplicados sobre volúmenes ingentes de datos, y los resultados han resultado ser espectaculares. Las críticas menos acertadas son aquellas que culpan a algún algoritmo de olvidar que «correlación no implica causalidad». La crítica es a menudo infundada y no es aplicable al problema de Google Flu Trends. El problema de la diferencia entre correlación y causalidad puede darse cuando un investigador ha de analizar los motivos explicativos de un fenómeno, es decir, una pregunta cuya formulación clásica es: «¿Es X la causante de Y?». Tanto el machine learning (estadística con enfoque computacional orientado a la predicción) como la econometría (estadística orientada a la comprensión de fenómenos económicos) han desarrollado diversos métodos para solucionar el problema de la causalidad. El más sencillo de todos es el diseño experimental clásico, en el que los individuos son asignados aleatoriamente a varios grupos, que serán tratados de distinta manera conforme a lo que el investigador desea estudiar. En este caso, la aleatoriedad en la asignación garantiza la causalidad en las diferencias observadas entre grupos. No obstante, el algoritmo de Google no busca establecer relaciones de causalidad, sino que pretende agregar y localizar geográficamente información relevante sobre un fenómeno con mayor rapidez que las alternativas existentes. La crítica de la diferencia entre correlación y causalidad equivaldría a asumir que Google pretende responder a la pregunta: «¿son las búsquedas en Google las causantes de los brotes de epidemia?». Absurdo. Un problema que sí puede llegar a producirse entre los analistas de datos es asumir que uno tiene tantas observaciones que prácticamente equivalen al conjunto de la población. La inferencia es la rama de la estadística que analiza la relación entre una muestra y la población de su conjunto. Por ejemplo, si queremos saber la edad media de la población española, podemos hacer dos cosas. Por un lado, podemos tomar una muestra, calcular su edad media y suponer que la edad media de la muestra es igual a la poblacional. ¿Qué podría hacer que nos equivocáramos al extrapolar dicho valor muestral al poblacional? En primer lugar, podemos sufrir un error de muestreo. Es decir, la muestra estaba compuesta por unas ciertas personas... Pero esas personas podrían haber sido otras con mayor o menor edad. Y éste es el problema que mejor evita el Big Data, ya que, con tamaños muestrales tan grandes, el error de muestreo se reduce considerablemente. Al fin y al cabo, hemos tenido en cuenta la edad de todos los españoles. Ahora bien, lo anterior no impide que pueda surgir un último problema más difícil de detectar: los sesgos de autoselección. Por muy grande que sea nuestra muestra, puede haber un mecanismo perverso que haga que los datos que tomemos no sean representativos de nuestra población. Así, resulta bastante probable que la mayor parte de las búsquedas sobre enfermedades o epidemias las realicen grupos de individuos con unas características concretas, aunque estas características podrían haber cambiado a lo largo del tiempo. ¿De verdad pensamos que la gripe depende de las búsquedas que hacemos en Google? Tener más datos es una condición necesaria, pero no suficiente, para mejorar la calidad del trabajo que podemos hacer con ellos. Otro ejemplo en el que se recordó fuertemente la limitación del Big Data (o mejor, del abuso de extrapolación de Google Flu Trends) fue un estudio de la Universidad de Princeton, que afirmaba que basándose en la caída en la frecuencia de búsquedas en Google, Facebook perdería un 80 por ciento de sus usuarios para 2015-2017. Dicho estudio fue contestado de manera brillantemente irónica por el mismo equipo de data scientists de Facebook, que mostró que usando el mismo procedimiento de extrapolación (correlación no es causalidad) podríamos concluir que Princeton perdería la mitad de sus alumnos para el año 2018, y que incluso el mundo se quedaría sin aire en el año 2060. ¿De verdad creemos que es así? Los mismos investigadores de Facebook confirmaron que se trataba de un absurdo. Provocativa demostración, pero, con certeza, ilustrativa. La solución del enigma necesitará, a buen seguro, de una ardua investigación, pero la buena noticia es que el error de este año servirá para afinar mucho mejor las predicciones de años posteriores. Al fin y al cabo, no hay nada mejor que un error en un modelo para mejorar su capacidad predictiva, ya que constituye una fuente nueva de información respecto a la que Google ya manejaba. La única forma de mejorar un modelo predictivo consiste en tener más datos y una mejor calibración del motor de agregación de la información. Más datos sin mejor agregación de los mismos no sirve de nada. Y viceversa, por eso es importante a veces fallar, para calibrar mejor en el futuro. Por cierto, una reflexión al hilo del asunto «¿hay datos más allá de Google?»: ¿Qué pasará si un día Google «se cae»? Entonces, ¿el Big Data será o no una revolución? Para contestar a esta pregunta hay que seguir ahondando en algunas de las claves de lo que consideramos Big Data. Por un lado, no hay nada fundamentalmente novedoso en él. De hecho, dicha denominación no es más que un gancho comercial para denominar a la estadística que siempre hemos conocido. Ello no quiere decir que durante las últimas dos décadas no se hayan producido avances en las técnicas estadísticas y en cómo los expertos enfocan los problemas, pero el cambio ha sido y será, como casi siempre, gradual. Es decir, la revolución no será mucho más rápida que la que ya estamos viviendo..., ¡lo cual no quiere decir que no sea importante! Quizás el aspecto más novedoso del nuevo paradigma se encuentre en el volumen de la materia prima de todo análisis: los datos. Aquí sí que estamos presenciando en cierto modo una revolución por el crecimiento de la magnitud de información que el ser humano es capaz de generar y almacenar. En 2010 se generaron unos 800 exabytes de nueva información. Para poner dicha cifra en perspectiva, desde el inicio de los tiempos hasta 2005 el ser humano había almacenado unos 5 exabytes, cantidad que hoy se genera cada dos días. Y, en este aspecto, desde el más acérrimo fan de Hayek hasta el más recalcitrante comunista están de acuerdo en el valor de la información: los primeros argumentan que el sistema de precios es la institución espontánea más importante que ha creado el hombre, pues permite agregar información dispersa sin necesidad de una intención explícita; los segundos pretenden optimizar una función de utilidad individual para dar «a cada cual según su necesidad». ¿Dónde está entonces el problema con el Big Data? 1. Primer problema: nuestra capacidad de modelización es muy reducida Una característica distintiva del Big Data es que se refiere generalmente a la posibilidad de modelizar y predecir ciertos comportamientos del ser humano. La nueva información que cada día se genera no son nuevos datos relativos a observaciones astronómicas o reacciones químicas, sino el rastro que deja en la red la acción humana, el cual puede ser fácilmente recolectado para su posterior análisis. Pero las novelas de Asimov y el cine de Hollywood se han encargado de transmitir una idea excesivamente optimista de nuestra capacidad real de modelización de fenómenos sociales o conductuales complejos. Una cosa es un experimento de laboratorio con cincuenta estudiantes de una misma universidad, del cual se puede extraer un patrón medio de comportamiento generando grupos de forma aleatoria, y otra muy distinta es que los investigadores puedan, a partir de información de la vida real, generar un modelo estructural de comportamiento que permita predecir la reacción de ciudadanos o clientes a determinadas medidas. La capacidad de modelización a partir de bases de datos masivas, por prometedora que sea, es por ahora sólo una quimera para el 99 por ciento del tejido productivo. Salvo algunas grandes compañías, el resto ha de conformarse con aprender incrementalmente. Allí donde una empresa o gobierno pueda generar experimentos, asignando clientes o ciudadanos aleatoriamente a distintos grupos, podrá tener una cierta certeza del efecto de una medida concreta. Por ejemplo, una cadena de supermercados puede experimentar con la respuesta del consumidor a cambios en los precios de algún producto seleccionando aleatoriamente la mitad de los supermercados de una ciudad y aplicando en ellos una rebaja. La selección aleatoria garantiza en este caso que el cambio de comportamiento se debe exclusivamente al efecto de la medida. Pero este tipo de experimentos ya son fáciles de realizar desde hace décadas. Lo distintivo del Big Data es la recolección de datos de comportamiento y el problema aquí estriba en que las personas actúan por motivos muy complejos y en que ninguna «asignación a un grupo u otro» es aleatoria. ¿Está extraída de la misma muestra la gente que compra el pan en El Corte Inglés y la que lo compra en un supermercado Día? Aquí es donde nuestra capacidad de modelización se topa con un muro de indescriptible complejidad, en el que un tratamiento ingenuo de la realidad puede llevar a conclusiones tremendamente erróneas. Piensa en el clásico ejemplo de la mayor longevidad de los bebedores de vino sobre los de cerveza. La interpretación ingenua lleva a concluir que el vino aumenta la longevidad (o que la cerveza la acorta), pero bastan unos segundos para darse cuenta de que el comprador medio de vino es muy distinto del comprador de cerveza, y que su renta y hábitos de salud también difieren mucho. Si un ejemplo tan sencillo puede llevar a conclusiones erróneas, ¿qué no sucederá con fenómenos complejos en los que actúan simultáneamente varios factores? Imagina una enorme base de datos de impagos crediticios con información sobre renta, historial crediticio, localización, patrimonio, formación, sexo, etc. Arrojar todas las variables a un modelo múltiple para intentar predecir la probabilidad de un futuro impago devolverá medias condicionales, pero no habrá abordado la cuestión clave de todo análisis basado en datos no experimentales: la «endogeneidad», esto es, el hecho de que la causalidad corre en varios sentidos y que las variables explicativas dependen unas de otras. Sólo un modelo estructural explícito puede resolver este problema, pero ¿cuánta gente hay en el mundo capaz de plantearlo y contrastarlo? No pierdas tiempo buscando: realmente muy poca, y ellos mismos te dirán que aún tienen un amplio camino por recorrer. En la medida en que los datos estén obtenidos de comportamientos reales, la complejidad del proceso será un muro difícil de franquear. Así, la capacidad de modelización a partir de bases de datos masivas, por prometedora que sea, es por ahora también una quimera para el 99 por ciento del tejido productivo. Salvo algunas grandes compañías —sólo Google o Facebook saben qué uso pueden estar haciendo con toda la información que recolectan—, el resto ha de conformarse con aprender gradualmente, aunque sí podrán beneficiarse de los incrementos de productividad que, por ejemplo, Google les pueda aportar. 2. Segundo problema: el Big Data sólo es complementario con un tipo de capital humano muy específico La intuición de este problema es sencilla: así como la revolución del motor de explosión fue posible por su complementariedad con cualquier tipo de trabajo —hasta el trabajador menos formado es mucho más productivo cavando una zanja con un martillo neumático—, los datos sólo se complementan bien con una combinación de habilidades terriblemente escasa en la sociedad. Un «trabajador de los datos» necesita combinar tres tipos de conocimientos: a. Estadística pura y dura. Modelos lineales, generalizados, máxima verosimilitud, contraste de hipótesis, inferencia, machine learning... Casi todo el mundo puede aprender las matemáticas necesarias, pero lo cierto es que, a día de hoy, menos del 1 por ciento de la población tiene el conocimiento suficiente para comprender un modelo estadístico y sus implicaciones. b. Habilidades computacionales. Trabajar con datos masivos requiere, en primer lugar, la capacidad para manejarlos, e implementar modelos y algoritmos requiere soltura al menos en un lenguaje. Los paquetes estadísticos clásicos parecen estar perdiendo fuelle ante el empuje de herramientas open-source como R o Python, en las cuales la propia comunidad implementa en cuestión de días cualquier nueva funcionalidad. La buena noticia es que nunca fue tan fácil aprender a programar gracias a la explosión de los cursos online. c. Profundo conocimiento del tema a tratar. Este problema es, en esencia, el mismo al que con anterioridad nos referimos con el término «endogeneidad», y es precisamente el mismo motivo por el que las suites de business intelligence (BI) —esos paquetes informáticos que compran/venden las empresas con el objetivo de abordar el análisis inteligente de datos (así lo llaman también en modo sexy)— han dado mucho menos de lo que prometían. Rara vez un modelo o un algoritmo puede garantizar predicciones fiables sin un conocimiento profundo del tema, es decir, sin un marco teórico sobre el que plantear el mismo. No existe una caja negra a la que podamos arrojar una tonelada de datos y de la cual saldrá un patrón de comportamiento fiable. Además, las habilidades de modelización suelen adquirirse en el mundo académico, y allí donde el trasvase entre la academia y la empresa es fluido — siendo el ejemplo paradigmático el conglomerado Silicon Valley + Stanford + Caltech — los resultados son maravillosos. Pero allí donde la universidad vive en un mundo paralelo y alejado de la excelencia, los resultados son nulos. La conjunción de estas habilidades es hoy, y más en España, muy escasa (en nuestro caso habría que añadir las dificultades con el inglés). ¿Quién se beneficiará entonces de las nuevas posibilidades que traen los datos? ¿En qué medida esta nueva oportunidad puede dar a luz a un nuevo paradigma económico? Estas reflexiones nos llevan a las dos conclusiones que cierran este capítulo. Conclusión para España 1: Como anunciaba Hal Varian, el Big Data será muy provechoso para los trabajadores que reúnan las capacidades necesarias, pero no necesariamente para el resto. Cuando una nueva materia prima (datos) sólo es complementaria con un tipo escaso de habilidades, son los dueños de dichas habilidades los que se quedan la mayor parte del premio. Para que un país como España aprovechase las oportunidades de este nuevo mundo, habría de conseguir mejoras radicales y generalizadas en la formación en matemáticas, programación e inglés; de momento, España sigue en el vagón de cola de la educación en la OCDE. Conclusión para España 2: Para que los avances del Big Data penetren de forma generalizada en la empresa, habrá de sortearse un problema fundamental: ¿quién será en cada empresa el encargado de decidir qué decisiones se pueden dejar a un modelo y cuáles no? Un modelo estadístico es algo muy opaco para el que no tiene la formación necesaria. En la anterior revolución, cualquier persona podía apreciar la facilidad con la que un martillo neumático perforaba el asfalto, cuantificar la ganancia de productividad y comprar la nueva maquinaria. El ejecutivo moderno, sin embargo, ha de decidir si confiar en los resultados de un modelo que probablemente no comprenda a la hora de tomar una decisión. Se está produciendo un nuevo cambio de paradigma, pero el cambio difícilmente será revolucionario, sino gradual, y explicaremos por qué. Los principales beneficios se producirán a nivel individual, y las ganancias las disfrutarán quienes tengan la formación necesaria para manejarse con soltura en este nuevo campo y las empresas que logren atraer a trabajadores y ejecutivos con dichas capacidades. Sin embargo, España se encuentra de nuevo en una posición atrasada para encajar dicho cambio de paradigma. Mientras que en Estonia la programación ya ha pasado a formar parte del currículo de primaria y otros países lo están considerando, nuestro sistema educativo sigue sumido en una profunda crisis que los dirigentes han preferido ignorar durante largos años. Ésta ha de ser, desde luego, la piedra angular de la modernización de España; de lo contrario, perderemos un nuevo tren, esta vez el del universo de información que nos trae el Big Data. Introduciendo el análisis de datos en las empresas El análisis de datos puede ser una de las principales herramientas competitivas para las empresas en el presente siglo. La tecnología seguirá avanzando, pero se está volviendo cada vez más una commodity que se adquiere over the counter en el mercado. Uno de los gurús del análisis de datos, Tom Davenport, sostiene en un interesante libro, Competing on Analytics, que la competitividad de las empresas dependerá fundamentalmente de su capacidad para analizar la información, especialmente la interna. Sin embargo, a día de hoy son muy pocas las empresas que tienen un departamento específico de análisis de datos. ¿Por qué? Una de las principales razones es que suele haber una falta de posicionamiento en la alta dirección de las empresas sobre este tema. La solución más fácil es encargar a algún departamento existente en la empresa (como control de gestión) que asuma algunas de las funciones más importantes en esta área. Otra posibilidad es ir dotando de capacidades analíticas a las áreas de negocio más proclives a usar el análisis de datos (marketing es el ejemplo más habitual). Sin embargo, ambas soluciones se nos antojan incompletas. El análisis de datos debe estar presente en todos los ámbitos de la empresa. La predicción de variables para elaborar el presupuesto, la optimización de la logística, el análisis de los clientes (probabilidad de abandono, la segmentación...) son decisiones clave para la empresa que deberían estar apoyadas en el análisis exhaustivo de toda la información existente en la empresa. Esto pasa primero por disponer de una buena organización de los datos (un datawarehouse), así como una estructura de reporting que permita recuperar la información más relevante con facilidad. Estas dos primeras patas del análisis de datos están más o menos bien resueltas en muchas empresas, pero lo que falta es la capa analítica que permita dar respuesta a todas las preguntas de tipo analítico que existen en ellas: ¿cuál debe ser la estructura de precios?, ¿por qué me abandonan los clientes?, ¿hay tipos de clientes que deba atender de forma separada?, ¿cuál será el volumen de ventas el año que viene?..., y así podríamos seguir haciéndonos preguntas muy relevantes. Parece conveniente que toda la estructura analítica descanse sobre una misma persona. Por eso en muchas empresas está apareciendo la figura del chief analytical officer (CAO), un puesto distinto del CIO (chief information officer), sobre el que recae la responsabilidad de que todas las tareas analíticas se realicen adecuadamente. Este tipo de profesionales no abunda ciertamente en el mercado. Los expertos en data science no salen por el momento de ninguna titulación específica. A pesar de que constantemente se nos recuerda que en un futuro cercano habrá una gran demanda de estos expertos, por el momento las universidades no han creado grados que generen profesionales con las habilidades demandadas. Sólo recientemente han empezado a aparecer algunos programas de máster que intentan llenar este vacío. 8 Neurociencia y trampas de pobreza PAULA LÓPEZ PEÑA La gente es irracional, tanto si vive en países desarrollados como si vive en países en desarrollo, pero la gente es irracional en formas que podemos intentar y conseguir entender. Y los incentivos funcionan, simplemente tenemos que entender la manera en que lo hacen. ESTHER DUFLO, profesora del MIT y codirectora del Laboratorio de Acción contra la Pobreza Abdul Lateef Jameel (J-PAL) En las últimas décadas, la importancia relativa de las cualidades innatas y adquiridas (naturaleza versus crianza) ha liderado el debate sobre el origen de las diferencias en características individuales. En general, la idea de que tanto la genética como el entorno social interactúan en la formación de nuestras habilidades verbales y matemáticas, o en nuestra propensión a la agresividad o a la competitividad, ha sido ampliamente aceptada por la comunidad científica. Sin embargo, existe cierta controversia en torno a la influencia de la biología y la socialización en la propensión de algunos grupos poblacionales a verse atrapados en un estado de exclusión económica y social. Son muchas las personas que nacen y viven en un estado de pobreza que parece imposible de superar. Su descendencia suele enfrentarse a la misma situación. A pesar de la alta prevalencia, y de la gravedad que alcanza la pobreza en muchas zonas del mundo, aún no comprendemos totalmente los mecanismos por los que ésta surge y se perpetúa. En los últimos años, dos hipótesis relacionadas y no excluyentes entre sí han recibido mucha atención en la literatura médica, psicológica y económica. La primera plantea que vivir en un entorno de pobreza y exclusión de servicios e infraestructuras crea un «estado mental de escasez» y altera distintas funciones cognitivas, dando lugar, por ejemplo, a inconsistencias entre las preferencias inmediatas y la persecución de objetivos a largo plazo. El segundo mecanismo postula que las dificultades económicas hacen a los pobres más propensos a manifestar síntomas de estrés crónico, ansiedad y depresión. Estas condiciones, incluso a niveles moderados, han sido a su vez asociadas con deterioros en el funcionamiento cognitivo, una menor productividad laboral y elevadas tasas de absentismo. También están vinculadas a una presión sanguínea elevada y trastornos cardiovasculares, diabetes, obesidad y respuestas inmunes e inflamatorias alteradas. Por lo tanto, estar expuesto a un entorno de escasez no sólo crea desigualdades en salud directamente sino también, y parcialmente a través de éstas, en el nivel de rendimiento intelectual. Como resultado, algunas de las decisiones que adoptamos no siempre son adecuadas, y esto nos impide realizar nuestro potencial socioeconómico a lo largo de la vida. Excede el propósito de este capítulo el contribuir al debate de si algunos individuos presentan déficits innatos que explican que sus niveles de salud o sus ingresos a largo plazo sean inferiores. Tampoco pretende refutar el argumento de que algunas de las diferencias individuales en habilidades y comportamientos tienen una base biológica. El propósito es mostrar que existe evidencia cada vez más sólida de que cualquier individuo que se encuentre expuesto a ciertos factores ambientales, independientemente de su genoma, presenta una probabilidad mayor de experimentar estados físicos y psicológicos negativos que aumentan su propensión a adoptar patrones de pensamiento y comportamiento que reducen su bienestar y potencial económico a largo plazo. La pobreza en el mundo. Unos trazos A pesar del progreso realizado en las últimas décadas, actualmente más de 1.000 millones de personas en el mundo sobreviven con menos de 1,25 dólares al día (Informe anual 2014 del Banco Mundial). Este nivel de consumo mínimo ha sido ampliamente aceptado como indicador de pobreza extrema y resulta útil como una primera aproximación al nivel de privación material en el que viven sumidos millones de personas. Sin embargo, cualquier límite inferior enmascara grandes diferencias en el coste de vida en distintos contextos geográficos. En el este de Europa y Asia central, debido a la dureza de las condiciones climáticas, el coste mínimo de subsistencia es mayor e incluye calefacción, ropa y vivienda adecuada. En esta región, el umbral de pobreza se ha situado en 5 dólares por día; el nivel de pobreza extrema es de 2,5 dólares, y resulta casi imposible sobrevivir con 1,25. En América Latina, los niveles de consumo que definen el estatus de pobreza y pobreza extrema son de 4 y 2,50 dólares al día. Además de las dificultades para alimentarse correctamente, los pobres deben hacer frente a diario a una multitud de problemas debido a que las infraestructuras a las que tienen acceso resultan insuficientes o están defectuosas. En África subsahariana, dos de cada tres personas no tienen acceso a la electricidad. En Asia oriental y en el Pacífico, este problema afecta a 130 millones de personas, y 600 millones carecen de acceso a instalaciones sanitarias. El rápido proceso de urbanización hace estas necesidades aún más apremiantes. La vida en las barriadas expone a sus habitantes a altos niveles de polución y degradación ambiental, crimen y violencia. En América Latina y el Caribe, donde el porcentaje de población que vive en condiciones de extrema pobreza se redujo a la mitad entre 2003 y 2012, la inseguridad ciudadana sigue amenazando a miles de personas cada día. En Oriente Próximo y el norte de África miles de personas han emigrado debido a algún conflicto armado y la región sigue siendo la más deficitaria en agua. En Asia meridional unos 200 millones de personas viven en barriadas marginales y 500 millones tienen un acceso muy limitado a la electricidad. Por ejemplo, sólo el 40 por ciento de la población en Bangladesh está conectada a la red eléctrica. Ello obliga a millones de habitantes rurales a interrumpir la mayoría de sus actividades al ponerse el sol. Ser pobre no implica necesariamente ni se limita a pasar hambre, tal y como explican Abhijit Banerjee y Esther Duflo en su libro Poor economics. Ser pobre es estar excluido de bienes y servicios necesarios por el hecho de pertenecer a un cierto estrato económico o demográfico; no tener acceso a recursos y servicios públicos básicos, como saneamiento, recogida de basuras o electricidad, o a un sistema educativo formal y vocacional de calidad. Un estado mental y cognitivo de escasez Vivir en un entorno de escasez material reduce nuestro coeficiente intelectual y determina en gran medida a qué estímulos prestamos atención y cómo respondemos ante ellos. El cerebro humano está diseñado para adaptarse al entorno y sobrevivir. Como respuesta a las necesidades y condiciones ambientales, se crean nuevas conexiones neuronales (sinapsis) que nos permiten desarrollar habilidades y mejorar las existentes. Esta capacidad de adaptación y aprendizaje constante se conoce como neuroplasticidad y es un descubrimiento relativamente reciente. Hasta hace dos décadas, se pensaba que sólo los cerebros de niños y adolescentes eran maleables y que esta cualidad desaparecía al entrar en la edad adulta. Las nuevas tecnologías de neuroimagen han permitido comprobar que la estructura anatómica y funcional del cerebro puede cambiar a lo largo de los años en respuesta a lesiones ocasionadas por traumatismos craneales o a su ejercicio continuado. En el primer caso, el cerebro es capaz de reconstruirse y generar nuevas sinapsis neuronales para reemplazar aquellas que fueron dañadas y no funcionan correctamente. En relación con el segundo, uno de los primeros estudios sobre los efectos de ejercitar la atención investigó las diferencias entre el cerebro de monjes budistas experimentados, que llevaban muchos años practicando meditación, con el de aquellos que, por ser principiantes, llevaban menos horas de práctica. Las imágenes revelaron que el cerebro de unos y otros se comportaba de manera diferente durante un ejercicio que requería dirigir la atención hacia un objeto y mantenerla durante un tiempo. Las regiones implicadas en el control y mantenimiento del foco de atención se activaron en ambos grupos, pero la intensidad fue menor entre aquellos que acumulaban en promedio más de 44.000 horas de meditación. Ello sugiere que, al igual que sucede con las capacidades físicas, la habilidad para controlar y mantener la atención puede ser entrenada, y que el esfuerzo que requiere realizar tareas que necesitan concentración se reduce con la práctica. A pesar de esta asombrosa capacidad adaptativa, algunos de nuestros recursos cognitivos, como la memoria o la atención, son limitados en un momento dado del tiempo. Por lo tanto, al intentar atender distintas demandas del entorno al mismo tiempo, éstas compiten entre sí por nuestro «ancho de banda» mental. Cuando las preocupaciones financieras y familiares impregnan nuestra vida cotidiana, y satisfacer nuestras necesidades básicas se convierte en un desafío constante, tendemos a centrar nuestra atención en los problemas más urgentes y a sacrificar otros igualmente importantes, pero que no requieren solución inmediata (por ejemplo, vacunar a los hijos). Por lo tanto, debido a que nuestra atención y amplitud mental son limitadas, aquellos con más dificultades para cubrir sus necesidades inmediatas son más propensos a no realizar inversiones que garantizarían su bienestar y el de los suyos a largo plazo, no porque no sepan que son importantes, sino porque su cerebro está dedicado casi en exclusiva a resolver las necesidades más acuciantes. Un número cada vez mayor de rigurosos estudios (que cuentan con un grupo de control y un tamaño de muestra adecuados al tipo de resultado que se pretende medir) indica que las preocupaciones constantes que surgen de la incapacidad de satisfacer necesidades básicas reducen nuestro funcionamiento cognitivo y control atencional. Un equipo de economistas y psicólogos realizó una serie de experimentos complementarios para demostrar que las preocupaciones financieras reducen el coeficiente intelectual de los pobres, pero no el de los ricos. Uno de ellos fue realizado en un centro comercial de Nueva Jersey. El equipo seleccionó aleatoriamente a un grupo de compradores y les planteó cuatro problemas económicos del tipo: «Tu coche no funciona bien y repararlo costaría X dólares. Si tuvieras que elegir entre pagar la reparación en efectivo, tomar dinero prestado o probar suerte e ignorar el problema, ¿qué harías?». El experimento manipulaba el coste de la avería para generar variación en la magnitud del problema afrontado por distintos consumidores. A continuación, todos ellos se sometieron a un test de inteligencia y a un ejercicio de control cognitivo que tenía como objetivo medir su capacidad para dirigir pensamientos y acciones hacia la consecución de un objetivo preestablecido. Tanto el coeficiente intelectual como el control cognitivo de aquellos cuyos ingresos efectivos (medidos como el ingreso total del hogar ajustado por el número de miembros) estaban por debajo del promedio se reducían de manera significativa cuando la avería era muy costosa, pero no si no lo era. Este efecto no se observó entre compradores ricos, al margen de cuan elevado fuese el coste de resolver el problema. Otro de los experimentos fue realizado con un grupo de agricultores en la India. En lugar de inducir un estado de preocupación financiera de manera artificial para después medir el rendimiento intelectual de los participantes, las pruebas de inteligencia y control cognitivo fueron realizadas justo antes y justo después de la época de recolección, el momento del año en que la pobreza de estos trabajadores y la incertidumbre sobre sus ingresos futuros se acentúan. Tal y como habían anticipado, los agricultores obtuvieron peores resultados en las pruebas realizadas antes de la recogida de la cosecha, y esto fue atribuido al nivel de intensidad de la pobreza al que se enfrentaban en ese momento. Para descartar que los efectos observados se debieran a una menor ingesta de calorías, el equipo realizó un seguimiento de los patrones de consumo de los hogares. Los resultados se mantuvieron después de incluir esta variable en el análisis. Un estudio afín realizado con personas de bajos ingresos en Rajastán (India) demostró que la pobreza también afecta a la capacidad de controlar el comportamiento propio. Para ello, se dividió la muestra en cuatro grupos: a uno de ellos se le pidió que imaginasen que estaban en una tienda que tenía sólo tres productos, y que podían elegir uno de ellos sin coste alguno. En otro de los grupos, sus participantes podían escoger dos bienes, también sin coste alguno. A los otros dos grupos se les asignaba aleatoriamente uno o dos bienes, y éstos fueron asignados de tal manera que la distribución de los tipos de bienes fuese similar en los grupos que podían elegir y en los que no. Las opciones eran medio litro de aceite para cocinar, que si bien no es muy caro proporciona una gratificación inmediata debido a su sabor y su rápida energía; una lata metálica para conservar comida, que podría ser usada durante un período de tiempo más largo y, por lo tanto, equivaldría a un bien de inversión, y un fardo de cuerda sintética, que a pesar de su utilidad reporta una satisfacción inmediata inferior a los otros dos. Por lo tanto, este experimento recreaba cuatro escenarios: ser pobre y tener que elegir, ser rico y tener que elegir, o ser pobre o rico pero no tener que elegir. Una vez determinada la suerte de cada participante, se les sometió a dos pruebas de control cognitivo. En una de ellas debían apretar dos agarraderas el mayor tiempo posible. Existe evidencia de que éste es un buen indicador de la capacidad de dirigir y mantener la atención durante la realización de una actividad. La otra era un test de tipo Stroop, cuyo objetivo es medir el tiempo de reacción en una tarea predeterminada. Ser asignado a la condición de pobreza (recibir sólo un bien) no afectó a los resultados. Sin embargo, los participantes que podían recibir un solo bien y además debían elegir cómo gastarlo obtuvieron peores resultados en ambas pruebas que los otros grupos. El estudio concluyó que es la interacción de la pobreza y la necesidad de tomar decisiones en un entorno de escasez lo que realmente reduce la habilidad cognitiva de las personas, y no su condición de pobreza per se. Esta línea argumental se ha usado para explicar que aquellos que atraviesan dificultades económicas se comporten de maneras que les perjudican. Banerjee y Duflo argumentan que las personas con pocos recursos frecuentemente se gastan una parte no desdeñable de éstos en alcohol, tabaco o apuestas. También se observan mayores tasas de abandono y fracaso escolar en poblaciones con bajos ingresos, lo cual se ha usado para justificar la existencia de programas de transferencias condicionadas (CCT, por sus siglas en inglés). A través de éstos, los gobiernos otorgan a los hogares una cantidad de dinero, en efectivo o especie, con la condición de que satisfagan ciertos requisitos, como por ejemplo que sus hijos asistan al colegio al menos el 80 por ciento de los días o que se registren cada año al inicio del curso escolar. Los detractores de los CCT discuten la necesidad de supeditar la ayuda y argumentan que los hogares conocen su situación mejor que nadie y que si los pobres dispusiesen de más recursos tomarían buenas decisiones y se gastarían la ayuda de la mejor manera posible. La capacidad de evaluar correctamente los beneficios y costes asociados a nuestras decisiones en distintos momentos del tiempo, y de posponer recompensas inmediatas con el fin de obtener un beneficio mayor en el futuro, es una de las más importantes para alcanzar un buen estatus socioeconómico a largo plazo. Cuando una persona prefiere sistemáticamente una recompensa inmediata frente a otra que se materializará en el futuro, pero cuyo valor actual supera el de la primera, se dice que presenta una tasa de descuento alta o que descuenta mucho el futuro. Esta habilidad nos permite ahorrar y realizar inversiones, como por ejemplo completar el nivel de estudios necesario para desempeñar una carrera profesional determinada. Un estudio longitudinal realizado en Suecia que siguió la evolución de un grupo de niños desde los trece años durante cinco décadas demostró que aquellos que preferían posponer una ganancia cuando su valor actual superaba al de una recompensa inmediata, tenían un nivel de ingresos mayor en la edad adulta. A los veintisiete años, los niños que presentaban una tasa de descuento baja ganaban un 6,7 por ciento más de dinero que sus compañeros. A los treinta y siete, esta brecha ascendía al 7,4 por ciento y a los cuarenta y siete alcanzaba el 11 por ciento. El nivel de estudios alcanzado por los que descontaban menos el valor presente del futuro también fue mayor, lo cual explica en gran medida estos resultados. Con frecuencia, las personas con ingresos bajos tienden a preferir soluciones rápidas y a adoptar comportamientos que generan algún tipo de gratificación inmediata pero que, con el tiempo, resultan contraproducentes. Por ejemplo, los pobres tienden a endeudarse más que los ricos en proporción a sus ingresos, y lo hacen incluso a tasas de interés muy altas. También tienden a abandonar los estudios antes de completar la educación secundaria, lo cual reduce sus perspectivas de encontrar un buen empleo. Hasta hace poco se desconocía si era el hecho de vivir en un entorno de privación material lo que causaba esta tendencia o si era algún otro aspecto de sus circunstancias. Con el fin de comprender mejor la causa subyacente, un experimento de laboratorio reciente asignó a sus participantes una dotación inicial de dinero más o menos generosa, creando así artificialmente un grupo de pobres y otro de ricos. Todos se sometieron a una prueba que requería realizar algún tipo de esfuerzo a cambio de conseguir una cantidad de dinero adicional. Seguidamente, todos ellos recibieron un «shock» positivo o negativo en su nivel de riqueza (su saldo aumentaba o disminuía aleatoriamente) y se les planteó una serie de preguntas para medir su tasa de descuento. El estudio reveló que recibir un shock negativo en el nivel de ingresos aumentaba significativamente la tasa de descuento de los participantes, es decir, los predisponía a elegir recompensas inmediatas incluso si tenían la opción de elegir otras más rentables, pero que se harían esperar. En cambio, recibir un shock positivo sólo reducía moderadamente esta predisposición. La evidencia también parecía sugerir que la condición de ser rico o pobre no determinaba las preferencias temporales por sí mismas. En cambio, las reducciones inesperadas en los niveles de ingresos sí las afectan, y la evidencia empírica nos dice que los pobres tienden a experimentar estos cambios con frecuencia. Este estudio es consistente con la teoría de que el entorno de una persona tiene una influencia directa en sus preferencias. Otro estudio basado en cinco experimentos de laboratorio sugirió que la escasez de recursos, sea ésta de tiempo o dinero, nos empuja a prestar más atención a tareas urgentes y desatender aquellas que, aun siendo importantes, no son apremiantes. En cada experimento, los individuos participaban en juegos de preguntas y respuestas que permitían obtener una recompensa por cada acierto. Cada participante disponía de una dotación inicial de tiempo y dinero (cuya magnitud determinaba su estatus de pobreza) que podía administrar de forma estratégica para lograr un mayor número de aciertos. Los participantes que recibían menos tiempo o dinero presentaban un nivel de fatiga mental mayor y tomaban peores decisiones, lo cual les hacía acertar menos y ganar menos dinero. Para comprobar si esto se debía a un menor nivel de esfuerzo, éste se midió específicamente. Resultó que los pobres se esforzaban más, dedicando más tiempo a pensar cada pregunta, aun sabiendo que esto les dejaba con menos recursos para responder a otras que podrían contestar con facilidad. A la vista de estos resultados, los autores concluyeron que los pobres se endeudan más (toman prestado más tiempo y dinero) para resolver problemas inmediatos, y esto les deja en una situación más difícil para afrontar la misma necesidad en el futuro. En una de las variantes de este estudio, se proporcionaba a los participantes información sobre qué preguntas y tareas serían planteadas a continuación, permitiéndoles de esta manera reajustar su estrategia. Sin embargo, sólo los participantes ricos hicieron uso de ella y lograron aumentar su número de aciertos, lo cual es consistente con la hipótesis de que los pobres debían de estar demasiado concentrados intentando resolver la tarea que les ocupaba en cada momento para asegurar la pequeña cantidad de dinero asociada a ella, en lugar de optimizar su estrategia y maximizar la cantidad total de dinero recibida. En conjunto, la evidencia disponible sugiere que la escasez de recursos tiene un impacto negativo en algunas funciones mentales, como la capacidad de dirigir y mantener la atención para alcanzar un fin determinado, percibir información relevante para la toma de decisiones o concentrarse para resolver tareas de distintos grados de complejidad. Además, los últimos avances en neurociencia han permitido investigar procesos psicológicos y neurobiológicos complementarios, que han contribuido a explicar esta relación causal entre escasez y funcionamiento cognitivo. Un número creciente de estudios se ha centrado en analizar las causas y efectos del estrés, la ansiedad y los estados depresivos en las personas. Todas ellas respuestas biológicas normales que determinan en gran medida qué información percibimos y cómo la interpretamos. Asimismo, influye de manera directa en nuestra motivación intrínseca para perseguir objetivos a largo plazo, nuestra persistencia en la realización de tareas o nuestra tendencia a adoptar actitudes prosociales (cooperativas), entre muchas otras. Por este motivo, entender qué determina unas y otras, y cómo podemos moldearlas, puede resultar clave para diseñar intervenciones que mejoren nuestra calidad de vida en el futuro. Pobreza y salud mental La percepción de que los pobres son más felices y que el dinero no compra la felicidad ya no viene respaldada por la evidencia empírica. En los últimos años, la medición de los niveles de felicidad y satisfacción con la vida se ha incorporado a muchas encuestas nacionales de salud y condiciones de vida, y nos ha permitido comprender mejor qué relación guardan estos indicadores con los de bienestar económico. Los niveles de insatisfacción e infelicidad son sistemáticamente más altos entre aquellos que no alcanzan a cubrir sus necesidades nutricionales, de educación, salud y vivienda. Incluso por encima de ese umbral básico, los niveles de felicidad siguen creciendo, aunque a tasa decreciente, con el nivel de ingresos dentro del mismo país. Esta relación también viene respaldada por algunos estudios de corte transversal que comparan distintos países. En cambio, la tasa de crecimiento del PIB no necesariamente repercute positivamente en estos indicadores. La frecuencia y la persistencia con que las personas pobres deben buscar soluciones para satisfacer sus necesidades básicas las hacen más propensas a experimentar estrés, ansiedad y emociones negativas como la tristeza o la ira. Todo ello tiene un impacto negativo en el desarrollo de las actividades cotidianas de aquellos que padecen dicha situación, pues les hacen más proclives al agotamiento físico y mental y merman su rendimiento intelectual, de manera que su nivel de esfuerzo tiende a reducirse. Esta dinámica da lugar a algunas trampas de pobreza. Con frecuencia, los síntomas del estrés, la ansiedad y la depresión se superponen. Sin embargo, éstos no se consideran enfermedades per se, si no que se definen en función de cuadros sintomáticos que tienden a solaparse y aparecer al mismo tiempo. La ansiedad genera sesgos cognitivos que hacen a los individuos más propensos a percibir estímulos neutros o inciertos como posibles amenazas. Esto puede generar una respuesta biológica por parte del organismo que interfiere con el empleo óptimo de las capacidades de razonamiento y atención y con la memoria operativa. Las personas que sufren niveles altos de ansiedad presentan un nivel de actividad menor en la región cerebral conocida como corteza prefrontal. Se cree que esto se debe a que perciben un mayor número de demandas y amenazas del entorno y a que éstas compiten por recursos atencionales. Como resultado, la rapidez con la que se pueden identificar objetos y objetivos se reduce. Este efecto es congruente con la dificultad para concentrarse y realizar tareas cotidianas que dicen sufrir aquellos que son diagnosticados con trastornos de ansiedad, y también con su propensión a preocuparse excesivamente y a sentirse constantemente afligidos por pensamientos intrusivos. La relación entre estrés y funcionamiento cognitivo tiene forma de U invertida. Pequeñas dosis de estrés pueden tener efectos procognitivos y facilitar el aprendizaje a corto plazo. Sin embargo, cuando la intensidad o la duración de nuestras preocupaciones son excesivas y sentimos que los problemas se acumulan y nos desbordan, sus efectos son indudablemente negativos. Éstos suelen dar lugar a déficits en nuestra percepción espacial y en la memoria operativa disponible en cada momento (la que nos permite recordar un número de teléfono después de diez minutos) y a un bajo control atencional. Tanto el estrés crónico como el de tipo postraumático aumentan el riesgo de padecer depresión, al estar ambas condiciones estrechamente relacionadas con los niveles de cortisol, una hormona que afecta al nivel de glucemia y desencadena cambios neuronales estructurales que afectan a la memoria. También se ha demostrado que el cortisol, en concentraciones elevadas, debilita la respuesta inmune y eleva la presión sanguínea. Se cree que esto explica que las personas con depresión tengan infecciones frecuentes o que aquellos que sufren de estrés crónico tengan un riesgo mayor de padecer enfermedades cardiovasculares. En la sección anterior hablábamos de cómo ricos y pobres tienden a diferir en su habilidad para sopesar beneficios y costes que tienen efecto en momentos del tiempo distintos. El estrés puede contribuir a explicar el origen de los procesos cognitivos que están detrás de esta brecha. Durante períodos prolongados de estrés, se eleva la producción de cortisol, la hormona a la que se atribuyen muchos de los efectos perniciosos del estrés crónico sobre la salud y varios tipos de habilidades cognitivas, como la capacidad de razonamiento lógico o la memoria. Recientemente, un equipo multidisciplinar de investigadores llevó a cabo un experimento en el que administraron a los participantes una dosis de 10 miligramos de hidrocortisona, para después someterlos a un ejercicio de elecciones intertemporales. La tarea consistía en elegir varias veces su opción preferida de entre un conjunto de recompensas que podían ser pequeñas y materializables de inmediato o bien grandes pero realizables a largo plazo. Todos los participantes sabían que recibirían dos inyecciones, y que sólo una de ellas contendría hidrocortisona (la otra era un placebo). A algunos se les suministró la hormona en la primera dosis, 195 minutos antes de someterse a la prueba, y a otros en la segunda, 15 minutos antes de la prueba. Un tercer grupo recibió placebo en las dos inyecciones. Los resultados mostraron que aquellos que recibieron la hidrocortisona 15 minutos antes de elegir el tipo de recompensa prefirieron recibir cantidades pequeñas de dinero de manera inmediata. Esta tendencia no se apreció entre aquellos que recibieron la hormona 195 minutos antes de realizar la prueba, lo cual sugiere que el estrés agudo puede aumentar de manera provisional la tasa de descuento temporal, pero este efecto se desvanece en el tiempo. Otros estudios también han usado la administración de hidrocortisona para investigar si el estrés podía interferir igualmente en otros tipos de preferencias, además de las intertemporales. En uno de ellos se suministró a los participantes una dosis diaria (durante ocho días) y se les sometió a una tarea para medir su aversión al riesgo. Ésta consistía en darles a elegir entre una serie de loterías que ofrecían ganancias pequeñas pero relativamente seguras o bien ganancias de mayor cuantía pero más arriesgadas. Un ejemplo sería: «Si pudieras apostar a una lotería con la que ganarías 100 libras con una probabilidad del 50 por ciento, o a otra con la que ganarías 1.000 libras con una probabilidad del 5 por ciento, ¿cuál preferirías?». El beneficio esperado de ambas es el mismo (50 libras), pero una persona aversa al riesgo elegiría la primera porque la probabilidad de que se materializase alguna ganancia es mayor. El equipo de investigadores analizó cómo cambiaban sus elecciones a lo largo de este período, y resultó que, después de varios días de aplicación, aquellos que recibían hidrocortisona mostraban un aumento significativo en su aversión al riesgo. Curiosamente, en otros experimentos que intentaron inducir un estado físico de estrés en los participantes (haciéndoles sumergir las dos manos en un caldero de agua helada durante el mayor tiempo posible y dándoles a elegir distintas loterías a continuación), no se apreció efecto alguno en la aversión al riesgo de los mismos. Siguiendo en esta línea, otros estudios han empleado técnicas de estimulación emocional, como la proyección de vídeos con imágenes violentas (por ejemplo, un joven siendo torturado brutalmente), para mostrar que las emociones negativas, como el miedo, también aumentan la aversión al riesgo. La manipulación audiovisual de emociones ha sido usada, asimismo, para inducir un estado de tristeza, y ésta parece aumentar la tasa de descuento de los participantes. En este último caso, la relación se mantiene al inducir el estado de ánimo opuesto: fomentar emociones positivas en el laboratorio predispone a los participantes a elegir loterías que generan un beneficio mayor, aunque tardío. Recientemente, un experimento natural realizado en Kenia midió los niveles de estrés percibidos y biológicos (con muestras de saliva como aproximación al nivel de cortisol sistémico) durante años en un grupo de agricultores, utilizando la variabilidad en los niveles de lluvia como fuente de variación en el nivel de ingresos. Sus resultados mostraron que, en años en que llovía poco, los niveles de cortisol de los agricultores aumentaban, pero este efecto no era apreciable en otro de tipo de trabajadores. Finalmente, en uno de los primeros estudios experimentales sobre los efectos de recibir un crédito en efectivo, Haskin Fernald y otros autores analizaron el cambio en los síntomas de estrés en una muestra de personas con bajos ingresos a las que previamente se les había denegado un préstamo. En general, los hombres que recibieron el crédito mostraron menos síntomas de depresión, pero sus niveles de estrés eran más altos. Esto se atribuyó a la preocupación de tener que devolver el préstamo a una tasa de interés elevada (ésta ascendía al 200 por ciento). Tomada conjuntamente, la evidencia generada por estos estudios indica que la relación observada entre la gravedad de la pobreza de una persona y sus niveles de estrés, ansiedad, depresión y procesamiento cognitivo es de tipo causal. Posibles intervenciones Partiendo de la evidencia que sugiere que vernos privados de recursos y servicios básicos afecta a nuestra capacidad para realizar tareas y tomar decisiones de manera eficaz, existen tres tipos de políticas públicas que podrían romper este círculo. Estos enfoques no tienen por qué ser excluyentes. Es más, es razonable pensar que funcionarían mejor combinados. La primera es intentar reducir directamente la gravedad de la pobreza, creando servicios públicos gratuitos o de bajo coste, o programas de apoyo al ingreso. Dentro de esta categoría, los programas que han obtenido mejores resultados han sido aquellos con un enfoque multidimensional, como los conocidos programas de transferencias condicionadas (CCT). Éstos conceden al jefe de hogar transferencias en efectivo, supeditadas al cumplimiento de ciertos requisitos, como registrar a todos los niños en edad escolar y asegurar que asisten a clase al menos el 80 por ciento de los días, o bien aplicar las vacunas adecuadas a su edad. Se han hecho muchas evaluaciones de impacto para estudiar el efecto de este tipo de programas. Sin embargo, en pocas ocasiones se han medido los niveles de salud mental o habilidad cognitiva de sus beneficiarios, y por ello su efectividad de cara a mejorar estos indicadores sigue siendo desconocida. Una excepción ha sido la evaluación de impacto de GiveDirectly, en Kenia. Este programa seleccionó una muestra aleatoria de quinientos hogares y les otorgó algún tipo de transferencia incondicionada (es decir, una cantidad variable de dinero que no tiene por qué ser gastada de una forma concreta o en partidas de consumo preestablecidas). Las había de varios tipos, de manera que algunos beneficiarios recibían una transferencia única de 287 dólares y otros recibían nueve transferencias mensuales que sumadas alcanzaban este mismo importe. En los dos grupos, los hogares invirtieron los nuevos recursos en bienes de consumo o de inversión, más duraderos en el tiempo. En promedio, su consumo mensual aumentó y se gastaron más dinero en alimentación, medicinas, educación, vivienda y eventos sociales (bodas, funerales...). Sin embargo, la distribución del gasto difirió entre los que recibieron el pago único y los que recibieron pagos periódicos. Los receptores del pago único destinaron una proporción mayor de recursos a mejorar la calidad de su vivienda (por ejemplo, algunos compraron techos metálicos) y a invertir en activos que reportarían ingresos adicionales a largo plazo, como cabezas de ganado o negocios no relacionados con la agricultura. Como consecuencia, con el paso del tiempo su nivel de ingresos aumentó. Por el contrario, los receptores de las nueve transferencias mensuales dedicaron un porcentaje mayor de recursos a adquirir productos alimentarios y, de hecho, el índice de seguridad alimentaria (medido por el número de días en la última semana que algún miembro del hogar se fue a la cama con hambre) mostró una mejoría mayor en este grupo con respecto a los beneficiarios del pago único. Este grupo de hogares «se comió» una porción mayor de la ayuda y sus ingresos no aumentaron con el paso del tiempo desde que empezaron a recibir las transferencias. De nuevo, estos resultados confirman que el tipo y la cantidad de medios económicos de que disponemos influyen en cómo gastamos nuestros recursos, y esto repercute en nuestro bienestar posterior. La segunda opción sería diseñar programas que traten directamente los síntomas psicológicos y somáticos que suele acarrear la pobreza. Algunos países como el Reino Unido o Australia han incluido la nueva generación de terapias psicológicas como parte de la atención en centros de salud, con resultados excelentes. Dentro de éstas, la terapia cognitivoconductual (conocida como CBT, por sus siglas en inglés) ha sido una de las más estudiadas. Numerosos metaanálisis han demostrado su efectividad para reducir los niveles de ansiedad y los síntomas de depresión en la población general, es decir, excluyendo los casos de gravedad que requieren medicación inmediata. A diferencia del psicoanálisis tradicional o la terapia interpersonal, la CBT tiene como objetivo modificar comportamientos y patrones de pensamiento negativos —que mantienen la sensación de ansiedad — y depresión mediante ejercicios estandarizados. Algunos consisten en enseñar al paciente a descomponer problemas complejos en varios pequeños, de manera que resultan mucho más fáciles de solucionar y el tiempo total que la persona pasa preocupada se reduce. Otros consisten en ayudar a la persona a evaluar la probabilidad de que un suceso determinado ocurra y de que genere consecuencias negativas. Estos últimos van complementados con técnicas de resolución de problemas (incluidas pautas para llevar a cabo una tormenta de ideas efectiva) y ejercicios de relajación física (relajación muscular progresiva) y de control atencional (meditación). La eficacia de este conjunto de técnicas ha sido ampliamente documentada y, por ello, la CBT se considera un modelo de referencia en el tratamiento de trastornos mentales comunes, como el trastorno de pánico o de ansiedad generalizada y la depresión. Las evaluaciones del impacto de intervenciones diseñadas expresamente para mejorar la salud mental en países de bajos ingresos son muy escasas. Una excepción ha sido un experimento aleatorio realizado en Uganda, que demostró que asistir a un curso de terapia interpersonal mejora las habilidades para realizar y terminar actividades económicas rutinarias. Sin embargo, el estudio se centró en una muestra de personas deprimidas, y no existe evidencia de cómo mejorar estos resultados en una población cuyo funcionamiento diario y salud pueden verse comprometidos por niveles de ansiedad y depresión de menor intensidad que los conducentes a un cuadro clínico grave. Disponer de dicha información permitiría elegir una mejor combinación de intervenciones, de manera que aquellas que pretenden aliviar las causas del estrés y sus efectos (por ejemplo, aquellas que dan dinero en efectivo a los hogares) sean un buen complemento de las que intentan reducir los efectos de la depresión. Una alternativa a las intervenciones para reducir niveles de ansiedad y depresión sería intentar mejorar los niveles de felicidad directamente. Existe evidencia procedente del campo de la neurociencia que indica que mayores niveles de bienestar autopercibido están asociados a mejoras en las habilidades cognitivas y los resultados económicos, y que este efecto se debe al impacto de las emociones positivas. Éstas estimulan las rutas neuronales por las que fluye la dopamina (un neurotransmisor implicado en los sentimientos de motivación, placer y recompensa, que nos ayuda a realizar esfuerzos para lograr un fin) de una región del cerebro a otra, y mejoran la memoria y la atención. Un estudio afín empleó estímulos auditivos y visuales (videoclips «felices» y emocionalmente neutros, a modo de placebo) para recrear situaciones de la vida real que pueden afectar a nuestro estado de ánimo. Los resultados sirvieron para explicar que las personas que perciben mayores niveles de felicidad tienen una productividad mayor. Estos resultados confluyen con la teoría de que el nivel de bienestar en un momento dado del tiempo contribuye a la realización del potencial de las personas, incluido el económico. Finalmente, la tercera alternativa sería crear intervenciones que modifiquen los comportamientos contraproducentes asociados a la pobreza. Algunos ejemplos han sido el envío de recordatorios de pago al teléfono móvil, que evitan que los pobres se olviden de pagar a tiempo y tengan que hacer frente a tasas de interés más altas y penalizaciones. También se ha extendido el enviar mensajes de texto que recuerdan que al día siguiente se tiene una cita médica. El sistema nacional de salud británico ya lo hace. Estas intervenciones son cada vez más frecuentes y sus efectos son en general muy positivos, complementando el de otras intervenciones que suponen un coste mayor, como la provisión de servicios de salud mental. Una nota final sobre factores de riesgo y grupos vulnerables A la hora de diseñar intervenciones, es preciso tener en cuenta que el entorno físico inmediato en que vive una persona es un factor de riesgo importante. Las poblaciones urbanas son más proclives a padecer de manera desproporcionada los efectos de una mala salud mental y pérdida de productividad. Florian Lederbogen y colaboradores concluyeron recientemente, a partir de evidencia metaanalítica, que los habitantes de zonas urbanas presentaban un riesgo un 20 por ciento mayor de sufrir trastornos de ansiedad y un 40 por ciento mayor de padecer trastornos de depresión. Estas diferencias se han atribuido a la mayor exposición a factores ambientales que generan molestias diarias y estrés psicosocial, dado que la vida en las urbes se caracteriza por ritmos de vida acelerados, altos niveles de estrés y un número inferior de horas de sueño y de no muy alta calidad. La vida en las ciudades favorece la atención extrínseca, que permite explorar un gran número de objetos y características del entorno, a expensas del control ejecutivo y del atencional, que son esenciales para la realización de las actividades que nos ocupan en el presente. Estas tendencias generales de la población urbana se acentúan en el caso de los habitantes de barrios en situación de exclusión económica y social. El hacinamiento y el grado de contaminación del entorno inmediato, así como los elevados niveles de violencia y desintegración del tejido social, han sido citados con frecuencia como factores de riesgo añadido, característicos de los asentamientos informales urbanos. El problema va en aumento: la pobreza se está urbanizando cada vez más. Se estima que aproximadamente cinco millones de personas se desplazan cada año de zonas rurales a urbanas en países en desarrollo (Informe anual 2014 del Banco Mundial). Esta cifra incluye a miles de habitantes pobres que se trasladan a las ciudades con la esperanza de encontrar un trabajo que les permita vivir mejor y que acaban instalándose en conglomerados urbanos marginales, conocidos comúnmente como barrios de chabolas o favelas. Estos asentamientos presentan grandes disfuncionalidades en el acceso a servicios públicos básicos y un nivel de salubridad muy bajo, tanto dentro de las viviendas como en el espacio público. Con frecuencia, la basura y los excrementos se acumulan en las calles, y el sistema de saneamiento tiende a ser muy deficitario. El hacinamiento, así como los elevados niveles de absentismo, fracaso escolar y desempleo, también son característicos de estos barrios marginales. Ello suele acarrear problemas de inseguridad. Todo esto aumenta la frecuencia con que los pobladores de estos barrios encaran problemas, haciéndoles más propensos a sufrir estrés crónico. Finalmente, y aunque el propósito de este capítulo se aleja del de analizar la influencia de la genética en la propensión de distintos individuos a verse atrapados en una espiral de pobreza económica y mala salud, resulta difícil cerrar el tema sin hacer alusión a la interacción de estatus y género. Las mujeres son el doble de propensas a ser diagnosticadas con depresión y ansiedad y a experimentar preocupaciones y pensamientos intrusivos persistentes. Esto ha sido atribuido a una mayor predisposición biológica y a una mayor carga de responsabilidades familiares y domésticas (fenómeno conocido como «el doble turno»). Además, en muchos países en desarrollo existen actitudes negativas hacia la participación de las mujeres en trabajos remunerados fuera del hogar y sin supervisión familiar, y se espera que asuman la mayor parte de las tareas domésticas y de cuidado de adultos mayores y niños. Incluso en países como Estados Unidos, a pesar de los avances, los niveles de bienestar y felicidad de las mujeres han disminuido en las últimas décadas, y su convergencia en resultados económicos se ha estancado. No obstante, no se dispone aún de estudios rigurosos que demuestren que aliviar la carga familiar vaya a resultar una intervención efectiva para avanzar hacia la igualdad económica mujeres. entre hombres y Algunas ideas para concluir Las personas que viven en un ambiente de exclusión económica y social tienden a comportarse de manera que perpetúan su situación. Ahora bien, esta conducta no se debe, al menos en exclusiva, a las características innatas de los pobres. Todos somos susceptibles de tomar decisiones que repercuten negativamente en nuestro bienestar a largo plazo, y esta tendencia se acentúa cuando algún recurso necesario no está disponible en cantidad suficiente. La escasez afecta directamente a cómo nuestro cerebro percibe las oportunidades que se nos presentan y determina nuestra capacidad para realizar de manera eficiente tareas en distintos momentos del tiempo. Los últimos avances en economía del comportamiento y neurociencia indican que algunos de los patrones conductuales que se observan frecuentemente en personas pobres, y a los que se atribuye la persistencia de su pobreza, se deben en gran medida a las condiciones de vida que encaran en su día a día. Su habilidad para evaluar correctamente alternativas que conllevan beneficios y costes distintos en momentos diferentes del tiempo es limitada, y tienden a tomar decisiones que comportan gratificaciones inmediatas. De manera similar, tienden a preferir ganancias pequeñas pero seguras frente a otras que presentan un beneficio potencial mucho mayor, pero incierto. Estas preferencias tienen un gran impacto en su toma de decisiones, y éstas explican en gran medida que obtengan peores resultados económicos y de salud a largo plazo. Además, las tasas de prevalencia de estrés, ansiedad y depresión son mucho más altas en poblaciones pobres que en la sociedad en general. Los nuevos estudios sobre la influencia de los estados emocionales y físicos en nuestra toma de decisiones constituyen una fuente de valiosa información para comprender las causas de estas tendencias y buscar soluciones. La evidencia disponible indica que la escasez económica hace a las personas más propensas a experimentar emociones negativas. Todas estas respuestas biológicas pueden dar lugar a problemas de salud graves, y existen evidencias que sugieren que interfieren en su rendimiento cognitivo. Éste, a su vez, repercute negativamente en la calidad de su trabajo y en sus decisiones económicas, pudiendo dar origen a una trampa de pobreza. Ahora bien, la mayoría de estos estudios están basados en experimentos de laboratorio, y es necesario validar la información usando estudios en la población general y en la práctica clínica para poder afirmar que los programas de reducción de pobreza deben incluir componentes específicos de reducción del estrés o de afecto negativo. Hasta el momento, las intervenciones que han mostrado ser más efectivas para mejorar tanto indicadores de bienestar económico como de salud (física y mental) han sido las que integran componentes dirigidos a aliviar directamente el nivel de privación material combinados con pequeñas acciones destinadas a evitar que estos recursos no se utilicen adecuadamente. La incorporación de programas de salud mental a la oferta de servicios públicos también se presenta como un elemento muy prometedor. En países como el Reino Unido, la integración de una nueva generación de terapias psicológicas en el sistema público de salud ha producido resultados satisfactorios. El desafío de los nuevos estudios en las áreas de economía del comportamiento, medicina y neurociencia es validar o refutar estas hipótesis de trabajo y ayudar a comprender mejor la eficacia de distintos tipos de intervenciones para mejorar la manera en que se concede ayuda al desarrollo y así seguir avanzando en nuestro objetivo de erradicar la pobreza. 9 ¿Es España un país para jóvenes? Repensando la emigración JUAN MARTÍNEZ ÁLVAREZ En tiempos de cambio, quienes estén abiertos al aprendizaje se adueñarán del futuro, mientras que aquellos que creen saberlo todo estarán bien equipados para un mundo que ya no existe. ERIC HOFFER, escritor estadounidense Me pareció oportuno titular el capítulo con una pregunta que suscitase una primera reflexión sobre el problema del desempleo juvenil y su vinculación con la emigración. La pregunta es clara y directa: ¿es España un país para jóvenes? Los primeros que deberían responder esta pregunta son los mismos jóvenes. Si les hacemos esta pregunta a ellos, la respuesta parece ser claramente que no. Al menos eso es lo que se deduce de un estudio que ha realizado recientemente el Instituto para la Sociedad y las Comunicaciones de Vodafone en seis países de Europa. Para confeccionar este estudio, se ha llevado a cabo una macroencuesta de más de 6.000 entrevistas a jóvenes de entre dieciocho y treinta años. Es muy simbólico que los jóvenes españoles sean los que menos confían en su país para encontrar un trabajo. Algunos resultados específicos de la encuesta son muy meridianos: siete de cada diez jóvenes piensan que tendrán una vida peor que la de la generación de sus padres; tres de cada cuatro consideran que hay mejores perspectivas laborales en el extranjero, y seis de cada diez jóvenes están preparándose para emigrar fuera del país en busca de trabajo. Como decía Gustave Flaubert, «No hay verdad, sólo hay percepción». Y, ¿de qué es sintomática la percepción que expresan los jóvenes españoles? Pues de una verdad muy amarga. La verdad de una tasa de desempleo juvenil que supera el 50 por ciento. Esto se traduce en que una cuarta parte de los menores de veinticinco años que están desempleados en la zona euro son españoles. Por otro lado, están los «ninis», casi 1,7 millones de jóvenes españoles de un total de 7,6 millones que, según los datos de Eurostat, ni estudian ni tienen empleo. Y entre los jóvenes que sí tienen empleo, la situación tampoco es muy buena. Un estudio del Instituto de la Juventud dice que el 61,4 por ciento de los contratos a trabajadores de quince a veinticuatro años son temporales. Además, ha nacido un nuevo fenómeno salarial: el «seiscientoseurismo». Este fenómeno se extiende por todos los tramos de la población activa, pero afecta principalmente a los jóvenes: el 86 por ciento de los menores de dieciocho años, el 74,7 por ciento de los jóvenes entre dieciocho y veinticinco años y el 38 por ciento de los jóvenes de veintiséis a treinta y cinco años cobran menos de 700 euros. El panorama es devastador. Como respuesta a esta realidad, durante la crisis se han creado asociaciones juveniles como «No nos vamos, nos echan», que es una iniciativa para denunciar la situación de emigración forzosa que sufre la juventud y que refleja el malestar de muchos jóvenes españoles que se ven abocados a la emigración como solución laboral. La opción de emigrar ha tomado fuerza como única alternativa para muchos jóvenes, sobre todo para aquellos con educación universitaria y conocimiento de idiomas. El desempleo entre la población de jóvenes titulados en España triplica la media de los países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), y la realidad es que todos encontramos en nuestro entorno de amigos o conocidos el siguiente perfil profesional: joven español con educación universitaria y nivel medio en idiomas, que busca trabajo en el extranjero porque, según dicen, «en España está imposible». Con un nivel de desempleo juvenil por las nubes y con la economía en tasas muy tímidas de generación neta de empleo, muchos de estos jóvenes han concluido que su única salida laboral es irse al extranjero. En este capítulo queremos dar nuestra visión particular sobre esta situación. Para intentar ofrecer un enfoque distinto sobre la situación actual de los jóvenes titulados en el mercado laboral y la emigración como posible salida, voy a combinar algunas reflexiones personales como emigrante con algunas otras como economista. Mi experiencia personal me permite hablar de este tema en primera persona porque yo mismo soy emigrante e hijo de emigrante. En mi opinión, el conflicto que actualmente se observa con la mayoría de los jóvenes que se plantea salir de España es la causa por la que se deciden a hacerlo. Mientras que antes de la crisis la emigración juvenil era mayoritariamente voluntaria y motivada por el deseo de progreso profesional, hoy en día la gran mayoría de los jóvenes que piensan en emigrar al extranjero lo hacen ante la falta de oportunidades en España. A continuación, vamos a analizar de una forma un tanto peculiar este nuevo fenómeno de emigración laboral, pero también vamos a hacer algunas reflexiones sobre temas relacionados, tales como la necesidad de adaptarse a la nueva realidad laboral mundial, el gran valor que en el mundo laboral tienen algunas habilidades que nadie nos enseña o los atajos a la meritocracia para acceder o ascender en el mercado laboral (los «enchufados y pelotas»). La nueva emigración laboral poscrisis El nuevo emigrante laboral tiene un perfil distinto del del emigrante tradicional. Mientras que históricamente España había exportado trabajadores con baja cualificación, en la actualidad, y por primera vez, la emigración se está dando de forma generalizada en colectivos con formación superior. La gran diferencia se encuentra en que hace tiempo la emigración de jóvenes titulados se concentraba en estudiantes que iban a hacer un posgrado al extranjero, mientras que actualmente la principal motivación del emigrante medio no es continuar su formación, sino encontrar trabajo. En la actualidad, ninguna profesión se encuentra a salvo de la necesidad de emigrar. Sin embargo, resulta curioso que todos los perfiles de emigración que socialmente son percibidos como exitosos tengan un rasgo en común: afirman no estar dispuestos a trabajar «en lo que sea». Parece que estamos dispuestos a desplazarnos de país, pero no tanto a cambiar el sector profesional en el que trabajamos. Esta situación tiene como origen un problema claro en el mercado laboral español: la altísima tasa de paro convive también con una alta tasa de vacantes, es decir, hay un problema de emparejamiento entre desempleados y vacantes. Este problema supone una cierta incógnita desde el punto de vista la economía laboral, ya que lo normal es que los países tengan una de las dos tasas alta, pero no ambas. España es el único país del sur de Europa que desde el inicio de la crisis ha visto incrementar simultáneamente la tasa de vacantes disponibles y la tasa de paro. A pesar de la enorme bolsa de parados, las empresas declaran tener dificultades para cubrir ciertas plazas. La aparente abundancia de puestos laborales no cubiertos parece tener difícil encaje con la realidad de la emigración laboral, ya que aquellos que emigran a buen seguro tienen disponibilidad total para comenzar o continuar su vida laboral en España. Entonces, ¿por qué emigran si existen vacantes dentro de España? ¿Acaso las condiciones salariales son tan inferiores que prefieren abandonar su tierra natal en busca de una oportunidad mejor? Parte de la clave a esta aparente contradicción puede encontrarse en las dos grandes dimensiones de decisión a las que se enfrenta quien busca trabajo: la flexibilidad geográfica para desplazarse y la flexibilidad profesional para cambiar de sector laboral. El siguiente diagrama de cuadrantes clasifica a los tipos de emigrantes en función de las preferencias que éstos manifiestan basándose en dichas dimensiones: la flexibilidad geográfica para moverse y la flexibilidad profesional para cambiar de sector. En el cuadrante superior izquierdo se encuentran las personas que disponen de mucha flexibilidad geográfica, pero poca flexibilidad profesional. Es decir, están dispuestas a cambiar de país, pero no están dispuestas a cambiar de sector. Aquí situamos los casos de los que llamamos «nuevos jóvenes emigrantes», que afirman no estar dispuestos a trabajar en lo que sea. En cambio, en el cuadrante inferior derecho se encuentran los individuos con mucha flexibilidad profesional pero poca flexibilidad geográfica. Personas que están dispuestas a trabajar «en lo que sea», pero no a desplazarse de su lugar de residencia. Titulados (o no titulados) que prefieren trabajar en cualquier ocupación o incluso permanecer en el paro antes que emigrar. Aquí se incluyen, por ejemplo, los casos de sobrecualificación, en los que las personas acceden a hacer un trabajo que está por debajo de su nivel profesional. Una pregunta que subyace en este análisis es si existe una mayor valoración social de la flexibilidad geográfica sobre la flexibilidad profesional. En nuestra sociedad, el valor relativo que se otorga a la flexibilidad geográfica parece ser mayor al de la flexibilidad profesional, que se considera uno de los aspectos menos aprobados públicamente. Nuestra sociedad percibe como poco deseable aceptar trabajos «por debajo del nivel de cualificación» o en sectores donde la persona requiera disponer de menor educación o experiencia para trabajar. Sin embargo, desde un punto de vista económico, la rigidez tanto profesional como geográfica contribuye por igual a agudizar el problema del emparejamiento de vacantes con parados. Los motivos para explicar este problema son múltiples, aunque en el fondo siempre subyacen fricciones en el mercado laboral que no permiten emparejar adecuadamente vacantes con candidatos en búsqueda de empleo. A veces, el problema de emparejamiento es involuntario, como en el caso de la formación específica necesaria para un determinado puesto de trabajo. Por ejemplo, trabajadores del sector de la construcción o la minería difícilmente pueden recolocarse en otros sectores que no sean industriales. Pero a veces también hay casos en los que el problema de emparejamiento es voluntario. Por ejemplo, el fenómeno de los nuevos emigrantes que no aceptan trabajar en puestos de trabajo que no coincidan con su perfil profesional. Por lo tanto, la rigidez del mercado laboral también se debe en parte a las preferencias de nuestra fuerza laboral. En este sentido, puede resultar paradójica la experiencia de personas que emigran con la expectativa de conseguir empleos en sus sectores profesionales, pero acaban aceptando empezar por otros puestos no relacionados con su profesión, cosa que en España difícilmente aceptarían. Estas personas realizan un «cambio de cuadrante» en el extranjero sin haber pasado por esa senda en España. La pregunta es: ¿qué nos dice este tipo de comportamiento? Dos cosas. La primera es que en el extranjero no existe la presión social negativa de aceptar un trabajo por debajo de las cualificaciones, y sí existe la presión de tener que obtener ingresos para poder seguir buscando el empleo deseado. La segunda es que, en el extranjero, el emigrante mantiene una expectativa clara de poder acceder al empleo deseado (y de ahí el sacrificio), mientras que en España esa expectativa no existe. En términos generales, lo que observamos es que la mayoría de los trabajadores sienten un legítimo derecho de desarrollar su carrera profesional en el campo en el que han decidido educarse y son muy reacios a trabajar en ocupaciones distintas. Esto significa poca flexibilidad profesional. Si España quiere contrarrestar esta «rigidez natural» del mercado laboral, es necesaria una cierta planificación para coordinar la formación con el modelo productivo, es decir, incentivar la formación de las personas en los sectores económicos que están demandando más empleo. Respecto a la flexibilidad geográfica, también es necesario aceptar que el paradigma laboral mundial ha cambiado y que necesitamos formar capital humano listo para competir globalmente en igualdad de condiciones con el resto de los países. La primera de mis reflexiones va dirigida a dar unas pinceladas sobre lo que está pasando actualmente en el mundo y cómo deberíamos pensar en el empleo hacia el futuro. Primera reflexión: Los años noventa ya no existen, y no podemos seguir intentando vivir en ellos Después de los años noventa, hemos entrado en una época de profundos cambios tecnológicos, económicos y sociales, que podría ser comparable a otras grandes revoluciones de la historia. Probablemente dentro de unos años, cuando exista una mejor perspectiva histórica, se catalogue a esta transición de milenio como la tercera revolución industrial. A la cabeza de este cambio está el fenómeno de la globalización, con internet como uno de sus estandartes más visibles. La globalización está en una fase incipiente y aún le queda mucho recorrido. Una de sus consecuencias más palpables es el proceso de «reequilibrio» del orden económico mundial. Las economías emergentes ganan peso en el conjunto de la economía mundial. Por ejemplo, los países BRIC (Brasil, Rusia, India, China) cada vez tienen más relevancia económica. Para hacernos una idea, entre 2000 y 2008 la mitad del crecimiento económico mundial provino de estos cuatro países. Pero ¿qué sabemos de los BRIC? Mi impresión personal es que, en general, tenemos un conocimiento limitado. Hagamos una pequeña apuesta para comprobarlo: 10 euros por los nombres de 10 empresas chinas de las 207 que están entre las 2.000 más importantes del mundo, según la clasificación anual que Forbes hace de las compañías públicas más grandes y poderosas del mundo. Una pista, las tres primeras de la lista son bancos chinos (ICBC, Banco Chino de Construcción y Banco Agrícola de China). Entre estas 2.000 empresas, un total de 314 provienen de los BRIC (25 brasileñas, 28 rusas, 54 indias y 207 chinas), que han ido ganando enteros desde que se comenzó a hacer esta clasificación en 2004. Siguiendo este índice, vemos que no sólo los BRIC se están abriendo paso en el contexto internacional, sino también otras economías latinoamericanas y asiáticas. Corea del Sur tiene 61 empresas en la lista, cifra que está por encima de las 52 que tiene Alemania o de las 27 que tiene España. La realidad económica y empresarial del mundo está cambiando. Y hemos de entender que este acontecimiento no es pasajero, sino una tendencia estable de cara al futuro. La consultora internacional PricewaterhouseCoopers ha realizado un informe con proyecciones económicas mundiales para el año 2050. Si nos fijamos en las diez economías más grandes por su nivel de PIB nominal, nos encontramos con China (1), India (2), Brasil (4), Rusia (6), México (7) e Indonesia (10). Si ampliamos la lista hasta las veinte primeras, vemos a Turquía (12), Corea del Sur (17), Vietnam (18) o Arabia Saudí (19). En estas proyecciones también queda de manifiesto que Europa representará cada vez una porción menor en el conjunto de la economía mundial. Sólo agrupando los 27 países miembros de la Unión Europea podría compararse con las tres economías dominantes (China, Estados Unidos e India). Me sorprende que estas proyecciones no parezcan inquietar lo más mínimo en la Unión Europa, que tengo la impresión de que mientras trata de salir de la crisis está sumida en luchas internas por el control político y económico. Nadie está planteando cuál debería ser la estrategia de inserción de la Unión Europa en el nuevo contexto global. ¿Cómo queremos competir? Esta cuestión debería ser el asunto fundamental a resolver, porque hay consecuencias de la globalización que se adivinan fácilmente. Una de ellas será un lento proceso de deslocalización industrial desde los países más desarrollados hacia los países en vías de desarrollo. La globalización ha traído un gran incremento de los intercambios comerciales, una mejora de las comunicaciones físicas y virtuales y la libertad para el movimiento de capitales. Esto permite que las empresas sitúen sus líneas de producción en países donde la mano de obra es mucho más barata, al tiempo que sus productos llegan a sus mercados de destino a un coste menor. Igual que en su día sufrimos una transformación económica cuando se abandonó la agricultura como principal actividad económica y la población se fue a las ciudades en busca de trabajo, ahora hay que empezar a prepararse para tener una economía cada vez menos industrializada y con más servicios. Sobrevivirá la industria que genere valor añadido. La innovación es una de las claves para producir productos nuevos o de una mayor calidad que permitan a las empresas ser viables con costes de producción mucho más altos. ¿Cuál es el problema cuando digo que hay que abandonar la mentalidad de los años noventa? Los paradigmas previos a la globalización ya no se sustentan. Hay que afrontar que las condiciones de esa época es muy probable que no vuelvan. El mundo ha cambiado enormemente en los últimos veinte años; el razonamiento de que estudiar una licenciatura te daría acceso a un trabajo estable y bien pagado de nueve a cinco en la empresa del pueblo o sus cercanías, y que eso a su vez te permitiría comprar una vivienda con una hipoteca a quince años, fue la realidad de nuestros padres y abuelos. Pero ya no es la nuestra. Nadie discute que querríamos otra realidad, pero es en ésta en la que nos está tocando vivir. El gran problema de fondo es que esta nueva situación supone una gran conmoción para muchas generaciones de jóvenes. Hemos crecido con el modelo de nuestros padres como referencia y con unos objetivos y aspiraciones vitales que ahora vemos violentamente truncados. La globalización (ayudada por la crisis) se ha llevado aquel modelo de un plumazo, y nadie nos ha explicado este cambio de paradigma, ni nos han preparado para estar listos ante la nueva realidad. ¿Y qué pueden hacer los jóvenes? Es comprensible que la primera reacción sea la indignación y la resistencia al cambio. Pero cuanto antes interioricemos el funcionamiento del mundo actual, más fácil nos será adaptarnos a él. Un consejo muy valioso que uno de mis mentores me dio cuando llegué a Estados Unidos fue que, antes de abordar cualquier decisión de carrera profesional, primero era fundamental que observase e interpretase el entorno. En este sentido, la globalización también ha supuesto un gran cambio en la forma de trabajar. Por eso quisiera dar algunas claves del entorno laboral, particularmente con relación a por dónde están yendo las tendencias en materia de contrataciones y búsqueda de perfiles profesionales. Entender y adaptarse a estos cambios en el mercado laboral es clave para mejorar la empleabilidad de los jóvenes, ya sea en España o en el extranjero. Como decía el presidente estadounidense Franklin D. Roosevelt: «No siempre podemos construir el futuro para nuestros jóvenes, pero sí podemos construir a nuestros jóvenes para el futuro». Esta gran frase me lleva directo a mi siguiente reflexión. Segunda reflexión: El valor de lo que nadie nos explica Que el árbol de la crisis no nos impida ver el bosque de la globalización. La crisis ha puesto las cosas extremadamente difíciles a muchos jóvenes, pero el acontecimiento de fondo que tenemos que tener en mente es la globalización. El mundo es hoy un lugar mucho más interconectado y, ciertamente, mucho más competitivo que hace tan sólo unas décadas. Cuando voy al campus de mi universidad, veo que hay un alto porcentaje de estudiantes asiáticos que vienen a Johns Hopkins para obtener formación en Estados Unidos. He tenido la misma impresión en una visita reciente que hice a la Universidad de Newcastle, en Inglaterra. Cuando he trabajado con países como Colombia, México o Brasil, me he encontrado en instituciones públicas con mandos de nivel medio que tenían estudios de posgrado en universidades como Harvard o la London School of Economics. Éstos son algunos ejemplos para ilustrar que no sólo los ciudadanos de países occidentales tienen acceso a formación universitaria de calidad y que hoy en día la competencia laboral está globalizada. Como leía recientemente en el Informe sobre la calidad del empleo joven, becarios y prácticas que elaboró el Consejo de la Juventud de España, «la formación por sí misma ya no garantiza un lugar en el mundo del trabajo, simplemente sirve como primera condición de ingreso en el mercado». Esto me recuerda a cuando en clase de matemáticas me explicaban las condiciones necesarias y las condiciones suficientes. En este caso podríamos decir que la formación es hoy en día una condición necesaria pero no suficiente para acceder al mercado laboral. Se necesita más que educación. En esta línea, la Organización Internacional del Trabajo (OIT) señala que, para la inserción laboral, cada día son más importantes las llamadas soft skills, como, por ejemplo, conocer idiomas, saber hablar y exponer adecuadamente en público, o bien habilidades de negociación e interrelación laboral. Este conjunto de destrezas son fundamentales para muchos puestos de trabajo, más incluso que los conocimientos puramente técnicos. El problema es que nuestro sistema educativo no se preocupa por desarrollar estas habilidades hoy consideradas cada vez más imprescindibles, lo cual de alguna manera supone un déficit competitivo. En mi experiencia personal, superar este déficit competitivo supuso algunos esfuerzos. Recuerdo con mucha claridad dos experiencias relacionadas con este tema. La primera fue el año que estuve en Glasgow con la beca Erasmus. En la asignatura de Estructura Económica, el principal componente para determinar la nota era la realización de una presentación al resto de la clase sobre un tema de investigación. Supuso un gran reto para mí viniendo de un modelo educativo de clases magistrales donde el alumno tiene un rol muy pasivo. De hecho, fue la primera presentación en público que hice en mi vida, y encima fue en inglés. Aún recuerdo el mal trago. La segunda experiencia fue cuando empecé a trabajar en prácticas en un fondo de inversiones. Seguía el «código laboral español»: esperar a que alguien me dijese lo que tenía que hacer, obedecer esas órdenes al pie de letra y centrarme en hacer un buen trabajo técnico para que mis supervisores se dieran cuenta de mi buen trabajo. Es decir, que mi trabajo hablase por sí solo. A mi lado, otro joven analista acababa de llegar también al fondo; llamémosle el «pequeño Nicolás». Su enfoque era completamente distinto. Hacía muy poco trabajo técnico, pero intervenía en las reuniones, se pasaba el día tomando cafés con los supervisores y organizaba eventos para relacionarse con compañeros y jefes. ¿Cuál de los dos crees que consiguió renovar su contrato más rápido? Efectivamente, fue Nicolás. La moraleja es que no sólo lo técnico es importante, sino que la inteligencia social y emocional también es fundamental en el desarrollo de una carrera profesional exitosa. Otro ejemplo más interesante que me gustaría utilizar para explicar la importancia de completar la educación teórica con habilidades sociales es la nueva filosofía de selección de personal de la empresa Google. El gigante de la tecnología tiene una política de contratación revolucionaria que está siendo ampliamente comentada en el mundo de los recursos humanos. Google se ha pasado años analizando quién tiene éxito dentro de su compañía, lo que ha hecho que se aleje de métodos clásicos de selección por «credenciales», como las notas promedio de las titulaciones y los test de inteligencia. Para Google, ser exitoso en la universidad no siempre es síntoma de ser capaz de hacer bien un trabajo, ya que la universidad puede ser un «ambiente artificial» y condicionar la forma de pensar. Google está interesado en la habilidad cognitiva para aprender sobre la marcha y poder integrar pedazos de información diversa y desestructurada. Para ello, utiliza entrevistas de comportamiento en las que, por ejemplo, en vez de preguntar cuántas pelotas de tenis entran en una cancha de tenis, te puede preguntar cómo has reaccionado en el pasado ante un problema concreto al que te has enfrentado. En definitiva, están más interesados en qué piensas y cómo te comportas a la hora de resolver problemas que en tus credenciales y títulos académicos. Es por eso por lo que en la época en la que vivimos el éxito profesional depende, en gran medida, de un ejercicio fundamental: la introspección personal. Para poder diseñar un plan coherente sobre nuestra carrera profesional, tenemos que ser conscientes y honestos sobre cuáles son nuestras capacidades y habilidades, cuáles son nuestras motivaciones y cuál es nuestro estilo de comportamiento y reacciones ante determinadas situaciones en el trabajo. Por ejemplo, un perfil de persona que Laszo Bock, gerente de recursos humanos de Google, dice que no contratan es aquel que cae en «la trampa de la atribución del error». Un comportamiento que estoy seguro que todos hemos visto millones de veces en nuestros trabajos. Si algo sale bien es porque soy un genio, pero si algo sale mal es porque alguien ha metido la pata, porque las condiciones del mercado han cambiado, porque no tenía suficiente personal, etc. La autocrítica y el espíritu de mejora constante son esenciales. También tenemos que ser sinceros en el análisis de los límites contextuales y personales. Es decir, los factores externos que limitan nuestras opciones, y las áreas en las que tenemos potencial para mejorar. Creo que el futuro de nuestro trabajo depende de nosotros mismos más de lo que creemos. En este nuevo escenario donde el empleo es más escaso y la competencia es cada vez mayor, la única seguridad en el empleo que tendremos será la que nosotros mismos generemos cultivando nuestra propia «empleabilidad». Cultivar la empleabilidad puede darse de muchas formas. En mi caso personal sentí que, después de varios años en el mismo trabajo, necesitaba una actualización profesional, y a los treinta y un años decidí abandonar un trabajo excepcionalmente pagado para volver a estudiar. Fue un gran riesgo, pero desde mi punto de vista era más arriesgado seguir haciendo lo mismo y devaluarme profesionalmente. La pregunta que me hice fue: si todos tenemos una licenciatura en una universidad pública de similar calidad, ¿cuál es el valor de esa licenciatura? En términos económicos, cuando un bien se masifica pierde valor. Cuando pierdes valor te conviertes en un producto indiferenciado al que no le queda más alternativa que competir en precio. Cultivar la empleabilidad significa diferenciarse. Cada uno es su propia marca y tiene que intentar añadirse valor continuamente. Pero ¿quién valora nuestra empleabilidad? En mi siguiente reflexión me gustaría hablar de la meritocracia y de la red de contactos profesionales. Tercera reflexión: Sobre enchufados y pelotas La última reflexión es sobre el sistema de valoración de perfiles profesionales en el mercado laboral. ¿Qué hay que hacer para acceder a un nuevo puesto de trabajo? Hay que hacer méritos, hay que hacer contactos, o una combinación de ambos. Normalmente tendemos a pensar que sólo es importante hacer méritos y no le damos importancia a hacer contactos. Los jóvenes tienen que entender que el networking es tanto o más importante que sus méritos. Por eso he querido centrar el título de la sección en dos figuras muy mentadas por todos en nuestros ambientes laborales: el «enchufado» y el «pelota». Si nos paramos a pensar qué tienen en común estas dos figuras, el hilo conductor parece ser la prioridad que ambos dan a la red de contactos laborales sobre el resto de las cosas. Por un lado, el enchufado es la persona que hace valer su red de contactos para conseguir un trabajo o un ascenso, y por otro, el pelota es el que intenta ampliar y mejorar su red de contactos con rangos profesionales superiores para que esto le sirva como medio de progreso profesional. ¿De dónde surge nuestra animadversión por estas figuras? La principal razón es que, en la base de nuestra estructura lógica de valores, suponemos que funcionamos en un sistema exclusivamente meritocrático. En teoría, tanto el enchufado como el pelota atentan contra las reglas de juego acordadas por la sociedad y tratan de usar otros mecanismos distintos a los socialmente aceptados para avanzar en su carrera. La siguiente pregunta que se origina es: ¿estamos realmente en un sistema meritocrático? Para hablar de este tema, vamos a hacer un pequeño viaje hasta Boston para conocer el trabajo de un genio de nuestro tiempo, César Hidalgo, director de macroconexiones en el MediaLab del Instituto Tecnológico de Massachusetts (MIT). En uno de sus artículos publicados en la revista científica Nature, César investiga la premisa prevalente de que los mercados son meritocráticos. La investigación se centra en explorar si los mercados se comportan siempre de forma meritocrática cuando estos mercados son estructurados como redes. El valor de la producción de un agente en el mercado está relacionado directamente con su talento (como medida de meritocracia). Si tenemos un mayor grado de talento, nuestra producción tiene más valor en el mercado. Y si el mercado está conectado completamente y podemos vender nuestra producción a cualquier agente dentro de la red, el sistema funciona como una meritocracia perfecta. Pero si asumimos que el mercado no está conectado completamente, y un agente tiene que pasar por varios puntos de la red (agentes que intermedian y se quedan con un porcentaje) para poder vender la producción, entonces el mercado no funciona totalmente como una meritocracia. En este sentido, César diferencia dos tipos de sistemas: meritocrático y topocrático. Es decir, un sistema en el que la distribución de los pagos está determinada principalmente por la capacidad de un agente para producir contenidos de calidad o bien un sistema en el que los beneficios de un agente están determinados principalmente por su posición dentro de la red. Uno de los aspectos más interesantes en el análisis es la determinación de cuándo un sistema pasa de ser topocrático a meritocrático en función de la conectividad de sus agentes. Según sus cálculos, para una población como la de Estados Unidos, de 300 millones de personas, una persona necesitaría tener 17.000 conexiones para que el sistema fuera meritocrático. Inversamente, si en este contexto tomamos una persona que tiene 150 conexiones, la red tendría que ser de hasta 22.000 personas como máximo para que ésta fuese meritocrática. En esencia, lo que este modelo ilustra es que si en general los agentes tienen un número de conexiones pequeño y limitado en comparación con el número de puntos que existe en la red, el sistema tenderá a ser más topocrático que meritocrático. Así, si como sugiere Hidalgo los mercados no siempre son meritocráticos y nuestro grado de conectividad dentro del sistema es crucial, parecería ser que los enchufados y los pelotas están en lo cierto al conceder un gran valor a la red de contactos profesionales. Sin embargo, están totalmente equivocados en la forma de crear, cuidar y extender una red de contactos. Para ilustrar la causa de su error, vamos a viajar ahora hasta San Francisco porque me gustaría presentarte a una persona: Adam Rifkin. Si tomamos como referencia la lista Fortune de las 640 personas más poderosas e influyentes del mundo (los 500 gerentes generales más importantes, los 50 más inteligentes en sector tecnológico, los 40 más influyentes de menos de 40 años y las 50 mujeres más poderosas) y la cruzamos con la base de datos de usuarios de LinkedIn.com, vemos que Rifkin es la persona que más conexiones tiene con esta lista de personas. Más incluso que Michael Dell, fundador de la compañía Dell, o Jeff Weiner, el mismísimo director general de LinkedIn. ¿Cuál es su secreto? Según cuenta Rifkin, su secreto es crear una red de contactos transparente, honesta y desinteresada. Y aquí es donde se equivocan los pelotas (y los enchufados), ya que basan sus redes de contactos en la reciprocidad, es decir, en hacer algo por sus superiores con la clara intención de recibir algo a cambio. Ésta es una vieja regla que existe en la humanidad desde tiempos inmemoriales, pero como dice el profesor Adam Grant, de la escuela de negocios de Wharton en la Universidad de Pennsylvania, la reciprocidad tan explícita en los ambientes laborales tiene dos inconvenientes. El primero es que los receptores pueden sentirse manipulados, creando la sensación de una transacción impersonal más que de una relación sincera. La segunda es que si sólo te centras en las relaciones con tus supervisores, estás limitando el tamaño de tu red porque sólo te estás centrando en lo que consideras posibles «oportunidades de negocio». En definitiva, con este enfoque estaríamos reduciendo tanto la calidad como la cantidad de nuestra red de contactos. Por el contrario, Rifkin dice que ha construido su red a base de ayudar a los demás de buena fe, lo que le ha permitido no sólo tener una buena y sólida reputación, sino también cultivar una red más amplia, más duradera en el tiempo, y que está más dispuesta a ayudarlo en cualquier momento. Hasta aquí llega la tercera reflexión. Tiempo de pasar al cierre del capítulo. En el futuro hay cal y arena Como hemos explicado al principio del capítulo, la situación laboral para los jóvenes titulados españoles no es buena. Si analizamos los datos de Eurostat y el Servicio Público de Empleo Estatal (SEPE), vemos que España está entre los países de la Unión Europea que más titulados produce (anualmente se gradúan en universidades españolas cerca de 220.000 estudiantes), pero se encuentra entre los países que menos empleo de alta cualificación demanda. A consecuencia del desfase entre oferta y demanda de trabajo, España lidera las estadísticas de sobrecualificación laboral de la zona euro. Uno de cada tres titulados universitarios españoles está empleado en un trabajo por debajo de su cualificación. Por otro lado, según investigaciones de la Universidad Carlos III, los jóvenes titulados españoles necesitan de media más de cinco años de empleos temporales y experiencias de desempleo para acceder a su primer empleo indefinido, y el número medio de empleos temporales necesarios antes de esta transición al empleo indefinido asciende a más de siete. La buena noticia es que en los próximos años, con la salida de la crisis, la situación del desempleo juvenil se aliviará un poco e irá mejorando progresivamente. Aunque no habrá milagros. Y me aventuro a decir que no habrá milagros en parte por la falta de proactividad de los agentes sociales, principalmente gobiernos y sindicatos. El grandísimo economista John K. Galbraith hablaba de «las mayorías satisfechas» en las sociedades capitalistas occidentales. Los jóvenes no formamos parte de estas mayorías, que son las que sustentan electoralmente tanto a gobiernos como a sindicatos. Con una población española que está envejeciendo, los gobiernos tienden a dar prioridad a otros colectivos, como los jubilados, con lo que creen que capturan más votos. Lo mismo sucede con los sindicatos. El perfil típico del trabajador afiliado a los sindicatos (y por lo tanto votante) es el de un asalariado con contrato indefinido, de un nivel educativo medio-bajo, de avanzada edad, con mayor antigüedad y que trabaja en empresas de gran tamaño. Por lo tanto, el desempleo juvenil no supone un problema prioritario para el núcleo del electorado de gobiernos y sindicatos. La mejora económica hará que el desempleo vaya descendiendo, pero los salarios bajos, la temporalidad o la sobrecualificación son fenómenos que requieren políticas públicas de reforma del mercado laboral. Y no deberíamos depositar nuestras esperanzas en algo que históricamente no hemos sido capaces de hacer. En España las cosas se hacen por inercia, descarte o impulsos. No suele haber estrategias coordinadas y consensuadas a largo plazo. En este contexto nacional e internacional tan complicado, debemos tomar la iniciativa para buscar respuestas, y no depender exclusivamente de que alguien venga a solucionar nuestros problemas. También quiero señalar que aunque haya menos empleo asalariado tradicional, todavía hay y habrá muchas oportunidades laborales, y por esta razón hay que adaptarse al nuevo entorno cultivando constantemente nuestra empleabilidad y nuestras redes de contactos. En momentos difíciles es fundamental tener una noción de lo que se quiere hacer y cómo se ha de actuar para conseguirlo. El sentido que más tienen que agudizar los jóvenes españoles es el de la planificación estratégica. Por ejemplo, a los jóvenes que están pensando qué estudiar, les diría que den un vistazo al nuevo mapa de empleo del Ministerio de Educación, en el que pueden ver las licenciaturas con más y con menos salida laboral. A los jóvenes que tienen un empleo indefinido, les diría que no se duerman en los laureles e intenten seguir mejorando. En España, somos de los países que menos tiempo dedicamos a la formación y el aprendizaje a lo largo de la vida laboral y no podemos darnos el lujo de quedarnos desactualizados. A los jóvenes que tienen un trabajo temporal o un trabajo para el que están sobrecualificados les diría que aguanten y persistan. Que recuerden que siempre es más fácil encontrar un nuevo empleo cuando ya tienes uno. A los jóvenes que están desempleados les diría que lo peor es la parálisis. A ese colectivo de jóvenes con poca cualificación que se sumó al boom de la construcción les diría que aún están a tiempo. Esta crisis es una oportunidad de volver al sistema educativo para aprender un nuevo oficio y reorientar su carrera profesional. Y a los jóvenes desempleados de mayor cualificación que están barajando irse al extranjero les diría que en su caso es todavía más importante la planificación estratégica, porque desde fuera resulta muy difícil valorar la realidad del mercado laboral de otros países. Al analizar las experiencias de los que habíamos denominado «nuevos emigrantes», se observa que las barreras de entrada y adaptación a los mercados laborales extranjeros hacen que algunos de ellos cambien de estrategia y acepten comenzar en trabajos de bajo salario, temporales, o para los que están sobrecualificados. Mi visión es que emigrar es difícil y tiene costes emocionales muy altos. Es muy duro tener que dejar atrás familia, amigos y costumbres. Mi perspectiva es que para irte a miles de kilómetros a hacer un trabajo que no supone un claro paso adelante en tu carrera profesional, es mejor quedarte cerca de los tuyos. No digo que sólo se deba emigrar con trabajo asegurado, sino que es mucho más efectivo cuando estudiamos el país de destino, hacemos contactos locales para conocer mejor la realidad y llevamos un plan trazado con lo que queremos hacer. Mi otro consejo es que mires a Latinoamérica porque es sin duda nuestra aliada natural. Un continente con más población que la Unión Europea, que está creciendo económicamente, que necesita mano de obra cualificada en muchos sectores económicos y que, además, habla nuestra lengua. Y para concluir, digo a todos los jóvenes españoles que si tienen una buena idea y la convicción de que puede funcionar, no duden en lanzarse a la aventura de crear una empresa o una cooperativa. La globalización trae retos, pero también oportunidades. El mundo es un lugar cada vez más complejo, con muchos problemas por resolver, y por ende con más oportunidades para ideas innovadoras. Hasta aquí llega el pequeño viaje que hemos hecho para revisar algunas de las claves del desempleo juvenil y la emigración laboral. Pero no puedo hacerlo sin recordar, por último, una cita del escritor irlandés James Joyce: «Soy hoy lo que decidí ayer. Seré mañana lo que decida hoy». 10 Innovación: todo lo que se pueda hacer mal, se hará mal XAVIER FERRÀS Y JAVIER GARCÍA Cuatro principios a tener en cuenta: Lo contrario es también frecuente. No basta mover para renovar. No basta renovar para mejorar. No hay nada que sea absolutamente empeorable. ANTONIO MACHADO Comencemos con una anécdota que nos pasó a uno de nosotros. Ocurrió en una reunión con un «selecto» grupo de empresas punteras en I+D (investigación y desarrollo) y tecnología. Un directivo, a punto de jubilarse, que representaba a una potente multinacional nos dio una gran lección. Fue justo en el momento en que un joven consultor, también de otra gran firma, nos decía que España tenía un serio problema porque sus empresas no invertían en I+D. Antes de pasar al siguiente punto, el hombre levantó la mano y cortó de lleno al joven, diciéndole: «Siempre decís lo mismo, que las empresas no invierten en innovación. Pero nunca os preguntáis por qué, ni mucho menos habláis de lo que hay que hacer para que esto ocurra. Tendéis a pensar que la solución es más dinero y cambios sutiles en las convocatorias públicas, pero no funciona. No mejoramos en nuestros resultados. En cambio, me gustaría compartir con vosotros una reflexión en voz alta [en ese momento era el centro de atención de los más de treinta directivos que había en la sala]: »Cuando acudo a la consulta de un doctor, me habla de los nuevos estudios, observo que maneja libros, revistas científicas, y que los domina con soltura. Si tengo un problema legal, observo que nuestros abogados están constantemente leyendo, y dominan las novedades y sus implicaciones, estudiando los cambios y perfeccionando su conocimiento. Nuestros ingenieros, repartidos por el mundo, estudian con sumo detalle cada problema con el que se enfrentan consultando estudios. Muchos de ellos están a la vanguardia y tienen un amplio conocimiento de lo que se publica en las revistas científicas. »Pero ¿y los empresarios? Cuando me reúno con algún empresario, y lo hago a menudo, no encuentro ningún libro en su despacho, y alguno hasta se vanagloria de ello. Tenemos empresarios muy poco formados, con muy poca motivación para estar al día, por saber lo que pasa en el mundo, por cultivar y destinar fuerzas a mejorar lo que saben y para aprender constantemente. »Ahí está el problema, y esos empresarios mandan mucho, deciden muchas cosas, y no premian ese esfuerzo por saber, conocer y mejorar. Y sin eso no hay innovación. No habrá innovación sin estrategia y sin entrenamiento». Aquel directivo trató un tema clave: ¿por qué España es un desastre en innovación o al menos siempre y en todos los informes internacionales salimos tan mal en la foto? ¿Por qué cuando la mayoría de los países salen de la crisis con sistemas de innovación y educación fortalecidos y renovados, en España la inversión en I+D languidece, cae año tras año, y se sitúa sólo al nivel de un país emergente (la que tenía China hace una década) y casi a una tercera parte de lo que recomienda la Unión Europea? ¿Por qué si disponemos de una muy elevada masa crítica universitaria y de investigación, no nos comemos una rosca en la economía del conocimiento? ¿Por qué sólo surgen empresas innovadoras en sectores no tecnológicos? Tratemos de adentrarnos en este tipo de preguntas para ver si somos capaces de abordar algunas de las cuestiones que planteaba aquel directivo con mucha experiencia a sus espaldas. Y es que ni planificándolo ex profeso hubiéramos conseguido tan malos resultados. No importa que los países que quieren liderar el futuro tengan la innovación como prioridad estratégica. No importa que el mundo asista a una corriente de reconcentración (reshoring) de actividades productivas, atrayéndolas a sus países de origen y situándolas junto a renovados centros de I+D. No importa que Estados Unidos invierta en I+D (público y privado) 23 veces más que España, que China lo haga 12 veces Japón 8, Alemania 4, Corea del Sur 3 y Francia y Reino Unido entre 2 y 3 veces más. No importa que nos situemos a prácticamente la mitad de la intensidad tecnológica europea (1,24 por ciento I+D sobre PIB frente al 2 por ciento europeo), o a una tercera parte de los objetivos de la Unión Europea (3 por ciento), cuando es un hecho que la capacidad de competir de las empresas y la productividad de las naciones dependerá de su capital tecnológico. No importa, tampoco, que nuestros políticos intenten convencernos de que sólo «ganamos competitividad» si perdemos calidad de vida. Esto siempre es un mito: compiten las empresas, no los países (aunque los países deben crear las condiciones de entorno para hacer emerger y propulsar empresas líderes globales). Son las empresas en un contexto y con unas instituciones, con unos incentivos determinados, las que toman las decisiones de inversión, entre ellas en innovación. El modelo económico de España resultante tras la crisis se parece más al de Marruecos que al de Alemania. Pretendemos que nuestras empresas y la economía española ganen competitividad vendiendo más barato, expulsando del mercado de trabajo a cinco millones de personas, reduciendo los salarios a niveles del tercer mundo, precarizando la sociedad, invitando a millones de jóvenes a hacer las maletas y buscarse la vida en otros lugares, exterminando las clases medias y poniendo, incluso, en peligro la democracia. Pese a todo ello, la innovación sigue sin importar. Tras cinco años de importante crisis en España, un amplio grupo de asociaciones e instituciones científicas de carácter nacional e internacional hacía llegar al presidente del gobierno una «Carta abierta por la ciencia en España» respaldada también a título individual por más de 26.000 científicos de ochenta países. Apoyaban la carta seis premios Nobel, numerosos premios Príncipe de Asturias, premios Nacionales de Investigación y académicos de reales academias españolas e internacionales. El consenso emergente es claro: España no es un país para científicos. Los brotes sembrados durante las dos últimas décadas pueden ser erradicados por la falta de recursos y la incertidumbre que asola el panorama español. Los investigadores jóvenes, ya de por sí acostumbrados a la movilidad internacional, pueden acabar abandonando masivamente el país ante la falta de perspectivas que la coyuntura española presenta. La investigación y la innovación constituyen para la teoría económica moderna el núcleo del crecimiento a largo plazo. En los países desarrollados, con la mujer ya plenamente incorporada al mercado de trabajo, las ganancias de productividad y de bienestar se producen sólo cuando la innovación altera los procesos productivos para conseguir producir más con menos recursos. Este proceso de descubrimiento abre nuevas oportunidades productivas en las denominadas «actividades basadas en el conocimiento». Pero, tras años de tímidos aumentos, la crisis ha puesto freno a la inversión en I+D. A pesar de que la percepción del ciudadano y el discurso político coinciden en la importancia de la I+D como motor de progreso, los recursos no se materializan y cada año se acumulan nuevos descensos de los fondos públicos a través del recorte de subvenciones, de becas o de financiación de centros de investigación. Además, el volumen total de inversión privada es también menor: mientras que la empresa media europea invierte unos 318 euros en I+D por habitante, dicha inversión sólo alcanza en España los 160 euros. No obstante, la convicción generalizada de que la I+D es la senda inexcusable del progreso ha convivido en España con la percepción de que los esfuerzos en este conjunto de actividades no han dado todos los frutos que se podría esperar, lo cual explicaría la relativa pasividad de la ciudadanía ante los recortes en esta área. La mejoría producida durante las últimas décadas no consiguió evitar la formación de la burbuja inmobiliaria ni ha logrado consolidar ningún clúster tecnológico relevante en España. Así, según las estimaciones del prestigioso observatorio ABACO, el PIB generado en «actividades basadas en el conocimiento» se mantenía en España muy por detrás de la del resto de países desarrollados. Concretamente, sólo el 27,7 por ciento del PIB español está compuesto por dicho tipo de actividades, frente al 38 por ciento en Francia, el 43,4 por ciento en Italia o el liderazgo indiscutible de Estados Unidos, con el 59,5 por ciento. ¿Cuáles son los mecanismos de inversión en I+D que conducen a un aprovechamiento de la inversión por parte de la economía real? Producir conocimiento es complejo y costoso, y la rentabilización de dicha inversión, como explica la geografía económica mundial, requiere de una alta concentración de inversiones, talento y capacidad empresarial. Pero las disparidades en España son muy amplias. Siete de cada diez euros invertidos por las empresas I+D se concentran en cuatro comunidades: Madrid, Cataluña, País Vasco y Navarra. Salvo en el caso de País Vasco y Madrid, dichas inversiones son mucho menores que en el resto de los países de la Unión Europa. Parte del problema se encuentra en que la innovación depende, en gran medida, de la excelencia de los centros de educación superior. Y, según el Academic Ranking of World Universities (conocido como «Ranking de Shanghái»), no hay ninguna universidad española entre las doscientas mejores del mundo. ¿Qué ha fallado en España? ¿Podrán las actividades basadas en el conocimiento liderar la recuperación en medio de una coyuntura tan desfavorable para la I+D? No podemos caer en el mito de que si no se innova en España es porque no existen empresas innovadoras. ¡Qué mala suerte! Como podrás observar con ejemplos muy claros y cotidianos en el siguiente capítulo, esto no es necesariamente así. Y es que existe un hecho incontestable: la capacidad innovadora de un país no depende sólo de sus empresas. Los designios del mercado no tienen por qué estar alineados con la competitividad nacional a largo plazo. El mercado es inteligente, por eso opta por máximos retornos en mínimo tiempo, si es necesario asignando recursos a sectores especulativos, como la construcción. La capacidad innovadora de un país depende de las políticas de innovación que se establezcan para desarrollar sectores competitivos de alta tecnología. Y ello se hace mediante el impulso público a la I+D y mediante programas de financiación de alto riesgo a proyectos de muy elevada tecnología. Así lo han hecho los países líderes: Israel, Finlandia, Corea del Sur, Singapur, Dinamarca, Alemania o, más recientemente, China (que ya ha superado a Estados Unidos en número de patentes registradas cada año). Así lo hacen los líderes. Y así no lo estamos haciendo en España. La innovación es un juego payper-view Entre 2008 y 2011 el número de empresas innovadoras se redujo en España en un 43 por ciento, mientras que aquellas que declaraban actividades de I+D cayeron en un 36 por ciento. Exportamos y quizás empezamos a salir de la crisis, pero la famosa «devaluación interna» no ha sido más que un formidable ejercicio de destrucción de valor: se reducen precios, se reducen márgenes, se reducen salarios, se reduce plantilla y, con ello, volvemos a situarnos en la cola de los países en vías de desarrollo. El incipiente sistema de ciencia-tecnología e innovación se está desintegrando. Y mientras, en los países de nuestro entorno, se aplican recortes pero se mantienen intactas las partidas de educación, ciencia e innovación, las que han de garantizar el porvenir. Se recortan gastos, pero se protegen las inversiones de futuro. El cambio de modelo productivo, si se produce, vendrá por la base: serán las pymes y las startups las que liderarán los cambios disruptivos. La historia de la industria demuestra que no son las grandes empresas las que encabezan los cambios de modelo, sino las jóvenes y emergentes empresas, que son las que generan los cambios rompedores. La monarquía jamás liderará una revolución. Y más en España, donde las empresas del IBEX son mayoritariamente de sectores de servicios financieros, constructoras, energía o distribución. Sectores poco tecnológicos y regulados o muy dependientes de la Administración (en general, poco abiertos a la competencia internacional y poco proclives a crear cadenas de valor industriales en el territorio). En tan sólo ocho páginas, Michael Mandel, responsable del área de economía del Progressive Policy Institute (PPI), think tank de referencia internacional, abrió un debate apasionante. Si queremos transformar la sociedad y abordar los grandes problemas a los que nos enfrentamos en ámbitos tan complejos como la sanidad, la energía, la tecnología o el calentamiento global, es decir, para seguir generando progreso económico a través de la innovación, ¿qué tipo de empresas serán el motor? ¿Las de tamaño grande o las de tamaño pequeño? El impacto mediático de esta sencilla idea, tras su difusión en The Economist y Slate, ha sido enorme. La primera tesis de Mandel es «lo grande ha vuelto; lo grande es inteligente». Según sus ideas, Schumpeter sigue vivo: los procesos de destrucción creativa se aceleran con la globalización y premian a las empresas grandes. Su posición se podría resumir en tres puntos: 1. Un primer repaso a la geografía económica mundial muestra que las fronteras están «desapareciendo»: el mundo es cada vez más un mercado único y la actividad se concentra en grandes «agujeros negros» o «nodos» de actividad económica —las ciudades, conectadas en red entre sí —. Los nodos de dicha red son tupidos ecosistemas empresariales liderados por grandes corporaciones que, a su vez, «arrastran» a una multitud de pequeñas empresas y startups y beben de ellas, refuerzan su liderazgo y canalizan la innovación hacia la sociedad. 2. ¿Qué sería Apple sin el ejército de desarrolladores que, repartidos por el mundo, alimentan cada día las aplicaciones para el iPhone o el iPad? ¿Sería posible Google o incluso Gore-Tex? La inteligencia colectiva es un potente combustible para transformar talento en innovación, pero dicha combustión suele producirse dentro del motor de una gran empresa que aprovecha su tamaño para afianzar su liderazgo. 3. Dado que el mundo es ya un único mercado con el talento disperso a lo largo y a lo ancho del planeta, el tamaño de los líderes empresariales es vital para aprovechar toda la inteligencia colectiva. El número de centros de I+D+i de multinacionales que cooperan con agentes y universidades locales nunca ha sido tan grande. Es el paradigma de la «innovación abierta»: innovación consorciada, clusterizada, con apalancamiento mutuo de capacidades. Y el correcto aprovechamiento del potencial eleva los requerimientos financieros, de infraestructuras y de personal altamente cualificado que pueda gestionar todo el proceso. En contrapartida, ha ido cobrando fuerza una corriente de pensamiento que defiende el poder de lo pequeño. The Economist explicaba en «Los grandes pueden, los pequeños lo hacen» que la innovación no es sólo cuestión de dinero, sino también de talento y de capacidad para transformar una idea en una organización sostenible en el tiempo. La natalidad empresarial sería, como opina una empresa de capital riesgo en el citado artículo, básica para crear la nueva savia de la innovación: No queremos que quien ha hecho dinero en los años noventa decida dónde invertir el dinero hoy. En general, estos emprendedores no son capaces de mantenerse en la frontera todo el tiempo. Necesitamos socios que pongan su dinero para que nos den la oportunidad de encontrar al Microsoft de mañana. Las grandes empresas corren el riesgo de convertirse en conglomerados burocráticos que inhiben la creatividad y la capacidad de reinventarse. De hecho, Mandel hace hincapié en los trabajos de investigación que ponen de manifiesto la menor frecuencia de innovaciones radicales en la gran empresa respecto de la pequeña. Las nuevas ideas que rompen «las reglas del juego» suelen darse en empresas con estructuras más flexibles y adaptables, en empresas que empiezan y apuestan (arriesgan) por crear algo nuevo. Y, si en las grandes corporaciones las innovaciones suelen ser de proceso (hacer lo mismo, a menor coste, lo cual puede incluso destruir puestos de trabajo) o de producto (sustituir una gama antigua por una nueva, lo cual es un juego económico de suma cero), son las pequeñas startups los vehículos organizativos de la innovación de ruptura, la que puede generar nuevas industrias e inducir crecimiento económico real. Y es que no podemos olvidar que Apple es hoy una gran empresa, pero nació como un proyecto de dos personas en un garaje en 1975, y también Google y otras muchas multinacionales de primer nivel. La mayor parte de las empresas de la lista Fortune 500 no estaban ahí hace veinticinco años: la mecánica evolutiva de los sistemas empresariales es imprescindible para generar las innovaciones que mejoran nuestra calidad de vida. El tamaño actual de cada empresa es el reflejo de su éxito innovador durante el proceso de nacimiento y crecimiento. Hay lugares donde las ideas fluyen y el talento se concentra y trabaja para transformar las ideas en productos acabados. El éxito ocurre cuando ese ecosistema se completa con oportunidades financieras y científico-tecnológicas. Los datos parecen indicar que la clave no está en el número de empresas que se creen, ni tan siquiera en el número de empresas grandes que tengamos en nuestra economía, sino en las posibilidades que tienen las buenas ideas y los buenos modelos de negocio de florecer y progresar en la economía. Mandel cita un dato crucial: el 1 por ciento de las empresas crea el 50 por ciento del empleo. La propia Nesta, una agencia británica de máximo prestigio en ámbitos como la innovación, tiene informes en la misma dirección; sus estimaciones apuntan a que el 6 por ciento de las empresas en el Reino Unido han sido las responsables de crear el 56 por ciento del nuevo empleo durante los últimos ocho años. Estas empresas, denominadas de «alto crecimiento», no necesariamente empiezan por «bio» o «nano», ni son importantes startups tecnológicas. Son empresas que nacen con modelos claros de negocio y capacidad para introducir, de forma escalable, soluciones en el mercado. La propia Nesta va más allá: «Un 62 por ciento de las startups que se crean en el Reino Unido no alcanzan los diez años de existencia. Un 10 por ciento de las que sobreviven no logran tener más de diez empleados, y sólo un 5 por ciento crecen en empleo y se mantienen en el tiempo». Por lo tanto, «la clave no es sólo la cantidad de empresas que se crean, sino también su calidad». La conclusión de Mandel es que prestamos demasiada atención al hecho mismo de la creación empresarial —buscando la forma de generar autoempleo, buscando «emprendedores» por todos los sitios— y, en cambio, descuidamos el ecosistema necesario para que puedan desarrollarse y aprovecharse las oportunidades del mercado global. Con todo, el debate «pequeño versus grande» tiene muchas aristas. Las grandes empresas necesitan a las pequeñas y precisan de plataformas a través de las cuales el talento les permita seguir innovando sin involucrarse en riesgos excesivos. Pero, según las nuevas teorías del management — con Gary Hamel a la cabeza y tal y como también explicamos en otro capítulo de este libro—, las grandes empresas tienen serios problemas organizativos para seguir siendo flexibles y creativas y para lanzar innovaciones radicales. Nos encontramos en una época en la que un gran número de sectores —concretamente, aquellos que producen servicios no rivales en el consumo, como la música, el cine, la prensa, el diseño— se están transformando por completo, y sus grandes estructuras, sus sistemas competitivos internos y sus altos costes estructurales los asfixian hasta el punto de que pierden aquello que les ha hecho «grandes». En este contexto global, un problema que tiene España es que las pymes o las startups no pueden tomar el relevo. No pueden innovar. No pueden porque no existen instrumentos financieros específicos. La innovación comporta riesgo, incertidumbre y experimentación. Y, por ello, jamás la banca comercial (ni en sus mejores tiempos) la financiará; se necesitan nuevas lógicas, algunas de las cuales las trabajamos en este libro también. En los países que actúan con inteligencia estratégica y se orientan a la generación de valor y empleo de calidad, existen organismos específicos de financiación del riesgo, como la agencia Tekes en Finlandia o MATIMOP en Israel. En Estados Unidos esta función la cubren las compras públicas sofisticadas: la política industrial en ese país es una formidable combinación de demanda temprana por parte de la Administración —la NASA, sola, tiene un presupuesto igual a la totalidad de la I+D española—, flexibilidad laboral y acceso rápido a mercados financieros. ¿Por qué la pyme no innova más en España? (Al menos no lo hace desde el punto de vista tecnológico...). La explicación es sencilla. Imaginemos el siguiente juego: tenemos en una urna 99 bolas blancas y una roja. Para extraer una bola, una empresa debe pagar 100.000 euros. Si saca la bola roja, encontrará un suculento mercado de 100 millones de euros y con él generará mil puestos de trabajo. ¿Jugarías? El juego, en el largo plazo, es rentable, pues el coste de extraer todas las bolas es de 100 × 100.000 euros = 10 millones de euros. El premio, 100 millones de euros. ¡Juega! ¡Pon los primeros 100.000 euros! Ohhh..., ¡vaya! Bola blanca. Ningún problema, las probabilidades de que salga la roja ahora son mayores. Has reducido la incertidumbre. Estás avanzando en tu I+D. ¡Vuelve a jugar! ¿No dispones de los próximos 100.000 euros? Pídeselos a tus parientes y amigos (fools friends and family). ¡Bola blanca! Ohhhh... Pero no te preocupes, has vuelto a reducir la incertidumbre. Estás más cerca de la solución. Te quedan menos bolas para encontrar el mercado. ¿No tienes los siguientes 100.000 euros? Ve al banco... ¿Cómo, que no te los prestan? Claro... Te piden avales y garantías por el doble. ¿Y la Administración? ¿Te ofrece un cursillo sobre emprendimiento? ¿Te dice que tienes que innovar con recursos propios? ¿No tienes recursos para continuar? Se acabó el juego. España no innova porque la innovación tiene una base probabilística. Para innovar de verdad, para introducir innovaciones de ruptura en el mercado, hay que superar barreras de incertidumbre. Desde la investigación hasta la aplicación práctica y el desarrollo de un mercado hay un proceso de experimentación que, en términos agregados (de competitividadpaís), es rentable y genera ocupación de alta calidad. Pero ni las empresas ni los emprendedores pueden permitirse el esfuerzo individual, y la banca comercial exige garantizar cada repetición, una a una (no ve el conjunto). Hoy, nadie ve el conjunto. Ése es un trabajo de estrategia de país. Es misión de los Estados asegurar esa financiación. La innovación es un negocio pay-per-view. Avanzar en el proceso que lleva al mercado exige pagar a cada paso (investigación, prueba de concepto, maquetas, prototipos, escalado industrial...) para reducir la incertidumbre del siguiente. Y es algo que no puede dejarse sólo al albur del tejido industrial, pequeño y muy debilitado hoy. Es cierto que el gran premio es para la empresa que se lleva la bola roja (100 millones de euros). Pero también es cierto que ese premio genera «externalidades económicas» (empleo de calidad), responsabilidad de la Administración. Invertir en I+D (especialmente industrial, que está correlacionado con la productividad económica del país y tiene efecto multiplicador) es generar externalidades positivas, necesarias para crecer. Por ello, no se debe recortar en ciencia ni en investigación industrial. Como nos decía en Sintetia un antiguo ingeniero de la Agencia Espacial Europea, Tim Harper: Toda nuestra historia económica ha estado basada en la innovación tecnológica, algo que países como China o Estados Unidos comprenden bien. El problema de España es que es fácil hacer recortes cuyos efectos no se sentirán hasta dentro de muchas elecciones. Recortar la financiación científica ahora tendrá poco efecto inmediato, pero has de preguntarte por qué otros países no lo hacen. Es el equivalente de vender una de las cuatro ruedas de tu coche para comprar gasolina. Juan Grafeno en Innolandia, o por qué no se innova en España Juan Grafeno era un joven sobradamente preparado. Doctorado en una prestigiosa universidad de Innolandia, basándose en su preparación técnica, había descubierto una clarísima oportunidad de negocio. Según sus cálculos, su proyecto originaría rápidamente varios miles de puestos de trabajo de calidad y, por sus características, su idea generaría fuertes barreras de entrada a la competencia y elevados márgenes durante bastante tiempo. No obstante, existía un grave inconveniente: había un problema tecnológico no resuelto. Para hallar la solución, Juan Grafeno se adentró en el frondoso Bosque de la Investigación, donde le habían dicho que podría encontrar soluciones a todos los problemas de la humanidad. Después de unas cuantas horas de búsqueda sin referencias, se topó con un mago. Juan Grafeno le explicó cuál era su problema. El mago le llevó a una cueva repleta de pócimas que lo resolverían. Juan Grafeno saltaba de alegría. Pero el mago le dijo: Muchas de estas pócimas pueden dar solución a tus necesidades. Una de cada cinco contiene los ingredientes que necesitas. Pero existe un problema: cada sorbo cuesta un millón de sextercios. Juan Grafeno no disponía de dicha cantidad. Contento, de todos modos, fue a la Banca de los Préstamos. Había visto un anuncio donde se manifestaba que cualquier proyecto tendría financiación en dicha entidad. Especialmente, los de innovación, palabra que estaba de moda en Innolandia. Un hombrecillo con manguitos y gafas de miope lo recibió y le dijo: «Efectivamente, yo puedo dejarte el millón de sextercios que necesitas. Pero debes devolvérmelo en diez años. Si dejas de pagar una sola cuota mensual, tu casa, la de tus padres, la de tus abuelos y la de tus hijos, será mía». Consternado, Juan Grafeno volvió a su casa... Si el proyecto funcionaba, podría devolver el préstamo holgadamente, pero el mago de la Investigación le había dicho que las pócimas sólo funcionaban en uno de cada cinco casos... Evidentemente, no podía arriesgarse a pedir el préstamo, pues con un 80 por ciento de probabilidades iba a perder su patrimonio, el de sus padres y el de sus abuelos. Tenía que renunciar a su sueño y a la posibilidad de crear miles de puestos de trabajo. Empleos que sus paisanos aldeanos necesitaban desesperadamente. De camino a casa, decidió pararse en la Selva de las Instituciones. También había visto numerosos anuncios colgados en las paredes de las casas de Innolandia, en los que se decía que en dicha Selva se prestaba apoyo a proyectos innovadores que crearan puestos de trabajo. Inmediatamente, al entrar, se vio asaltado por todo tipo de seres extraños: adivinos, curanderos, payasos, elfos, enanos, orcos, trovadores, feriantes, poetas, burócratas y titiriteros que, amablemente en algunos casos y de forma agobiante en otros, le ofrecían todo tipo de servicios de entretenimiento y asesoramiento. Pero Juan Grafeno lo tenía claro. No necesitaba consejos: necesitaba el millón de sextercios o su proyecto jamás arrancaría. No necesitaba más seres burocráticos ni exóticos, necesitaba recursos. Huyó rápidamente de la Selva. Tampoco le ayudó el Consejo de Ancianos Inversores, que huyeron despavoridos cuando supieron que la pócima sólo funcionaría en uno de cada cinco casos. Uno de ellos le confesó que sólo prestaban sextercios a proyectos de comercio de naranjas y verduras con otros reinos. Los proyectos de alquimistas y extrañas tecnologías los escuchaban, se divertían opinando y exigiendo al pobre emprendedor que presentara números de retornos financieros hasta el día del juicio final. Pero no entendían de tecnologías, sólo de frutas y verduras, y jamás soltaban un sextercio. Finalmente, recordó la existencia de un lugar singular: la Fuente de la Innovación. Alguien le había dicho que allí se producían extraños fenómenos paranormales de soporte a proyectos innovadores. Se acercó a dicha fuente, donde una bella hechicera le hizo una propuesta: «Aquí tienes el millón de sextercios que necesitas. Mi misión es crear riqueza y bienestar, y por ello te voy a ayudar. Si tu idea fracasa, no me los tendrás que devolver. Pero te pondré una sola condición: si la pócima que bebas en el Bosque de la Investigación funciona, entonces deberás retornarme el 1 por ciento mensual de los ingresos que te genere, hasta completar el triple de la deuda que contraes». Con el millón de sextercios, Juan Grafeno bebió la pócima del Bosque de la Investigación. Afortunadamente, funcionó. Juan Grafeno montó su empresa, devolvió el 1 por ciento que le pidió la bella hechicera y creó mil puestos de trabajo. Y colorín colorado, este cuento se ha acabado... En España existen bosques de la investigación, orcos, titiriteros y burócratas, consejos de ancianos inversores, pero no existe la Fuente de la Innovación. Moralejas • • La innovación es un fenómeno probabilístico. Existe un riesgo asociado a la naturaleza del proyecto tecnológico y un grado de incertidumbre derivado de la probabilidad de que la tecnología no funcione. El mercado financia • • actividades de I+D de forma subóptima: menos de lo que sería económica y socialmente deseable. Generar puestos de trabajo es deseable para un país. Esa responsabilidad no se puede dejar únicamente en manos del mercado. La banca comercial jamás financiará la innovación. La innovación es riesgo. La banca no financia el riesgo..., sobregarantiza los préstamos. Para que la innovación se dispare a nivel de país, se • precisan «recursos e instrumentos financieros específicos». Los servicios de asesoramiento son insuficientes. No por más asesorar un business plan, éste se va a ejecutar si no existen los recursos financieros adecuados. La disposición de recursos públicos para la innovación no tiene por qué generar déficit: se puede jugar en base probabilística, compartiendo riesgo en caso de fracaso, pero exigiendo retornos sustanciales (superiores al mercado) en caso de éxito. Es cuestión de diseñar instrumentos financieros adecuados a la realidad innovadora. Cuando el PowerPoint no es suficiente para financiar la innovación Pero estamos en un libro que invita a dudar, ¿verdad? Pues bien, no todo es un problema de «chequera»; nuestro cuento explica una realidad, pero posiblemente no toda la realidad. El problema es que los anuncios, el uso y abuso de la palabra innovación, emprendedores, internacionalización... rozan el punto donde algunos de estos conceptos pierden hasta el sentido. Para emprender con ideas realmente innovadoras y financiarlas tampoco es suficiente con tener esa idea y creer que el dinero tendría que llegar de cualquier lugar, de forma abundante y barata. Se precisa más, mucho más. Pensemos en la siguiente situación. Dos viejos amigos se encuentran en un gran evento destinado a emprendedores, un lugar donde reina la ilusión, y tienen la siguiente conversación: —¿Cómo estás? Cuéntame, ¿de qué va tu proyecto? —Pues quiero vender bolígrafos. —¿Bolígrafos? ¿No crees que tienes una dura competencia? —Bueno, mis bolígrafos son especiales, tienen un capuchón de diseño que los hace diferentes. —¿Y en qué se basa esa diferencia? —En personalizar el bolígrafo y convertirlo en «tu» bolígrafo. —¿Sí? ¿Cuál es la necesidad que estás cubriendo con ese bolígrafo? —¿Necesidad? Me confundes..., en España se venden más de 300 millones de euros de bolígrafos, ¿sabes lo que es eso? Me bastaría con copar el 0,1 por ciento para hacer algo grande. —Ya, interesante, ¿y cómo sabes que es factible alcanzar esa cuota de mercado? —Me pones en un aprieto..., es un porcentaje muy pequeño, ¿por qué no? ¡Mi idea es genial! —¿Y qué necesitas invertir para hacer esos bolígrafos? —Bueno, pues unos 200.000 euros. —¿Cuánto pones tú? —Mis padres me dejaron los 3.000 euros para crear una sociedad y algo de dinero para alquilar una pequeña nave en un vivero de empresas. Además, como soy autónomo, he recibido una ayuda de mi comunidad autónoma, ¡y no está nada mal! —¿Y el resto? —¡Para eso estoy aquí! He venido con una presentación en la que llevo meses trabajando, con todos los datos de venta de bolígrafos, su distribución geográfica, presupuestos de la maquinaria que necesito y algunos diseños personalizados que podría poner en bolígrafos de prueba. —Pero, ¿esperas conseguir una financiación de 200.000 euros con un PowerPoint? —Claro, ¡la idea es brillante! ¡Basta con copar un pequeño mercado y lo tengo! ¡Es muy rentable, nadie se negará! Además, todo el mundo a quien se lo cuento está entusiasmado. ¡No puede salir mal! —A eso se le llama poner pasión. ¿Y tienes un precio para tu bolígrafo personalizado? —Sí, he hecho algunos números. He bajado de internet un archivo de Excel para hacer planes de negocio, ¡200 eurazos me ha costado!, y lo tengo muy bien montado, llevo más de 150 horas trabajando en él. Según mis costes, tendría que vender mi bolígrafo por unos 60 euros la unidad. —¡Ostras! Pero si estamos en crisis... —Ya, pero de la crisis se sale con ideas ¡WOW!, como la mía, porque las posibilidades de personalización de los bolis son increíbles. —Pero ¿y por qué gastar 60 euros cuando me puedo comprar una caja de 40 bics? —La diferencia está en el diseño. Es el activo fundamental de todo negocio. Llevo tiempo estudiando diseño y creo que es la clave para poder justificar el precio y hacerlo rentable. Mira qué posibilidades más alucinantes pongo como ejemplo en el PowerPoint... —Ummm, tienes razón, son chulos. ¿Me estaré oxidando o no comprendo bien lo que propones? —¡Disfruta del evento! Me han dicho que viene un tipo fantástico que cobra más de 15.000 euros por sesión y del que aprenderemos mucho. ¡Verás como al final comprenderás mi modelo de negocio de los bolis! En esta figurada situación, nuestro emprendedor tenía una idea, un PowerPoint y muchas ganas y entusiasmo. Pero ¿es suficiente con esto para lograr financiación? Como decíamos, ahora emprender e innovar son vocablos de moda. Pero para lograrlo hacen falta muchas cosas más que una idea. ¿Hay una burbuja de financiación a los emprendedores y sus ideas innovadoras o es una burbuja de «palabra»? ¿Existen las mismas posibilidades para lograr financiación en todas las etapas de una empresa? ¿Cuáles son las claves para lograr financiación? Seamos humildes: nadie tiene las claves mágicas ni recetas que ayuden a lanzar al estrellato cualquier idea innovadora. Una vez más, queremos aportar nuestro granito de experiencia por si puede ayudar a toda aquella persona que se encuentre en alguna de las fases que vamos a describir a continuación. Y es que, efectivamente, emprender es un proceso, y no todas las fases son iguales ni se enfrentan a los mismos problemas y, por lo tanto, no se pueden usar las mismas estrategias de financiación. Tampoco las posibilidades de financiación son iguales. A todos nos gustan las historias como la del fundador de Instagram, que con una buena idea y sólo un PowerPoint consiguió 250.000 dólares de capital riesgo, inversión que se multiplicó 312 veces al vender su empresa a Facebook. Pero como se decía en un artículo de TechCrunch, «por cada Instagram hay miles de casos de fracaso». No estamos ante una burbuja financiera de capital que fluye hacia los emprendedores ni hacia la innovación, siquiera, de empresas consolidadas. Eso ya ha pasado en internet y sigue haciéndolo, pero de forma muy selectiva, no generalizada. Las empresas de capital riesgo están cada vez más especializadas, disponen de profesionales altamente cualificados y, sobre todo, han experimentado en carne propia lo que supone jugar al casino con modelos de negocio que no se comprendían muy bien. Así que, emprendedor/a, si tienes una idea, necesitarás muchos instrumentos en tu caja de herramientas para poder construir sobre ellos y poder escalar en el mercado. Para profundizar en estas ideas, hemos decidido colocar al emprendedor de los bolígrafos ante tres situaciones distintas y mostrar así las diferentes etapas y sus peculiaridades. 1. Cuando lo que tienes no es una empresa, sino un experimento Por mucho que hayamos trabajado en el plan de negocio, por muchas conferencias, másters, reuniones y PowerPoints que acumulemos, si no tenemos algo tangible con clientes, no tenemos una empresa, sino más bien un experimento. Éste es un error demasiado extendido. El emprendedor de los bolígrafos del episodio anterior, con su PowerPoint y ni un solo bolígrafo de prueba, no tenía una empresa. Da igual que hayas ido al notario e ingresado 3.000 euros para crear una sociedad limitada: no tienes una empresa. Y evaluar un experimento es tremendamente complejo. Y, además, se trata de una de las fases de mayor riesgo con las que te vas a encontrar como emprendedor, pero también como inversor. Bolis con capuchón de diseño. Una idea, una hoja de cálculo con proyecciones de clientes, un mercado potencial, una idea sobre cómo distribuir, un precio aproximado, algo de la inversión que consideras necesaria. Una buena comunicación. Éstas suelen ser las herramientas en esta fase del experimento. Si acudes a una entidad financiera con estas ideas, la respuesta será, y en la mayoría de los casos, la misma: no hay financiación para ti. O no la hay si no tienes bienes que hipotecar (garantizar), o bienes de tus padres, o garantes de todo tipo. O transfieres ese riesgo a tu entorno más cercano o no hay financiación. La idea, el PowerPoint y el Excel no sirven para mucho. Cuando tratamos con una entidad bancaria «tradicional», existe casi una imposibilidad manifiesta de evaluar el riesgo de una idea emprendedora, y más si eres joven o con poca experiencia a tus espaldas o no dispones de un capital inicial para invertir (si lo tuvieras, lo más probable es que no acudieras a pedir ese préstamo). La financiación a una startup por el sistema «clásico» es tremendamente compleja. La solución para salir de esta fase es, como tal experimento, lograr la financiación mínima que te permita experimentar, lo que identificábamos como la Fuente de la Innovación. Hay que invertir en el diseño de los bolígrafos y buscar la manera de poder obtener un set de prototipos que puedas enseñar, con las peculiaridades (al menos aproximadas) que reflejen tu idea lo más fielmente posible. Necesitas salir a la calle, estar con tus potenciales clientes, enseñarles lo que tienes, preguntarles, valorar su experiencia, evaluar con lupa sus reacciones, lo que gusta, lo que no. Haz pruebas con los precios. Busca soluciones. Busca cómo distribuir, visita fábricas, visita a potenciales aliados, vete a los lugares donde se compraría tu producto, observa quién compra, qué hace cuando compra..., sumérgete en la competencia (hazte fan, estúdiala y busca qué se les está pasando por alto), conviértete en el profesional más experto del mundo de los bolígrafos. Hazte preguntas: ¿destacan sólo por el diseño de los capuchones? ¿Y qué pasa con los complementos? ¿Qué otras prestaciones tienen? ¿Cómo lo eligen? ¿Con qué propósito? ¿Qué necesidad cubren? Puede que la idea sea realmente revolucionaria y que no haya nada parecido — advertencia: seamos humildes, que esto ocurra es extremadamente difícil, asegúrate bien—. En ese caso, investiga bien algo que siempre hay: la necesidad. Tras este testeo de aprendizaje profundo, de preguntarte y de convencerte con datos de que hay un hilo por donde tirar, en ese momento, como emprendedor, puedes abrir alguna puerta a capital «semilla». Inversores a quienes gusta el alto riesgo, pero que lo reducen apostando por muchos pequeños proyectos diversificados. Inversores que apuestan por ideas. Pero esas ideas hay que saber defenderlas bien, contestar a preguntas clave y mostrar un camino que es francamente duro. Y esto posiblemente te permitirá empezar: en ese momento estás abriendo las puertas a tener algo que realmente se pueda llamar empresa. 2. Subiendo por la escalera de la empresa Asumamos que hemos logrado pasar del PowerPoint al mercado. Tenemos algo de capital y ahora comienza la actividad. Lo habitual es pensar que se trata de una línea recta marcada por algo que solemos llamar plan de negocio y con el que hemos convencido a nuestros amigos, familiares y, aunque no al del banco, sí a un inversor semilla. Pero esa línea recta es imaginaria, ficticia y raramente se puede seguir. Es más, muchas de las empresas de éxito que conocemos hoy en día lo son gracias a que no han seguido sus planes de negocio iniciales. Ésta es la conclusión de un reputado estudio en la MIT Sloan Management Review, donde se muestra cómo empresas como Twitter, Google o muchas otras que están hoy en la lista Fortune, lo están gracias a que han tomado una «opción B» respecto a sus planes de negocio iniciales. Les sirvió para «levantar capital», pero no hay plan de negocio que soporte un contacto con el cliente. ¿Por qué? Veamos algunas ideas. Pasar del experimento a que un cliente pague una cantidad en euros es un proceso complejo. Tener una empresa requiere emitir facturas, firmar contratos, dotarse de una estructura de personal, de gestión, de comunicación, de diseño; muchas variables imposibles de controlar a priori y, sobre todo, de predecir. ¿Qué pasa si tras el experimento resulta que el coste de producir un diseño y colocarlo en el mercado no es algo tan «fácil» como se preveía? ¿Y si el que en nuestras encuestas con los prototipos decía que pagaría 60 euros no lo hace en el momento de la verdad? ¿Y si un proveedor te exige exclusividad y quedas «preso» con sus contratos, o te encuentras con que lo que te decía no se plasma en las cláusulas? ¿Y si diseñar un nuevo bolígrafo implica un riesgo importante porque no eres capaz de anticipar si funcionará o no y te juegas el dinero de tu inversor? Cuando empiezas a enfrentarte a esta «locura del día a día», vas tomando muchas pequeñas decisiones, empiezas a usar tu ingenio y tu olfato hasta encontrar una salida, como el agua cuando llueve. Y, en ese momento, vas desviándote más y más. Estás en una frontera difícil, y es ahí donde mayor es el riesgo. ¿Funciona o no funciona? ¿Ceñirse al plan establecido o abrir nuevos caminos? Ahí es donde te vas a poner a prueba como emprendedor. Decisiones rápidas, inteligentes o no. Aprender de los errores, tomar nuevos caminos. Dotarse de equipos o personas a las que les apasione, como tú, el proceso. La clave en estos momentos es tener unos buenos cimientos de partida. Esos cimientos ante todo tienen que ver con el propósito (además de con las capacidades, que ya se suponen, de lo contrario no llegarías ni siquiera a esta fase). Ese propósito tiene que ser fuerte, tiene que permitir aunar esfuerzo creativo y talento a tu lado para buscar esos caminos por los que surcar la realidad. Si pasas esa etapa, si hay facturas, hay contratos, costes, caminos o trazos por los que caminar con cierta seguridad, ya empiezas a vislumbrar nuevas oportunidades. En ese momento, en que fluye la actividad y tienes clara la redefinición del negocio, es muy probable que necesites nueva financiación. Ahí los bancos ya empiezan a comprender tu lenguaje, siempre que vean números —y los típicos trimestres del IVA liquidados son una señal de que esto funciona—. Depende de los importes y del grado de seguridad que puedan medir —importante lo de medir, en balance, en patrimonio, en impuestos sobre la renta de los socios—, el banco puede entrar ya a financiar ciertas operaciones: circulante o, incluso, para inversiones a largo plazo. En esta fase es fundamental saber ordenar muy bien la información y explicar el modelo de negocio, es decir, cómo generas ingresos, para qué necesitas la deuda, cómo la devolverás y cómo de factible es la empresa que estás planteando. Se acabó la época de ir al banco con unas cuantas garantías hipotecarias. Ahora, además, hay que ir con garantías estratégicas para limitar todos los riesgos que verán en tu negocio, que serán todos... Pero tienes que convencerlos de lo contrario. 3. Cuando sales del pueblo a la aldea global La gran mayoría de las empresas suelen quedarse en la fase anterior. Pero también hay ideas brillantes que nacen de experimentos que funcionan, a los que se les enchufa la estrategia y el talento adecuados para crecer. Ese filtro es muy pequeñito..., y difícil. Pero es el caldo de cultivo para que surja el nuevo Instagram... ¿Cómo le iría a nuestro chico de los bolígrafos en este caso? Imaginemos, ya que podemos... Tras atar buenos contratos con fabricantes de bolígrafos a los que se aplican diseños (protegidos y rompedores); tras labrarse un hueco entre la gente apasionada del mundo de los bolígrafos —que los hay, como todo en el mundo long tail—; tras empatizar muy bien con el cliente; tras saber qué funciona y qué no, y observar que no sólo es el diseño (como un estampado), sino que hay ingeniería de fabricación, materiales, una forma, una tipología de tinta, distintos usos..., nuestro ficticio emprendedor de bolígrafos es un caso de éxito en internet. Y se le ha ocurrido una idea: utilizar el talento creativo de los usuarios, de los diseñadores «anónimos» que hay por el mundo. Aquellos que son apasionados de los bolígrafos y de todo lo que les rodea. ¿Y si nos envían sus diseños y hacemos que el público los vote? ¿Y si fabricamos los más votados? Es una manera de: uno, ahorrarse costes de diseño; dos, aprovechar el talento globalmente distribuido y testear los gustos y fabricar con menor riesgo. Este modelo funciona en el mundo de las camisetas con threadless.com. Lograr financiación para este gran paso global tiene también sus retos. No dejas de experimentar y arriesgar. En esta fase, es clave demostrar la capacidad de generar «caja», de gestionar todas y cada una de las piezas del puzle — finanzas, logística, fabricación, diseño—, y controlar de forma excelente toda la cadena de valor: desde proveedores hasta la distribución (por todo tipo de canales). Una vez más se necesita un profundo plan de negocio, un equipo muy sólido y mostrar una magnífica capacidad de visión de futuro —con todos los detalles muy cuidados y establecidos— para escalar la montaña del mercado. Es momento de preguntas, siempre las preguntas: ¿qué pasará cuando vendamos 100 millones de euros? ¿Cómo se organizará la plantilla? ¿Cómo se atiende al mercado alemán? ¿Son los gustos de los franceses iguales que los de los italianos? ¿Quién fabrica qué, a qué precio, y cómo se coloca en cualquier lugar del mundo de forma automatizada y eficiente? Es el momento de la liga de los grandes (o medios) inversores, de los que conocen de forma muy precisa el mercado al que te diriges, si es o no viable lo que se plantea, de los que reconocen las debilidades y buscan la manera de lograr altas rentabilidades haciendo rico al emprendedor y a todo su equipo principal. A este nivel global son muy pocas las empresas que llegan, y mantenerse es un proceso muy complejo que requiere de un tremendo esfuerzo, tesón y, sobre todo, capacidad para resolver las miles de pequeñas decisiones que con el tiempo todo emprendedor se va encontrando hasta llegar a esa cumbre. Mucho talento, mucha formación, mucha capacidad de aprendizaje, mucha resistencia, mucha habilidad para pensar rápido y tomar decisiones —y mucho pensamiento en inglés, que en España no es baladí—. Y, además, capacidad para transmitir entusiasmo y lograr que personas de primera trabajen con otras también de primera. La financiación para innovar desde las empresas jóvenes es ante todo un proceso de confianza y de ir reduciendo los riesgos inherentes a cada una de las fases por las que se va pasando. Y la fase experimental es la más arriesgada. Por último, una idea, la financiación no lo es todo y no debería serlo. Si te cae dinero del cielo, no será fácil que pases de la fase experimental a la global. No hay atajos. Lograr posicionarse en un mercado es un proceso que nace con ideas que mutan, se prueban, se testean, se modifican, y unas convencen y otras se descartan; se resuelven las incertidumbres, se asumen riesgos, se camina en el alambre; uno se cae y uno se levanta. Tener financiación holgada no ayuda necesariamente a lograr ese éxito. El éxito se genera cuando alguien llamado cliente paga por lo que le ofreces y obtienes un valor añadido por ello (renta y beneficios...) y, sobre todo, cuando esto ocurre miles o millones de veces... Grandes inyecciones de dinero que no tenían claro cómo se generaba ese valor añadido acabaron en la papelera de reciclaje. Así que si te encuentras en un macroevento con tu PowerPoint, no creas que has llegado a la cumbre. ¡Ni siquiera te has puesto la mochila! Todavía tienes todo el camino por andar. Un país de pizzas o de microprocesadores Como vemos, hay mucho trabajo por hacer tanto en la parte de las empresas (las innovadoras) como es la de las instituciones y entidades privadas para la financiación de este tipo de iniciativas. Por todo ello, para construir un país innovador, necesitamos una Fuente de la Innovación y empresas y personas con capacidades suficientes para lograr que las ideas excelentes se conviertan en empresas excelentes. La razón de ser de la Administración Pública es proveer de servicios al ciudadano y crear efectos económicos que el mercado por sí solo no generaría. La Administración Pública opera «fuera del mercado», no dentro del mismo, impulsando aquellos proyectos o generando aquellos servicios que, por su baja perspectiva de rentabilidad a corto plazo, no son interesantes para la inversión privada, aunque sí lo pueden ser en el medio plazo para la competitividad nacional o el bienestar de los ciudadanos. Según el reciente superventas El Estado emprendedor, de la profesora italiana Mariana Mazzucato, incluso en Estados Unidos, teórico paradigma del liberalismo económico, el Estado tiene una fuerte intervención en la economía, impulsando proyectos de innovación y de ruptura. Es cierto que Steve Jobs fue el gran genio creativo de nuestra época, fundador de Apple y artífice de productos rupturistas como el iPhone. Pero incluso el iPhone, según Mazzucato, se sustenta en doce tecnologías clave (desde las comunicaciones móviles hasta internet, pasando por los microprocesadores y las pantallas táctiles) que han sido financiadas íntegramente por el gobierno estadounidense. Jobs surfeaba sobre la ola de tecnología que su gobierno ponía a sus pies. En España tenemos también nuestros propios ejemplos. En noviembre de 1996 Telepizza empezó a cotizar en el IBEX, el índice bursátil selectivo español. Los accionistas que pagaron 0,7 euros por acción las podían vender dos años después a 9,92, obteniendo una plusvalía del 1.300 por ciento. Telepizza era el paradigma de un gran modelo de negocio innovador: pizzas calientes entregadas en casa en veinte minutos. Algo inaudito en 1996. Un modelo de negocio fácilmente interpretable por el mercado, con un producto comprensible por parte del consumidor, y con necesidades financieras escalables. El tipo de empresa innovadora que el mercado genera y financia espontáneamente. La prueba es que en nuestro entorno se crean continuamente grandes empresas innovadoras, porque existen grandes emprendedores y talento empresarial suficiente: Zara, Mango, Desigual, Privalia, Tous o Imaginarium son ejemplos similares. Para que dichos fenómenos empresariales emerjan, sólo son necesarios empresarios tenaces, un entorno de seguridad jurídica y reglas de juego de libertad económica, comunes en todas las economías desarrolladas. La innovación próxima al mercado la genera el mismo mercado en cualquier parte del mundo donde exista iniciativa empresarial y un contexto económico y jurídico estable. Sin embargo, el surgimiento de empresas de alta tecnología sigue otra dinámica. Debemos desarrollar políticas específicas si deseamos que emerja una empresa como Intel, Microsoft, Hewlett-Packard o Google en un país como España. La aparición sistemática de este tipo de compañías requiere de otros escenarios. En primer lugar, precisa de un entorno empapado en conocimiento, de un clúster tecnológico: un monstruo de los semiconductores, como Intel, necesita ingenieros y científicos permeables con la estructura productiva. Necesita manufacturing y ciencia trabajando de forma concurrente. Precisa una base científica consolidada durante años que permita que algún joven emprendedor surgido de la ciencia ose explicar al mercado qué es un microprocesador. Y el mercado no lo va a entender. ¿Cómo explicar qué demonios es un microprocesador cuando nadie lo ha visto antes, cuando el mercado no lo demanda y cuando no existen aplicaciones claras al mismo? ¿Cómo describir el color rojo a un ciego? «Un dispositivo de silicio programable y multiuso». ¿Quién financiaría un Intel en su año cero? El mercado entiende perfectamente qué es una pizza, pero no entiende qué es un microprocesador. Por eso, nadie va a financiar un proyecto basado en una tecnología de ruptura en sus fases más primigenias. Cuando el mercado no existe, cuando hay que crearlo, las estimaciones de retorno económico son inciertas. Aunque esa tecnología pueda dar lugar a productos rompedores e incluso a nuevas industrias. Por eso se precisan políticas públicas dedicadas, específicas, contundentes, de consolidación de la base científica y de soporte obsesivo a los emprendedores de base tecnológica en sus fases más embrionarias. Por eso en España no emergen grandes empresas tecnológicas, aunque sí lo hacen grandes modelos de negocio innovadores. El mercado filtra y rechaza los proyectos de más riesgo, aunque sean los más interesantes para la competitividad nacional. Por eso se precisa la intervención de los Estados. El primer comprador de microprocesadores de Intel fue la Administración estadounidense, que actuó como lead user o cliente lanzadera. ¿Dónde quieres que trabaje tu hijo, en una cadena de pizzerías o en un centro de diseño de procesadores? ¿Queremos un país de pizzas o un país de microprocesadores? Los países capaces de vencer este fallo del mercado y de generar sectores de alta tecnología son países con índices de desempleo espectacularmente más bajos, con empresas que generan mayores márgenes, pagan mejores salarios y permiten rápidas reinversiones en nuevos proyectos de crecimiento. En I+D, sólo nos queda una opción: seguir avanzando más, con mayor fuerza y decisión. Nuestros competidores internacionales lo están haciendo sin vacilar. Y no dar ni un paso atrás en lo que ya se ha conseguido. De ello depende la salud competitiva de nuestro país y el futuro de nuestros hijos. Necesitamos situar la I+D en el centro de las políticas económicas. Necesitamos una sociedad civil conjurada para proteger e incrementar las inversiones en I+D, públicas, privadas y mixtas. Tras el gran esfuerzo de los últimos años, un euro público marginal destinado a I+D consorciada entre empresas y centros de conocimiento va directamente a la creación de empleo de calidad. Salir de la crisis ajustando costes y salarios es un espejismo, la antesala del próximo desastre. El talento huye de las organizaciones baratas. Ganaremos el futuro con innovación, tecnología y ciencia. La innovación nos diferenciará, nos hará atractivos y nos hará crecer en los mercados. La tecnología nos fortalecerá, creando barreras de entrada a la competencia. Y la ciencia nos hará imbatibles. Sin embargo, la nueva ola de políticas de austeridad ha invertido la lógica de las políticas de innovación. Aquellos que deben correr más riesgo (operando fuera de la lógica del mercado), las Administraciones Públicas, en un erróneo arrebato pedagógico y ejemplarizante, desean ser los organismos más rentables del mundo. Por ello optan por financiar proyectos sin riesgo tecnológico, muy cercanos al mercado. Por ello, en España nadie va a financiar el Intel del futuro, y, en cambio, estamos dispuestos a aportar fondos para cadenas de pizzerías o para la construcción de bonitos complejos hoteleros junto al mar. España necesita de un nuevo metabolismo social para innovar Pero no traslademos el 100 por ciento de la responsabilidad a la Administración. Una vez más tratemos de aportar nuevos puntos de vista. Te vamos a contar un caso real. Boston, verano, justo en mitad de la crisis. Uno de nuestros mejores amigos está realizando una estancia de trabajo en una multinacional aeronáutica de referencia mundial. En su segundo día en la ciudad, tras asistir a varias reuniones, decide irse al hotel y toma un taxi. El conductor sabía perfectamente a qué se dedicaba la empresa donde había recogido a su cliente, y nuestro protagonista no daba crédito cuando éste entabló una conversación acerca de aeronáutica e ingeniería con argumentos fundados sobre física y diseño de motores. El «taxista de día», que no alcanzaba los cuarenta años, estudiaba por las noches una especialización técnica de aeronáutica. En una ciudad como Boston, sede de uno de los mayores clústeres mundiales de ingeniería aeronáutica, cada día podía conversar con sus clientes sobre los temas que le apasionaban. Los ingenieros utilizan el taxi, discuten con quien esté dispuesto a ello, divulgan sus actividades y motivan incluso a quienes están fuera de su mundo profesional. Y en aquel taxi, en aquella tarde de verano, nuestro amigo aprendió una lección que iba contra sus ideas preconcebidas: cuando el entorno es propicio, la divulgación y la pasión por la aeronáutica pueden tener cabida en absolutamente cualquier lugar. Esta historia sería sólo anecdótica si no fuera porque no sólo se topó con taxistas expertos en ingeniería, sino que también encontró una gran apertura hacia las ideas (a las nuevas ideas) y amplios conocimientos en profesionales que trabajaban en su hotel o en conversaciones en los pubs durante su tiempo de ocio. La primera pregunta que nos asalta es: «¿Cómo es posible que el conocimiento esté tan enraizado en la sociedad?». Tras contarme sus impresiones, nuestro amigo logró resumir todo aquello en una frase: «Parecía que la innovación se pudiese masticar; estaba en el ambiente y la compartían todos los ciudadanos». Y en España tenemos que trabajar, como sociedad, para poder masticar también este ambiente de progreso. Pero eso no es fácil ni inmediato, y exige un cambio en nuestro metabolismo social. Para ello es importante traer a colación conceptos como la «innovación social». Suena bien, pero ¿en qué consiste? La pregunta es pertinente, porque el concepto aún está en proceso de definición y acotación, y sobre todo porque aún se trabaja en la construcción de indicadores que permitan aproximarse a su medición. Un trabajo preliminar de Javier Echevarría explica muy bien su importancia y la necesidad de incorporarla a la fuente de la que emanan todas las estadísticas de la innovación en el mundo, «El manual de Oslo»:[15] ... los diversos tipos de innovación pueden distinguirse en función de los diversos valores que tienden a satisfacer: económicos, empresariales, tecnológicos y científicos, pero también sociales, ecológicos, culturales, jurídicos, etc. La distinción de diversos tipos de valores ofrece un marco conceptual para analizar los diversos procesos de innovación, estén orientados o no al mercado y las empresas. Incrementar la productividad o la competitividad puede ser muy relevante para una empresa. Los procesos de innovación empresarial incrementan dichos valores. Ahora bien, el bienestar, la calidad de vida, la atención sanitaria, el nivel educativo o la eficiencia de los servicios públicos no son menos relevantes para las personas. Las innovaciones orientadas al mercado generan riqueza económica, en principio para la empresa innovadora, en algunos casos también para un país. De la misma manera, pero en relación con valores de otra índole, las innovaciones sociales incrementan la riqueza social (cultural, artística, educativa, etc.) de la ciudadanía, y en su caso del país, si dichas mejoras afectan a amplias capas de la población. [...] Los valores sociales y culturales no se reducen a los económicos, aunque unos y otros estén interrelacionados [...]. [...] En último término, la innovación social se refiere a la calidad de vida, que también aporta ventajas competitivas entre unas sociedades y otras en el presente contexto de globalización. Lo que más atractivo resulta de este nuevo concepto es que permite ampliar el foco de análisis respecto a lo que se tiende a asociar con innovación. ¿Por qué unas ciudades son más innovadoras que otras? ¿Por qué ciertos países son capaces de repensarse y estar a la vanguardia constante en cambios sociales y económicos? Si nos atenemos a los indicadores habituales, las empresas más innovadoras son las que más dinero destinan o más personal dedican a la innovación o las que más patentes logran registrar. Algo similar ocurre en los territorios. ¿Cuál es el país más innovador? Según los indicadores tradicionales, el que más gasta en I+D o más universidades o patentes tiene por empresa. Todo ello son aproximaciones de la realidad, es decir, indicadores fáciles de obtener que contienen una cierta información respecto al fenómeno abstracto que pretendemos medir. La realidad, por supuesto, es infinitamente más compleja, así como también la complejidad de la sociedad va en aumento, y también la forma en que compiten las empresas. Las telecomunicaciones han transformado cómo nos relacionamos y cómo moldeamos nuevas formas de hacer las cosas. Las empresas hoy han de abrirse a sus clientes, proveedores y, en general, al resto de agentes para crear..., y ésa es precisamente la forma en que emerge la innovación abierta. Los ciudadanos tienen mayor poder y nuevos canales para explorar sus talentos y transformar la sociedad. Todo esto se escapa a los indicadores tradicionales, aunque resulta determinante a la hora de explicar qué hace que unos territorios sean más dinámicos, innovadores y socialmente más avanzados que otros. El mismo gasto en I+D, volumen en infraestructuras y presupuestos en educación o sanidad pueden generar resultados complemente distintos en dos territorios. Las sociedades con más probabilidad de engendrar innovación y transformar su calidad de vida son aquellas abiertas al comercio, a la competencia empresarial, a la inmigración, la diversidad, en definitiva, las sociedades propensas a la apertura y al intercambio. Para aunar estas características son importantes altos niveles de educación, sistemas eficaces de protección de los derechos individuales y de la propiedad. En este contexto, la innovación social sería el combustible necesario para transformar la calidad de vida y el sistema productivo de un territorio. Hay diversas líneas de investigación económica íntimamente relacionadas con estas ideas. En primer lugar, es importante destacar los trabajos de Andrés Rodríguez-Pose, profesor de Geografía Económica en la London School of Economics, en los que trata de construir y de medir lo que él ha denominado los «filtros sociales», los cuales tratan de capturar información sobre la tipología de la sociedad en cada territorio e incorporarla como variable adicional en estudios regionales. Rodríguez-Pose constata un hecho antes mencionado: dos regiones con las mismas dotaciones de factores pueden tener resultados distintos en renta y en el nivel de innovación. ¿Por qué? Su respuesta está en que hay sociedades que filtran, hasta evitar su entrada, las nuevas ideas. Tienden a bloquear lo diferente, lo plural y lo abierto, mientras que otras hacen exactamente lo contrario. Y las regiones con un tejido social más abierto y proactivo a los cambios tienen una renta per cápita mayor. En segundo lugar, otra línea de investigación consolidada intenta explicar por qué la actividad se concentra en ciertos territorios — por ejemplo, en algunas ciudades— y no en otros. Una referencia española de prestigio internacional es Diego Puga. La esencia de dicha investigación dice que empresas y personas se concentran por motivos de productividad. Somos más productivos si estamos cerca que si nos dispersamos y aislamos, y a la hora de realizar actividades creativas, el grado de contacto y la proximidad son aún más importantes por la posibilidad de interaccionar con individuos con los mismos intereses. Este fenómeno crea círculos virtuosos en determinados enclaves geográficos a partir de ecosistemas de personas con talento. Lógicamente, dicho talento tiene en estos lugares altos niveles de empleabilidad y, además, dispone de un entramado social y cultural que lo enriquece aún más. Y así es como se gestan las ciudades dinámicas donde todo sucede. Tanto es así que un interesantísimo estudio de McKinsey estima que «en la actualidad, el 60 por ciento del PIB se genera en 60 grandes ciudades del mundo». Dicho fenómeno tiende además a crecer conforme los países emergentes tienen un papel más importante. En definitiva, cuando trazamos objetivos para mejorar la innovación de nuestra región o país, a menudo nos constreñimos diseñando actuaciones para mejorar indicadores parciales y, en ocasiones, insuficientes para lograr el objetivo (generar riqueza y calidad de vida). La innovación tiene más dimensiones, y la social es la más básica e importante de todas, y, en cambio, posiblemente sea la más descuidada por lo difícil que es de medir y de potenciar. Y es que se precisa generar las condiciones adecuadas para que metabolice socialmente y con ello crear una sociedad más abierta hacia el nuevo conocimiento, el riesgo y el cambio. Cómo fomentar la innovación social es y será un gran campo de investigación y de trabajo, pero para empezar hay que dejar de fomentar el inmovilismo. El complejo de Adán: volver a empezar cada cuatro años Todos los caminos nos llevan a una misma idea: la construcción de un país innovador es un proyecto a largo plazo. Un proyecto en el que las decisiones se deben conservar en el tiempo. Los resultados de innovación surgen únicamente tras años de creación de conocimiento y de lenta absorción de ese conocimiento por la comunidad empresarial y por los ciudadanos. Para que un país sea competitivo en innovación debe generar una serie de habilidades y desarrollar un conjunto de agentes (centros de investigación, empresas tecnológicas, emprendedores, fondos de capital riesgo, etc.) que necesitan tiempo y estabilidad para consolidarse. Por un extraño efecto paranormal, los responsables políticos de los programas de innovación suelen padecer el complejo de Adán: «Yo soy el primero». No había vida antes que yo, y mucho menos vida inteligente. En un país hiperdiagnosticado por sesudos consultores y donde la mayor parte de las políticas de innovación han consistido en organizar bonitas jornadas de debate, cuando se inicia un nuevo ciclo político resulta que nadie ha hecho diagnosis de la situación previa. Ningún académico o especialista ha pensado en qué programas tienen o no éxito. Nadie ha evaluado los resultados del pasado. Jamás se ha debatido el enfoque necesario de las políticas. Adán llega para empezar de cero, de nuevo, por enésima vez. Y empieza con las diagnosis. En cierta ocasión, un director general hablaba con su asistente. Ambos acababan de tomar posesión de su cargo. La conversación, más o menos, fue como sigue: —Oye, Pepe, ¿a ti cuál te parece que es el sector más importante de la economía? —Ni idea... Ummm, pero yo trabajé muchos años en un servicio de paquetería. Oye, esto de la logística es la leche. Parece fácil, ¿no? Pues no te imaginas la de tecnología que hay detrás. Los paquetes van que se las pelan. —Sí, es verdad, y esto lo sabe poca gente. —Además, España está en un lugar que es como una especie de cruce de caminos. Y sobra espacio. Aquí podrían ubicarse muchos almacenes logísticos. —Pero ¿no es esto lo que decían los de antes? No podemos hacer lo mismo que ellos, hay que oponerse a todo (y desmontarlo, si es posible). —No, no, no... Los otros «apostaron» por el sector aeroespacial. Una burrada. España nunca enviará cohetes a Marte. Créeme, la logística tiene futuro. —¡Claro! ¡Tienes razón! ¡Ya está! Lo pongo en la lista de sectores estratégicos que me ha pedido el ministro esta mañana... Y al día siguiente, el ministro, en solemne rueda de prensa, declaraba la logística «sector estratégico» de la economía y presentaba una serie de medidas de refuerzo. Exactamente lo mismo que hizo el anterior ministro con el sector espacial, o su antecesor con la biotecnología. Ante él, como inevitables extras en una película cómica (¿una comedia o una farsa?), los mismos representantes de la sociedad civil (cámaras de comercio, asociaciones empresariales, sindicatos) que habían aplaudido con la misma cara metálica las decisiones del anterior ministro, y del anterior al anterior, haciéndose la misma foto ante las mismas escaleras cada cuatro años. Con ello se repite un ciclo trágico, si no fuera ridículo: desmontar lo que ha montado el gobierno precedente, y empezar de nuevo, otra vez, lanzando el conocimiento y la experiencia del pasado a la basura. La suma de «n» vectores aleatorios tiene, como vemos, resultado nulo. La riqueza surge de la innovación, no de la investigación Pero algún día alguien se creyó una parte del discurso. Y empezó a dotar presupuestos públicos para I+D. De nuevo la ortodoxia neoclásica entró en juego. El paradigma que se escogió fue el de dedicar recursos a proyectos «puros», cuanto más alejados del mercado, mejor. Nada que pueda sonar a producto comercializable. Si hay que poner dinero en esto de la innovación, lo ponemos aguas arriba. En un nuevo arrebato de pureza ortodoxa, se pensó que cualquier proyecto que tuviera interés empresarial debía ser financiado por la empresa interesada. Parece obvio, ¿no? Excepto en un punto: bajo esta aproximación, todo el esfuerzo público destinado a construir un país innovador, se asigna a... ¡proyectos sin ningún interés empresarial! Efectivamente, el modelo de innovación español se ha construido sobre la investigación. El esfuerzo público en I+D en España es de unos 6.200 millones de euros. Cerca de 120.000 investigadores públicos están pagados con esa cantidad. ¿Investigando qué? Lo que cada uno quiere... Aunque parezca mentira, es así. No se han creado focos estratégicos en tecnologías habilitadoras de la industria (nuevos materiales, tecnologías de la información, manufactura avanzada, nanotecnología, biotecnología...). No se han priorizado campos aplicados de investigación, ni se ha incentivado especialmente la investigación en consorcio con la industria (como sí se ha hecho en otros entornos, como Alemania, los países nórdicos o, especialmente, en Corea del Sur o Japón). La investigación no apoya a la industria, «existe» en paralelo. Así, podemos encontrar investigadores analizando el estrés de los peces, la disposición geométrica de las telarañas o la vida íntima de santa Teresa de Jesús. No sólo destinamos una parte irrisoria de nuestro PIB (el 1,24 por ciento) a I+D. Además, parte de esta cantidad (aproximadamente la mitad) se destina a proyectos que no tienen ninguna relación con la capacidad de competir del tejido productivo del país. Sin embargo, la sociedad cree (equivocadamente) que invertir en ciencia automáticamente nos llevará a ser un país próspero. No es cierto. Jamás, en ningún sistema sano de innovación, ha ocurrido que el conocimiento fluya espontáneamente desde las paredes universitarias y de los centros de investigación hasta las empresas de las cercanías, las insufle de sapiencia y las haga especialmente competitivas. Eso sólo pasa si se potencia especialmente el «conocimiento útil» (campos de interés industrial) y si las políticas científicas se completan con instrumentos financieros para absorber rápidamente el conocimiento generado. La competitividad de un país no depende de la cantidad de conocimiento que genera, sino de la tipología de ese conocimiento y de la velocidad con que fluye y es absorbido por la industria. En definitiva, rompamos otro mito: la investigación no genera riqueza. La genera la innovación. Políticas de investigación no acompañadas de sólidas políticas de innovación conducen a un camino económicamente estéril. España ha hecho un cierto esfuerzo en ciencia. Cuando se han creado los incentivos oportunos, nuestros investigadores han empezado a publicar a un cierto nivel internacional. Pero no se han creado los incentivos para que investiguen con la industria y para la industria. Con la honrosa excepción del Centro para el Desarrollo Tecnológico e Industrial (CDTI), organismo que ha desempeñado un papel crítico en nuestro sistema de I+D, la política científica no ha ido acompañada de política tecnológica. Y mucho menos de política industrial. El nuevo contrato social finlandés Imaginemos un proyecto de investigación sobre, pongamos, nuevos materiales. Imaginemos que ese proyecto lo desarrollan científicos en plantilla en universidades o centros de investigación públicos. El proyecto finalizará en una publicación, si puede ser internacional, y (a posteriori) si es preciso, se intentará buscar alguna aplicación en el mercado (se intentarán «transferir» los resultados de la investigación). Este proyecto forma parte de las actividades deseables, de la esfera de proyectos «puros» (por desarrollarse en entornos públicos) que el conventional wisdom, la ortodoxia económica y la opinión publicada interpretan como necesarios para la competitividad de un país, y para los cuales se reclaman mayores presupuestos públicos: un investigador en un laboratorio universitario intenta descubrir nuevas propiedades de un material. Ese proyecto, en general, acabará en un «papel». Imaginemos, sin embargo, que exactamente el mismo proyecto se desarrollara en el seno de una pyme. En el seno de una de esas empresas pequeñas y deprimidas que en los últimos años, a causa de la crisis, han recortado drásticamente sus estructuras y presupuestos de I+D. ¡Ah! ¡Entonces ese proyecto tiene interés empresarial! En este caso, el conventional wisdom y la ortodoxia económica imperante dictaminan que debe ser financiado por la empresa. Todo soporte público es retirado. Las probabilidades de hallar financiación por parte del sistema púbico de I+D son exponencialmente inferiores cuando ese proyecto se ubica en el mundo económico real. La financiación pública es aversa a todo lo que suene a producto tangible y comercializable. Paradójica e incomprensiblemente, los recursos públicos son centrifugados a actividades alejadas de la empresa; los proyectos son incubados y desarrollados fuera de ella, y luego, en todo caso, sus resultados, «transferidos». Hace unos años, uno de nosotros asistió a una conferencia de la asociación empresarial FemCat. En ella se exponían las conclusiones de un viaje que un grupo de empresarios catalanes había hecho a Finlandia, país tomado como modelo de innovación y competitividad. Todavía conservamos las diapositivas. En su diagnosis, se detectaba que existía un déficit de inversión pública en I+D en Cataluña de 969 millones de euros. Y un déficit de inversión privada de 2.630 millones de euros. Para un tamaño empresarial, PIB y población similar a Cataluña, ¿qué pasaba en Finlandia para que las inversiones empresariales en I+D prácticamente doblaran a las de Cataluña? La explicación la encontré en la web de Tekes, la agencia de desarrollo industrial y tecnológico finlandesa. En ese momento, Tekes inyectaba a la economía finlandesa 600 millones de euros públicos en la financiación de proyectos industriales de muy alta tecnología según la fórmula matching fund (por cada euro público se exigían fondos privados en proporción 1 a 3 o 1 a 4). La economía finlandesa estaba propulsada por un increíble flujo de fondos destinados al desarrollo de tecnología industrial. Esos 600 millones de euros públicos, multiplicados por 4 a través del mercado, generaban los más de 2.000 millones de inversión en exceso en I+D que detectó FemCat. Además, según la propia asociación, «invierten en proyectos de riesgo. Fracasa el 30 por ciento de ellos, y dicen que la tasa de fracaso es baja». Obvio... Si los proyectos fueran seguros, debería financiarlos el mercado, no una agencia pública de desarrollo. Los proyectos financiados por Tekes siguen (todavía hoy, y desde hace treinta años) la lógica de: a) muy alto nivel de reto tecnológico; b) impacto en la economía; c) efecto multiplicador por coinversión privada; d) fórmula consorciada con universidades y centros de investigación para crear relaciones de confianza entre ellos, y e) creación de empleo. Según Jean-Jacques Rousseau, filósofo ilustrado, para vivir en sociedad, los seres humanos acuerdan un contrato social implícito que les otorga ciertos derechos y obligaciones, a cambio de que el Estado les garantice un marco legal que les permita ejercer esos derechos. El Estado es la entidad creada para hacer cumplir ese contrato. Rousseau vivió en el siglo XVIII, y, desde entonces, se ha producido en las sociedades un cambio fundamental. Fue Peter Drucker, padre del management moderno, quien nos hizo notar ese cambio: desde el siglo XX, el agente fundamental de desarrollo económico (y, en parte, social) es la empresa. Lo abordamos en profundidad en otro capítulo de este libro. Lo importante es que vivimos, trabajamos e interaccionamos en el seno de organizaciones. El siglo XX fue el primer «siglo de las organizaciones». En el siglo XVIII, la vida de los seres humanos no discurría en entornos organizativos. Hoy sí, vivimos en entornos organizativos, que, además, compiten globalmente. Y un nuevo agente ha irrumpido en escena: la empresa como mecanismo de creación de valor económico y social. Finlandia ha actualizado su contrato social (antes hablamos de Boston como ciudad y su metabolismo) y ha incorporado a este nuevo agente. La nueva propuesta de valor finlandesa es taxativa: «Empresa, no te preocupes de la investigación y desarrollo. Dado que es una actividad de alta incertidumbre, te ayuda a pagarla el Estado. A cambio, te exigiré que crezcas y crees empleo». Efectivamente, un flujo económico de 600 millones anuales para investigación industrial en una economía como la finlandesa significa, virtualmente, que el Estado finlandés se hace cargo de la práctica totalidad de la investigación en sus pequeñas y medianas empresas. Sabemos que la crisis europea, y especialmente en el sur de Europa, no es (sólo) una crisis de «exceso de gasto», sino de «defecto de gasto» en algunos ámbitos específicos. No es una crisis que se resuelva (sólo) mediante la «contención» extrema del gasto público, sino mediante el «incremento» de inversiones estratégicas en I+D y educación, entre otras cosas. Esperemos que el nuevo contrato social se extienda, como en Finlandia, a los países del sur de Europa. En definitiva, ¿por qué no avanzamos hacia la economía del conocimiento? Continuamente se celebran foros donde se sigue hablando de los problemas que tenemos para avanzar hacia la deseada «economía del conocimiento». El día de la marmota. Cansino debate. Hace quince años las discusiones eran las mismas. En muchos casos, con los mismos protagonistas. A estas alturas, la diagnosis está clara. Toca dejar de hablar y actuar. No avanzamos hacia la economía del conocimiento por lo siguiente: 1. Porque la economía del conocimiento precisa un sólido sustrato industrial. Durante años se ha despreciado la actividad industrial y se ha considerado que la mejor política industrial era la que no existía. Al fin y al cabo, los mercados eran inteligentes. Por ello, su asignación de recursos maximizaba el retorno en el corto plazo y se centraba en sectores especulativos (finanzas, construcción). Además, hemos vivido en un espejismo (y lo seguimos haciendo). Hay una nueva fiebre puntocom. Miles de chavales jóvenes intentan montar su negociete por internet (de nuevo, quince años después, se repite el error). Ventas online, que no generan valor agregado, webs de intermediación de servicios o similares. Mientras el mundo se reindustrializa, nosotros asistimos complacientes a una tímida salida de la crisis con un modelo competitivo de bajo coste, adornado por algunos espejismos de emprendimiento. Y, si preguntamos a los empresarios más representativos de nuestro tejido económico, nos dirán que «no es necesario que la Administración haga nada». Al fin y al cabo, los mejores empresarios de estos lares (creadores de grandes negocios de construcción, inversión, distribución o servicios) jamás han necesitado políticas industriales, precisamente porque no son de sectores industriales. 2. Porque el esfuerzo público en investigación e innovación sigue orientado íntegramente al sector público. De forma aplastante, los programas de soporte a la I+D se orientan a financiar proyectos públicos de I+D en universidades y centros de investigación, que siguen desarrollando actividades de investigación alejadas de las necesidades industriales. Con la crisis, el gap se ha incrementado: la ciencia persigue la excelencia, y para conseguirla no puede contar con una industria debilitada, a la que inexorablemente deja atrás. Los vasos cada vez son menos comunicantes. ¿Y si cambiáramos el mix? ¿Y si, sin renunciar a la excelencia y a la evaluación en rigurosa clave científica, se priorizaran proyectos en los que existiera coinversión — y, por lo tanto, interés— empresarial? Organismos que en su momento tuvieron roles determinantes, como el ya citado CDTI, optan cada vez más por conceder créditos reembolsables en lugar de ayudas directas. Y si volvemos a preguntar a nuestros representantes empresariales, nos volverán a decir lo mismo: nada de ayudas. Como mucho, créditos. Muy bien, pues sólo las empresas más solventes, aquellas que, de hecho, no necesitan los recursos, serán las que se beneficiarán. Sólo aquellas con patrimonio para garantizar los retornos. Para proyectos, además, seguros (pues los créditos se deben retornar, obviamente). Es decir, los pocos organismos públicos que soportan la investigación industrial asumen menos riesgo que la banca comercial y se dedican a apoyar a empresas que no necesitan esos recursos en proyectos sin incertidumbre. Mientras, el grueso de los recursos públicos disponibles va a proyectos públicos de investigación no orientada que jamás crearán ocupación. La industria, la pyme, la verdadera investigación industrial y la innovación de ruptura quedan al margen de este diabólico juego. Un juego, por lo demás, inepto e ineficaz. 3. Porque el sistema de incentivos académico no contempla los proyectos industriales. Se sigue generando conocimiento, sí. Pese a los recortes y a las fatigas que la universidad ha sufrido en los últimos años. Pero el gran incentivo que puede hacer culminar con éxito una carrera académica, llegando a una cátedra, es la publicación (algunas tan esotéricas como podamos imaginar). No la contribución a la creación de empleo de calidad. Si un investigador debe optar entre profundizar en un campo de la ciencia hiperespecializado y emergente, con poca competencia académica, donde las posibilidades de publicar sean superiores, o en otros donde el impacto o el beneficio en el entorno sea superior pero que estén saturados de publicaciones, optará por el primero. Además, no nos engañemos, siempre es más cómodo investigar de puertas adentro que hacerlo buscando resultados tangibles y medibles en consorcio con agentes del entorno real. ¿Es éste el sistema deseable? 4. Porque existe la creencia de que todos los buenos proyectos encontrarán financiación en el mercado. Falso. ¿Qué son los «buenos» proyectos? El mercado optará por proyectos de máximo retorno en el corto plazo. Cientos de proyectos disruptivos están huyendo hacia ecosistemas innovadores más generosos, desesperados por la falta de recursos financieros. Las decisiones del mercado no tienen por qué estar correlacionadas con la competitividad nacional en el largo plazo, ni con la construcción de un sólido sistema nacional de innovación, ni con el desarrollo de una industria basada en conocimiento. Parece que no aprendemos. Si dejamos al mercado solo, volveremos al auge de la construcción y de los productos financieros especulativos. ¡Ah, sí! Y, en todo caso, siempre podemos decir al joven emprendedor que no encuentra quien le escuche (especialmente si su proyecto es de base científica) que «su mercado es el mundo». Es decir, «que se vaya». Que busque inversores en Boston, Tel Aviv o Seúl... Big thinking. Gran solución. Con una salvedad: el problema de empleo lo tenemos aquí, no en Boston, ni en Tel Aviv, ni en Seúl. 5. Porque existe exceso de «opinática» y visión a corto plazo. En innovación, todo el mundo opina y muy poca gente realmente sabe. Se opina que lo que se debe hacer es, precisamente, no hacer nada (y así nos va). Se opina que lo necesario es asesorar a emprendedores. Se opina que la Administración debe actuar como consultora especializada (suplantando al mercado de consultoras). Notorios empresarios afirman que la Administración debe apoyar nuevos modelos de negocio, jamás desarrollo tecnológico. Los empresarios más educados dicen al sistema político que «no necesitan nada, sólo que se eliminen trabas burocráticas». ¡Por supuesto! Una Administración flexible y rápida es un factor higiénico, mínimo, exigible como punto de partida. Pero ¿cuál es la estrategia industrial e innovadora del país? ¿Una Administración que no ponga pegas? ¿Eso es estrategia? Y cuando se habla de estrategia, se opina que hay que «apostar» por un sector u otro. (¿Esto va de «apuestas»? ¿Todo al rojo?). Se opina sobre investigación orientada o no orientada, sobre centros tecnológicos sectoriales o territoriales. Se opina en todas direcciones. Se multiplican los foros sobre la necesidad de aproximar industria y academia, las conferencias sobre mecanismos de salida de la crisis, los bootcamps para emprendedores... Se opina, reopina y vuelve a opinar en cada legislatura. Y el resultado es que infinitos políticos se suceden en cargos absolutamente críticos para la competitividad nacional, esenciales para la creación real de ocupación, opinando y cambiando de opinión en un ciclo lamentable que se perpetúa en el tiempo. 6. Porque siempre nos queda el recurso de Europa. Al fin, cuando realmente la innovación continúa en el centro de todos los discursos y opiniones económicas y políticas, cuando sigue siendo el concepto de moda para salir de la crisis y sigue estando en la cola real de todos los presupuestos, siempre nos queda una salida: Europa. Señores de la pyme que desean iniciar alguna actividad investigadora y no tienen recursos financieros, váyanse a Europa. Busquen un consorcio europeo, piérdanse en el mar de convocatorias y en el océano burocrático de Bruselas, lleguen a acuerdos con una serie de socios exóticos, preparen una memoria repleta de palabras clave que deseen oír los officers de la Unión Europea, y prueben suerte... Igual triunfan, tienen éxito y hasta crean empleo. Pensábamos que las prioridades estratégicas se abordaban con recursos propios, que los países competitivos debían tener fondos de investigación industrial, pero no. Seguro que con recursos europeos (no con los de aquí) algún día llegaremos a ser alguien en la economía internacional, y la pesadilla del paro sólo será un amargo y lejano recuerdo. 11 Microinnovación a la vuelta de la esquina JUAN SOBEJANO Cuando el oponente se expande, yo me contraigo. Cuando él se contrae, yo me expando. Y cuando hay una oportunidad, yo no golpeo; el golpe se da por sí mismo. BRUCE LEE Piensa en cualquier empresa que se te pase por la cabeza. Sólo te vamos a pedir un requisito, que tenga unos diez o quince años de antigüedad. Ahora imagina que le preguntamos a su propietario si hace eso que algunos llaman I+D+i. Supón que esta persona dice que no, que no sabe exactamente qué es eso. Sí sabe que sale en los periódicos, en las tertulias de la radio y que parece el remedio a todos los problemas de nuestra economía. Pero reconoce que no sabe qué es y, por lo tanto, que no lo hace, al menos conscientemente. En este contexto, ¿te creerías las palabras del empresario/a? Si la respuesta es afirmativa, te invito a pensar en la siguiente cuestión: ¿crees que esa empresa, que ha sobrevivido diez o quince años en una economía de mercado, lo ha hecho haciendo siempre las mismas cosas, de la misma manera, vendiendo a los mismos clientes y sin hacer cambios desde que abrió su negocio? Parece sensato pensar que esto no es así. Y esto no es así porque, como dejó escrito Jack Welch, «si el ritmo de cambio de una empresa es inferior al de su entorno, el final de la empresa está a la vista..., sólo cabe saber cuándo será ese final». Esa empresa que tienes en la cabeza ha tenido que competir con otras por sus clientes, ha tenido que averiguar qué cosas no hace bien y cambiarlas, ha tenido que prestar a sus clientes una mayor variedad de productos (o servicios), ha tenido que ofrecer más calidad o ha buscado fórmulas para reducir sus costes. Porque si no lo hubiera hecho, después de quince años, habría desaparecido del mercado. Cierto es que ha podido hacerlo de forma consciente y planificada, o inconsciente e improvisada, lo cual implica una notable diferencia. Pero quizá convengas conmigo en que algo ha tenido que hacer. Porque si ha hecho cosas diferentes, de forma diferente y buscando ahorro de costes para sobrevivir en el mercado, entonces su vida empresarial la ha determinado su capacidad para innovar. Ese algo que ha hecho; por lo tanto, es innovar. Porque innovar es transformar en dinero las ideas que permitan conseguir esa capacidad de supervivencia y crecimiento empresarial. Quizá sea ésta una definición demasiado light de lo que implica innovar. Pero puede que sea necesario bajar de nivel cuando hablamos de innovación. Muchas empresas, cuando menos, muestran un gran respeto e, incluso, temor hacia términos como la I+D+i. Existen aún clichés establecidos del siguiente tipo: innovar es cuestión de las grandes empresas, o de aquellas que tienen laboratorios y/o departamentos dedicados a la investigación, o de aquellas cuya actividad empieza por «bio» o por «nano». Ese miedo escénico existe y es palpable en el trabajo diario con la dirección de las empresas, incluso con aquellas que pueden facturar más de 100 millones de euros. De la misma manera, con este sencillo ejemplo, posiblemente pueda dar a entender que, en realidad, no existe un problema de innovación en las empresas —cosa que no es verdad, como hemos visto en el capítulo anterior— o que sólo se trata de una cuestión de medición entre quienes gestionan su innovación y quienes no lo hacen. En cambio, es importante matizar esta posible derivada a la que puede conducir el razonamiento anterior. En materia de innovación, como en otras muchas facetas empresariales, el grado es lo que marca la diferencia, a veces insalvable, entre las empresas. ¿Y cuáles son los factores que pueden explicar esta diferencia? La respuesta hay que buscarla en la estrategia. Dinamizar la innovación en las empresas requiere, ante todo, dinamizar la forma en que éstas se gestionan, en cómo se conciben y visionan los negocios y, sobre todo, en cómo se crean el clima y los instrumentos adecuados para que se incuben y se ejecuten las ideas hasta llevarlas al mercado. En el libro Gestión en tiempos de crisis (Deusto), Juan Fernández Aceytuno pone de relieve uno de los grandes problemas que tiene la empresa española: su escasa capacidad y disciplina para involucrarse en planteamientos estratégicos. La gestión estratégica en una organización, si se toma en serio, ayuda a crear un clima donde las personas que trabajan en ella (y su entorno, esto es, las que no trabajan pero están relacionadas directa o indirectamente con la misma) crean, discuten, moldean y se convierten en motores de ideas para el cambio y el progreso. Una reflexión estratégica ayuda a tomar conciencia de la necesidad de una buena evaluación del entorno de la organización: legal, ambiental, nuevos desafíos sociales, etc. Una reflexión estratégica es un instrumento para analizar el/los mercado/s en los que la empresa vende sus productos o servicios. Y con ello, para evaluar a la competencia, sus estrategias, su diferenciación. Descubrir qué hace que unos clientes estén dispuestos a pagar por lo que se les ofrece mientras que otros no. Averiguar qué demandan los potenciales clientes y cómo llegar a conseguir que nos compren. Una reflexión estratégica obliga a tomarnos en serio todos los procesos de la empresa: compras, distribución, logística, negociación con proveedores, consumos de energía y un largo etcétera. Una reflexión estratégica obliga a mirar más allá del día a día, a usar la imaginación y la creatividad, a trazar caminos a seguir y buscar los socios tecnológicos o comerciales que permitan lograrlo. Y todo ello fuerza a calcular y estimar bien los recursos financieros disponibles, las necesidades y cómo cubrirlas. Todo esto no se puede hacer tan sólo desde la «cúspide» directiva. Los cambios, para que sean profundos y continuos, implican el liderazgo de involucrar a toda una organización. Y de esto se habla en profundidad en el siguiente capítulo. Si esos cambios se convierten en una guía (plan) estratégica que «toda» persona de la compañía hace suya, entonces será más fácil su ejecución. Surgirá la necesidad de medirse, de cambiar, de moldearse, de adaptarse, de potenciar el flujo por el que llegan los canales de las ideas. Y si existe esta reflexión estratégica, entonces se iniciará, sin más, un proceso de innovación. Un proceso que es complejo, que implica riesgos (aunque el mayor es no involucrarse en él), que requiere también del trabajo y la sintonía de toda la organización. Lo más probable es que esta innovación fuerce a crear un departamento que sirva de catalizador y coordinador del proceso, pero su valor se apreciará precisamente cuando se convierta en el corazón de la empresa que bombea ideas y propuestas para mejorar los resultados (tanto en ingresos como en costes). Parece, por lo tanto, que cuando marcamos un rumbo y lo diseñamos con todas nuestras herramientas y talento, se va tejiendo una organización inteligente, donde la estrategia es un arma poderosa y la innovación es su munición para cambiar y crecer. Actualmente estamos ante un contexto económico y empresarial realmente complicado. España tiene sus propias peculiaridades, que pueden lastrar aún más la capacidad de recuperación, debido a la gran especialización productiva en sectores como la construcción. El crecimiento económico de la primera década del siglo y la facilidad de acceso al crédito por parte de las empresas han «adormecido» las necesidades de afrontar procesos de reflexión estratégica en las empresas y, por lo tanto, de innovación. Pero, en este contexto, hay esperanza. Y el objetivo de este capítulo es ponerlo de manifiesto. Precisamente lo que sigue son ejemplos de empresas comunes, de esas que tenemos a la vuelta de la esquina en cualquiera de nuestras ciudades. Se trata de explicar que la innovación es posible, que hay historias realmente relevantes en este camino de transformación de nuestra realidad. Necesitamos más y mejores historias, esto es un trabajo de constancia, de capacidades y de creer que es posible, tal y como mostramos a continuación. La historia de Rafael del Rosal y sus Patatas San Nicasio Cuando Rafael del Rosal partió de Sant Andreu de la Barca, Barcelona, y con toda la familia a cuestas, en dirección a Priego de Córdoba, en el otro extremo de la península Ibérica, iba, como vulgarmente se dice, con una mano detrás y otra delante. Siempre había querido dejar su puesto en el almacén donde trabajaba e iniciar su propio negocio. Era uno de esos locos que creen de verdad todas esas historias del emprendedor que triunfa, del hombre hecho a sí mismo que construye un imperio gracias a su tesón, visión e iniciativa. Esas cosas. Lo que no sabía Rafael era que el foco de la linterna nunca alumbra a los que fracasan, a esos que dejan sus sueños por el camino. Rafael nunca había visto esas sombras..., por suerte para él. Por eso se instaló en Priego de Córdoba, con la familia a cuestas, y puso una churrería ambulante. Su propio negocio. Su primer negocio. Un pedazo de churrería ambulante. Por algo se empieza, pensó. Lo malo es que ni por eso podía empezar: no sabía hacer churros. La masa no salía; los churros se pasaban o se quedaban crudos; el aceite no estaba a la temperatura adecuada... Y sin embargo, sacó la churrería adelante. Practicando en casa, probando, cambiando un aceite de peor calidad por uno de Priego de Córdoba, donde se hacen los mejores del mundo. Tirando kilos y kilos de masa hasta encontrar la mezcla adecuada. Al final Rafael abrió su churrería. No era gran cosa, sólo una churrería ambulante que colocaba frente al mercado, pero era suya. Y empezó a vender. Y vendía bien. Los clientes compraban sus churros, y mucho. Pero Rafael no se paró ahí. Se dio cuenta de que muchas personas compraban los churros para llevárselos, y que llegaban a casa gomosos, blandos. «Ésos no son mis churros —pensó Rafael—. Lo que el cliente se come no es el churro que le he vendido». Y decidió ponerle alguna solución. Rafael tenía muy claro que la clave está en el producto y que el producto más humilde puede ser grande si se cuida. Así que empezó a hacer pruebas en su casa hasta que ideó una bolsa agujereada que permitía airear el churro para que no se generara condensación en la bolsa y el producto que él había vendido a sus clientes siguiera siendo de calidad. Además, Rafael tenía clara otra cosa: al cliente le tienes que dar lo que necesita, no lo que tú quieres que necesite. Y se dio cuenta de que por las tardes, y cuando llegaba el calor, la venta de churros bajaba. Esto le generaba recursos ociosos y una nueva oportunidad de probar cosas nuevas. Así que pensó en otro producto para esos momentos en que los churros no eran una buena opción de venta. Y pensó en las patatas. «Tengo el mejor aceite del mundo, unas patatas también magníficas y medios para hacerlo. A freír patatas». Además, dio la casualidad de que una amiga experta en temas de nutrición, Marisol Guisasola, le recomendó que utilizara sal rosa del Himalaya, «en mi caso de Pakistán, del valle del Penhag», como dice Rafael. Y las patatas gustaron. Y gustaron tanto que Rafael pensó en venderlas más allá de la churrería. Alquiló un almacén, que se le fue quedando pequeño. Con el tiempo, los cooperativistas de Almazaras de la Subbética le alquilaron una nave (2011), y cuando Rafael comprendió que tenía que dar el salto, puesto que necesitaba triplicar la producción, se construyó su propia fábrica (2013). Hoy Patatas San Nicasio vende a más de quince países, sigue en expansión y ha ganado infinidad de premios en congresos y ferias internacionales de alimentación; es un producto apreciado por los mejores gourmets del mundo y Rafael... Rafael llega a la fábrica a las cinco de la mañana y se va entrada la noche; si tiene que freír patatas, las fríe; de hecho, cuando lo visité estaba con su mandil y una redecilla en la cabeza sacando patatas del aceite. Y no creas que ha vendido la churrería ambulante. La regenta su mujer, y él la ayuda los fines de semana. «Juan —me dijo con una sonrisa en la boca—, con las deudas que tengo ahora, es lo que nos da de comer». Y se le notaba feliz y orgulloso. La historia de Rafael del Rosal es la de aquellas personas que se lanzan a hacer las cosas que hacen todos..., pero de distinta manera. No son visionarios, ni soñadores. En realidad suele ser gente muy realista, con los pies muy pegados al suelo y conscientes de que el éxito está en la transpiración más que en la genialidad. No son gente que tenga tiempo para la innovación, pero innova, y ahí está lo verdaderamente relevante. Ellos nos enseñan que la innovación no es cosa de grandes empresas o multinacionales, que no es necesario disponer de presupuestos millonarios o de un grupo de expertos científicos que nos diga cómo hemos de mejorar. En realidad, este tipo de personas apuesta por un tipo de innovación que en las universidades no sería reconocida como tal, y que incluso ellos mismos jamás identificarían con innovación: la microinnovación. La microinnovación se puede definir como la introducción de una mejora low-cost en alguna parte de la cadena de valor que da al producto o servicio una cierta ventaja competitiva, pero que no supone un cambio relevante en el mercado. No es innovación disruptiva porque no supone ningún salto de mejora en el producto, servicio, empresa o mercado. Tampoco es innovación incremental pura porque no llega a suponer una ventaja especialmente relevante para la empresa. Si analizamos los cambios que se generan en el producto o servicio, éstos pueden ser aparentemente nimios, pero al final generan un posicionamiento muy interesante para el producto en el mercado. En realidad se puede decir que Rafael introdujo pequeñas microinnovaciones en su cadena de valor: un aceite de primer nivel, que no se suele utilizar de manera habitual; patatas compradas directamente a los agricultores y no tratadas ni procesadas; un freír lento y a temperatura más controlada; sal rosa del Himalaya, no utilizada hasta entonces y más suave, y una bolsa especial, exclusivamente preparada para mantener el producto en las mismas condiciones en que se embolsó. Rafael no inventó nada nuevo; posiblemente su innovación esté en unir todos esos elementos y utilizarlos a la vez. La historia de Steve Ells, el fundador de Chipotle Tal vez sea lo mismo que hizo Steve Ells, el fundador de Chipotle, una cadena de restaurantes de comida mexicana. Steve también tiene una historia interesante. Es algo habitual en todas estas empresas: sus innovaciones tienen un poderoso fundamento detrás. Un fundamento que a veces es ético o meramente vivencial, pero que sostienen y justifican las decisiones tomadas. Por eso se puede decir que casi no podemos hablar de innovación cuando analizamos su éxito. En ocasiones no parten de reflexiones profundas y enfocadas a unos resultados concretos, sino que son el resultado de una biografía y de un modo de entender los productos y empresas. Ells abrió su primer restaurante Chipotle en 1993 en Denver, Colorado. En realidad era otro restaurante de comida mexicana más, no distinto aparentemente de los demás, tal vez algo más pretencioso, pero ahí quedaba todo. Ells tenía claro que debía cuidar la calidad, que ésta era una de las claves de su posible éxito. Y ese éxito vino. La comida gustaba, el producto era bueno y la estrategia de marketing y comercialización era acertada. En pocos años abrió varios restaurantes más. Hasta aquí nada raro. Pero en una ocasión leyó un artículo de la revista The Art of Eating: «The Lost Taste of Pork», [16] en el que el autor explicaba el método industrial de cría y sacrificio del cerdo y cómo estaban apareciendo otros métodos menos dolorosos y más amables para con los cerdos. Como Chipotle/Ells dice en su web: «La mejor forma de tratar a los animales con dignidad y respeto es permitiéndoles exhibir sus tendencias naturales. En el proceso de selección de nuestros proveedores de carne, trabajamos arduamente para encontrar granjeros y agricultores que hagan las cosas bien». Ells comenzó a cambiar de proveedores, en principio para los cerdos, pero luego también para la carne de vacuno e incluso para las verduras y hortalizas. Chipotle introdujo el concepto de «alimentos con integridad», con el que aunó el elemento ético y sus procesos y selección de proveedores. Además, el concepto está basado en tres pilares: los animales, que como he dicho tratan como animales, sin falsas ni forzadas asimilaciones a categorías humanas, pero con el respeto que implica el que sean seres vivos; las personas, centrando el valor de Chipotle como tal en su componente humano y tratando, siempre que sea posible, de trabajar con ganaderos y agricultores locales, potenciando así los alimentos de kilómetro cero, y el medio ambiente, haciendo de su cuidado un objetivo de la propia empresa, más allá de un mero mensaje de marketing. Las empresas de este tipo no serían creíbles sin un marcado compromiso con la transparencia, por lo que Chipotle ofrece en su web información de sus procesos y del resultado de los mismos, además de la manera como solucionan los posibles problemas medioambientales que puedes generar. Como en el caso de las Patatas San Nicasio de Rafael del Rosal, los restaurantes Chipotle de Steve Ells no son en sí un modelo de innovación disruptiva, posiblemente ni siquiera incremental, pero sí son una manera distinta de hacer las cosas, una manera y unos modos que los posiciona firmemente en el mercado y que permite que sean capaces de crear una fuerte imagen de marca, uno de los principales efectos de la microinnovación. Una imagen de marca que va unida a una historia, como ya he comentado. La historia aparece como un vehículo interesantísimo para transmitir valores y referencias particulares de la propia empresa. Permite diferenciar nuestra empresa de otras. Varias empresas pueden parecer iguales, pero ninguna tiene la misma historia, y si esa historia no es sólo una herramienta de marketing, sino que forma parte de nuestra esencia, de nuestra «alma», estamos recorriendo el camino de la diferenciación, de la exclusividad. Y si además podemos construir un relato integrador, en el que se identifiquen tanto los clientes como el equipo e incluso los proveedores, estamos levantando una barrera que nos hará únicos a los ojos del mercado. El enfoque de la microinnovación permite, además, comprender la importancia del conocimiento muy segmentado, de trabajar desde el propio mercado y enfocando los estudios comerciales desde una perspectiva muy de guerrilla o de acupuntura del conocimiento. La microinnovación nace desde la persona, desde el ser humano, que analiza y conoce sus necesidades y problemas, descubriendo qué es para él lo importante. La historia de Iván Marcos Peláez y Trendtrotters Iván Marcos Peláez, cuando terminó su carrera universitaria, y ante la necesidad de preparar su proyecto de fin de carrera, dijo: «Yo lo que de verdad quiero es recorrer el mundo». Nació así el proyecto Trendtrotters con el objetivo de hacer estudios de mercado a pie de calle, relacionándose y comportándose como un consumidor más en los mercados que se querían estudiar. De este modo, Iván viajaba y Orbea, por ejemplo, le pedía un estudio del uso de las bicicletas en la India para comprobar si era un mercado interesante. Y ahí estaba Iván, paseando por la India y observando a sus habitantes para conocer cómo, por qué, cuándo y dónde utilizaban las bicicletas en su día a día. O, por ejemplo, una empresa de lácteos le pedía que analizara el consumo de yogures en Estados Unidos, e Iván visitaba los supermercados de Dallas para analizar, desde el mismo nivel que el consumidor final, en realidad siendo él un consumidor final, cómo el mercado estadounidense estaba consumiendo el yogur. Lo que hacía Iván era construir la primera piedra de la innovación, pero desde lo más concreto, desde la singularidad. El concepto de microinnovación tiene muy en cuenta, siempre, dos elementos clave: da mucho valor a «lo pequeño», lo concreto, como fuente desde la que emana todo el proceso de innovación, y tiene muy en cuenta la dimensión humana de la innovación, tanto en cuanto a su origen como en cuanto a su fin y objetivo. El modelo Trendtrotters no era sólo una forma de cazar tendencias, eran verdaderos estudios de mercado de guerrilla, acupuntura de la información muy centrada en el ser humano y que por eso resultaba vital y de gran importancia para las empresas que lo contrataban. Al trabajar lo concreto, Trendtrotters logra profundizar en la información evitando generalizaciones que pueden no ser relevantes y que, desde luego, impiden en muchos casos ofrecer una propuesta de valor adecuada a las necesidades del mercado, precisamente por esa generalización que busca más mercados abundantes (cantidad) que relevantes (calidad). Hamdi Ulukaya y su iniciativa Chobani Esa humanización de la innovación también se observa en empresas como Chobani. Creada por Hamdi Ulukaya, Chobani se dedica a la fabricación de yogures y compite con los grandes del sector en Estados Unidos y Canadá, fundamentalmente Yoplait y Danone. Chobani fue considerada una de las cincuenta empresas más innovadoras del mundo en 2012, al igual que Chipotle. Y es curioso, porque Chobani no es especialmente innovadora en tecnología, lo es en volver a procesos más artesanales, en ir contra las corrientes del mercado y apostar por la personalización y humanización del producto. Como dice Ulukaya, su éxito está en no conocer la manera habitual de hacer los negocios. El valor de la artesanía en el siglo XXI Trabajar con un enfoque artesano es hoy en día, y sobre todo en determinadas industrias, una verdadera innovación. El artesano es humano; parte de la asunción de que no existe la perfección, pero al mismo tiempo ése es su objetivo. La microinnovación entiende que no es perfecta, pero que sí es humana y absolutamente válida, que aporta un valor diferencial y único a las personas. La artesanía representa en este tipo de empresas la verdadera innovación; es su diferenciación más clara respecto de grandes multinacionales, que posiblemente tengan mayor capacidad de comercialización y de aplicar la tecnología a sus procesos. Dice el sociólogo Richard Sennet que «no hay arte sin artesanía. La idea de una pintura no es una pintura». Y si la parte técnica, que no tecnológica, es clave para materializar esas posibles ideas en forma de productos o servicios, centrarse en una diferencia trabajando desde una perspectiva más artesana los procesos puede generar una diferencia de posicionamiento relevante en el mercado. También Ferran Adrià comprende que técnica e innovación van unidas, porque no hay materialización de la innovación sin una técnica adecuada detrás que la sostenga. Y aunque Adrià introduce la tecnología en las cocinas, nunca olvida el valor del trabajo manual, artesano, que ejemplifica como en ningún otro lugar la unión entre una técnica concebida desde una visión artesana y una tecnología puesta a su servicio para conseguir los resultados adecuados. En DoVase[17] integran perfectamente la tecnología con la artesanía. Utilizando una app gratuita puedes diseñar muy fácilmente un jarrón a tu gusto. Desde la misma app puedes mandar ese diseño a un artesano alfarero que creará ese mismo jarrón diseñado por ti. El resultado es una pieza única que parte de una comunicación directa entre el cliente y el artesano sin perder esa parte de personalización y exclusividad que tiene el trabajo artesano, pero valiéndose de la tecnología para aumentar el mercado y llegar a segmentos a los que antes era imposible acceder. En los casos mencionados no hay innovación tecnológica, y cuando la hay, ésta es de baja intensidad y siempre puesta al servicio de la artesanía y el manejo que de la misma hace el ser humano. Es éste el que da sentido a la tecnología. Tecnología y artesanía no se excluyen, sino que se integran en un modelo en el que la segunda marca el camino a seguir y la tecnología se convierte en una herramienta a su servicio. En algunos casos existe una búsqueda de impacto social, que no sólo se considera un elemento importante, sino que forma parte del modelo de negocio de la empresa. Los beneficios esperados ya no son sólo monetarios, sino que se busca un modelo que genere un beneficio «hacia el exterior», hacia la sociedad. Y todo envuelto en un relato absolutamente relevante. Al igual que Chipotle, Chobani incluye en su propuesta de valor un marcado componente social y ético. Su mensaje es muy potente porque no sólo incluye ese elemento humano en sus procesos, sino que dicho mensaje forma parte del origen de esos procesos, con un claro compromiso con la sostenibilidad ambiental y el retorno social de parte de los beneficios. La humanización de la empresa es total, uniendo objetivos, origen, procesos y una historia que articula todos esos componentes. La historia, el storytelling, representa una magnífica manera de transmitir el valor y los valores de estas empresas, como ya he dicho. Lo vemos en San Nicasio, Chipotle, Trendtrotters y Chobani. En todos estos casos, los valores de las empresas están unidos a nombres propios, fundadores que tienen una historia que contar y que gracias a esa historia llenan de sentido sus proyectos. La microinnovación nace desde el propio ser humano, desde que éste comprende que la empresa no es nada sin ese componente diferencial que es la persona, llena de defectos, y por eso diferente y única. Una persona, un ser humano que ha de ser puesto en un espacio y vivir un tiempo para que todo adquiera sentido. Las empresas no nacen de la nada, son fruto de la voluntad de las personas, y esa voluntad es una fuente básica de innovación. La historia de Krikos Krikos nace cuando Víctor deja su trabajo y quiere dar la vuelta al mundo. En Argentina quiso comprar quicos, ese maíz tostado que se vende en bolsitas como snack. No encontró porque no había, por lo que Víctor decidió montar una empresa para producir y vender quicos por toda Argentina. Hoy Krikos se vende por todo el mundo. Posiblemente lo más relevante de Krikos esté en su lenguaje desenfadado, directo, joven, y en la introducción del juego en su comunicación. Las bolsas de Krikos son alargadas y con dos ojos grabados en las mismas, de modo que permite que los clientes manden sus fotos con los ojos de las bolsas en su cara. El juego y el buen humor son permanentes en el mensaje. La utilización del humor es, pues, un elemento clave en la comunicación e impregna al producto de un mensaje que alimenta su marca. Cuando compras Krikos, compras algo desenfadado, casual, fácil de llevar y de consumir, algo inofensivo y amable. Con todo esto se consigue un mensaje no convencional, que no parece que busque directamente la venta y que ofrece, además, la oportunidad de crear una comunidad de usuarios y clientes de la marca. La creación de comunidades representa también una oportunidad muy interesante para mejorar nuestra posición en el mercado. Y no estoy hablando sólo de comunidades desarticuladas y desordenadas de clientes, sino incluso de comunidades o grupos de usuarios con un espacio en el que relacionarse. Había una cadena hotelera que creó una plataforma para que sus clientes se relacionaran y éstos a su vez con la cadena. No era raro que apareciera alguna queja o duda de algún cliente y que otros le resolvieran esa duda o queja sin necesidad de que la dirección o el administrador actuaran. Esto crea fidelidad. Ziferblat y el marketing lateral En ocasiones las innovaciones, o microinnovaciones, ponen el foco en un único elemento del modelo de negocio, dándole una vuelta a la manera tradicional en que las empresas crean y gestionan los modelos de negocio propios de un sector. Ziferblat es una cadena de cafeterías de origen ruso que ya ha abierto su primer café en Londres. La peculiaridad de esta cafetería es que no te cobra por lo que bebes, sino por el tiempo que estás en ella. Con una decoración más cercana a una casa convencional que a una cafetería, y un modelo de ingresos distinto, Ziferblat busca resolver una de las debilidades de los establecimientos hosteleros, la necesidad de una alta rotación de las mesas. Con su modelo de negocio eso ya no es un problema para Ziferblat, pues da igual que una mesa rote con nuevos clientes o no, mientras tenga clientes siempre estará produciendo ingresos. En este caso tampoco ha habido tecnología de por medio, ni innovación disruptiva y difícil de copiar, pero Ziferblat ha sido capaz de introducir un modelo de negocio que, sin movilizar grandes recursos, soluciona alguno de los problemas que tienen los cafés tradicionales. Porque en ocasiones basta con centrarse en ese problema en concreto para encontrar una solución innovadora, y una de las técnicas más interesantes para este fin puede ser la del marketing lateral, que bien puede haber sido utilizada por Ziferblat. El marketing lateral permite encontrar una innovación desde una situación de aparente ausencia de lógica. La técnica, muy resumida, se basa en la existencia de desplazamientos laterales. Lo vemos con Ziferblat. Partimos de la necesidad que tienen las personas de reunirse, charlar, tomar café u otras bebidas y pasar un rato agradable con los amigos. A partir de ahí puede que haya muchas opciones, desde una cafetería tradicional hasta un bar de tapas o cualquier otra solución que cubra esas necesidades. Bien, nos centramos en las cafeterías. Y aquí es donde trabajamos con alguna característica para generar ese desplazamiento lateral. Y nos fijamos en las fuentes de ingresos y vemos que la fundamental está en el pago que hacen los clientes por las bebidas: los clientes pagan por las bebidas. Y nuestro desplazamiento lateral consiste en negar esa afirmación: los clientes no pagan por las bebidas. En este momento nos encontramos en un estado de indefinición, de extrañeza e incomodidad. (¿Que los clientes no pagan por las bebidas? Siempre han pagado por las bebidas. ¿De qué va a vivir la cafetería?). Nos falta esa conexión entre la cafetería como negocio y la afirmación de que «los clientes no pagan por las bebidas». ¿Cómo salvamos ese vacío? Afirmando que «los clientes pagan por el tiempo que permanecen». Esa afirmación supone la aparición de una nueva fuente de ingresos que puede ser más interesante que la habitual y que posiciona a Ziferblat como una cadena innovadora y distinta. Centrarse en una sola característica del modelo de negocio para buscar la diferencia y utilizar la técnica adecuada para hacer que ésta aflore puede generar como resultado un producto con una capacidad de posicionamiento completamente distinta y con alto potencial de atracción. Este tipo de técnicas son muy interesantes para el desarrollo de estrategias de microinnovación, puesto que no necesariamente requieren de grandes presupuestos y se pueden centrar, como he comentado, en un elemento del modelo de negocio, permitiendo la focalización del esfuerzo. En todo proceso de innovación es fundamental tener muy claro que debemos tener un objetivo claro: resolver una necesidad de la forma más eficaz posible y diferenciándonos de la competencia. Pero si pensáramos que la innovación y la microinnovación sólo pueden ser trabajadas en empresas o enfocadas al mercado estaríamos equivocándonos. Posiblemente es en entornos sociales, y para resolver problemas sociales, donde la microinnovación tiene uno de los más interesantes campos de actuación. Y esto no es raro, pues hemos de tener en cuenta que la microinnovación es una innovación de bajo coste, que busca que los gastos a soportar sean mínimos, por lo que puede generar productos muy interesantes y muy enfocados para grupos o comunidades con una capacidad de gasto muy limitada. Un ejemplo muy interesante es el WaterWheel, de Wellowater,[18] una rueda-bidón ancha y hueca, rellenable, que facilita el transporte para aquellas comunidades que han de desplazarse a cierta distancia para conseguir agua. En este caso se ha trabajado con una necesidad clara, una necesidad social como es el acceso fácil al agua. Puesto que un sistema de canalizaciones hubiera sido más caro y difícil de desarrollar, se propone facilitar el proceso de traslado de esa agua. Así, en lugar de que las mujeres tengan que llevar cántaros en la cabeza, con la posibilidad de que caigan y se pierda el agua, además de la dificultad para llevar grandes cantidades, se propone un producto que resuelve todos esos problemas. Es fundamental tener esto en mente: la innovación sólo es relevante cuando resuelve un problema o nos permite hacerlo de una manera más sencilla y con menos cargas para el usuario. El valor que podemos aportar con una innovación, sea ésta social o enfocada al mercado, está en que seamos capaces de aumentar el valor percibido por el usuario o en que disminuyan los costes que ha de soportar para su satisfacción. En el caso de Wellowater se dan ambas circunstancias: hay un mayor valor percibido al aumentar la cantidad que se puede transportar en cada viaje y hay también una disminución de los costes, pues aumenta la facilidad de transporte. La bombilla de los pobres Otro ejemplo de innovación social, o en este caso de microinnovación social, que está teniendo un fuerte impacto en suburbios de todo el planeta es la llamada «bombilla de los pobres». Ésta no es más que una botella llena de agua que se inserta en un agujero del techo de chapa de la vivienda y que actúa como lupa para incrementar la luz del sol que entra por ella. Las soluciones innovadoras no necesariamente tienen su origen en el mercado o en empresas u organizaciones, sino que pueden venir de los propios usuarios o beneficiarios de esa innovación. La idea de la bombilla de los pobres se le ocurrió al mecánico brasileño Alfredo Moser en 2002, tras un apagón de luz. Su objetivo, como él mismo dice, no fue que el invento le hiciera rico, sino resolver una necesidad suya y de gente necesitada. Es fundamental que seamos conscientes de que la innovación y las ideas que la alimentan tienen múltiples fuentes. En un proceso de innovación es clave que seamos capaces de ampliar esas fuentes y no nos quedemos únicamente con las internas. Trabajar con herramientas como el pensamiento de diseño ayuda a gestionar de una manera más eficaz esa posible abundancia de fuentes que podemos tener. Cuando introducimos en nuestros procesos herramientas como la mirada antropológica, que no es otra cosa que la observación de una escena con sentido y significado, es decir, interpretándola, estamos introduciendo a nuestros clientes en nuestros procesos de innovación. La utilización de la bombilla de los pobres explica, evidentemente, una necesidad que ha de ser satisfecha, y cuando no es el mercado el que consigue generar esa satisfacción o solventar esa necesidad es o bien porque no sabe cómo hacerlo o bien porque su respuesta tiene alguna debilidad para el usuario. En este caso la fundamental es un tema de coste por el precio que puede tener la bombilla y la corriente eléctrica necesaria para encenderla. Pero también puede haber debilidades de infraestructuras (no haber tendido eléctrico) o de mantenimiento. Sea como fuere, en este caso la solución social se adapta mejor determinados entornos que solución empresarial. a la Luis Soriano y su Biblioburro Cuando Luis Soriano, profesor rural de La Gloria, un pequeño municipio del interior de Colombia, comenzó su proyecto, en ningún momento se le cruzó por la cabeza la palabra «innovación». A Luis le gustaba la lectura desde pequeño, y cuando fue maestro trató de inculcar a sus alumnos ese placer que produce descubrir nuevos libros y nuevas historias. Como profesor tenía la oportunidad de tratar con niños, y como profesor del interior de Colombia sabía que había niños que no tenían acceso a esos libros. Un día decidió comprar dos burros, a los que puso por nombres Alfa y Beto. Cargó los burros con libros y se dispuso a introducirse en la selva para llegar a esos niños sin lectura. Había nacido el Biblioburro. El Biblioburro, evidentemente, no es un proyecto que vaya a cambiar el mercado, que abra un nicho nuevo o que vaya a hacer rico a nadie, pero posiblemente tenga un impacto social mucho mayor que muchas innovaciones que se centran únicamente en el mercado. El Biblioburro es innovación social, microinnovación social que pone en relación dos conceptos aparentemente imposibles de unir: biblioteca y selva. El Biblioburro juega con el método de la hibridación como estrategia de creación, y con ella consigue centrarse en el problema y salir de la zona de confort para buscar una solución con elementos aparentemente antagónicos. La innovación no es aquí el producto de la tecnología, evidentemente, ni de disponer de grandes presupuestos. Aquí es más importante haber detectado correctamente el problema, analizar los recursos de que se dispone y construir una solución sin ponerse límites en cuanto a la creatividad. Waka Waka Otro proyecto interesante en este mismo entorno de innovación social es Waka Waka,[19] que nace en 2010, cuando Maurits Groen y Camille van Gestel vieron las necesidades de iluminación que tenían algunas comunidades de Sudáfrica. A partir de ahí, y financiándose con la plataforma de crowdfunding Kickstarter, crearon Waka Waka, un aparato que es a un tiempo cargador, batería y linterna, todo por energía solar. Lo interesante de Waka Waka es que además de ser un proyecto sostenible económicamente, busca producir un impacto social en aquellas comunidades donde tengan algún tipo de deficiencia energética. Desde la empresa calculan que ya han llegado a más de 600.000 personas, teniendo por ejemplo un claro impacto al permitir aumentar en más de 144 millones las horas de estudio, fundamentalmente cuando se va la luz natural. Uno de los elementos que explica el éxito de Waka Waka es su financiación a través del crowdfunding. Esto permite que desde el primer momento podamos testar si nuestro proyecto es atractivo o no: si tenemos gente interesada en invertir, es probable que ello se deba a que les interesa el producto, porque estarían dispuestos a comprarlo, y éste es un dato fundamental para saber si nuestro producto puede tener éxito en el mercado. Si además somos capaces de integrar este tipo de financiación de una manera natural en nuestros procesos, estaremos innovando en nuestras fuentes de ingresos, utilizando fuentes no habituales que influyen positivamente en nuestro riesgo ante un proyecto determinado. StudioNet StudioNet es un estudio de diseño de Nueva York. Creado por Tom Gerhardt y Dan Provost en 2010, utiliza el crowdfunding para sacar adelante sus proyectos. Cuando diseñan un producto, crean un prototipo y acceden a plataformas de crowdfunding para su financiación. A partir de aquí consiguen el dinero y la información para saber si su proyecto tendrá éxito o no. De este modo han creado el lápiz Cosmonaut para pantallas táctiles; Glif, un soporte para iPhones, o Neat Ice Kit, para crear hielo para cócteles. El modelo les permite minimizar riesgos y hacer que el producto entre en el mercado con mucha información y recursos adecuados para un buen posicionamiento. No se trata de tener una fuente estable de ingresos, sino de tener un recurso más o menos sólido para conseguir fondos que nos permitan poner en marcha determinados proyectos. Innovar en las fuentes de ingresos implica adaptar modos de captar fondos a productos o con una frecuencia no habitual. Solo Raf, desde Almería Hay una idea importante que todo aquel que quiere innovar ha de tener en mente: no existe ningún producto ajeno a la innovación. Hasta el producto más humilde tiene potencial para ser objeto de innovación. En Almería, dos jóvenes emprendedores decidieron entrar en la comercialización online del tomate en su variedad Raf, naciendo así Solo Raf.[20] En su página sólo comercializan tomate Raf y algo de mermelada de este tipo de tomate. Además, ellos dicen que sólo hacen lo que saben hacer bien, comercializar. Por eso siguen un modelo de gestión que busca la máxima eficiencia al mínimo coste. No tienen almacenes, sino que compran directamente al productor en la subasta los tomates que ya han vendido previamente. Además contratan a una persona en esa subasta para que allí mismo empaquete los tomates y los envíe a sus destinos, con lo que reducen costes de infraestructuras, de intermediación y de tiempo, siendo más rápidos y eficaces a la hora de comercializar un producto perecedero. Es un ejemplo de microinnovación en procesos buscando ser lo más valiosos posible para el cliente. Las manzanas Pink Lady Una buena opción a la hora de ser relevante en la comunicación es poner el producto en su contexto. Una asociación de productores y comercializadores de manzanas en su modalidad Pink Lady ha creado la página Pink Lady.[21] En dicha página, los autores dan gran cantidad de información sobre el producto y todas sus aplicaciones, desde la historia de esa modalidad hasta recetas, pasando por un apartado para niños. Sólo si conseguimos hacer que el cliente entienda que nuestro producto es interesante, éste lo será. De nada sirve que prediquemos lo buenos que somos si no construimos un mensaje y un contexto en el que nuestro cliente sea capaz de percibir esa bondad. Casual Hoteles La microinnovación es, por lo tanto, un enfoque de innovación, más que un tipo distinto de innovación por sí mismo. Casi se puede definir como innovación low-cost. Cuando Juan Carlos Sanjuan decidió que quería dar el salto y gestionar sus propios hoteles, tenía claras varias cosas. Había trabajado durante bastantes años como director de hoteles, principalmente de tres y cuatro estrellas, y tenía mucha experiencia en el sector. Pero también tenía muy claro que no disponía de los recursos suficientes para construir ni para comprar un hotel. Así que ideó un modelo muy concreto de alojamiento hotelero: hoteles de dos estrellas, con pocos servicios pero muy relevantes para el cliente, urbanos y céntricos y tematizados. Y creó Casual Hoteles. El tema de las dos estrellas parecía claro. El cliente no valora todo lo que los hoteleros consideran que valora. De hecho, el hotelero sabe que en muchos casos está sobreofertando servicios, pero teme que el cliente crea que su hotel es de menor calidad si no oferta lo mismo que la competencia. Por eso Juan Carlos Sanjuan decidió desde un primer momento apostar por aquellos servicios que el cliente, según su experiencia como director de hotel urbano, de verdad considera importantes: un buen desayuno, buena limpieza, buenas camas y buen trato. Con unos servicios tan ajustados, la decisión de apostar por la categoría de dos estrellas parecía clara. Pero además hay que tener en cuenta que Casual Hoteles busca una ubicación muy céntrica en destinos urbanos, por lo que los clientes que suele tener este tipo de establecimientos hacen un uso del hotel muy limitado y prefieren pasar gran parte de su tiempo fuera de él. Suelen ser viajeros que quieren vivir el destino, no el hotel, por lo que éste ha de buscar una perfecta adaptación a ese modo de disfrute y relación con el destino. Se trata de ser relevante en la relación que tiene el viajero con el destino, no en forzar una relación con el hotel que el cliente puede no desear. Utilizar la tematización también es importante. Hay que aclarar que cuando Juan Carlos Sanjuan se propuso tematizar los hoteles Casual era consciente del limitado presupuesto con que contaba, por lo que realizó esta acción basándose en dos principios: gasto mínimo y no hay dos habitaciones iguales. Por eso la tematización se basó en unas paredes con imágenes impactantes y guiños en algunos elementos como la cabecera, las mesillas de noche o algún mueble auxiliar. Con la tematización se consigue que haya un elemento de juego en la relación del viajero con el hotel. Sin llegar a ser abrumadora, la tematización introduce la sorpresa y la gamificación en la experiencia del cliente. Así, cada hotel está tematizado en torno a un tema: el cine, la música, la literatura... A todo esto hay que añadir el modelo de gestión. Vuelvo a lo mismo: no hay muchos recursos económicos, por lo que se opta por un modelo de alquiler. Suelen ser antiguos hoteles que por una u otra razón el dueño quiere dejar de gestionar. En ocasiones se observa una mala gestión por parte de ese dueño; en otras hay un cierto cansancio y la voluntad de alejarse de la primera línea. Sea como fuere, el caso es que cuando surge la oportunidad se valoran el destino, la ubicación y las posibilidades del hotel. Cuando se decide tomar el alquiler, se procede a la tematización, a cambiar el modelo de servicio a los clientes y a diseñar su comercialización. El resultado es una mejora en las opiniones de los clientes y beneficios desde el primer año. En definitiva, tenemos que aupar el poder de la microinnovación Los ejemplos que he presentado, y otros más que hubiera podido poner, son el ejemplo de personas que no necesitaron muchos recursos para poner en marcha sus proyectos. Proyectos que buscaban una diferenciación en el mercado, pero cuyos impulsores eran conscientes de la imposibilidad de desarrollar un tipo de innovación disruptiva que los posicionara en un océano azul sin competencia. Son personas que basaban su proyecto y su modelo de innovación en una manera distinta de enfocar los productos. No necesariamente mejor. No necesariamente peor. Para muchos, esto de lo que aquí he hablado ni siquiera es innovación. Para muchos no son más que cambios puntuales dentro de las empresas que a veces ni siquiera tienen la categoría de mejora. Está bien, que le pongan el nombre que quieran. Que digan que es innovación o que no lo es, que implica una mejora o que no. En todos los casos, sin embargo, hay una clara voluntad de posicionarse de una manera distinta en el mercado y siendo consciente de los limitados recursos de los que se dispone. No se busca tanto la innovación disruptiva como la movilización efectiva de los recursos y un nuevo enfoque en la manera de hacer las cosas. Lo que sí he notado en los proyectos analizados es una serie de elementos que en mayor o menor medida se repiten de forma mayoritaria: — Personalización del proyecto. E incluso podríamos decir humanización, pues en muchos casos se parte del impulso que da a la empresa una persona y se enfoca a un modelo en el que el cliente, como persona, es el centro de reflexión. — Visión a largo plazo. No se suelen buscar resultados inmediatos, o cuando se buscan, es para afianzar un sólido desarrollo posterior. La visión cortoplacista no existe. — Con una historia detrás. Suelen ser proyectos, como ya he comentado, personales, y esa personalización implica que existe una razón temporal para cada decisión tomada. La fortaleza de las decisiones está en su justificación vivencial, en la educación sentimental de sus promotores. — El dinero no es lo más importante. No suelen ser proyectos que nazcan por una necesidad monetaria. No es que ésta no exista, es que no es la razón fundamental de la existencia del proyecto. — Mucho cuidado por el producto. El producto casi es la razón de ser de la empresa, y por eso se cuida tanto. El objetivo es que sea único, distinto, y que su sola existencia justifique la razón de ser del proyecto. — El cliente forma parte de la reflexión. Y más que el cliente, el ser humano. No importa que el proyecto sea un proyecto social o no, el producto siempre se pone en relación con la persona para que tenga sentido. Al cliente se le respeta, y se entiende que todo cambio va encaminado a ser más relevante para él, a satisfacer mejor su necesidad. — No existe la innovación consciente. No se observa una voluntad explícita de innovar, sino que los emprendedores y promotores entienden que los procesos, comunicación, productos y proyectos se han de desarrollar así, desde una visión personal y única, sin voluntad de copiar lo que ya existe, pero tampoco necesariamente negándolo. La microinnovación es, sobre todo, una forma de enfocar los proyectos y las empresas. Supone comprender que la innovación no está necesariamente en las grandes cifras, en las grandes empresas o proyectos. Supone no tener miedo a hacer las cosas de otra manera y no buscar excusas que paralicen a las empresas y que les impidan evolucionar, por muy pequeñas que sean. Cualquiera puede innovar, está a la vuelta de la esquina, sólo hemos de tener el valor de cruzarla. 12 La gestión compleja de empresas: un nuevo management para una nueva época XAVIER MARCET Y JAVIER GARCÍA Progresar es ganar independencia respecto de la incertidumbre. JORGE WAGENSBERG ¿Por qué la complejidad y el management? Si por algo se nos tiene encasillados a los economistas es por ser mánagers, los que están en el control de las empresas y en muchas de las decisiones que se adoptan. Pero, una vez más, esto es algo de lo que tenemos que dudar, porque la realidad no es lineal, ni predecible, y requiere de nuevas lógicas y unas reflexiones que pretendemos apuntalar en este capítulo. Una empresa es una operación más o menos compleja cuya razón de ser es la de convertir inputs en outputs que crean valor; alguien paga por ellos y se define un ciclo de venta-producción-cobro que es el centro de la actividad empresarial. Por razones distintas, se ha multiplicado el número de inputs a tener en cuenta en las empresas para realizar los outputs habituales con la competitividad deseada. El incremento de información y de conocimiento no ha dejado de crecer a lo largo de todo el siglo XX y se está revolucionando en el siglo XXI. Las organizaciones tienen mucha más información de sus clientes de la que son capaces de digerir, aunque existe un campo muy amplio de trabajo para ello, como hemos visto en el capítulo acerca de la «profesión más sexy del siglo XXI». A pesar de ello, para muchos la alternativa parece estar entre olvidar una gran parte de los datos que tienen de su contexto o bien incorporarlos para caer con más o menos celeridad en la parálisis por el análisis. Cada vez existen nuevas y más sofisticadas herramientas para procesar los datos masivos que prometen revolucionar el proceso de toma de decisiones con funciones como las APR (Automatic Pattern Recognition). En definitiva, estamos ante un hecho incuestionable: los mánagers de nuestras empresas se encuentran ante escenarios de mayor incertidumbre, con dificultades para diferenciarse, tomar decisiones fundamentadas y, sobre todo, para hacerse un hueco sostenible y de creación de valor de forma constante. Se mueven en escenarios con más vectores que nunca y deben tomar decisiones en medio de volúmenes de información y conocimiento mucho mayores de lo habitual. Además, todo hay que hacerlo con agilidad. El factor tiempo cuenta a veces tanto como el factor dimensión. Hay que moverse entre nuevas realidades con rapidez y articular nuevas síntesis que permitan decisiones más frecuentes, a veces incluso a tiempo real, tanto en el ámbito estratégico como en el operativo. Si una de las principales funciones de los directivos es la toma de decisiones, queda claro que éstas deberán tomarse en entornos de alta complejidad definitivamente. Es obvio que muchos de nuestros directivos tienen una gran capacidad de formarse lidiando la realidad que manejan, «aprender haciendo», pero también es cierto que muchos tenderán a adoptar decisiones aprendidas en entornos «estables», más predecibles (o al menos con más sensación de que esto es así). Resolver la gestión en tiempos de gran incertidumbre requiere de nuevos esfuerzos, y también de nuevas habilidades directivas. Una de las principales destrezas consistirá en saber dialogar con las máquinas de un modo ágil y eficiente. Y otra en saber interpretar lo que las máquinas nos dan, en modo de síntesis y análisis de datos, para poder convertir esos datos en conocimiento y, sobre todo, en decisiones útiles y de impacto. Resulta imprescindible aprender a manejar un tipo de conocimiento just-in-time, que será la base de una parte importante de las tomas de decisiones de los directivos. La inteligencia artificial no sustituirá a los directivos en las empresas fácilmente, pero las capacidades humanas por sí solas ya no serán suficientes para abordar toda la complejidad de las empresas que, sin duda, define una nueva era del management. Los directivos de hoy deben ser muchas cosas a la vez. Requieren de un tipo de liderazgo más basado en su capacidad de servicio que de autoridad jerárquica; deben anticipar visiones y transmitir con su ejemplo la lógica para alcanzarlas. Deben ser directivos capaces de aprender, puesto que sus subordinados solamente respetarán a aquellos jefes de los que aprendan. Deben ser buenos gestores en la combinación de objetivos, personas, recursos y prioridades. Deben ser líderes que cultiven la innovación en primera persona, porque delegar la innovación supone condenarla a un perfil incremental y no arriesgar en ninguna de carácter radical. Deben moverse cómodamente en escenarios de tecnología y de comunicación altamente cambiantes. Para ejercer su liderazgo no les bastará con una actuación puertas adentro; tanto para las alianzas corporativas como para defender una articulación simbiótica con la sociedad, los directivos deberán articular proposiciones positivas para con la sociedad. No se trata de mirlos blancos, se trata de directivos poliédricos que gestionan lo incierto, lo diferente, lo arriesgado. Profesionales capaces de construir nuevas síntesis en medio de la complejidad, sin simplificar. Lo único que deberán ser simples son las aportaciones de valor que las empresas ofrezcan a sus clientes a través de la innovación. La simplicidad en innovación acostumbra a funcionar bien. El mejor elogio que se puede hacer a una innovación, decía Peter Drucker, es que aparezca como una obviedad, como algo que parezca imposible que no haya existido antes. Ahora lo que de verdad necesitamos son síntesis más que simplicidad. Ha nacido un nuevo management, basado en «lo que de verdad importa» Ha nacido un nuevo paradigma en management. Uno de sus más firmes evangelizadores, que no el único, es Gary Hamel, quien ha sido capaz de fusionar sus claves en Lo que ahora importa (publicado en español en esta misma editorial). El mantra del que no podemos escapar: es necesario reinventar el modo en que nos organizamos porque éste ha cambiado de forma tectónica durante el último siglo, muy lentamente, hasta el punto de estar desfasado y no orientado a alimentar la pasión, la creatividad y la responsabilidad social de las personas y las empresas. Resulta realmente complicado sintetizar todas las ideas que Hamel transmite de forma tan lúcida. Sus trabajos aportan siempre un aire fresco tal que lo convierten, para muchos (entre los que nos encontramos), en el Peter Drucker del siglo XXI. No obstante, ya se han cumplido, en 2014, seis años de uno de los eventos que es capaz de reunir a la Champion League del management moderno, el Global Drucker Forum de Viena. Una reunión que nació en recuerdo de Peter Drucker y como un tributo a su inspiración, y que se ha convertido en un hervidero de las ideas que están transformando las organizaciones. Sólo en el último Forum se pudo escuchar a figuras consagradas como Clayton Christensen, Gary Hamel, Roger Martin, Rita Gunter McGrath, John Hagel, Pankaj Ghemawat, Vineet Nayar o Steve Denning, y otras más emergentes como Herminia Ibarra, Dov Seidman o Nilofer Merchant. A continuación, resaltaremos algunas de las ideas más potentes de este nuevo paradigma para intentar provocar curiosidad y para insuflar, amigo lector, la energía necesaria para sumergirte y bucear en este nuevo mundo. Y lo vamos a hacer tomando como referencia algunas de las citas más importantes del manual citado de Hamel. Así, por ejemplo, ya en el prefacio se pone de manifiesto algo que supone un duro punch para muchos acostumbrados a lo de siempre: «Este libro representa un apasionado alegato destinado a reinventar la gestión empresarial tal y como la conocemos [...]. No es una celebración para aquellas empresas que hasta ahora han realizado un gran trabajo [...]. Es un anteproyecto para crear organizaciones adaptadas para el futuro de los seres humanos». El primer fundamento es que «en un mundo de certezas rotas y confianza socavada, algunas cosas importan más que otras». Por ello, la primera clave que trabajar es la respuesta a la pregunta: «¿Cuáles son las cuestiones fundamentales que determinarán si tu organización prosperará o se hundirá en los próximos años?». La respuesta a dicha pregunta tiene condimentos que sorprenderían a nuestros abuelos o bisabuelos..., pero lo preocupante es que también sorprenden a muchas personas de la empresa de hoy. El centro del cambio de toda organización y de toda sociedad está en las personas: en su libertad, en el uso de su talento, en su capacidad para visualizar y ejecutar soluciones a problemas complejos y difíciles de abordar. Y ese talento y esas capacidades no se desarrollan de forma óptima en el modelo de gestión al que estamos acostumbrados. Se precisan nuevas fórmulas, y ahí es donde se centran los trabajos de muchos de los pensadores de este nuevo círculo de Viena y que son un verdadero combustible intelectual para esta época convulsa. Los amantes de la libertad y del individualismo solemos citar a Adam Smith o Ayn Rand, pero Hamel recuerda una salvedad clave que nunca debemos olvidar: «Como sucede con la fisión nuclear, el interés propio funciona sólo en la medida en que exista un vaso de contención: un conjunto de principios éticos que asegure que el interés propio ilustrado no se funda hasta convertirse en simple egoísmo [...]. Hoy, el agua subterránea de los negocios se encuentra excesivamente contaminada por el desagüe superficial de la “egomanía” con anteojeras morales». Valores, responsabilidad y humanización de las empresas para desarrollar los nuevos instrumentos con los que transformar la realidad: éstas son las claves en las que se fundamenta el nuevo management. Y es que «en los próximos años, una compañía sólo será capaz de preservar sus libertades si adopta una visión nueva y más elaborada de sus responsabilidades». Será de vital importancia exponer los valores que han de perdurar y trabajar en los mismos. «Las contribuciones extraordinarias nacen habitualmente de un apasionado compromiso con los valores humanos intemporales, como belleza, verdad, sabiduría, justicia, caridad, fidelidad, alegría, coraje..., honor.» Por todo ello, la máxima que todos hemos de intentar llevar a la práctica es «la imperativa y ética tarea de humanizar el lenguaje y la práctica empresarial». La importancia de estas ideas se hará evidente en cuanto intentes responder a la siguiente pregunta: ¿Por qué los ideales que más nos importan a los seres humanos a nivel personal son precisamente aquellos significativamente ausentes en el discurso directivo? Nos encontramos en un momento de la historia en el que una empresa que no «explota una discontinuidad o tiene dudas porque podría poner en peligro su querido modelo de negocio, acabará siendo la víctima y no el ejecutor». El miedo al cambio y a lo desconocido establece sistemas burocráticos y jerarquizados que frenan y matan modelos de negocio continuamente. Por esta razón, se plantean cuestiones clave para aprovechar el potencial de las discontinuidades que emergen por el mundo: 1. En el ámbito de la cultura, la política o la tecnología, ¿qué cosas has leído, visto o experimentado en los últimos meses que te han resultado sorprendentes, confusas o desconcertantes? 2. ¿Cuáles de estas anomalías parecen haber contado con cierto impulso? ¿Se acelera dicha tendencia? 3. Es fácil identificar discontinuidades mirando hacia atrás. Pero, si pasamos la película hacia adelante, ¿cómo visualizarías esas discontinuidades? 4. ¿Cuáles de esas discontinuidades no son, aún, tema de conversación en tu industria? 5. ¿Cómo podrías aprovechar esas discontinuidades para diferenciarte de tus competidores? Entrena a tu equipo, a ti mismo y a toda tu red para resolver constantemente preguntas y detectar oportunidades en las que adentrarse. Hacerlo te puede colocar en una buena posición para surfear la nueva ola del progreso. ¡Aprovéchalo! Si quieres surfear la ola desde la arena, seguro que no llegarás. Para marcar la diferencia, hay que meterse en el agua y detectar cuándo viene y cómo la tienes que sortear. Esta forma de percibir la realidad no es cómoda, pero ¿por qué asumimos que habría de serlo? ¿Cuántos aspectos de un negocio han cambiado en los últimos cinco años en una empresa prototipo? Probablemente muy pocos. ¿Por qué? ¿Lo impide alguna ley física o se trata, como argumenta Hamel, de nuestra desmesurada «devoción por los precedentes»? ¿Cuántas empresas familiares no se atreven a tocar nada de lo que hacían sus padres o abuelos por el «peso del miedo», la responsabilidad y la incertidumbre? ¿Cuántas veces optamos por quedarnos en la orilla y esperar la ola que llegará sin fuerza para surfear sobre ella? En un libro de John C. Maxwell se citaba la existencia de la Sociedad Internacional de Investigación sobre la Tierra. Comprobamos esa existencia en la gran Wikipedia, y es así, hay unas 2.000 personas en esa asociación. La estrechez mental impide la aceptación de ideas nuevas, explicaba Maxwell, pero en realidad es una demostración palpable de que cambiar es realmente difícil. Estamos plagados de sesgos y solemos poner el foco de atención en aquello que confirma nuestros prejuicios. Y esto es una realidad también en el mundo de las empresas y, en general, de las organizaciones (¿qué nos dices de la gran mayoría de las Administraciones Públicas y su aversión al cambio?) Pero lo relevante, lo que se tiene que extender como una epidemia, es que las empresas vean y exploten oportunidades donde otras no son capaces de hacerlo. ¿Por qué? La investigación sobre este tema ha puesto de relieve un hecho que Hamel explica muy bien: «Los innovadores tienen una manera distinta de observar el mundo; han desarrollado un conjunto de hábitos perceptuales que les permiten atravesar la niebla de “lo que es” y visualizar aquello “que podría ser”». ¿Por qué? ¿Se puede lograr eso en un sistema clásico de organización que es predecible, fiable, controlador y disciplinado con las personas? La respuesta parece ser que no; tenemos que lograr humanizar las empresas, abrirlas, apasionarlas y convertirlas en un organismo vivo que detecte oportunidades constantes. Son las personas las que crean y convierten un trozo de mármol en una escultura. ¿Cómo detectar si hay personas así en una compañía? Evalúa el diseño de lo que producen. El diseño «es algo difícil de definir, pero una cosa es clara, el buen diseño se reconoce en cuanto se ve». Un buen diseño provoca una especie de «reacción visceral», de atracción, te cautiva, porque es: Absolutamente inesperado Asombrosamente competente Estéticamente exquisito Visualmente cuidadoso ¿Y qué es el antidiseño? Empaquetar todo lo empaquetable, usar letra pequeña e ilegible, el lenguaje farragoso, un menú de centralita que convierte la solución de un problema en una tarea titánica para el cliente. ¿Nos suena? El diseño, el cuidado de los detalles, está en todo lo que nos rodea: desde un producto de alta tecnología hasta la cafetería en la que nos tomamos el café de la mañana. Tim Brown, de IDEO, explica que «el poder de un gran diseño está subestimado [...]. Históricamente, los gestores concebían el diseño como un pequeño recipiente de polvos de hadas que podían espolvorearse encima de los productos para embellecerlos [...]; en cambio, el diseño debería de considerarse como una disciplina fundamental que produce clientes demencialmente fieles y márgenes sustanciosos». Es necesario hacer un reset y colocarse en modo «pensamiento de diseño»; así, la concepción de una idea, de un proyecto o de una compañía consolidada serán distintos. ¿Cuál es la esencia del pensamiento de diseño? Brown lo sintetiza de forma brillante: «A través del “construir para pensar”, en lugar de “pensar para construir”, una organización puede acelerar notablemente su ritmo de innovación». Para lograr que esto ocurra en tu empresa, se tiene que crear el clima necesario para que la experimentación intelectual de los empleados sea un fenómeno habitual. Es imposible generar avances importantes a menos que la gente esté dispuesta a explorar nuevas opciones de forma «poco ortodoxa». Experimentar, probar, testear, de forma continua y barata. El «construir para pensar» de Tim Brown nos ha de llevar a técnicas como las del prototipado rápido y barato como forma eficaz de trasladar una idea a algo tangible que te ayude tanto a pensar sobre qué quieres como a mostrar que hay algo más que un papel. ¡Probemos! Ésta es la manera de abordar la complejidad, haciendo y cuidando de que el talento coloque el foco en obtener lo mejor de sí. Quédate con una frase de Hamel: «El diseño tiene que ver más con la empatía que con el genio, y, a menudo, son las cosas insignificantes las que marcan la mayor diferencia para los consumidores». Anota estas ideas, juega con tu puzle profesional... y responde a una pregunta clave que te hará avanzar: «¿Cuáles son los pequeños e inspiradores placeres que podrías brindar a tus clientes sin casi ningún coste adicional?». Encuéntralos, ¡y triunfarás! En el ADN de toda empresa tiene que estar su capacidad de adaptación. La clave no es una ventaja competitiva en un momento determinado, sino el mantener la compañía «en órbita». Por eso la gestión del cambio tiene que ser algo habitual y no traumático. «El Santo Grial del cambio sin trauma se encuentra en su abordaje de forma automática, espontánea y reflexiva». «Adaptación» es la cualidad empresarial (y personal) más importante de nuestro tiempo. Y entrenarla requiere trabajar en las actitudes mentales, las motivaciones intrínsecas, en sistemas de gestión que no estorben y desgasten, así como empoderar comportamientos, actitudes e ideas que quieran, de forma constructiva, reinventar la realidad del momento. Una compañía adaptable, configurada para gestionar cambios continuos de una forma poco traumática, es menos volátil y es más creíble para los inversores porque está siempre colonizando nuevos mercados, abierta al talento y con un grado adicional de empatía con sus clientes. Los modelos de negocio no son eternos; saber cómo cambiarlos en «modo automático» y gestionar la entropía requiere desarrollar nuevas capacidades empresariales. Tenemos que subir el escalón. Lo hemos hecho bien en management para ser eficientes, pero ahora, además de la eficiencia, necesitamos la resiliencia. Lo que hemos aprendido para ser eficientes puede chocar con lo que necesitamos para ser resilientes, creativos y líderes de una transformación continua. Un contexto radicalmente distinto Y es que la prospectiva no nos da tregua y se anuncian cambios de contexto extraordinarios. No es fácil aventurarse a sintetizar las tendencias de futuro a pesar de los muchos ejercicios que se realizan en este sentido. Cada año IBM aventura las tendencias del momento en su famoso 5 in 5 o Millennium-Project, donde efectúa, desde hace dieciocho años, un interesante análisis sobre el «Estado del futuro». Sin pretender agotar las tendencias, ni siquiera priorizarlas, nos parece interesante poder reflejar algunas de las claves más repetidas en todos los ejercicios de prospectiva: Primera. La revolución de la bioingeniería y la nanotecnología será equivalente o superior al impacto que ha causado en nuestras vidas la revolución de las tecnologías de la información y la comunicación (TIC) desde los años ochenta. Segunda. Lo que se denomina el internet de las cosas, una nueva frontera de internet combinada con el análisis útil de grandes volúmenes de información. La conexión de cosas «inteligentes» y el avance de la robótica permiten también imaginar un mundo con nuevas y potentísimas interacciones. A todo ello hay que añadir el vértigo del avance de la inteligencia artificial, con su capacidad de desarrollar autónomamente determinadas soluciones. Tercera. La consolidación de la innovación y el emprendimiento como la capacidad diferencial y la base de la competitividad de las empresas. Cuarta. La vinculación del desarrollo de un territorio a la masa crítica de talento emprendedor que sea capaz de incorporar. Quinta. El desarrollo de nuevas formas de producción asociadas a la impresión y el escaneado en 3D. Estamos viviendo tiempos donde «la fabricación en masa» se está convirtiendo en la «personalización en masa». La posibilidad de que podamos copiar diseños sofisticados e imprimir en casa o en pequeños talleres permite aventurar cambios serios en las formas de producción. La manufactura avanzada tiene en el mundo 3D una gran oportunidad de repensar su despliegue. Sexta. El reto de resolver la sostenibilidad a partir de un nuevo paradigma basado en la gestión eficiente del agua como gran recurso escaso, la resolución de los residuos (incluida la captura del CO2) y las nuevas generaciones de energía limpia para afrontar grandes desafíos colectivos como el cambio climático. Séptima. Un nuevo mapamundi, en el que los países dominantes de los siglos XIX y XX ya no ejercerán el liderazgo y el papel de los nuevos territorios emergentes (Asia especialmente) y de los nuevos mercados-frontera devendrá clave en el mapa de poder y de los conflictos a escala global. Octava. La consolidación de nuevas claves de mercado basadas en la profundización de fenómenos como el actual SoLoMo (sociallocal-mobile), en el que el fenómeno de combinar la construcción de comunidades vertebradas por redes sociales, la geolocalización que permite una nueva gestión de la proximidad y el acceso desde una movilidad radical a cualquier producto o servicio determinan nuevos hábitos sociales con nuevas pautas de consumo asociadas. Novena. Nuevas formas de acceso al conocimiento y el aprendizaje (los MOOC — acrónimo en inglés de Massive Open Online Course— son solamente el aperitivo de este cambio) y nuevas formas de trabajo que harán que en la vida de una persona haya etapas profesionales mucho más diversas de las que hemos conocido en el pasado. Uno fácilmente habrá sido en su trayecto laboral: profesional dependiente, emprendedor, empresario y formas híbridas de entre estos modelos. Décima. La traducción automática y sincrónica de lenguas revolucionará las capacidades de comunicación en el mundo. Undécima. Hay consenso en que el paradigma demográfico cambiará bruscamente y que el nivel de esperanza de vida aumentará bastante más allá de los cien años, lo que forzará a repensar los resortes de sostenibilidad de una sociedad no preparada para trayectorias biográficas tan dilatadas. Las empresas deberán leer con rapidez y sentido de la anticipación los cambios que estas tendencias supondrán. No todo serán amenazas, al contrario, los retos son de tal magnitud que emergerá, de entre toda esta complejidad, un gran número de oportunidades. La capacidad de adaptación al cambio y la competencia en innovación serán claves para alojar el perímetro de las empresas en estas oportunidades. Mánagers como constructores de síntesis Ante la proliferación de inputs y la rapidez con la que éstos se producen, necesitamos mánagers que sean constructores rápidos de nuevas síntesis. Para ello, su capacidad de leer situaciones y organizaciones, así como su empatía con unos clientes cambiantes en sus necesidades y poco fieles, son características fundamentales. Construir nuevas síntesis implica encontrar la guía en medio de indicadores paradójicos, a veces contradictorios, y de inmensidades de datos que se procesan automáticamente. Construir nuevas síntesis implica saber alterar las estrategias sin perder la visión o dar una dimensión táctica a las operaciones sin dinamitar su consistencia estratégica. La gestión de la complejidad será la nueva frontera del management del siglo XXI. La gestión siempre fue algo difícil, incierta, y requiere adoptar decisiones con datos difusos, pero si ahora hablamos de gestión de la complejidad es porque creemos que el salto de ésta no es incremental, sino radical. El Global Drucker Forum de 2013 estuvo dedicado en exclusiva a estas cuestiones, precisamente. Y allí se puso de manifiesto que el management es claramente una disciplina en formación. No hay fronteras claras ni metodologías maduras. Tampoco está clara la relación con las aproximaciones académicas a los sistemas complejos establecida hasta hoy. Como sucede a menudo, la gestión de la complejidad es antes una necesidad que una sistemática. Entra plenamente en la necesidad que el management tiene que innovarse a sí mismo. Las viejas herramientas ya no sirven, o dejan un terreno expuesto a la intuición que las hace aparecer como poco consistentes. Que el management no sea una ciencia exacta no quiere decir que pueda hacerse sin moverse en evidencias basadas en datos (y cada vez más en datos masivos). Por más complejidad y más innovación que haya, los valores IMPORTAN Los condimentos de la vida profesional de los que escriben este capítulo, durante ya varios años continuos de crisis en España, tienen un denominador común que, creemos, nos tiene que llevar a algún sitio, esperamos que positivo. Elevadas inversiones, financiadas con deuda en su mayoría de las veces; instalaciones con un uso por debajo del 50 por ciento de su capacidad; lo que antes parecía competitivo y fácil de vender ahora es misión —casi— imposible (se vendía casi a golpe de llamada, hasta el punto de que hay empresas que distorsionan los conceptos; en vez de decir «he salido a vender» se dice «no entran pedidos»); caídas de productividad; falta de motivación en los ejecutivos que antes eran «estrellas mediáticas»... Si las negociaciones con los comités sindicales se centraban en subidas salariales y en mejorar los derechos de los trabajadores «ante la carga de trabajo», ahora los encuentros «empresa/trabajadores» (como si fueran dos entes distintos) se han convertido en un arma de destrucción masiva de la motivación de los trabajadores, expedientes de regulación de empleo en los que se incluyen todo tipo medidas: despidos, reducciones de jornada, cambios de la actividad dentro de la compañía, reducciones de complementos, de salarios... Y la cosa se pone tensa cuando hay impagos de nóminas y los trabajadores empiezan a estar al límite. De la misma manera, hay familias de empresarios en apuros, embargados y que han visto cómo sus criaturas profesionales o fallecen o están en proceso de cáncer galopante. Todo esto es muy duro y difícil de gestionar. La pregunta es, ¿y ahora qué? Hemos aprendido una lección muy importante, y que tenemos que empezar a poner en práctica desde el primer minuto: «Vivimos y viviremos aún más en un mundo donde es improbable que el futuro refleje el pasado». El parámetro que realmente importa (para no caer en el sesgo del corto plazo, cuando estamos bien y creemos que siempre será así) es el coste de la adaptabilidad de cada decisión: «¿cómo nos puede limitar esta decisión?, ¿dónde reduce nuestros grados de libertad?, ¿cuánto nos costaría salir?». Como decíamos, o somos adaptables y creamos organizaciones que permitan que lo seamos, o estamos condenados a sufrir. Una compañía adaptable lo es cuando «la reversibilidad se convierte en una variable fundamental a utilizar cuando las cosas empiezan a no funcionar». Si no hay vuelta atrás, o ésta es muy costosa, tendremos ajustes con altos costes personales y económicos. Por lo tanto, es clave trabajar en averiguar cómo ganar esos grados de libertad e ir surfeando la ola, venga por donde venga y tenga el tamaño que tenga. Hay, en este sentido, una idea clave que pone en cuestión ciertos «fundamentos». Lo decía Steve Jobs, o el propio Guy Kawasaki: los emprendedores visionarios, cuando empiezan a crecer y a tener «éxito», tienden a pasar el testigo a gestores muy bien formados, a los que les gusta la burocracia y el férreo control y que son capaces de «mejorar la organización», pero que no logran hacerla «diferente, reinventarla de forma continua», y es por eso por lo que malas estructuras organizativas conducen a renunciar a lo que nos hizo jóvenes, frescos, distintos. Como los seres humanos, las empresas también pueden padecer cáncer. Es más, está más extendido de lo que creemos. Un cáncer es algo difícil de diagnosticar al principio —los síntomas no son muy apreciables—, pero detectarlo a tiempo y empezar a tratarlo es fundamental. Si se extiende, te mata. ¿Cómo preparar una organización para detectar el cáncer? ¿Con complejos sistemas informáticos? ¿Con miles de reuniones semanales y con informes y unos cuantos PowerPoint? Volvamos a Gary Hamel, porque aporta tres ideas, pero todas ellas afectan de lleno a la pieza clave de toda empresa, las personas. Y por eso sus aportaciones, sobre todo dirigidas a los «ejecutivos», son: Ser humilde. Las creencias de la industria son hipótesis, no mandamientos. Por lo tanto, están y deben ser objeto de rectificación. Cuando escuches eso de «así es como funciona en este negocio...», contrarréstalo con un «¡hasta que deje de hacerlo!». Ésta es una lección que aprendemos, en todos los sectores, casi todos los días. Otra cosa es que queramos o no reconocerlo. Ser honesto. Busca hechos incómodos, no los escondas, compártelos con el resto de la organización, con tu entorno. Aunque no te resulte fácil y atractivo, si duele, si te hace sudar..., estás en el buen camino. «Pon en un podio a los disidentes de tu organización», valora a los que vienen con ideas incómodas, pero trabajadas y convincentes. Porque «un líder tiene que hacer frente al futuro, no desacreditarlo». Mantén la misión como un bien supremo. No confundas los medios con los fines. Tu propósito tiene que estar en todo lo que haces para ser creíble. Los hechos tienen que hablar por ti; no puedes «prostituir» la misión que transmites al mundo. Eso de que «el cliente es lo primero» y tener los baños sucios y ponerle mala cara... no puede ocurrir. ¿Qué valores supremos definen a tu empresa? ¿Para qué luchas, sudas y trabajas todos los días y quieres que el resto haga lo mismo? ¿Por qué haces lo que haces, además de por el dinero? Una primera regla para mantener el éxito es abandonar las cosas que no funcionan. Pero aquí ya entramos en conflicto con las decisiones pasadas que te anclan. ¿Y si no vendo esta máquina, que he comprado porque tenía una subvención del 20 por ciento y que ahora no necesito, y tengo que devolver el 80 por ciento al banco y no tengo liquidez para otra cosa? ¿Cómo prevemos evitar caer en estas situaciones? ¿Cómo autodiagnosticamos nuestra propia estrategia? De nuevo tres ideas- fuerza de las que parece que es difícil escapar: 1. La gravedad gana. Ninguna compañía puede funcionar mejor de forma indefinida que la media. En los negocios, como en la biología, las cosas grandes crecen más despacio. «El crecimiento se hace más lento a medida que el mercado se vuelve más maduro y los beneficios de la productividad son más difíciles de conseguir cuando el cuchillo rasca más cerca del hueso», es decir, cuando llegan los rendimientos decrecientes entre inversión e ingresos. 2. Las estrategias mueren. ¿Por qué? Porque se pueden copiar, reemplazar o simplemente porque los clientes poderosos o la competencia pueden acabar con esa estrategia. Esto sucede más a menudo de lo que creemos y es clave analizar indicadores adecuados. 3. El éxito corrompe. Existen factores humanos y organizacionales que prostituyen los valores, la frescura, la juventud adquirida en algún momento. ¿Cuáles son? Algunas reflexiones : — El uso constante de un «pensamiento defensivo». Esto ocurre cuando aquellos ejecutivos que alguna vez desafiaron el statu quo, que arriesgaron y fueron valientes, ahora lo defienden... Ahora que somos grandes, que no nos dejen caer, que mantengan nuestros privilegios. ¿Sabes de qué hablamos, no? — Sistemas inflexibles. Preocúpate cuando veas a una empresa que pasa de la innovación a la mejora, o de la exploración a la explotación. Cuando la disciplina, la obediencia y el cumplimiento exhaustivo de las normas son el foco principal, el cáncer se empieza a extender. La eficiencia, mal gestionada, puede matar tu capacidad de adaptación y con ello sacarte del mercado. — Modelos mentales fosilizados. Esto es quizás el mayor combustible al cáncer de una organización. Cuántas veces has oído eso de «hasta ahora mira qué bien nos ha ido, es una mala racha que pasará», «las cosas siempre se han hecho así y han funcionado» o «¿vas a desafiar tú a una industria?». El mayor problema de todo esto es que, como dice Hamel, «el éxito genera dogmas, doctrinas» y salirse de ellas es muy difícil. Antes de ello, parece que preferimos la muerte. El problema del dogma y de creerse «el gallo del corral» precedido de un éxito «pasado» es que esta tipología de ejecutivos se dedica a matar, sin compasión, toda idea nueva que desafíe su statu quo. Estos killer son verdaderos tapones para progresar en una empresa (en cualquier organización público/privada). — Recursos abundantes. Hemos aprendido en este boom de crecimiento sin precedentes, alimentado con la gasolina crediticia, que cuando hay «abundancia», aunque sea una percepción más que una realidad, te conviertes en perezoso. ¿Para qué voy a pensar en ideas nuevas cuando estoy vendiendo y todo me va bien? ¿Para qué voy a enfrascarme en romper el puzle de mi modelo de negocio y testar nuevas opciones si mi cuota de mercado sigue creciendo? — Satisfacción y derechos adquiridos. En este ámbito también resulta muy habitual, cuando hablas con emprendedores de éxito, creerse que estabas predestinado a ese éxito y que, como te ha ido bien antes, ya no te puede ir mal. Parece que una vez creado algo, basta con gestionarlo... Pero eso está lejos de la realidad. «Se necesita mucha más imaginación y valentía para construir algo que para dirigir algo, y quizá más esfuerzo para cambiar algo..., un punto que los burócratas de carrera rara vez comprender». suelen La arrogancia y la complacencia de muchos directivos pueden crear una metástasis del cáncer en cualquier organización. Nos duele pensar que hay empresas tomando decisiones en 2014 que deberían haberse tomado hace seis o siete años. No sólo tomamos decisiones «hacia delante» sin asumir el coste de la reversibilidad, sino que también nos cuesta asumir que esa demanda perdida no volverá, al menos la misma y en las mismas condiciones. Tenemos que asumir la dureza de que, más veces de las que creemos, «cuando las organizaciones mueren, lo hacen por suicidio, tanto por las decisiones tomadas como por las no tomadas». No podemos olvidar que «toda organización debe volver a ganarse continuamente su derecho a existir, ya sea un instituto público de nuestra ciudad o la General Motors». Mal vamos, y ahora mismo estamos pensando en muchas empresas del sector bancario, cuando su longevidad depende más de la protección que de su capacidad de resiliencia. ¿Bajo qué principios están forjadas nuestras empresas? Cualquiera de nosotros los reconoce: el control, la disciplina, la responsabilidad, la fiabilidad y la previsibilidad. Pero ¿es esto suficiente? Sobre la base de los trabajos de Abraham Maslow, hay seis niveles de capacidades humanas imprescindibles. De un bloque tres: la obediencia, la diligencia y la competencia; todas ellas necesarias, y las podemos hacer cumplir fácilmente (si no vas a trabajar, te despido). La diligencia es más difícil, pero es una capacidad que se puede incentivar para crear empleados que trabajan duro por satisfacer (ciertos) objetivos. «No se puede construir una organización ganadora con empleados indolentes». Está claro que la competencia y la experiencia son un grado, y a veces un grado imprescindible. Toda gran organización que se precie quiere a los más formados, a los más experimentados y a los que estén con «hambre» por saber más y llegar más alto. ¿Dónde está el problema? En que «la obediencia, la diligencia y la competencia se están convirtiendo en bienes de consumo globales». Cada vez es más difícil diferenciar a las empresas o a las instituciones sólo por estas tres capacidades humanas. Tener trabajadores puntuales, que sepan desempeñar sus tareas y que tengan buenos incentivos económicos es cada vez menos diferenciador. Son mínimos indispensables para sobrevivir. Y si estamos especializados en tareas muy automatizadas (tocar el botón), se abre la puerta para que personas formadas en cualquier parte del planeta (con sus dotes adecuadas de obediencia y diligencia) las puedan hacer, y siempre hay alguien que tiene todo esto a un coste menor que tu empresa. Se necesita un paso más, algo que cree organizaciones singulares. ¿Qué más? Hay que escalar en esa jerarquía de capacidades. El nivel 4 es la iniciativa. Existe una gran diferencia entre tener o no trabajadores que ante un problema actúen, vean una oportunidad de mejora, y que no esperen a que les digan qué tienen que hacer. Si a esta iniciativa se le une la creatividad, subiremos de nivel, porque en este caso tendremos empleados que «están a la caza de grandes ideas para desafiar lo que tienen entre manos en su día a día» y mejorar con ello toda la organización. En la cima de estas capacidades humanas está la pasión. Cuando se logra que los empleados «sientan su trabajo como una vocación, como una manera de establecer una diferencia positiva en el mundo», algo grande, sorprendente, se puede construir a partir de ahí. «En una organización donde prima la pasión, los empleados no están presentes, sino comprometidos». ¿Cómo se escala de la obediencia, la diligencia y la experiencia a la iniciativa, la creatividad y la pasión? ¿Se escala a través del dinero? La iniciativa, la imaginación y la pasión son dones, no los puedes comprar. Las personas deciden (la gran mayoría por motivos intrínsecos) si van a ir a trabajar o no equipadas de estos dones. Y es ahí donde entra el gran reto de los líderes, de los que emprenden y de todo aquel que quiera crear algo de futuro. «Hoy la tarea más importante para cualquier gestor consiste en crear un ambiente de trabajo que inspire una contribución excepcional; que justifique un flujo de pasión, imaginación e iniciativa». Su trabajo como ejecutivo no sólo es pagar las nóminas y definir las tareas (medirlas y optimizarlas), hay que ir más allá. Hay que crear un ecosistema interno que extraiga lo mejor de cada uno de nosotros. Burocracias absurdas, rigidez de protocolos, normas que se acumulan y solidifican, y mantenimiento del statu quo por encima de todo constituyen aspectos que no ayudan a crear estos ecosistemas, más bien los destruyen. ¿Tienes que reinventarte, sobrevivir, crear desde las cenizas donde te encuentras? Pues usa lo que tienes ahí, a tu lado. ¡Usa a tu equipo, a tu red, agárrate al talento que tienes cerca! No vas a resolver tus problemas llamando a una empresa que te diga qué mejorar (y pagarle una gran suma de dinero) o refinanciando tu deuda dos años más. Necesitas algo más... Y hay algo que no cuesta dinero, sino esfuerzo, humildad y ciertas habilidades: trabajar con tu equipo, con las personas que aún mantienes, que saben, que tienen experiencia y están formadas. Que están desmotivadas porque se ven en el pozo (como su mánager), pero que quieren luchar por su futuro (como su mánager). Aliarse con ellas, escuchar, ceder responsabilidad, abrir la mente y tratar de encender la chispa de la imaginación, iniciativa y pasión que todos (sin excepción) tenemos. Si das ese paso, igual esas cenizas esconden, en realidad, carbón vegetal... Los vectores para la gestión de la complejidad ¿Qué vectores constituyen la complejidad? Un grupo de investigadores y de practitioners del management (profesores como Daniel Serra, de la Universidad Pompeu Fabra, o Fernando Larraín, de la Universidad Diego Portales, o consultores como Joan Cortés, director de Lead To Change) estamos trabajando con una complejidad expresada en nueve vectores: tecnología, innovación, mercados, personas, comunicación, geopolítica, finanzas, operaciones, Big Data. El trabajo práctico sobre cada uno de los vectores permite definir una agenda estratégica (en aquellos ámbitos donde una mínima estabilidad permita programar y desplegar acciones) y una agenda de innovación (en aquellos otros donde la incertidumbre o la aceleración de los cambios no dé tiempo a la planificación y requiera exploración). La agenda estratégica combinada con la agenda de innovación basada en dinámicas de gestión de la complejidad ofrece posicionamientos estratégicos más ágiles y capacidades para gestionar el cambio interno y obtener mayores resultados de las sistemáticas de innovación. La complejidad no es una elección. Hacer de la complejidad una oportunidad es la única opción estratégica, pero requiere de nuevas habilidades, nuevos esfuerzos y nuevas herramientas. Los nuevos paradigmas y el talento La resolución de la complejidad no vendrá de las máquinas, sino de las personas y de su destreza para dialogar con máquinas inteligentes, sin duda. («Las máquinas pueden hacer bien la siguiente cosa, pero se necesita un ser humano para hacer la siguiente cosa bien», decía Dov Seidman en el Global Drucker Forum de Viena 2014). En las organizaciones convive gente de talento que tiene un rendimiento sostenido por encima de la media y lo demuestra con resultados. Gente que tiene altibajos. Dependiendo de los equipos o proyectos a los que está vinculada y de su situación personal, ofrece más o menos valor a la organización. Y también hay gente que no se sabe exactamente cómo entró en la organización, pero de la que todo el mundo sabe que nunca se irá. Estos últimos no son los percibidos como profesionales de talento. Una organización deberá intentar tener capacidades demostradas y constantemente entrenadas para enfrentarse a lo incierto, a lo diferente, y a visionar el futuro. Ser capaz de generar síntesis estratégicas, soluciones operativas e innovaciones que mantengan la carga de diferenciación ante sus clientes. Las empresas, para resolver la complejidad en la que estarán inmersas, deberán saber desplegar todo el potencial de sus personas. Es imprescindible, para ello, promover iniciativas que favorezcan el crecimiento de sus profesionales. ¿Y de qué modo? 1. Fomentando una lógica en la que gestionar no esté separado de aprender y de convivir. La meritocracia se debería basar en permitir avanzar más rápido a los que concretan su talento en resultados y que, además, ayudan a crear climas de convivencia profesional positivos. 2. Entendiendo que talento no consiste en exhibir brillantez entre diletantes, sino resultados entre expertos. 3. Estableciendo cadenas de confianza y responsabilidad. Afuera se compite y se colabora, y dentro también, pero con sentido y empatía. 4. Definiendo retos que desborden silos, que favorezcan transversalidades imprescindibles donde antes solamente había aislamiento entre unidades. 5. Concibiendo el liderazgo como servicio, como la palanca que facilita que cada persona dé lo mejor de sí. Un liderazgo que fundamente el carisma en el ejemplo y en una lógica de los hechos que además deben ser comunicados de un modo atractivo, ilusionante. 6. Acostumbrando a las personas a pensar solas y a razonar en equipo (razonar en grupo no es lo mismo que razonar en equipo). 7. Haciendo de la complejidad algo natural que se resuelve naturalmente en equipo, con el esfuerzo y las energías de todos. 8. Buscando trascendencia al trabajo, ensayando que, además de los objetivos económicos que hacen sobrevivir y crecer a una empresa, existen objetivos de carácter social. 9. Haciendo que la jerarquía sea vista como la estratificación de la responsabilidad más que como una cadena de poder y prebendas. A más responsabilidad, más servicio y más necesidad de basarla en el respeto, en la capacidad de inspirar a los demás. 10. Compatibilizando crecimiento personal con resultados compartidos. Todo se derrumba sin resultados. Las holocracias o dan resultados o son un espejismo. Huir del cortoplacismo Las empresas tienen cuatro grandes stakeholders: clientes, accionistas, empleados y la propia sociedad. Quienes optaron por priorizar por encima de todo el valor para el accionista acabaron por centrarse en el presente y por buscar los negocios más especulativos posibles. Quienes piensan en su perduración, buscan el equilibrio entre su orientación al cliente y a sus empleados, así como en una lógica retribución a sus accionistas que sea compatible con apostar por la diferenciación y la capacidad innata de sus equipos para el emprendimiento corporativo, aunque no den resultados en meses sino en años. Además, las organizaciones que piensan en perdurar se saben una comunidad dentro una comunidad mayor: la sociedad. Y comparten con Drucker la idea de que no existen negocios sanos en una sociedad insana. Una parte de la complejidad a la que se enfrentan las corporaciones es que el diálogo con la sociedad será un factor determinante para su posicionamiento. Las empresas que sepan resolver estos desafíos no solamente ofreciendo estrategias solventes, sino también compaginándolas con la creación de valor para la sociedad tendrán más capacidad de atraer talento, de motivar a sus empleados y de aparecer como auténticas ante sus clientes. Innovación más que planificación Toda organización que tenga capacidad de innovar resolverá mejor la complejidad. Es difícil pensar que el viejo paradigma de la planificación pueda ser útil en un mundo que cambia y cambiará más rápido que la capacidad de planificar. Deberemos pensar mucho en estrategia, pero mucho menos en planificación. La innovación será el mecanismo natural de establecer un diálogo fructífero con un contexto que cambia aceleradamente y de modo poco previsible. La innovación empezó dentro de las empresas como una culminación de la lógica de I+D. Más allá de los resultados cocinados en los departamentos de I+D, muchas organizaciones siempre tuvieron a alguien que aportó genialidad para captar las necesidades de clientes anticipadamente o para sacar punta a las tecnologías de los otros. Pero los inicios de la innovación eran de puertas adentro. Mucho más adelante llegó internet y consolidó un entorno de conocimiento compartido. Todo cambió y se instauró la innovación abierta. La innovación se definió entonces más como la capacidad de aplicar ideas, más que sólo de crearlas. Además, no era tan importante que las ideas nacieran dentro de la propia organización; lo importante era saberlas concretar y aplicar (rápido). Simplemente la innovación abierta propuso algo lógico: combinar talento interno con talento externo. Pero la innovación abierta también ha evolucionado. Dado que muchas empresas tienen graves dificultades por hacer avanzar ágilmente sus proyectos de innovación y de superar sus reticencias internas al riesgo, algunas han buscado acercar emprendedores y pymes a sus retos de cambio para que existan lógicas de innovación más abiertas y más ágiles en el entorno corporativo. Se han creado perímetros en los que emprendedores, startups y pymes desarrollan proyectos más o menos monitoreados por una gran empresa que los convoca a resolver sus retos estratégicos y a generar más y mejores propuestas de valor para sus clientes. La relación entre grandes y pequeños no siempre es fácil, como tampoco lo es equilibrar las expectativas de cada uno, pero cada vez hay más experiencias de este tipo de innovación-emprendimiento corporativo. Estos espacios se han consolidado en programas muy conocidos de algunas grandes corporaciones que, a veces, han generado más ruido que resultados, pero que han marcado tendencia. Además, la relación con las estructuras clásicas de la empresa grande no siempre ha sido fácil ni comprendida; a pesar de ello, este tipo de iniciativas no para de proliferar. Este perímetro de innovación más reciente también está evolucionando. Algunas grandes compañías ya no convocan retos ni buscan a quien los ejecute desde fuera, simplemente crean espacios para que emprendedores con alta capacidad para crear futuro se instalen en ellos. Buscan equipos externos, normalmente en pequeñas startups, que sigan sus propios proyectos de innovación y emprendimiento aunque no tengan una relación directa con sus retos. ¿Para qué? ¿Con qué objetivo? Para monitorizarlos desde lejos o desde cerca, depende del caso, pero también para entender mejor las lógicas de las nuevas propuestas de valor, para tener un laboratorio de modelos de negocio cerca del que aprender y para acelerar, por supuesto, aquellas oportunidades que les parezcan de más impacto para su futuro. Gestionar la innovación en la empresa es gestionar un espacio cada día más abierto, que puede incorporar los antiguos centros de I+D, pero que va mucho más allá. El nuevo perímetro de innovación es más abierto y relacional que nunca, supera de largo las antiguas fronteras corporativas. Gestionar la innovación es estar con un pie en la empresa y un pie en el mundo. Lo que pasa fuera es tan importante como lo que pasa dentro, o más. Por descontado, las lógicas internas continúan y deben vigorizarse, pero su mirada y su inspiración no es solamente interna. A más complejidad, más estrategia Si la complejidad no es una opción, la estrategia tampoco. Deberemos continuar definiendo objetivos a los que dirigirnos aunque los contextos se muevan aceleradamente. Sin una visión estratégica que compartir no es posible alinear. La complejidad revitalizará la estrategia. Deberemos aprender a vivir con más estrategia y menos planificación. Los valores, la misión y la capacidad de adaptarnos y de innovar serán los cuatro costados del perímetro corporativo y definirán una cultura en la que las empresas serán más factorías de oportunidades que de productos y servicios. Las oportunidades, por descontado, se concretarán en productos y servicios, pero que éstos perduren o perezcan dependerá de los clientes y de los contextos, más que de las inercias y las trayectorias. Las empresas serán comunidades profesionales especializadas en definir y aprovechar oportunidades. Para ello, deberán ser capaces de intentar cambiar tan rápido como el mismo cambio (parafraseando a Hamel). Lo complejo es distinto de lo complicado. Cuando algo es complicado, presenta gran dificultad resolverlo, pero cuando se entiende su intricada lógica finalmente se supera la complicación. Lo complejo implica que las lógicas se modifican con gran frecuencia, con lo que buscar lógicas complicadas pero repetidas no conlleva la solución. La complejidad no se presenta simplemente como un torrente de datos fuera del alcance de la mente humana, sino como la conexión de lógicas que definen patrones que cambian con gran asiduidad. Necesitamos apoyarnos en máquinas capaces de analizar grandes volúmenes de datos, pero además debemos entrenarnos en hacer síntesis estratégicas sincrónicas a la detección de los cambios que percibimos. Las formas de tomar decisiones cambiarán; las formas de observar la realidad serán más híbridas; las inercias se debilitarán, y la innovación intentará resolver en cada momento las nuevas necesidades percibidas añadiendo valor desde la máxima simplicidad posible. Nuestro reto será desaprender lo que sabemos de una buena parte del management clásico y producir uno nuevo adecuado a la nueva realidad de complejidad, de aceleración de los cambios, de innovación disruptiva. A pesar de su potencia deslumbradora, las máquinas no resolverán la complejidad. Serán las personas, los mánagers de nueva generación, quienes sabrán definir visiones potentes y sintéticas con las que alinear a sus colaboradores, y convertirán las empresas en factorías de oportunidades más que en fábricas de un producto o un servicio concreto. No hay tiempo para el descanso ni para los planes preestablecidos, y de ahí que haya que desarrollar una gran capacidad de adaptación; como diría Steve Jobs, «leer los renglones de textos que aún no están escritos». Y para esa adaptación se requiere audacia, rapidez y capacidades analíticas para aprender de los errores y poder construir sobre ellos. Decidir bien, cultivar la voluntad y la disciplina y tener una gran capacidad analítica, pero conectada con la creatividad, es algo que se tiene que trabajar de forma muy constante. La complejidad supone más estrategia, más decisiones, más innovación y más talento alineado y con gran capacidad de adaptación y cambio. El nuevo management se está construyendo y no es predecible, ni lineal. Duda de pócimas mágicas, de soluciones enlatadas, de la tontería. Tener resultados no es fácil. Construir comunidades profesionales versátiles con un ADN de cambio natural es un gran reto. Saber adaptarse para crear un valor que el cliente perciba como único está al alcance de pocos. Luchar contra esas burocracias que nos crecen sin querer es muy duro. Equilibrar los intereses de clientes, empleados, accionistas y de la sociedad en un mapa de resultados que ofrezca outputs económicos y otros sociales es todavía más complicado como para que las cosas no sean verdad. El management que está contra la tontería lo hacen líderes auténticos que piensan por cuenta propia, con estrategias que prueban rumbos que no son lineales, en escenarios de comunicación poliédricos e iniciativas de innovación sin sordina. Estar contra la tontería es huir del gatopardismo (que todo cambie para que todo siga igual), es entender que si el cambio es una tontería, si no transforma realmente nuestras empresas, gesticulamos más que gestionamos. En definitiva, no te fíes de un economista, o un mánager, que no dude. Epílogo JAVIER GARCÍA, ANDRÉS ALONSO Y ABEL FERNÁNDEZ Si preguntas a dos economistas, tendrás dos opiniones, a menos que uno de ellos sea lord Keynes, en cuyo caso tendrás tres opiniones. JOHN MAYNARD KEYNES Si has llegado hasta aquí, esperamos haberte transmitido una idea por encima de todas: la economía es, de entre muchas, una forma de ver el mundo. Los economistas hemos ido tejiendo una lógica realmente potente con la que tratar de comprender los fenómenos complejos. Es una lógica que no es perfecta, como cualquiera que trabaje con los instintos y los comportamientos humanos. La mayoría de las veces no aporta respuestas unívocas, sino que invita a dudar, a ver los problemas usando un «bisturí» distinto, pero creemos que realmente útil. Da igual tu profesión, nuestro objetivo era aportarte un rato de reflexiones, ideas y enfoques distintos, y esperemos que te haya resultado entretenido e interesante. Queremos acabar con un «postre variado». Un ejemplo de las reflexiones que nos han llevado a crear Sintetia.com y, gracias a ello, a tener esta gran oportunidad para poder compartir reflexiones contigo. Nos vemos en las redes y en nuestro espacio de mentes inquietas. No hay buena economía sin economistas que duden La cita de Keynes con la que iniciamos este epílogo, lejos de ser incoherente, es una demostración de su genialidad, consciente de sus aptitudes, pero también de los límites de la ciencia económica. Pregunta a un economista cualquiera qué pasará si se produce una situación concreta. Los más rigurosos usan una lógica fundamental en economía, responder a partir del supuesto de que el resto de variables del sistema permanece inalterado. A esto se le conoce con el nombre de ceteris paribus, es decir, asumir que cuando cambia una circunstancia todo lo demás permanece constante. Por ejemplo, ¿qué pasa si sube el precio de la leche para bebés de una determinada marca? El economista te dirá que, ceteris paribus, su demanda bajará. Por supuesto, en un caso tan sencillo es fácil suponer que el resto de variables de nuestro problema no cambiará: los gustos de los padres por adquirir una leche «buena y económica» serán más o menos los mismos, así como el número de marcas a las que tendrán acceso para sustituir una por otra o la legislación sobre las propiedades nutricionales de la leche de fórmula. Pero ¿y si no es así de fácil? Algunos de los que somos padres y economistas lo hemos comprobado y hemos escrito sobre ello: en una misma marca de leche para bebés, en dos farmacias distintas y separadas por menos de 500 metros, los precios pueden variar más de un 40 por ciento. ¿Cómo es posible que los precios no sean iguales entre las dos farmacias? ¿Cómo es posible que alguien compre la misma leche a quien, a pocos metros, la vende a un precio muy superior? La razón es que el ceteris paribus no es suficiente, ni tampoco lo es suponer que los mercados son perfectos, la información fluye de forma rápida o, por ejemplo, que los padres compran la leche, cueste lo que cueste, en su farmacia sin «escatimar nada a sus hijos». Sea lo que sea, hay una realidad indudable: los mismos productos (no sólo leche para bebés, sino también juguetes, bolígrafos, carne fresca o un coche...) no tienen los mismos precios, porque tampoco es único el cliente, ni la información es perfecta... La economía real es más compleja de lo que parece. Por todo ello, el análisis bajo el supuesto del ceteris paribus y su asunción como verdad inquebrantable es un buen ejemplo de los límites de la ciencia económica. Las relaciones entre los agentes económicos, que no dejan de ser personas, son tan complejas que debemos apoyarnos en una simplificación (aislamiento) de los sucesos para poder «modelizar» y comprender dichas relaciones. Es cierto que somos capaces de construir modelos de comportamientos mejores y más sofisticados que ayudan a entender el comportamiento de muchas variables, pero dichos modelos siempre estarán construidos y verificados estadísticamente en función de datos pasados. Es importante recordar a menudo la frase de uno de los mejores economistas de nuestro tiempo, Xavier Sala i Martín: Ser economista es como conducir un coche mirando por el retrovisor: si la carretera es recta y no giras el volante, no pasa nada y todo el mundo piensa que sabes lo que haces. Ahora bien, si giras cuando no hay curva o tiras recto cuando la hay, te vas directo a la cuneta y la gente se ríe de tu incompetencia. Eso es exactamente lo que pasa con los modelos econométricos de predicción, por más sofisticados que sean. En cambio, si por algo se define la realidad con la que tiene que trabajar cualquier profesional (no sólo economistas, sino también médicos, sociólogos, periodistas, ingenieros...), es que circulamos por una carretera llena de curvas absolutamente nuevas. Por lo tanto, cualquier economista que intente explicar el futuro sin dudar de su predicción tendrá problemas de fiabilidad. Como Keynes, debemos ser conscientes de que nuestro análisis se basa, en algún punto y por muy pequeño que sea, en que muchos aspectos seguirán comportándose como hasta hoy. Por lo tanto, un economista siempre deberá contestar con una «cláusula de descuelgue» o disclaimer. Veamos unos cuantos ejemplos que pueden sintetizar muy bien el espíritu de este libro. El rescate a los bancos, ¿una única solución? Déjanos que entremos por un momento en un tema de cierta profundidad de economía, y que ha sido crítico en España. Nosotros hemos debatido mucho sobre ello en Sintetia, y a veces ha resultado muy contraintuitivo. La pregunta clave es: ¿debemos dejar caer a un banco? En esta crisis se han podido leer múltiples entrevistas de analistas muy válidos que aportan datos con los que afirman que se podría cerrar cualquier banco de España y no pasaría nada porque habría dinero privado suficiente para soportarlo. De nuevo, una afirmación bajo el supuesto de que todo seguiría igual antes y después de un determinado suceso, en este caso la quiebra de un banco. Sobre el papel y con el ceteribus paribus escondido, decimos que, por ejemplo, el Banco X dispone de suficientes accionistas y bonistas subordinados (inversores privados) como para absorber toda su potencial pérdida en activos tóxicos; por lo tanto, podríamos dejarlo caer y no pasaría nada. Si esto es así y ocurre para todas las entidades, ¿por qué invertir dinero público en este rescate? ¿No es suficiente con el dinero privado y la pérdida de los accionistas? Si quiebra el Banco X, por ejemplo, lo más probable es que no quiebre él sólo, sino que arrastre una serie de consecuencias. ¿Cuáles? No lo sabemos, y debemos decirlo. Son impredecibles, pero algo pasará cuando pierdan dinero como accionistas grandes aseguradoras, que saldrían de España, o fondos soberanos, que dejarían de apoyarnos en otras inversiones, o multitud de individuos de rentas medias que quebrarían, y los proveedores de éstos, por ejemplo. Cuando los efectos colaterales de la quiebra de un banco son enormemente grandes decimos que un banco es «sistémico» o demasiado grande para quebrar. Pero lo peor de esto es que el concepto de sistémico es algo desconocido hasta que sucede. No podemos afirmar que algo es sistémico o no hasta que se produce la circunstancia que lo puede desencadenar. Por eso, decir que un banco tiene dinero suficiente para cubrir sus pérdidas de manera privada no es suficiente para defender que debemos dejar quebrar ese banco. Cuando se rescata a un banco, no podemos quedarnos con la simplificación de una única pregunta del estilo: ¿hay dinero en manos privadas para cubrir eso? La pregunta relevante sería: ¿qué estimamos que pasará si quiebra el Banco X? Y esa predicción del futuro es lo que resulta realmente complejo estimar, y mucho más si asumimos el «todo permanecerá igual salvo esto que muevo». A veces, el mal menor es salvar (injustamente) a los accionistas, por la incertidumbre del caso contrario. Con esto no defendimos en España durante los momentos más duros que no se debía dejar caer a un banco. Ni mucho menos, puesto que se pueden hacer estimaciones de los efectos colaterales; hay mucho trabajo académico sobre esta cuestión, y posiblemente podría haber tenido sentido económico dejar caer a algunos bancos en España, ¡aunque no a todos! Pero, con seguridad, la crítica al rescate público de los bancos no puede ser tan sencilla como «estamos salvando a los accionistas». Si un economista lo tiene difícil, si además es gobernante, más. Piensa en la dura decisión de los distintos técnicos y ministros de Economía cuando valoraron en España un segundo gran rescate, que al final no se ha producido. Con el rescate se esfuma una incertidumbre: la de si nos darán el dinero o no (está claro que si nos rescatan, nos dan el dinero). Pero ¿sabe alguien cómo sería España con condicionalidad europea? ¿Sabe alguien qué percepción tendrían los inversores extranjeros de esta «nueva España» tras el rescate? No es fácil saberlo, y mucho menos con antelación. Aquí no se pueden hacer experimentos naturales. Recuerda el capítulo de Abel Fernández sobre esta cuestión. Es muy difícil estimar que el efecto de un rescate será indudablemente positivo, a pesar de que es indudablemente positivo el hecho de que le den dinero a uno. Vivimos tiempos demasiado nuevos como para simplificar los análisis. Tenemos una tendencia absoluta a los 140 caracteres, a los titulares, a lo corto y breve y a no entrar en el detalle. Pero resulta que necesitamos detalle. Necesitamos explicar las cosas. En esa explicación es donde surgen las dudas, donde no todo es blanco o negro. Es en el detalle donde se ponen las cosas «difíciles» y donde sudamos para acotar una verdad, que siempre es escurridiza. Ningún economista serio al que se le pregunte debería pasar por alto los posibles pros y contras de aquellas acciones que supongan lo que se denomina «un cambio del estado de la naturaleza»; es decir, cuando el modelo antes y después de un suceso cambiará con una probabilidad distinta de cero. Por lo tanto, toda respuesta debe llevar asociado un componente de probabilidad. El famoso «yo creo que» o el conocido «puede que». O, como dirían los estadísticos, «no podemos descartar que». Siguiendo el ejemplo de Sala i Martín, esto sería como conducir mirando por el retrovisor y estar en un cambio de rasante. Imposible tan siquiera imaginar lo que tenemos por delante. Sólo con extrapolar del pasado no conseguiremos nada... El coche va a dar un salto, y es incorrecto suponer que caerá de nuevo en la carretera, tenga ésta curvas o no. Mantenemos, por lo tanto, la definición de Sala i Martín sobre la labor de un economista: «Mi trabajo como economista no es adivinar el futuro, sino diagnosticar problemas económicos y encontrar e implementar soluciones». Quizás es bueno recordar con humildad nuestras limitaciones a la hora de participar en debates que son extremadamente complejos de analizar. Como diría el gran Tim Harford en su libro Adáptate:[22] «La complejidad de la sociedad que hemos creado para nosotros nos envuelve de tal manera que, en vez de aturdirnos, nos parece lo más normal del mundo». Pero esa normalidad es eso, sólo una apariencia. Cuando hablamos de tecnología... los economistas pensamos en recetas El crecimiento económico se produce cuando la gente coge los recursos y los reordena para que sean más valiosos. La cocina nos ofrece una metáfora muy útil en economía. Para crear un producto final valioso, mezclamos productos baratos siguiendo una receta. Lo que se puede cocinar depende de los recursos disponibles y la mayoría de la cocina que se puede hacer en economía acaba teniendo efectos secundarios poco deseables. Si el crecimiento económico pudiera alcanzarse simplemente cocinando más y más de la misma comida, acabaríamos agotando las materias primas y sufriríamos niveles inaceptables de contaminación y molestias. No obstante, la historia nos demuestra que el crecimiento económico aparece cuando se mejoran las recetas, no cuando nos limitamos a cocinar más. Las recetas nuevas suelen producir menos efectos secundarios y generan más valor por unidad de materia prima. Esta cita, aunque larga, creemos que pertinente; es de Paul Romer, profesor de la Universidad de Stanford, pionero en el campo de las teorías del crecimiento endógeno, donde las ideas y la innovación son los condimentos base. La cita ha sido obtenida de otra obra clave, Las ciudades creativas, de uno de los autores que más y mejor ha comprendido la complejidad del crecimiento económico en el siglo en que vivimos, Richard Florida. Si los siglos XIX y XX se forjaron con la revolución industrial, el siglo XXI lo hará con la «economía de las ideas». Y uno de sus máximos exponentes científicos es, posiblemente, el propio Romer. Se le conoce por la revolución de sus trabajos de investigación, que encontraron las relaciones que existen entre las ideas, la innovación y los incentivos que conducen al crecimiento económico de un territorio. Una forma muy entretenida y divulgativa de conocer los trabajos de Romer es ver la película de Marc Abraham Destellos de un genio.[23] Se trata de un filme basado en una historia real, la de un ingeniero, profesor, que resolvió un problema técnico que tenían los limpiaparabrisas de los años sesenta. Patentó la idea y Ford, la gran multinacional de aquellos años, se la copió con coste cero. La batalla legal fue dura: doce años. Hay una escena realmente interesante. En el juicio, la idea principal que defendía Ford es que ninguno de los componentes usados por el ingeniero para su invento era nuevo. Nada era nuevo, todos los componentes estaban inventados; el ingeniero sólo los había combinado «de otra forma». Por esta combinación, si bien había arreglado el problema, Ford consideraba que no habría por qué «compensar» al ingeniero. El ingeniero, que se representaba a sí mismo, reaccionó de forma brillante, igual que lo haría Paul Romer. Sacó un libro y un diccionario y empezó a decir palabras al azar al jurado. Todas las palabras que iba dictando también estaban escritas en una novela de Charles Dickens. Y con ello trató de demostrar que lo que hacía a Dickens brillante como creador literario era cómo usaba las palabras, cómo las combinaba e hilvanaba para crear verdaderas obras de arte singulares. Este ejemplo nos muestra varias cosas: i) la verdadera innovación se forma en un remix, como ya decíamos en la introducción de este libro; ii) lo importante para generar progreso y riqueza está en cómo se combinan los recursos para generar más y mejores productos y de una forma mejor; iii) ¿y cómo se encuentran nuevas formas de combinar recursos e ingredientes? Creando ideas para convertirlas en progreso. Las ideas, tomando prestado el ejemplo de Romer, son como las recetas de cocina. Dados unos ingredientes, puedes conseguir múltiples platos. Y disfrutaremos de una mejor gastronomía cuantos más platos seamos capaces de crear con esos ingredientes. Donde los ingenieros ven bits, los abogados contratos o los físicos fórmulas, los economistas vemos recetas. La clave para crecer está en crear más recetas, nuevas formas de combinar lo que tenemos para crear cosas nuevas. Y para crear cosas nuevas, hay que pensar siempre en incentivos. Y es aquí donde se precisan aportar lógicas diferenciales. Veamos un ejemplo: El 40 por ciento de la población mundial no tiene acceso a un inodoro, y dicha carencia supone la muerte anual de 1,5 millones de niños por la ingestión de alimentos contaminados por aguas fecales, cifra muy superior a las muertes causadas por el sida y la malaria. ¿Cómo es eso posible unos 240 años después de que Alexander Cummings patentase su invento en Inglaterra? Aunque el inodoro es una de las tecnologías que mayor impacto ha generado en el bienestar de las personas a lo largo de la historia, la carencia de infraestructuras de canalización, inasequibles para muchos países de renta baja, ha imposibilitado su adopción completa. En un importante esfuerzo para conseguir instalar inodoros allí donde las infraestructuras no lo permiten, la Fundación Bill y Melinda Gates destinó el año pasado 3,3 millones de dólares a dicha tarea.[24] Para ello se escogieron ocho de las mejores universidades del mundo y a cada una de ellas se le asignó un presupuesto de 400.000 dólares para afrontar el siguiente reto: los equipos de investigación debían inventar un nuevo inodoro que potabilizase el agua tras recibir los desechos, generase fertilizantes, no dependiese de la red eléctrica y tuviese un coste de mantenimiento anual inferior a 5 céntimos de dólar. Un año después, el equipo del Instituto Tecnológico de California (Caltech) se proclamaba ganador, obteniendo un premio adicional de 100.000 dólares. El nuevo inodoro funcionaba con energía solar, que utilizaba para potabilizar el agua y convertir los desechos en hidrógeno y fertilizante, que a su vez se podía utilizar para generar energía eléctrica adicional. El inodoro diseñado es completamente autónomo y tiene un coste de mantenimiento inferior a los 5 céntimos presupuestados. Se trata de un gran avance que permitirá el acceso de los países más pobres de África a un instrumento para combatir el cólera, la malaria, la contaminación de los alimentos y, por lo tanto, luchar de una forma más efectiva contra la pobreza. Este curioso caso real permite explicar algunos hechos diferenciales cuando nos planteemos cómo invertir recursos, públicos o privados, para lograr una verdadera economía de las ideas: En primer lugar, que una tecnología esté «inventada» no implica que no pueda ser «reinventada». Toda innovación suele partir de la combinación de elementos ya existentes —todos los componentes del inodoro de Caltech eran conocidos—, por lo que cada nueva tecnología descubierta abre nuevas posibilidades para la innovación. La aplicación práctica de nuevas innovaciones no tiene por qué depender de nuevos descubrimientos técnicos o enormemente complejos; puede depender también de la combinación de elementos conocidos. En segundo lugar, la historia recuerda el poder de los incentivos. Un buen diseño de incentivos que coloque al talento y los recursos adecuados a resolver un problema concreto puede producir resultados asombrosos. ¿Qué habrían conseguido, en cambio, subvenciones genéricas por valor de 3,3 millones? ¿Son comparables las actuaciones guiadas hacia objetivos concretos con los resultados obtenidos por otras vías, por ejemplo, con las típicas deducciones fiscales a la innovación? El tercer aspecto clave es que la reinvención del inodoro se debe especialmente a la calidad media de las universidades seleccionadas. El talento, el conocimiento y los instrumentos para resolver problemas se cultivan con formación y experiencia, siendo necesario un stock mínimo de capital humano capaz de convertir el conocimiento en soluciones y que éstas puedan comercializarse o distribuirse para el beneficio de la sociedad. La fragmentación de la universidad española y su escasa apuesta por la excelencia van en contra de estos requisitos. En cuarto lugar, merece la pena aclarar que el centro ganador, conocido popularmente como Caltech, se encuentra muy cerca del mayor clúster tecnológico mundial, Silicon Valley, donde el flujo de personas e ideas entre la universidad y la industria es constante y habitual. Pero un clúster de dichas características no se crea en unos pocos años: han sido necesarias varias décadas de concentración de las empresas tecnológicas más punteras a nivel mundial y de un núcleo de universidades que incluye tres de las seis mejores del mundo (Berkeley, Stanford y Caltech). Los próximos años serán especialmente duros para la investigación en España. Pero, aunque las actividades basadas en el conocimiento no podrán liderar a corto plazo la recuperación, son el único camino viable de futuro a pesar de los fuertes recortes que está sufriendo la investigación. Su crecimiento dependerá de una mejor alineación de incentivos — alejándose definitivamente de la subvención no ligada a objetivos—, de una mayor apuesta por la excelencia en la formación superior y de una mayor concentración geográfica de dicho tipo de actividades. ¿Quieres dejar de fumar? Piensa como un economista La respuesta habitual de un economista a la pregunta «¿por qué una persona hace algo en concreto?» suele ser tan coherente como exasperante: «porque el beneficio de hacerlo supera sus costes». Sin embargo, detrás de la aparente tautología se esconde una forma de pensar que suele ir más allá de lo que parece. Reformulemos la pregunta: ¿por qué hay gente que fuma aun sabiendo lo pernicioso que es para la salud? No resulta barato y la principal consecuencia para un fumador es una más que probable reducción de su esperanza de vida. La primera respuesta de nuestro economista interior será: porque el beneficio personal de fumar supera sus costes. En cambio, la respuesta de un no economista sería: se trata de un acto irracional. La discusión sobre la irracionalidad lleva a un callejón vacío, pues todo depende de cuán amplio considere cada uno el espectro de la racionalidad. Así que volvamos al razonamiento económico más básico: ¿qué beneficios y costes afronta un fumador? Beneficios Para un no fumador puede resultar increíble que alguien encuentre placer llenándose los pulmones con los residuos de una combustión (dióxido de carbono, alquitrán, etc.), pero así parecen asegurarlo los fumadores; habrá que creerles. Se podría argumentar que no es cierto: la experiencia con los primeros cigarrillos es desalentadora y el único placer real que se obtiene del acto de fumar es el de calmar la adicción contraída a la nicotina. Aunque dicha afirmación sea cierta, las razones fisiológicas son irrelevantes llegados a este punto: el fumador obtiene placer de un cigarrillo, o así lo percibe, pues ya es adicto a la nicotina. Por otra parte, beneficios clásicos como la determinación de estatus (especialmente entre las mujeres) hace tiempo que se han «esfumado», hasta el punto de que actualmente parecen haberse invertido las cosas. Pasemos por lo tanto a los... Costes El primer coste que afronta el fumador es el monetario. Un paquete diario de cigarrillos (pensemos una media entre cigarrillos de liar y otros de marca de unos 3,5 euros) supone, a lo largo de una edad laboral de dieciocho a sesenta y cinco años y con un tipo de interés real del 3 por ciento, algo más de 130.000 euros reales (es decir, su equivalente a dinero de hoy) como complemento de jubilación. El segundo tipo, el más importante, son los costes de salud. Poco podemos añadir, salvo citar uno de los muchos estudios en los que se revela que los fumadores tienen de media diez años menos de esperanza de vida.[25] Y sin embargo... Los costes parecen muchísimo superiores a los beneficios, y sin embargo en España hay unos nueve millones de fumadores, según el Comité Nacional para la Prevención del Tabaquismo: varios millones de personas valoran más en cada momento el beneficio que les supone fumar que su coste. El problema podría estar en una tremenda subvaloración de los riesgos por parte del fumador. Así lo documenta el libro Smoking, Risk, Perception and Policy, editado por Paul Slovic. Según diversos estudios sobre la naturaleza de las adicciones, el ser humano no reacciona consistentemente en un estado de relajación y ante una repentina necesidad de alguna sustancia adictiva. Otra posible hipótesis es un terrible problema de descuento temporal entre la satisfacción a corto plazo y los costes a largo plazo, una relación que implicaría tasas monetarias de descuento implausibles. Así, un fumador puede pensar que un solo cigarrillo adicional no causa gran daño. Y está en lo cierto, el coste en términos de salud de un solo cigarrillo es muy pequeño. Pero su parte racional sabe algo más. Sabe que cada nuevo cigarrillo perpetúa un estado de adicción. Es decir, el coste en salud está infravalorado pues habría de incluir cómo afecta cada cigarrillo adicional a la probabilidad de fumar, después de ése, otros 10.000 u otros 50.000. ¿Y si invertimos la forma de enfocar el problema? Pensemos en la opción inversa. ¿Cuál es el beneficio y el coste de NO fumar un cigarrillo adicional? El coste es el malestar y la ansiedad que la adicción crea. El beneficio podría verse como la creación de un «stock de superación», la construcción de un activo que podría mejorar su salud y su patrimonio futuro. Así, un fumador no debería pensar que parte con ochenta y un años de esperanza de vida y que «quizá» muera antes por culpa de su hábito. Puede enfocar el problema pensando que tiene setenta y un años de esperanza de vida y que, haciendo un esfuerzo con un aspecto de sus hábitos, puede obtener hasta (i) un complemento adicional de más de 100.000 euros a la jubilación, (ii) una mejor calidad de vida general y... (iii) ¡hasta diez años más de vida! ¿Todo tiene un precio? La filosofía es un gran combustible intelectual, y mucho más para los científicos. No es de extrañar, pues, que en los mejores equipos técnicos del mundo siempre haya alguien «de letras», con fuerte capacidad lógica y con otros puntos de vista. Dudar, pensar y poner contra las cuerdas tus propios axiomas es un gran ejercicio intelectual. Y como hasta aquí hemos hablado de economía, recomendamos que busques a Michael Sandel, profesor de filosofía en la Universidad de Harvard. Sandel imparte desde hace mucho tiempo uno de los cursos más populares en su universidad, Justice, y goza de un estatus de superestrella en países como Japón o Corea del Sur (en una conferencia en Seúl llenó un estadio de 15.000 personas). Acaba de publicar un gran libro, Lo que el dinero no puede comprar,[26] en el que defiende, a partir de su concepción de la ética y la justicia, que los mercados han ido ganando terreno durante las últimas décadas hasta entrar en aspectos que deberían estarles vedados por cuestiones de valores. Y el autor no centra sólo su atención en casos tan evidentes como el tráfico de órganos o la «adopción» internacional de niños, sino que trata ejemplos reales como el de los tickets para entrar en el Congreso de Estados Unidos, la compra por parte de empresas del nombre de estadios deportivos, el acceso a una celda penitenciaria mejor o el derecho a matar un animal. Michael Sandel no es, ni mucho menos, dogmático en su objeción a los mercados, ya que reconoce que allí donde ninguna barrera ética impide su desarrollo han causado un gran bien a la humanidad. Pero defiende que poner precio a ciertas cosas corroe los valores internos de la sociedad y atenta directamente contra los principios de igualdad y justicia. Tanto un rico como un pobre disponen del mismo tiempo y de los mismos derechos en Estados Unidos, por lo que ambos deberían invertir el mismo tiempo esperando en la cola para acceder a las sesiones del Congreso. Así, cuando se permite que los pobres hagan cola para vender su posición en la misma a los ricos, se está erosionando un principio fundamental de la vida en sociedad. No es difícil estar de acuerdo con el principio general que propone Sandel: que el mercado y el sistema de precios no deberían ser los principios rectores de toda la actividad humana. Pero, más allá de los casos evidentes y en los que la mayoría de la gente está de acuerdo, conviene preguntarse qué está fallando cada vez que el mercado «invade» una nueva institución social. Hagamos un sencillo «experimento mental» a partir de la problemática de las adopciones. Se trata de un tema para el cual no hemos encontrado todavía la solución óptima. La sociedad está completamente de acuerdo en que la existencia de un mercado de niños es una aberración que no debe suceder. ¿Y cuál es el estado real de la situación? • Hay familias que abandonan o incluso matan a sus hijos por no poder hacerse cargo de ellos (en los países desarrollados hace tiempo • • que el aborto ha sustituido al infanticidio,[27] pero en los dos países más poblados de la tierra, India y China, aún persiste bajo cifras inciertas el fenómeno conocido como «gendercidio»). Los niños que acaban en orfanatos se enfrentan a procesos larguísimos antes de poder ser dados en adopción. El daño psicológico que sufren los niños que están hasta los tres años en un orfanato es irreversible. • Durante la época en la que el niño debe recibir cariño y protección individualizada, recibe una atención mucho menor a la óptima. El proceso de adopción es realmente largo y al final los niños suelen acabar recalando en familias con perfil profesional de renta media/alta. Un hipotético mercado internacional de niños, el cual suscitaría un lógico rechazo de todas las sociedades, solucionaría muchos de estos problemas. Si la venta fuese legal, en la India no matarían a tantas niñas, sino que las venderían a Europa y América. Lo que hoy es un trámite internacional complejo sería parecido a comprar un iPad: instantáneo, bien empaquetado, legal y seguro. Las niñas sanas de seis meses se venderían, por ejemplo, a 6.000 euros. Las niñas de doce meses, quizá por la mitad. Los niños serían más caros que las niñas por una cuestión de escasez (¡ah, la frialdad de un mercado!). Y, por mucho que a uno le pueda espeluznar lo que hasta ahora ha leído en este párrafo, lo cierto es que dicho mercado existe de una forma no explícita, sino encubierta. Como dice Sandel, es fácil ver que permitir estos intercambios corrompe valores que deberían acompañar al ser humano. Pero la postura ante este problema no puede ser la resignación, y es que las «invasiones» del mercado señalan a menudo instituciones sociales que están fallando estrepitosamente. Cuando criticamos al mercado por invadir un nuevo tipo de intercambio, a menudo hay detrás un grave fallo político que ha sido incapaz de dar solución apropiada a un problema latente. El mercado sólo acude allí donde capaz de solucionar problemas a alguien y este alguien está dispuesto a pagar por ello. En infinidad de aspectos de nuestra vida, las instituciones sociales funcionan perfectamente y el mercado ni se asoma o lo hace marginalmente. Pero cuando el mercado aparece (compra de niños en Asia), es porque la alternativa está fallando. Por horrible que suene, parece socialmente más deseable dos niñas vendidas a dos parejas europeas frente a la alternativa de otras dos niñas muertas o abandonadas indefinidamente en un orfanato en paupérrimas condiciones. Hay una tercera opción, que la mayoría preferiríamos: que ambas niñas sean dadas en adopción, con gran rapidez, a las dos familias del mundo que más amor y cuidados estén dispuestas a darles. El trámite no debería durar dos años, sino dos semanas. Pero los años pasan y el mecanismo apenas mejora, lo que empuja a familias que quieren adoptar un niño a viajar a algún país exótico para «acelerar» los trámites de adopción. Cuando no hay un mercado transparente y regulado, a menudo se crea un mercado negro no regulado y discrecional. ¿Acaso ese mercado negro no socava también nuestros valores? Hay un motivo clave por el cual los mercados invaden tantas instituciones cotidianas: la rapidez y la eficiencia informativa. Para lograr un acuerdo político internacional de «adopciones exprés» serían necesarias infinidad de cumbres en las que muchos países habrían de ponerse de acuerdo, homogeneizar legislaciones, crear organismos públicos para regular todo el asunto y luego más funcionarios en cada país para gestionar las adopciones con rapidez. Y qué duda cabe de que con voluntad y trabajo podría lograrse. Pero la capacidad de trabajo de «lo público» se enfrenta a serios limitantes: construir un conjunto de instituciones nacionales o supranacionales para lidiar con un problema es muy costoso en términos de negociación e incluso presupuestarios. Haciendo este esfuerzo podría solucionarse este problema, pero lo costoso del esfuerzo sigue relegando la adopción a un segundo plano. Por el contrario, frente a la lentitud de la acción política, el mercado es capaz de organizar cualquier intercambio de forma fría y descentralizada. Las preguntas que plantea Sandel son sin duda interesantes, pero no deberían invitar a la inacción o al rechazo frontal al mercado, sino que deberían señalar el camino para la reforma de aquellas instituciones que no funcionan bien o lo hacen parcialmente. Los mercados generan a menudo incentivos perversos y pueden llegar a corromper valores profundos, pero el hecho de esconder dichos problemas no los elimina. Cuando algo así sucede, los ciudadanos deberíamos reconocer que existe un problema en la «institución pública» o «costumbre» que regula dicho problema y exigir una acción política más contundente. ¿Cómo vive un economista una final de fútbol apasionante? ¿Recuerdas cuando la Roja, la selección española, estaba escalando hacia la Eurocopa de 2012? Queríamos compartir contigo cómo vivimos esos días históricos para el deporte español. Este equipo de economistas observaba que la selección había alcanzado su tercera gran final consecutiva tras una fase final relativamente tranquila, sólo perturbada por unos ciertos momentos de agobio frente a Croacia y por una tanda de penaltis contra Portugal en semifinales. No es ningún secreto que la capacidad competitiva de España había dado un paso de gigante durante los últimos años, en los que había acumulado una gran experiencia en partidos importantes: la práctica totalidad de la selección llevaba cuatro años jugando y peleando innumerables «partidos del siglo», finales europeas y mundiales e interminables series de «clásicos» de una extrema presión competitiva. A pesar de su relativa juventud, jugadores como Piqué o Ramos, que en otros países estarían todavía consolidando su juego (recuerda que es lo que pensábamos en 2012), parecían encontrarse ya de vuelta de todas las batallas. No obstante, aunque la experiencia es una ayuda inestimable y el fútbol una disciplina a menudo insondable, existe un aspecto del deporte rey que sí ha sido destripado analíticamente: los penaltis. En primer lugar, y a pesar de la curiosa ignorancia de los comentaristas televisivos, cuando decían «¿Tú que elegirías? ¿Tirar o parar primero?», «¡No sé, creo que me daría igual!», existe una conocida regularidad empírica: el equipo que comienza tirando los penaltis suele ganar la tanda un 60 por ciento de las veces, por lo que el equipo que gana la tirada al aire de la moneda ha de elegir chutar primero. El análisis de la estrategia en las penas máximas va mucho más allá. Ignacio Palacios-Huerta, investigador español y profesor de la London School of Economics, grabó y recopiló durante cinco años datos de 1.417 penaltis lanzados mayoritariamente por futbolistas de las ligas española, italiana e inglesa, utilizando posteriormente dicha base de datos en un influyente artículo científico («Professionals Play Minimax»)[28] en el que examina si los profesionales maximizan sus posibilidades de una forma «estratégica» conforme a los resultados de la teoría de juegos en una situación real. La teoría no es difícil de explicar. Los lanzadores pueden ser diestros o zurdos, y tanto unos como otros tienen un «lado natural» a la hora de lanzar un penalti, puesto que el impacto es más natural con el empeine: los lanzadores diestros lanzan con mayor potencia y precisión a su izquierda, es decir, al lado derecho desde el punto de vista del portero; los lanzadores zurdos golpean mejor hacia su propia derecha, que es a su vez la izquierda del portero. Los porteros lo saben y, en consecuencia, tenderán a tirarse más a menudo hacia el lado natural del lanzador. A su vez, el lanzador no puede lanzar siempre hacia su lado natural, pues ha de sorprender de vez en cuando al portero. ¿Cuál es la estrategia óptima para el lanzador y para el portero? La teoría de juegos muestra que la solución óptima es lo que se llama una «estrategia mixta», en la que el lanzador ha de elegir el porcentaje que hace que la probabilidad de marcar tirando a un lado sea igual a la probabilidad de marcar tirando al otro. Según esta misma estrategia y los datos recopilados por Palacios-Huerta, la solución óptima media es que el lanzador dispare hacia su «lado natural» el 60 por ciento de las veces y un 40 por ciento hacia su lado «no natural». La solución teórica recomienda que el jugador tire más a menudo en aquella dirección en la que tiene más precisión y potencia, pero siempre ha de intentar también sorprender al portero. La solución que maximiza las opciones del portero es, lógicamente, simétrica: deberá lanzarse un 60 por ciento de las veces al lado bueno del lanzador y un 40 por ciento al lado no natural. Importante, estos porcentajes están calculados para la media de jugadores, pero cada caso particular es distinto en función de la diferencia que exista entre el disparo al lado natural y al lado no natural. Así, un jugador con casi la misma seguridad de disparo lanzará casi al 50 por ciento (en la muestra de Palacios-Huerta, es el caso de Mihajlovic, exjugador del Lazio), mientras que uno que tiene una dirección desproporcionadamente más precisa y potente puede llegar a tirar un 80 por ciento de los penaltis en dicha dirección (en la muestra del estudio serían, por ejemplo, Rui Costa, del AC Milan, y Batistuta, de la Roma). ¿Cumplen los jugadores dicha regla de optimalidad (la llamada regla Maximin)? Pues, sorprendentemente, en su mayoría sí. Los jugadores profesionales y los porteros son capaces de elegir los porcentajes de decisión a un lado y otro que igualan las probabilidades de éxito en cada caso. Sólo tres de los 22 jugadores de la muestra (Donosti, del Eibar, Finidi, del Ipswich Town, y Penev, del Atlético de Madrid) parecían no elegir óptimamente su estrategia. El caso más peculiar es el del zurdo Luboslav Penev, el cual, en los 40 lanzamientos del estudio, tiró sólo 16 por su lado natural (¡metiéndolos todos!) e insistía muchísimo más de lo óptimo en su lado no natural, lanzando un 60 por ciento por el mismo... ¡y fallando uno de cada cuatro! Mientras tanto, el maestro absoluto en estrategia era Mendieta, en su época del Lazio, que anotaba el 91 por ciento de los penaltis que tiraba a ambos lados (tirando el 68 por ciento hacia su lado natural y el 32 por ciento hacia el otro). ¿Y los porteros? Pues también se comportan mayoritariamente de forma óptima, igualando en la media las probabilidades de éxito al tirarse un 60 por ciento de las veces hacia el lado natural del lanzador (salvo excepciones como, en la muestra analizada, Juanmi, del Zaragoza, y Dutruel, del Barcelona, que se desviaban bastante). La última consideración teórica es que para que la estrategia descrita sea óptima, las direcciones de lanzamiento han de elegirse de forma completamente aleatoria. Por ejemplo, si dadas las características de disparo de un jugador su estrategia óptima es 70/30 (es decir, que ha de lanzar el 70 por ciento de las veces hacia su lado natural), para maximizar la probabilidad de éxito debería aleatorizar perfectamente antes de tirar; por ejemplo, podría tirar un dado de diez caras en el descanso y lanzar el penalti por su lado natural si sale de 1 a 7 y por el lado no natural si sale de 8 a 10 (no te rías..., es un ejemplo de los estadísticos). Curiosamente, el temido portero de la selección italiana en la Eurocopa de 2008, Gianluigi Buffon, es uno de los porteros de la muestra del estudio de PalaciosHuerta. Pensábamos con ilusión que España tenía una oportunidad porque el portero no parecía ser uno de los porteros que mejor enfocaban su estrategia ante la pena máxima: Buffon se tiraba, en la muestra analizada, desproporcionadamente más hacia su derecha, es decir, hacia el lado natural de los diestros (un 73 por ciento frente a un 27 por ciento). ¿Y por qué no era óptimo dicho comportamiento? Pues porque paraba muchos más penaltis al lanzarse contra el lado no natural (un 25 por ciento) que contra el natural (14 por ciento). Es decir, a Buffon le costaba estimar la probabilidad estratégica óptima de cada jugador y, por culpa de ello, se lanzaba más de lo aconsejable a su derecha, contra el lado natural de los lanzadores diestros. Pero no te dejes engañar, una cosa es que la elección estratégica de Buffon no fuese la ideal y otra cosa es que Buffon fuese predecible. El estudio también verifica esto y muestra que su elección izquierda-derecha no era predecible observando sus últimos penaltis. Es decir, no había patrones en sus decisiones. ¿Qué sucedió en la tanda de penaltis de la Eurocopa de 2008? Por España lanzaron cinco jugadores diestros (Villa, Cazorla, Senna, Güiza y Cesc), los cuales, curiosamente, lanzaron sólo dos de los cinco penaltis hacia su lado natural (Villa y Cazorla, anotando los dos) y tres hacia su lado no natural (Senna, que marcó, Güiza, que falló el suyo, y Cesc, que clasificó a España para las semifinales). ¿Significa esto que los jugadores españoles no escogieron óptimamente? No necesariamente. Recordemos que, para que la estrategia sea óptima, la elección ha de ser completamente aleatoria. Es decir, un equipo no ha de lanzar tres penaltis al lado natural y dos al contrario; sería absurdo, pues el portero sabría hacia dónde debería ir el quinto penalti. Lo que ha de hacer es aleatorizarlo perfectamente, y ahí bien puede suceder que, en vez de un 60/40, el resultado del azar sea 40/60. Es decir, 40/60 es un resultado perfectamente factible, con sólo cinco penaltis, de una estrategia óptima 60/40. ¿Y qué sucedió con Buffon y su excesiva disposición a tirarse hacia su derecha, buscando el lado natural del lanzador? Buffon se lanzó tres veces hacia el lado no natural de los jugadores, parando un penalti, y sólo dos hacia el lado natural, a su derecha, sin parar ninguno. Aparentemente, corrigió aquí dicho exceso tirándose más hacia el lado no natural, pero es imposible saber, sin más información, si dicha elección se debió al azar o a un cambio deliberado de estrategia. ¿Acaso había leído Buffon a Palacios-Huerta y la teoría de juegos sobre la estrategia en los penaltis? Pues una pista clave nos hace dudar mucho de esta hipótesis: para perplejidad de los expertos, Buffon había ganado el sorteo inicial de la tanda, y en vez de elegir lanzar primero..., ¡eligió ponerse él primero bajo los palos! Parece difícil que alguien que no conocía la regularidad más famosa de las tandas de penaltis hubiera analizado la estrategia óptima que ofrece la teoría. Por lo tanto, que Buffon se tirase tres veces hacia el lado no natural de los lanzadores no implica, ni mucho menos, que el meta italiano hubiera corregido su exagerada tendencia a tirarse a la derecha. Por lo tanto, ¿qué recomendábamos hacer a Xabi Alonso, Iniesta, Xavi, Piqué, Ramos o Cesc si el gran partido de España acababa en empate? Para empezar, deberían tener un dado de diez caras en el vestuario. Si al final de los 90 minutos el partido acababa en empate, los posibles lanzadores deberían ponderar la diferencia de naturalidad en su golpeo, es decir, el porcentaje en que acostumbraban a tirar sus penaltis. Quien estuviese muy seguro de poder ajustarlo a su palo natural con fuerza, que le asignase una probabilidad mayor (por ejemplo, un 70 por ciento, un resultado del 1 al 7 en el dado de diez). El que fuese más indiferente, una probabilidad menor (un 60 por ciento o incluso un 50 por ciento). Y a continuación llega la clave de todo el análisis. Si, como sospechábamos, Buffon no había corregido su tendencia a tirarse hacia el lado natural, ¿cómo deberían incorporar los jugadores de la selección dicha información? Pues revisando a la baja precisamente la probabilidad de tirar hacia el lado natural. Así, los que solían elegir confortablemente dicho lado un 70 por ciento de las ocasiones deberían rebajar su probabilidad al 60 por ciento (es decir, tirar por su lado natural si sacaban de 1 a 6 en el dado), y si algún lanzador era realmente indiferente y partía con un 50 por ciento, debería también rebajar su probabilidad a un 40 por ciento (tirar a la derecha del portero sólo si sacaba de 1 a 4 en el dado). La Roja, al final, no necesitó recurrir a la teoría de juegos para ganar (¿o sí?); lo que está claro es que al menos los economistas futboleros apasionados de la teoría de juegos se lo pasan realmente bien ante una oportunidad como una final de Eurocopa o Champions... ¿No conoces la ley de Hotelling? En cuanto la conozcas, tu visión de muchas cosas cambiará Piensa en una playa de tres kilómetros de largo no excesivamente concurrida, en la cual operan desde hace varios años dos puestos de vendedores de helados, frecuentados asiduamente todo el día por los bañistas. El volumen de afluencia nunca ha sido suficiente como para soportar un tercer puesto de venta, y ambos venden las mismas marcas a precios muy parecidos. Es decir, la utilidad percibida por los consumidores es la misma en los dos puestos, por lo que su decisión se basará exclusivamente en la distancia a recorrer para acudir a uno u otro: dado que ambos son iguales, los consumidores sólo buscan minimizar el tiempo perdido en ir a por los helados. Por otra parte, la única decisión que cada mañana pueden tomar los vendedores es el lugar de la playa donde situarse. ¿Cuál es la estrategia óptima de colocación para los mismos? Ésta fue una pregunta clave que se hizo Harold Hotelling y que dio lugar a la publicación, en 1929, de un artículo que revolucionó parte de la disciplina económica, a pesar de que Hotelling era matemático. No podíamos acabar un libro como éste sin hablar de una ley que invita a analizar la realidad con un prisma totalmente diferente. Aunque lo racional, en una playa de tres kilómetros, podría ser que los carritos se colocasen aproximadamente en el kilómetro 1 y 2 de la playa, lo cierto es que éstos tienen, cada mañana, un incentivo muy fuerte a acercarse lo más posible al centro de la playa. Si un carrito está apostado en el kilómetro 2, su competidor podría ganar parte de la competencia acercándose a él, incluso rebasando el centro de la playa. Mientras que para los del lado izquierdo de la playa seguirá siendo el carrito más cercano, algunos de los que antes compraban al carrito derecho tardan menos tiempo en comprarle ahora a él. El siguiente dibujo lo ilustra: Como su competidor no será menos listo, a la mañana siguiente ambos se dirigirán al centro y, probablemente, allí será donde apuesten sus carritos, uno muy cerca del otro. Este equilibrio (que en este sencillo juego es un equilibrio de Nash —otro matemático que revolucionó la lógica económica—, la mejor respuesta a las posibles estrategias de tu contrincante) es conocido como la ley de Hotelling y ayuda a explicar también por qué muchas gasolineras aparecen a menudo de dos en dos. Y a menudo se interpreta también como la razón por la cual los sistemas bipartidistas acaban casi siempre con partidos muy parecidos, luchando por el centro en los asuntos más sensibles para la sociedad y con diferencias reales en cuestiones secundarias o dicotómicas (¿es legal el matrimonio entre personas del mismo sexo?, aquí no caben medias tintas). Pero hay una segunda (e importante conclusión) de Hotelling. El análisis del problema suele acabar en el punto anterior, cuando ahora viene un aspecto realmente importante del mismo. Mientras que en la intuitiva posición inicial parecía minimizarse el tiempo de desplazamiento de los bañistas (en realidad, se minimiza, para una distribución uniforme, en los puntos 1/4 y 3/4 de la playa), con la solución de Hotelling la distancia máxima a recorrer... ¡se maximiza! Es decir, si dejamos competir a los dos carritos, la decisión final es un equilibrio perverso en el que los vendedores de helado ganan lo mismo (¡o menos, si los bañistas de las esquinas prefieren prescindir del helado y de la caminata!) y los bañistas han de caminar más tiempo a por el helado o hacinarse en el centro de la playa, disfrutando de menos espacio. Pero ¿no va este resultado contra las conclusiones clásicas de la economía? Los consumidores eligen con libertad, los vendedores eligen también en libertad su posición en la playa, y todos empeoran. Pues bien, dejando de lado posibles soluciones como las cooperativas (que se dan con facilidad en juegos repetidos) o los carritos móviles, la pregunta clave para resolver el problema es: «¿por qué hay sólo dos carritos de helados?». Pensemos en dos tipos de respuestas y en las consecuencias sobre la política económica de cada una de ellas: • Existencia de costes fijos: la existencia de inversión inicial o costes fijos puede actuar como una barrera de entrada de competidores en el mercado. En nuestro caso, quizá la demanda no sea la suficiente como para soportar tres puestos de helados. La mera entrada de un tercer competidor solucionaría el problema (en un espacio de una dimensión como una playa), ya que la ordenación óptima • sería la equidistante. En el caso de dos carritos, una sencilla regulación que prefijase la posición exacta de colocación de los carritos resolvería el problema, impidiendo a los competidores alcanzar el equilibrio pernicioso en que nadie gana. Existencia de una regulación previa: así como la regulación en el punto anterior resolvía el problema, en muchas ocasiones es una regulación la que está causando el problema. Por ejemplo, el ayuntamiento responsable de la limpieza de la playa puede organizar cada año una subasta para dos licencias de explotación. Sabe por experiencia propia que si pretende subastar tres licencias extraerá pocos ingresos, pero que con dos sí que puede cubrir la limpieza de las playas. Pero al preocuparse sólo por recaudar está creando una barrera de entrada legal, la cual, en ausencia de una regulación adicional sobre la colocación de carritos, llevará a un equilibrio pernicioso y a largas caminatas para buscar un simple helado. Este ejemplo tan sencillo es capaz de ilustrar cómo, bajo ciertas condiciones, algunos equilibrios competitivos no son óptimos en ninguno de sus sentidos, mientras que la regulación puede solucionar el problema..., ¡o crearlo! De ahí la importancia vital del análisis racional y económico de la actuación del sector público. Quizá la aplicación más conocida de la ley de Hotelling sea la de la dinámica de los partidos mayoritarios en un sistema electoral. Puesto que los partidos pugnan por maximizar votos, y los electores suelen preferir partidos afines, en un sistema puro bipartidista la dinámica lógica de los partidos es la de acaparar el centro, al menos en asuntos centrales como la política fiscal, sanitaria o educativa. Es cierto que, en el caso de un sistema electoral, no existe uno sino varios partidos, con lo cual parece que este «problema» de tendencia a la centralidad no debería de existir: en España, la presencia de Izquierda Unida (IU), Unión, Progreso y Democracia (UPyD) y ahora Podemos imponen al PSOE y al PP ciertas disciplinas para no apartarse de sus planteamientos ideológicos iniciales. Pero también es cierto que la representación política de las ideologías no corresponde a una imaginaria recta izquierda-derecha, sino que tiene muchas otras dimensiones (posición frente a la política exterior, posición respecto al nacionalismo y las independencias, frente a la protección del medio ambiente...). Y, aunque con tres jugadores no se alcanza un equilibrio pernicioso en el caso más básico de Hotelling, este equilibrio vuelve a producirse cuando incrementamos el número de dimensiones de decisión. Imagina que en vez de una playa (unidimensional) y dos carritos planteamos el mismo problema, pero para un parque (bidimensional) y tres carritos: la solución final pasaría de nuevo por una concentración de los tres carritos en el centro del parque. Es decir, en un sentido abstracto, mientras haya tantas dimensiones de disensión política como partidos pugnando en unas elecciones, no será raro ver cómo los partidos acaban buscando dinámicamente, si aspiran a gobernar, el centro del electorado. ¿Quiere esto decir que la competencia libre en los programas políticos de los partidos puede llevar a equilibrios perniciosos? Pues no necesariamente, porque la estructura de este «mercado de votos» es distinta a la de la playa inicial en un aspecto fundamental: tras las elecciones, a uno no le va a gobernar su fuerza más cercana ideológicamente, sino la que gane la mayoría de los votos. En este sentido, si lo que queremos es que la «oferta final» sea aquella que minimiza el «desplazamiento ideológico», parece cobrar sentido un sistema que invita a los partidos a pugnar por el centro. Es decir, si al final va a haber un único carrito de helados en la playa, ¿no será preferible que éste se sitúe en el centro de la misma? Por último, las reclamaciones de independencia son comprensibles, en esencia, a partir del problema que planteaba Hotelling. Algunos bañistas pueden preferir, por motivos personales, una zona concreta de la playa alejada del centro, y pueden cansarse de tener que ir, año tras año, al centro de la playa a por sus helados. Este problema no lo sufren sólo los que solicitan la independencia, sino que pueden sufrirlo también, año tras año, muchos bañistas que ocupan el centro de la playa pero están hartos de la oferta del vendedor habitual. Sólo que los bañistas de la zona apartada lo tienen más fácil, ya que al menos pueden tener la opción de asumir el coste de tener su propio carrito. Nos despedimos Todo este libro, amigo lector, sólo tenía un objetivo: que se pudieran entender algunos chistes para economistas... y nuestra obsesión por explicar cómo usamos las gafas con las que miramos el mundo que nos rodea. Porque cuando sacamos estos temas en alguna reunión de amigos la gente nos mira un poco perpleja. Así que cuando te digan eso de que dos economistas caminan juntos por la calle y uno de ellos exclama: «¡Mira! ¡Un billete de 20 euros en el suelo!», y el otro responde: «Imposible. Si fuese real, ¡alguien lo habría cogido ya!», cuando te cuenten este chiste, pienses: los incentivos son poderosos, pero no te fíes de un economista que no dude. Bibliografía Angrist, Joshua D., y Jörn-Steffen Pischke, Mostly Harmless Econometrics: an Empiricist’s Companion, Princeton University Press, 2009. Aranda Malavés, Rafael, José Romero Sangüesa, y Ferran Calabuig Moreno, «El efecto fecha de nacimiento en futbolistas españoles de categorías inferiores de élite de la temporada 2006-2007, y en futbolistas de las mejores selecciones nacionales del Mundial 2006», VII Congreso Internacional sobre la Enseñanza de la Educación Física y el Deporte Escolar, septiembre de 2007. http://www.altorendimiento.com/ el-efecto-fecha-de-nacimientoen-futbolistas-espanoles-decategorias-inferiores-de-elitede-la-temporada-2006-2007-yen-futbolistas-de-las-mejoresselecciones-nacionales-delmundial-2006 Ariely, Dan, Las trampas del deseo: Cómo controlar los impulsos irracionales que nos llevan al error, Ariel, 2008. —, Por qué mentimos... en especial a nosotros mismos, Ariel, 2012. —, Pensar rápido, pensar despacio, Debate, 2012. Ayres, Ian, Super Crunchers, Bantam Dell, 2007. Bagüés, Manuel, y Berta EsteveVolart, «Can gender parity break the glass ceiling? Evidence from a repeated randomized experiment», The Review of Economic Studies, 77: 1.301-1.328, 2010. http://www.manuelbagues.com/pa %20bagues%20&%20estevevolart%20%20restud%20version.pdf Bagüés, Manuel, y Berta EsteveVolart, «Politicians’ Luck of the Draw: Evidence from the Spanish Christmas Lottery», octubre de 2013. http://dept.econ.yorku.ca/~berta/r volart%20%20economic%20voting.pdf Banco Mundial, World Development Indicators 2014. http://wdi.worldbank.org/table/4. Banco Mundial, World Development Report 2014: Risk and Opportunity: Managing Risk for Development. http://econ.worldbank.org/WBSIT EXTRESEARCH/EXTWDRS/EX / 0,,contentMDK:23459971~pageP PK:8258028~theSitePK:8258025 Bando, M., H. Hasebe, A. Nakayama, A. Shibata, y Y. Sugiyama, «Dynamical Model of Traffic Congestion and Numerical Simulation», Physical Review, 52(2): 1.0351.042, 2005. http://physics.ucsd.edu/students/c REFERENCES/bando.pdf Banerjee, Abhijit V., y Esther Duflo, Poor economics: A radical rethinking of the way to fight global poverty, Public Affairs, 2011. Banerjee, Abhijit.V., y Sendhil Mullainathan, «Limited attention and income distribution», American Economic Review, 98(2): 489493, 2008. https://www.aeaweb.org/articles. doi=10.1257/aer.98.2.489 Beck, A., A. L. Crain, L. Solberg, J. Unützer, R. E. Glasgow, M. V. Maciosek, y R. Whitebird, «Severity of depression and magnitude of productivity loss», Annals of Family Medicine, 9(4): 305-311, 2011. http://www.ncbi.nlm.nih.gov/pub Bertrand, Marianne, «New Perspectives on Gender», Handbook of Labor Economics, 4(b): 1.544-1.589, 2011. Bertrand, Marianne, Jessica Pan y Emir Kamenica, «Gender Identity and Relative Income within Households», NBER Working Paper, 19.023, mayo de 2013. http://www.nber.org/papers/w190 Bolton P., J. Bass, R. Neugebauer, et al., «Group Interpersonal Psychotherapy for Depression in Rural Uganda: A Randomized Controlled Trial», JAMA, 289(23): 3.117-3.124, 2003. http://jama.jamanetwork.com/arti articleid=196766 Bonthuis, B., Jarvis, V., y Vanhala J., What’s going on behind the euro area Beveridge curve(s)?, Banco Central Europeo, 2013. http://www.ecb.europa.eu/pub/pd Borondo, F., C. Rodriguez-Sickert y C. A. Hidalgo, «To Each According to its Degree: The Meritocracy and Topocracy of Embedded Markets», Nature, 2014. http://www.nature.com/srep/2014 srep03784/full/srep03784.html Brefczynski-Lewis, J. A., A. Lutz, H. S. Schaefer, D. B. Levinson, R. J. Davidson, «Neural correlates of attentional expertise in long-term meditation practitioners», Proceedings of the National Academy of Science of the United States of America, 104(27): 11.483-11.488, 2007. http://www.ncbi.nlm.nih.gov/pub Brynjolfsson, Erik, y Andrew McAfee, La carrera contra la máquina, Antoni Bosch Editor, 2013. «Business by Numbers», The Economist, 13 de septiembre de 2007. Butler, A. C., J. E. Chapman, E. M. Forman, y A. T. Beck, «The empirical status of cognitivebehavioral therapy: a review of meta-analyses», Clinical Psychology Review, 26(1): 1731, 2006. http://www.sciencedirect.com/sc article/pii/S0272735805001005 Calamaras, M. R., E. B. Tone, y P. L. Anderson, «A Pilot Study of Attention Bias Subtypes: Examining Their Relation to Cognitive Bias and Their Change following Cognitive Behavioral Therapy», Journal of Clinical Psychology, 68(7): 745-754, 2012. Castillo, David, «Out-Liar: What Malcolm Gladwell Gets Wrong About the Relative Age Effect in Pro Hockey», junio de 2012. http://www.bloodyelbow.com/20 liar-what-malcolm-glad wellgets-wrong-about-the-relativeage Chesbrough, Henry, Open Innovation: The New Imperative for Creating and Profiting from Technology, Harvard Business Review Press, 2003. Choi, Hyunyoung, y Hal Varian, Predicting the Presence with Google Trends, Draft, abril de 2009. http://static.googleusercontent.com www.google.com/es//googleblog google_predicting_the_present.pd Christensen, Clayton, The Innovator’s Dilemma, Harper Business, 2003. Comisión Europea, Enterprise and Industry Directorate, Regional Innovation Scoreboard 2014. Comisión Europea, Research and Innovation Directorate, Innovation Union Competitiveness Report 2013. Consejo de la Juventud de España, Calidad del empleo joven, becarios, y prácticas, 2014. http://www.cje.org/descargas/cje Cornelisse, S., V. A. van Ast, J. Haushofer, M. S. Seinstra, M. Kindt, y M. Joëls, «Timedependent effect of hydrocortisone administration on intertemporal choice», 2013. http://www.princeton.edu/~joha/p Cornelisse_et_al_2013.pdf Cornell University, INSEAD y WIPO, The Global Innovation Index 2014. COTEC, Fundación para la Innovación Tecnológica, Informe sobre la Innovación en España 2014. Dahl, G., A. R. Kostol, y M. Mogstad, Family Welfare Cultures, Discussion Papers, Statistics Norway Research department, 782, junio de 2014. Damodaran, Aswath, «Valuing Young, Start-up and Growth Companies: Estimation Issues and Valuation Challenges», mayo de 2009. http://people.stern.nyu.edu/adamo pdfiles/papers/younggrowth.pdf Davenport, Thomas H., y D. J. Patil, «Data Scientist: The Sexiest Job of the 21st Century», Harvard Business Review, octubre de 2012. https://hbr.org/2012/10/datascientist-the-sexiest-job-of-the21st-century/ Davenport, Thomas H., y Jeanne G. Harris, Competing on Analytics. The New Science of Winning, Harvard Business School Press, 2007. Davidson, R. J., y A. Lutz, «Buddha’s Brain: Neuroplasticity and Meditation», IEEE Signal Processing Magazine, 25(1): 176-174, 2008. http://www.ncbi.nlm.nih.gov/pmc Denning, Stephen, The Leader’s Guide to Radical Management: Reinventing the Workplace for the 21st Century Hardcover, John Wiley & Sons, 2010. Esteva, Santiago, Franchek Drobnic, Jordi Puigdellivol, Luis Serratosa, y Manuel Chamorro. «Fecha de nacimiento y éxito en el baloncesto profesional», Apunts Medicina de l’Esport., 41 (149), enero de 2006. http://www.apunts.org/es/fechanacimiento-exito-elbaloncesto/articulo/13088973/ Eurostat, Datos del desempleo juvenil en Europa, 2014. http://ec.europa.eu/eurostat/tgm/ta tab=table&init=1&language=en& FEDEA, Propuesta para la reactivación laboral en España, 2010. http://www.crisis09.es/PDF/Prop Fernald, L., y M. R. Gunnar, «Effects of a povertyalleviation intervention on salivary cortisol in very lowincome children», Social Science and Medicine, 68(12): 2.180-2.189, 2009. http://www.ncbi.nlm.nih.gov/pmc Forbes, «Global 2000 Leading Companies 2014». http://www.forbes.com/global200 Frey, Carl B, y Michael A. Osborne, «The future of employment: how susceptible are jobs to computerisation?», septiembre de 2013. http://www.oxfordmartin.ox.ac.uk The_Future_of_Employment.pdf Galbraith, J. K., La cultura de la satisfacción, Ariel, 2011. Galiani, S., y E. Schargrodsky, «Property Rights for the Poor: Effects of Land Titling». Journal of Public Economics, 94, 700-729, 2010. http://www.sciencedirect.com/sc García Montalvo, José, «Voting after the bombing: a natural experiment on the effect of terrorist attacks on democratic elections», Review of Economics and Statistics, 93 (4), 1.146-1.154, 2011. García Pérez, J. I., y F. Muñoz Bullón, «Transitions into permanent employment in Spain: An empirical analysis for young workers», Universidad Carlos III, 2007. http://earchivo.uc3m.es/bitstream/ handle/10016/721/wb073808.pdf 3E73AF586C94DCDE9? sequence=1 Ghemawat, Pankaj, y Steven A. Altman, Depth index of globalization 2013, Pankaj Ghemawat-IESE, 2013. http://www.ghemawat.com/Dig/F Depth_Index_of_Globalization_2 Gladwell, Malcolm, «The Formula», The New Yorker, 10 de octubre de 2006. Gladwell, Malcolm, Fueras de serie: Por qué unas personas tienen éxito y otras no, Taurus, 2009. Goldin, C., y C. Rouse, «Orchestrating Impartiality: The Effect of ‘Blind’ Auditions on Female Musicians», American Economic Review, 90(4): 715741, 2000. http://www.uh.edu/~adkugler/Go Rouse.pdf Goleman, David, Working with Emotional Intelligence, Bantam Books, 1998. González Aramendi, José Manuel, «Mes de nacimiento y éxito en el fútbol. Estudio del Efecto Relativo de la Edad en el fútbol guipuzcoano», Osasunaz, 6, 2004. http://www.euskomedia.org/PDFA Grant, Adam, Give and Take: Why helping others drives our success, Penguin Books, 2014. Hamel, Gary, Lo que ahora importa, Deusto, 2012. Hammerfald, K., C. Eberle, M. Grau, A. Kinsperger, A. Zimmermann, U. Ehlert, y J. Gaab, «Persistent effects of cognitive-behavioral stress management on cortisol responses to acute stress in healthy subjects. A randomized controlled trial», Psychoneuroendocrinology, 31(3): 333-339, 2006. http://www.ncbi.nlm.nih.gov/pub 16183205 Haushofer, J. «The Price of Poverty: Psychology and the Cycle of Need», Foreign Affairs, 138.739, 2014. http://www.princeton.edu/~joha/p Haushofer_Foreign_Affairs_2014 Haushofer, J., y E. Fehr, «On the Psychology of Poverty», Science, 344: 862-867, 2014. Haushofer, J., y J. Shapiro, «Household Response to Income Changes: Evidence from an Unconditional Cash Transfer Program in Kenya», 2013. http://www.princeton.edu/~joha/p Haushofer_Shapiro_UCT_2013.p «Harnessing the wisdom of the crowd to forecast world events», The Good Judgement Project. http://www.goodjudgmentproject Hernández, Víctor, «Mes de nacimiento y éxito en el fútbol», Ecomanias.com, 2014. http://ecomanias.com/2014/02/13 de-nacimiento-y-exito-en-elfutbol/ Hofmann, S. G., y J. A. J. Smits, «Cognitive-behavioral therapy for adult anxiety disorders: a meta-analysis of randomized placebo-controlled trials», Journal of Clinical Psychiatry, 69(4): 621-632, 2008. http://www.ncbi.nlm.nih.gov/pmc 09267/ Ifcher, J., y H. Zarghamee, «Happiness and Time Preference: The Effect of Positive Affect in a RandomAssignment Experiment», American Economic Review, 101(7): 3 109-3.129, 2011. https://www.aeaweb.org/articles. doi=10.1257/aer.101.7.3109 Instituto de la Juventud, Situación actual del empleo juvenil en España, 2014. http://www.injuve.es/sites/defaul files/2014/39/publicaciones/Estu por ciento20situacion por ciento20actual por ciento20del por ciento20empleo por ciento20juvenil por ciento20en por ciento20Espa por cientoC3 por cientoB1a.pdf Instituto Nacional de Estadística, Encuesta de Población Activa: Tercer Trimestre de 2014. http://www.ine.es/daco/daco42/d Kandasamy, N., et al., «Cortisol shifts financial risk preferences», Proceedings of the National Academy of Science of the United States of America, 111(9): 3.608-3.613, 2013. Kawasaki, Gay, El arte de cautivar: Cómo se cambian los corazones, las mentes y las acciones, Planeta, 2011. Krugman, Paul, «The Accidental Theorist», The Dismal Science, 1997. http://web.mit.edu/krugman/www Lafley, A. G., y Martin, R. L., Playing to Win: How Strategy Really Works, Harvard Business Review, 2013. «Las carreras con mayor tasa de empleo», El País, 28 de octubre de 2014. http://elpais.com/elpais/2014/10/ 550532.html Lederborgen, F., et al., «City living and urban upbringing affect neural social stress processing in humans», Nature, 474: 498500, 2011. http://www.nature.com/nature/jou 10190.html Lerner, J. S., Y. Li, y E. U. Weber, «The financial costs of sadness», Psychological Science, 24(1):72-79, 2013. http://pss.sagepub.com/content/24 Linnell, K. J., S. Caparos, J. W. de Fockert, y J. Davidoff, «Urbanization decreases attentional engagement», Journal of Experimental Psychology: Human Perception and Performance, 39(5): 1.232-1.247, 2013. http://www.ncbi.nlm.nih.gov/pub Linnell, K. J., S. Caparos, y J. Davidoff, «Urbanization increases left-bias in linebisection: An expression of elevated levels of intrinsic alertness?», Frontiers in Psychology, 5: 1127, 2014. http://www.ncbi.nlm.nih.gov/pub Lissack, Michael R. (ed.), The Interaction of Complexity and Management, Praeger, 2002. Lo, Andrew W., Can financial engineering cure cancer?, vídeo, LGO Webinar, MIT TechTV, 2013. http://techtv.mit.edu/videos/22976 can-financial-engineering-cu recancer-andrew-lo-lgo-webinar Mani, A., S. Mullainathan, E. Shafir, y J. Zhao, «Poverty Impedes Cognitive Function», Science, 341: 976-980, 2013. Mazzucato, Mariana, El Estado emprendedor. Mitos del sector público frente al privado, RBA, 2014. Mazzucato, Mariana, y Carlota Pérez, «Innovation as Growth Policy», en Fagerberg J., S. Laestadius y B. Martin (eds.), The triple challenge for Europe: economy, climate change, governance, Oxford University Press, 2014. McLean, Carmen P., et al., «Gender differences in anxiety disorders: Prevalence, course of illness, comorbidity and burden of illness», Journal of Psychiatric Research, 45(8): 1.027-1 035, 2011. Messerli, F. H., «Chocolate Consumption, Cognitive Function, and Nobel Laureates», New England Journal of Medicine, 367: 1.562-1.564, octubre de 2012. Miller, Peter, «The Genius of Swarms», National Geographic, julio de 2007. Nunn, N., y D. Puga, «Ruggedness: The Blessing of Bad Geography in Africa», Review of Economics and Statistics, 94(1): 20-36, 2012. OCDE, Education at a Glance 2014. http://www.oecd.org/edu/Educati at-a-Glance-2014.pdf «Of Greed and Ants», The Economist, 13 de septiembre de 2007. OIT, «Enhancing young employability: the importance of core work skills», Skills for Employment Policy Brief. 2013. http://www.ilo.org/wcmsp5/grou --ed_emp/--ifp_skills/documents/publication/ Oswald, A. J., E. Proto, y D. Sgroi, «Happiness and Productivity», 2014. http://www2.warwick.ac.uk/fac/s staff/eproto/workingpapers/happi Página web del colectivo «No nos vamos, nos echan». http://www.nonosvamosnosechan echan-del-trabajo-nos-echandel-pais_17.html Porter, Michael, On Competition, Harvard Business Review Press, 1998. Press, Gil, «A Very Short History of Data Science», Forbes, 28 de mayo de 2013. Pricewaterhouse, El mundo en 2050, 2011. http://www.pwc.com.uy/es_UY/u 2050.pdf Salmon, Christian, Storytelling. La máquina de fabricar historias y formatear las mentes, Península, 2008. Sennett, Richard, El artesano, Anagrama, 2008. Servicio Público de Empleo Estatal (SEPE), Datos sobre producción anual de licenciados, 2013. https://www.sepe.es/contenidos/q publicaciones/listado_pub_merca Shah, A. K., S. Mullainathan, y E. Shafir, «Some consequences of having too little», Science, 338(6107): 682-685, 2012. Shambora, Jessica, «Fortune’s best networker», Fortune, 2011. http://fortune.com/2011/02/09/for best-networker/ Silver, Nate, La señal y el ruido: Cómo navegar por la maraña de datos que nos inunda, localizar los que son relevantes y utilizarlos para elaborar predicciones infalibles, Península, 2014. Spears, D., «Economic DecisionMaking in Poverty Depletes Behavioral Control», The B.E. Journal of Economic Analysis & Policy, 11(1): article 72, 2011. Srivastava, K., «Urbanization and mental health», Industrial Psychiatry Journal, 18(2): 7576, 2009. Stiglitz, Joseph E., Lin, Justin Y., y Monga, Celestin, The rejuvenation of industrial policy, Banco Mundial, 2013. http://papers.ssrn.com/sol3/paper abstract_id=2333944 Surowiecki, James, Cien mejor que uno, Urano, 2005. Taleb, Nassim Nicholas, Antifrágil. Las cosas que se benefician del desorden, Paidós, 2013. Tetlock, Philip E., Expert political judgement, Princeton University Press, 2006. Thaler, Richard H., y Cass R. Sunstein, Un pequeño empujón (Nudge): El impulso que necesitas para tomar mejores decisiones sobre salud, dinero y felicidad, Taurus, 2011. «The future of Jobs. The onrushing wave», The Economist, julio de 2014. http://www.economist.com/news/ previous-technologicalinnovation-has-alwaysdelivered-more-long-runemployment-not-less «The promise of prediction markets», Science, 2008. http://hanson.gmu.edu/promisepre «The third great wave», The Economist, octubre de 2014. http://www.economist.com/news/ report/21621156-first-twoindustrial-revolutions-inflictedplenty-pain-ultimately-benefited «This is Google’s incredibly simple hiring formula», Quartz, 2014. http://qz.com/180247/whygoogle-doesnt-care-about- hiring-top-college-graduates/ Travasso, S. M., D. Rajaraman, y S. J. Heymann, «A qualitative study of factors affecting mental health amongst low-income working mothers in Bangalore, India», BMC Women’s Health, 14:22, 2014. Utterback, James, Mastering the Dynamics of Innovation: how companies can seize opportunities in the face of technological change, Harvard Business School Press, 1994. Vodafone Institute for Society and Communications, Talking about a Revolution: Europe’s Young Generation on Their Opportunities in a Digitised World, 2014. http://www.vodafoneinstitut.de/ uploads/media/YouGov_Vodafone Young_Generation_CrossCountry_Report.pdf “Why Google doesn’t care about hiring top college graduates», Quartz, 2014. http://qz.com/180247/whygoogle-doesnt-care-abouthiring-top-college-graduates/ Notas [1] Cita obtenida de John C. Maxwell, Desarrolle el líder que está en usted, Grupo Nelson, 1996. [2] Woolley, Anita, Thomas Malone, y Scott Berinato, «What Makes a Team Smarter? More Women», Harvard Business Review, junio de 2011. [3] Su libro La señal y el ruido (Península, 2014) es de obligada lectura para los apasionados de las predicciones y los números. [4] Recomendamos al lector, si no lo conoce, que se pasee por el fantástico trabajo que están haciendo desde el MIT, donde se muestra la complejidad creciente en nuestras vidas: http://atlas.media.mit.edu/ [5] Hal Varian, Microeconomía intermedia, Antoni Bosch Editor, Barcelona, 2011. [6] En su libro Por qué mentimos… En especial a nosotros mismos, Ariel, Barcelona, 2012. [7] Gladwell, Malcolm, Fueras de serie (Outliers), Taurus, 2013, capítulo 1: «El efecto Mateo». [8] Out-Liar: What Malcolm Gladwell Gets Wrong About the Relative Age Effect in Pro Hockey (http://www.bloodyelbow.com/2012/1/4/ liar-what-malcolm-gladwell-gets-wrongabout-the-relative-age). [9] Mes de nacimiento y éxito en el fútbol. Estudio del efecto relativo de la edad en el fútbol guipuzcoano (http://www.euskomedia.org/PDFAnlt/os naz/06/06159184.pdf). [10] Fecha de nacimiento y éxito en el baloncesto profesional (http://www.apunts.org/es/fechanacimiento-exito-elbaloncesto/articulo/13088973/). [11] Mes de nacimiento y éxito en el fútbol (http://ecomanias.com/2014/ 02/13/mes-de-nacimiento-y-exito-en-elfutbol/). [12] El efecto fecha de nacimiento en futbolistas españoles de categorías inferiores de élite de la temporada 2006-2007 y en futbolistas de las mejores selecciones nacionales del Mundial 2006 (http://www.altorendimiento.com/congres el-efecto-fecha-de-nacimiento-enfutbolistas-espanoles-de-categoriasinferiores-de-elite-de-la-temporada2006-2007-y-en-futbolistas-de-lasmejores-selecciones-nacionales-delmundial-2006). [13] Informe PISA: http://es.wikipedia.org/wiki/Informe_PIS [14] https://hbr.org/2012/10/datascientist-the-sexiest-job-of-the-21stcentury/ [15] «El manual de Oslo y la innovación social», Arbor, vol. 184, n. ° 732 (2008). [16] http://artofeating.com/the-losttaste-of-pork/ [17] http://www.dovase.com/es [18] http://wellowater.org/ [19] http://waka-waka.com/ [20] http://www.soloraf.es/ [21] pinklady.com/ http://www.manzana- [22] Harford, Tim, Adáptate, Planeta, 2011. [23] http://www.actualidadcine.com/2009/05/0 de-un-genio-un-ciudadano-contra-laindustria-automovilistica/ [24] http://www.gatesfoundation.org/WhatWe-Do/Global-Development/ WaterSanitation-and-Hygiene [25] http://www.nejm.org/doi/full/10.1056/NE [26] Sandel, Michael J., Lo que el dinero no puede comprar, Debate, 2013. [27] http://www.jotdown.es/2012/03/tsevanrabtan-violencia-estructural/ [28] http://www.palacioshuerta.com/docs/professionals.pdf Nunca te fíes de un economista que no dude Javier García Álvarez, Andrés Alonso y Abel Fernández No se permite la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea éste electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo y por escrito del editor. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (Art. 270 y siguientes del Código Penal) Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita reproducir algún fragmento de esta obra. Puede contactar con CEDRO a través de la web www.conlicencia.com o por teléfono en el 91 702 19 70 / 93 272 04 47 © del diseño de la portada, microbiogentleman.com, 2015 © de la imagen de la portada, Jan Stromme - Getty Images © Javier García Álvarez, Andrés Alonso y Abel Fernández, 2015 © Centro Libros PAPF, S. L. U., 2015 Deusto es un sello editorial de Centro Libros PAPF, S. L. U. Grupo Planeta, Av. Diagonal, 662-664, 08034 Barcelona (España) www.planetadelibros.com Primera edición en libro electrónico (epub): marzo de 2015 ISBN: 978-84-234-2086-5 (epub) Conversión a libro electrónico: ÀtonaVictor Igual, S.L. www.victorigual.com
© Copyright 2025