Nunca te fies de un economista – Javier Garcia

Índice
Portada
Prólogo
Introducción
1. Un puente sobre el Bósforo
2. La inteligencia colectiva puede
salvar vidas
3. Dios no suele proporcionar
experimentos naturales
4. ¿Nos quitarán los robots nuestro
empleo?
5. Un economista en busca de la
felicidad
6. Los políticos no la saben meter
7. El análisis de datos, la profesión
más sexy del siglo xxi
8. Neurociencia y trampas de
pobreza
9. ¿Es España un país para
jóvenes? Repensando la emigración
10. Innovación: todo lo que se
pueda hacer mal, se hará mal
11. Microinnovación a la vuelta de
la esquina
12. La gestión compleja de
empresas: un nuevo management
para una nueva época
Epílogo
Bibliografía
Notas
Créditos
Te damos las gracias por
adquirir este EBOOK
Visita Planetadelibros.com y
descubre una nueva forma de
disfrutar de la lectura
¡Regístrate y accede a
contenidos exclusivos!
Próximos lanzamientos
Clubs de lectura con autores
Concursos y promociones
Áreas temáticas
Presentaciones de libros
Noticias destacadas
Comparte tu opinión en la ficha
del libro
y en nuestras redes sociales:
Explora Descubre Compa
Prólogo
Toda frase breve acerca de la
economía es intrínsecamente
falsa.
ALFRED MARSHALL
Economista británico (1842-1924)
El pescadero que sabía de
expectativas racionales
MANUEL CONTHE
Desde hace muchos años voy los
sábados a Aurelio, un pescadero de
Las Rozas de merecida fama,
basada en un magnífico pescado, a
buen precio, cortado y despachado
con maestría. Con los hombres se
muestra más serio, pero con las
clientas habituales está siempre de
broma. A unos y otros nos aplica,
sin embargo, una misma técnica,
que provoca risas entre quienes
pueden ver la báscula: cuando le
pides pescado al peso (bonito,
salmón, emperador, rape...), te
corta una pieza cuyo peso
indefectiblemente supera en un 15 o
un 20 por ciento lo que le pediste.
Si se acerca al peso solicitado —y
no digamos si no lo alcanza—, él
mismo se sorprende y se echa a
reír.
Algunas clientas rezongan y en
ocasiones piden que les quite el
exceso, pero la gran mayoría de
clientes siempre damos por bueno
el corte. ¿Cómo explicar tan
tolerante actitud?
Obedece, a mi juicio, no sólo a
la calidad del producto y al espíritu
jovial de la clientela, sino al
fenómeno
conocido
en
macroeconomía como «crítica de
Lucas», «tesis de la ineficacia de
las
políticas»
(policy
ineffectiveness proposition) o
hipótesis de las «expectativas
racionales»
(rational
expectations): como todos los
clientes habituales conocemos la
«regla de Aurelio», pedimos menos
de lo que en realidad queremos,
para acabar con un peso cercano al
que
deseamos.
En
suma,
incorporamos
a
nuestras
expectativas la «regla de Aurelio»,
adaptamos a ella nuestra conducta
y, por ello, la hacemos ineficaz.
El fenómeno lo conocen
también los especialistas en
análisis económico del derecho
(Law & Economics): saben que las
normas legales, salvo cuando se
aprueban por sorpresa y se aplican
con carácter retroactivo, rara vez
logran redistribuir renta entre las
partes, pues aquellos a quienes
perjudican se protegerán de ellas.
Así, en aquellos remotos
tiempos del servicio militar
obligatorio, las empresas sorteaban
la obligación legal de conceder
excedencia
especial
a
los
trabajadores llamados a filas
contratando sólo a mozos con
«servicio militar cumplido». Por
parecido motivo, hay quien piensa
que las medidas de protección
laboral a las trabajadoras gestantes,
aunque bienintencionadas, pueden
también estar dificultando en la
práctica
la
contratación
o
promoción de mujeres en edad
fértil con pareja.
Es cierto que, en ocasiones, las
autoridades logran sorprender al
mercado, como lo consiguió
también Aurelio hace un par de
años, cuando le pedí kilo y medio
de rape para la comida de Navidad
y me cortó dos kilos, ¡un exceso
superior al 30 por ciento! (no me
fue mal, porque luego vino más
gente de la prevista).
Pero desengañémonos, son
casos excepcionales: cuando hay
libertad para llevar a cabo o no un
acto regulado, el carácter tuitivo o
reglamentista de la norma puede
resultar ineficaz. Por eso, la
autoridad benevolente que desee
redistribuir rentas debe estar
dispuesta a privar a sus víctimas de
elección. Espero, sin embargo, que
Aurelio no lo sepa nunca y no
acabe ordenándonos a sus devotos
clientes cuánto le tenemos que
pedir antes de que nos lo pese.
Pues bien, en este libro
promovido por los editores de
Sintetia se encontrarán algunos
ejemplos como el que he puesto del
pescadero Aurelio. Como ven,
hasta yendo a la pescadería se
puede aplicar buena economía. Les
invito a que se queden y sigan
leyendo.
Contradicciones en mi conducta
optimizadora
EMILIO ONTIVEROS
¿Está mi comportamiento habitual
informado o condicionado por
principios económicos? Si esa
pregunta se la hubieran formulado a
las personas más cercanas, a mis
hijos, por ejemplo, que son
arquitectos los dos, habrían
contestado que mis numerosas
apelaciones a la racionalidad en las
decisiones o al análisis en nuestras
frecuentes discusiones no siempre
son del todo consistentes en mi
práctica diaria. Las discusiones
acerca de cómo asignar el tiempo
disponible a usos alternativos, por
ejemplo, o sobre la secuencia para
llevar a cabo alguna tarea más o
menos cotidiana, eran constantes
cuando pasábamos más tiempo
juntos. Y tengo que confesar que en
no pocas ocasiones me ponían en un
brete cuestionando la racionalidad
implícita en mis propuestas o la
apelación al coste de oportunidad,
con la que con frecuencia me
tomaban el pelo.
Dejadme que os ponga un
ejemplo reciente. Acabo de alquilar
una casa en Cantabria, en la
frontera con Asturias. Es un sitio
precioso, al borde de un acantilado.
Fue el pasado agosto cuando estuve
en ella por primera vez. El deseo
de volver, de no perder la
oportunidad de disfrutar de otro
agosto, e incluso de hacer alguna
escapada en otra época del año, me
ha llevado a alquilarla durante todo
el año, pagando un precio
equivalente a tres veces la cuantía
que pagué por el mes de verano.
Han sido los animal spirits, la
emoción asociada a poder tomarme
un café a primera hora de la
mañana en esa terraza, en lugar de
instalarme en el hotel cercano,
cómodo y, desde luego, mucho más
barato, los que han cuestionado
cualquier principio optimizador. Ha
quedado también en evidencia un
coste de oportunidad derivado de la
obligada limitación de destinos
alternativos, de diversificar o
propiciar otras búsquedas.
Tampoco en mis decisiones
personales de inversión he
conseguido
sustraerme
a
consideraciones
que
me
distanciaban aparentemente del más
primario principio de maximización
de la rentabilidad convencional. He
invertido en proyectos de los que
tenía suficientes elementos de
juicio a priori acerca de su elevada
probabilidad de fracaso o sobre su
inferioridad frente a asignaciones
alternativas.
Es en el ejercicio de mis
responsabilidades en la consultora
Afi donde procuro que esa conducta
no se distancie en exceso de lo que
es la racionalidad más estricta.
Intento que cualquier decisión se
ajuste a una metodología más
informada, susceptible de ser
aplicada por cualquiera con
independencia de las funciones de
utilidad individuales.
Con todo, en esta reflexión a la
que me obligan los autores de este
sugerente libro, he de confesar que
una cosa es predicar y otra bien
distinta es dar trigo. Es muy útil
tomar en consideración lo que
sugieren las vías de razonamiento
del análisis económico, pero
también es en ocasiones gratificante
ser consciente de que podemos
saltárnoslas,
concediendo
virtualidad a esas sugerencias que
hizo Keynes sobre los animal
spirits o las más recientes
orientaciones de la behavioral
economics, que nos recuerdan el
estrecho parentesco de nuestros
análisis con otras disciplinas
también
sociales,
como
la
psicología o la sociología.
La cultura del ahorro y la gestión
de recursos escasos a través de la
paga a mis hijos
DANIEL LACALLE
Todos los días usamos la economía
en nuestras vidas. La familia es la
unidad económica más solidaria y
completa. Mi ejemplo más claro es
la paga semanal que muchos niños y
jóvenes reciben. Es una pequeña
recompensa por cumplir con una
obligación —estudiar, comportarse
bien—, pero no es un «soborno».
Nos ayuda a aprender a valorar el
dinero y a administrarlo. Cuando yo
era pequeño, por ejemplo, ahorraba
lo que podía para poder comprar
discos. Me di cuenta de que una
copa y un paquete de tabaco eran
equivalentes a un disco o un libro
de segunda mano en mi tienda
favorita. Así que ni fumar ni beber.
Es una decisión económica de
coste-beneficio y de valorar
recursos limitados. El beneficio
que me aportaba comprar un disco
o un libro superaba con mucho la
gratificación de tomar una copa y,
no digamos, de probar el tabaco y
fumar. Sin embargo, cuando
conocía a una chica y quedaba con
ella, o cuando me encontraba con
un buen amigo, de vez en cuando
me gustaba invitarles. El valor
social de esa decisión económica
trascendía el de un objeto material
y de uso habitual, un bien cultural
—un disco—, para ser inmaterial,
establecer o fortalecer una relación
personal, que puede durar mucho
más y ser mejor a largo plazo que
un disco o un libro.
Como todas las decisiones que
tomamos, son un reflejo del valor
que le damos a lo inmediato
comparado con algo más duradero
y potencialmente placentero o útil.
Saber que no vas a disponer de más
dinero si dilapidas tu paga, también
ayuda a entender el valor del
ahorro. Por eso toda nuestra vida
son decisiones económicas. Incluso
las
que
consideramos
«emocionales» y las decisiones
caritativas. Siempre son un análisis
de coste y beneficio, aunque dicho
beneficio
sea
supuestamente
intangible o colectivo. Asumir que
una decisión no es económica por
no centrarse en el individuo o una
rentabilidad pecuniaria es un error.
La rentabilidad personal, la
caridad y la generosidad son parte
de lo que esperamos que se
transmita
a
las
decisiones
económicas de los demás a través
del ejemplo, y nunca existen —o se
desvirtúan—
si
el
ahorro
desaparece. Cada día hacemos un
análisis de ingresos y gastos, y
precisamente para proteger a los
más débiles, los mayores y los
niños, evitamos despilfarrar. Y el
ahorro nos permite disponer de
dinero cuando una decisión de
inversión, aunque sea en amistad o
emocional, es de mayor calado que
nuestro gasto discrecional diario.
Todo ello sólo se aprende
desde la administración del ahorro
y la renta disponible, no desde el
gasto.
Por eso siempre me ha
sorprendido ver que los políticos
que defienden incurrir en déficits
eternos y gastos inútiles no lo hacen
en su familia. Porque los incentivos
al gastar tu dinero no son los
mismos que al gastar el de los
otros, el que recaudas a los demás.
En este sentido, el valor educativo
de la paga semanal desaparece
cuando el niño viene y te dice que
se ha gastado todo lo del viernes y
que le des más el sábado, que «ha
quedado». Se pierde el ejemplo
educativo de administrar y conocer
el valor del dinero por el
antiejemplo de «no importa, papá
paga». Y se genera una sociedad
irresponsable, que traslada las
decisiones económicas estatales
(«que pague el BCE o Merkel»).
Recuerdo una entrevista en
Telecinco con Gaspar Llamazares
en la que comentaba que él sería un
buen ministro de Economía porque,
como buen padre, era muy austero y
no tenía enormes deudas ni grandes
gastos. Su objetivo, claramente, era
administrar su dinero de la manera
más adecuada y con el menor riesgo
para asegurar que sus hijas no
solamente tuvieran un futuro sólido,
sino que se educasen en un entorno
de responsabilidad. Admirable,
ciertamente. Sin embargo, esas
mismas valiosas lecciones que
aplicamos a nuestra vida diaria y al
ente más social y caritativo de
todos, que es la familia, las
olvidamos para entregarnos al gasto
«por si acaso», a la inversión
improductiva y la deuda. ¿La
diferencia? El dinero de los demás
siempre nos parece poco. De la
misma manera que el chico que se
lo ha gastado todo el viernes y
exige, sin remordimiento —de
hecho,
muchas
veces
con
arrogancia—, que su padre o su
madre le dé dinero para el sábado,
«que
he
quedado»,
el
intervencionista siempre piensa que
usted gana mucho y él gasta poco.
Daniel Lacalle es economista y
autor de Nosotros, los mercados,
Viaje a la libertad económica y La
madre de todas las batallas (todos
en Deusto), traducidos al inglés y al
portugués.
El economista observador... que
compra coche
JOSÉ CARLOS DÍEZ
Cuando contactaron conmigo desde
Sintetia para prologar este libro me
sentí halagado y contento. La
economía es algo innato al ser
humano y su estudio empezó con
Jenofonte y el nacimiento de la
filosofía. Luego la ciencia ha ido
evolucionando e incorporando
herramientas
matemáticas;
la
profesión ha ido derivando al
tecnicismo y pretendemos ser
físicos, pero no se nos olvida que
estudiamos el comportamiento
humano
ante
problemas
económicos.
Lo primero que aprendes y
ahora enseño en la universidad a
los nuevos economistas es la ley de
la escasez y el concepto de
restricción presupuestaria. Si no
hubiera escasez, especialmente de
dinero, no habría problemas
económicos y los economistas no
existiríamos.
Cada día los individuos
tomamos
varias
decisiones
económicas. Nuestro subconsciente
ya se ha adaptado a un mundo de
recursos escasos y toma decisiones.
Quién no recuerda de niño a sus
padres diciéndole que no podías
tener todos los juguetes y regalos
del mundo porque costaban mucho
dinero. Duro choque con la
realidad del niño que nos
negábamos a aceptar, y a la mínima
oportunidad
intentábamos
conseguirlos de nuevo con chantaje
emocional.
Cuando
vamos
al
supermercado, cuando decides ir en
coche o en transporte público,
cuando decides el lugar de
vacaciones o asumes, como muchas
familias, que no puedes ir de
vacaciones,
cuando
decides
estudiar o empezar a trabajar,
etcétera, en todas esas ocasiones
estás
tomando
decisiones
económicas. Lo que hacemos los
economistas
es
observar
y
modelizar ese comportamiento y la
lógica de la decisión.
Personalmente,
estudiar
economía ha sido muy útil en mi
vida personal. Hace quince años
decidí comprarme una vivienda, fue
sobre plano, 100 metros por
150.000 euros. Fui prosperando en
mi vida profesional y tuve la
oportunidad de cambiarme de casa
y comprarme una de medio millón
en el momento de mayor euforia de
la burbuja. Pero en aquel entonces
explicaba que el precio de la
vivienda
en España
estaba
sobrevalorado un 30-40 por ciento.
Eso me llevó a la conclusión de que
cambiar de casa y endeudarme para
comprar un bien que iba a caer de
valor no era una buena opción.
Apliqué la lógica económica a mi
propia vida y protegí el patrimonio
de mi familia.
Desde que llegué a la Facultad
de Económicas de Alcalá me ha
apasionado
estudiar
la
incertidumbre y sus efectos sobre la
economía.
George
Akerloff
escribió un trabajo precioso en el
que analizaba la decisión de
comprar coches de segunda mano.
Por este trabajo, consiguió el
Premio Nobel. El comprador tiene
dudas sobre el estado del coche y
paga un precio menor al que
debería tener en condiciones de
certidumbre. Es lo que se denomina
un fallo de mercado, pero tiene
mucha lógica.
Tras comprender esta lógica,
este economista observador nunca
se ha comprado un coche nuevo y
siempre ha tenido coches de
segunda mano. Consigo romper la
incertidumbre
comprando
los
coches en los concesionarios donde
reviso mi coche. Me hago amigo
del jefe de mecánica y cuando
necesito cambiar de coche le aviso
sin prisa para que me ofrezca
oportunidades.
Siempre busco coches de alta
gama con menor demanda de
segunda mano. A la gente de renta
media alta le gusta estrenar coche.
Con menos de cinco años y unos
50.000 kilómetros. Hago unos
15.000 kilómetros al año y cambio
de coche cuando tiene 200.000
kilómetros. Por lo tanto, compro el
coche normalmente un 50 por ciento
más barato que uno nuevo y me
dura 10 años.
Te deseo, querido lector, un
buen viaje por este libro. Y
recuerda las sabias palabras del
gran economista John Stuart Mill:
«Si no eras egoísta antes de
estudiar economía, hacerlo no
provocará que lo seas».
Hoy es el taxista quien te explica
todo un manual sobre economía
en lo que dura un trayecto
JOSÉ M.a GAY DE LIÉBANA Y
SALUDAS
Responder con el ánimo elevado a
la invitación que proponen unos
auténticos mosqueteros de la
economía es todo un lujo. Así que
en primer lugar agradezco su
deferencia y, en segundo lugar,
destaco el enfoque rompedor y
agradecido de un libro de
apetecible lectura, cuyos capítulos
despiertan interés y su mera ojeada
anuncia los cauces por los que
discurre la obra.
Alguien diría, a simple vista,
que se le ha perdido el respeto
debido a la ciencia económica y
que hay cada vez más economistas,
jóvenes o maduros, que profanan el
sanctasanctórum de los templos más
sagrados de la antes temida
economía. Nada de eso. Algo ha
cambiado en nuestras vidas.
Tiempo atrás, el fútbol —que
impregna también ciertos pasajes
de esta obra— era el caballo de
batalla de nuestras triviales
conversaciones, el arma con la que
romper el hielo en una reunión de
negocios, el tema que sacar en una
formal comida familiar o el modo
de
entablar
una
brevísima
conversación vecinal en el ascensor
de casa. Hoy, el as que cada cual
lleva en la manga, el comodín que
usar
en todo momento y
circunstancia en sustitución del
tópico del tiempo que hace, es, sin
duda, la economía.
Todos los españoles —bueno,
algunos, como mi mujer, no—
tenemos alma de entrenador de
fútbol —sobre todo, del club de
nuestros amores— y vocación de
seleccionador nacional, retando al
mismísimo genio que es Vicente del
Bosque.
Todos
sabemos
y
entendemos de fútbol y opinamos
sin
remilgos.
Hacemos
y
deshacemos, montamos tácticas y
ponemos a futbolistas sobre el
terreno de juego o los sacamos con
la misma facilidad que echamos una
ojeada al móvil o, más en la onda,
smartphone.
El lado empírico de la
economía ha venido protagonizado
por la crisis. Antes de que estallara
aquella crisis anunciada por
algunos cenizos, que es esta de hoy,
todo era jauja. Creíamos que el
crecimiento económico no tenía
límites, que nuestros salarios se
irían multiplicando a perpetuidad,
que los bonus seguirían lloviendo a
final de año, que al acabar de pagar
el coche ya nos lo cambiaríamos
por un flamante modelo, que
volveríamos a comprarnos el piso
de nuestra vida, que la hipoteca se
iría
agrandando
según
se
ensancharan nuestras dimensiones,
que España tenía pocos restaurantes
con las tres estrellas Michelin y...
De repente, ese sofisticado
decorado se vino abajo. Si la
experiencia curte, el duro transitar
por esos tiempos difíciles se
convierte en erudición. Siempre
ilustrarán obras maestras en lides
económicas, beberemos en las
sabias fuentes enciclopédicas,
devoraremos fecundos trabajos de
insignes economistas, releeremos a
los clásicos, nos embobaremos con
las disertaciones de ilustres gurús,
pero, desde luego, lo que sí es todo
un magnífico, aunque doloroso,
ejercicio de aprendizaje es ser
protagonista antes que testigo de
esta tremenda etapa para nuestros
bolsillos.
Hoy es el taxista quien te
explica todo un manual sobre
economía en lo que dura un
trayecto. Hogaño es el «gasolinero»
quien te pone al tanto de la realidad
semanal con ejemplos que no
requieren de sofisticadas fórmulas
matemáticas más allá del sumar y
restar, aunque a veces sea necesario
dividir más que multiplicar. Ahora
es la dependienta de la tienda de
barrio quien te anuncia las
tendencias de las próximas
semanas. La economía refuerza su
vis empírica. Todos estamos
instruyéndonos en el esforzado día
a día. Paseando por las calles
vemos tiendas con las persianas
bajadas, comercios históricos que
cierran sus puertas cediendo su
excelente enclave a una cadena
internacional de comida rápida,
ventas navideñas que son sinónimo
de curiosear in situ para comprar
después vía internet, gasolineras sin
gasolineros,
parkings
sin
parkingueros, correos sin sello y sí
énfasis emailero, aeropuertos sin
largas filas en los mostradores del
check-in, chavales que ni por
asomo se acercan a esos grandes
almacenes que han marcado parte
de nuestra vida. Vivimos en clave
de globalización, y mi sobrino se
echa novia en Dallas, a la que
visita un fin de semana por lo
menos cada mes y me explica que
le sale más barato el ir y venir de
aquella peliculera ciudad texana
que ir a esquiar al Pirineo catalán.
En fin, que igual estamos ante
un inmenso cambio de escenario
económico en vez de sumergidos en
una
deplorable
crisis.
La
metamorfosis que vivimos vaticina,
pues, un nuevo orden, un cambiante
statu quo. Ya nada será igual, y
como dijo, creo, Groucho Marx:
«El futuro ya no es lo que era».
Mi gratitud a Javier, Abel y
Andrés no sólo por invitarme a
escribir estas líneas, sino sobre
todo por ayudarme a reflexionar
sobre
un
hoy
en
brutal
transformación y un mañana que no
sé ni por asomo cómo diantre será.
Disfrutad de la lectura seria a la
vez que divertida de las páginas
que siguen.
Introducción
JAVIER GARCÍA, ANDRÉS ALONSO Y
ABEL FERNÁNDEZ
La primera gran virtud del
hombre fue la duda, y el primer
gran defecto, la fe.
CARL SAGAN
Tarde o temprano, todo economista
habrá de enfrentarse en su vida a la
inevitable pregunta por parte de un
amigo o familiar: «¿Qué acciones
debo comprar?». Algunos célebres
economistas han buscado recursos
ingeniosos para librarse de la
dichosa pregunta: Gregory Mankiw
escribió una columna en The New
York Times titulada «¿Qué acciones
debo comprar? Mamá, por favor,
¡no me preguntes!»; a Xavier Sala i
Martín le suele gustar responder a
preguntas de este tipo lo siguiente:
«Invierta en Bodegas XYZ. Si le va
bien, se forrará; si lo pierde todo,
al menos tendrá vino para una
buena fiesta». Estas respuestas
ingeniosas sólo reconocen un hecho
paradójico para los ajenos a la
disciplina: que un economista no
sabe invertir mejor que un
ciudadano medio. ¿Para qué
entonces estudiar economía si no
aprenderemos a invertir mejor que
el resto de personas?
La respuesta a esta pregunta
suele sorprender de nuevo al no
iniciado, cuando no predisponerlo
en contra de lo que defendemos: la
economía es un conjunto de
herramientas para pensar acerca del
mundo y la sociedad. Y dichas
reglas pueden aplicarse tanto a
asuntos estrictamente monetarios
como al más banal de los
problemas cotidianos de las
personas, como una dieta, el dejar
de fumar... ¡o incluso una cita
romántica! Este tipo de consejos
suelen
ser
recibidos
con
estupefacción
cuando
son
escuchados de viva voz, siendo más
fácil articularlos correctamente por
escrito.
Los tres editores que coordinan
este libro nos conocimos durante
los últimos años de los estudios de
economía en la Universidad de
Oviedo, y coincidimos también
como ayudantes de investigación en
su departamento de Economía. Y,
aunque ninguno acabó finalmente
dedicándose a la vida académica,
los tres desarrollamos una gran
pasión por la estadística, el trabajo
empírico y, en general, la forma de
pensar desde la economía. El
destino quiso que uno se dedicara a
la empresa, otro a las finanzas y el
tercero al análisis económico, pero
la cuestión es que, años más tarde,
Javier (desde Asturias), Andrés
(desde Madrid) y Abel (desde
Valencia) seguimos debatiendo casi
a diario las noticias de economía,
alarmados por la falta de rigor de
muchos medios tradicionales.
Después de un año de
detalladas discusiones por correo,
surgió la idea natural: ¿por qué no
hacemos
públicas
dichas
discusiones y animamos a nuestros
compañeros y contactos a sumarse
a las mismas? Y así nació
Sintetia.com, cuya mayor cualidad
ha sido la constancia y lo prolífico
de nuestros análisis: el esfuerzo
continuo es la única explicación
para que tres economistas no
académicos,
jóvenes
y
desconocidos, hayan tenido una
cierta voz en la discusión de
diversos asuntos de la economía, la
política y la empresa en España.
Encontramos facilidad para
coordinarnos, y además, el tiempo
nos acompañó para que la
capacidad de impulsar nuevos
proyectos de Javier coincidiera con
una renovada pasión por investigar
de Abel y una vocación de
perpetuar la época de analista de
mercados de Andrés. Después de
tres años escribiendo nos dimos
cuenta de que el portal Sintetia.com
tenía un aspecto diferencial: no nos
interesaba adoctrinar, sino educar y
debatir. Explicar los hechos y la
evidencia disponible de la forma
más neutral, y que la opinión la
pusiera el lector. Por eso, una de
las únicas condiciones que nos
marcamos en el origen del proyecto
fue no caer en la tentación de
discutir sobre situaciones que a
todas luces usaban la economía
incorrectamente, pero de forma
deliberada, y por ello casi nunca
hemos criticado las incorrecciones
o falsedades que a menudo
proclaman nuestros representantes
políticos.
No es menos cierto que en
ocasiones sí caímos en la tentación
de debatir asuntos bastante
cercanos a los valores y
preferencias individuales. Nos
vimos debatiendo sobre Cataluña
con el mismísimo Xavier Sala i
Martín, a pesar de que el fin de
nuestro argumento era que «esto no
es un debate económico, es
político». De modo similar, hemos
tenido que hablar del «caso
Bárcenas», de rescates bancarios y
del programa económico del nuevo
partido Podemos.
Sin embargo, lo que más nos ha
enorgullecido ha sido construir
debates sobre la economía menos
usual. Quizás el mejor ejemplo sea
una comida en un restaurante de
Madrid,
donde,
tras
un
pantagruélico homenaje a base de
hamburguesas, uno de nosotros nos
sorprendió pidiendo sacarina con
su café ¡y encima justificándolo
basándose en el efecto renta y
sustitución! Sin nada que objetar,
comenzamos a entender cuál era
nuestro fuerte: explicar la vida a
través de los ojos de un
economista. En ese momento nos
dimos cuenta de que habíamos
hablado de felicidad, inteligencia
colectiva, complejidad, árboles de
decisión, escoger tu pareja ideal,
cómo hacer tu currículum o mejorar
tus charlas en público gracias a
herramientas que usamos en
economía.
¡Así es! El psicólogo Daniel
Kahneman nos ha ayudado a
entender que los humanos sumamos
a corto plazo pero promediamos a
largo, pues tenemos dos sistemas
para pensar y procesar nuestras
vivencias: uno rápido o intuitivo y
otro lento o consciente. Hay
evidencia de que el primero sabe
estimar una media, pero no sumar.
Piense ahora cuando explica su
historial de méritos a un encargado
de recursos humanos en una
entrevista de media hora escasa.
Con poco tiempo, tenemos que
pensar rápido y, además, queremos
que se acuerden de nosotros a largo
plazo. Por eso, ¡no llenemos
nuestro currículum de líneas
innecesarias de méritos! Seamos
inteligentes y mantengamos nuestra
media alta. Llamemos la atención
con la calidad media porque ¡no
todo suma igual!
Ésta es la propuesta que
hacemos en el libro: no nos
preguntéis en qué acciones debéis
invertir, porque lo único que
sabemos es que ¡no somos mejores
que vosotros averiguándolo! Esta
humildad que nos caracteriza y
separa de cualquier ideología no
debe tomarse como algo colateral.
Es la herramienta central que se va
desmenuzando en sus
doce
capítulos:
la
duda
como
herramienta
de
investigación
científica. Explicaremos que la
economía es la ciencia de la
incertidumbre, y el método de
«prueba-error» es la palanca del
progreso humano.
Esto siempre ha sido así, y la
historia del progreso como
sociedad ha sido la historia de un
remix continuo. James Watt crea el
motor de vapor intentando reparar
el motor de Thomas Newcomen.
Christopher Latham Sholes diseña
la primera máquina de escribir
moderna en un piano, la cual
evoluciona durante cinco años hasta
el modelo QWERTY actual.
Thomas Edison no inventó la
bombilla: lo que realmente
consiguió fue la primera bombilla
comercialmente viable.
Los
descubrimientos
más
grandes de la historia vienen de
usar
la
«combinación»
de
materiales existentes: Gutenberg
populariza la imprenta en 1440,
pero todos los componentes de la
misma tenían cientos de años; la
dinastía Song, en China, llevaba
medio siglo utilizando imprentas de
tipos móviles. Henry Ford inventó
el primer modelo de coche
estandarizado, el modelo T. Para
ello combinó las cadenas de
montaje (ya existentes) con
componentes de coches ya creados.
La propia World Wide Web es una
transformación y combinación de
sistemas
de
protocolos
ya
existentes.
Y, cómo no, el célebre caso de
Xerox, en cuyos sistemas Apple se
basó completamente para crear su
primer ordenador personal. ¿Dónde
innovó Apple y qué hace que se
posicione como líder del mercado?
Apple innovó en la creación de una
versión
tremendamente
más
eficiente en costes, haciendo el
ordenador
personal
algo
comercialmente viable. El ejemplo
que mejor recoge este espíritu
innovador es la reducción de costes
de producción del ratón, desde su
desorbitado coste inicial hasta los
10 dólares, lograda al combinar la
idea original con el mecanismo de
los desodorantes de bola.
Sintetia.com nos ha traído
muchas alegrías, alguna en forma de
premio, pero, sin duda, la más
valiosa ha sido el descubrimiento
de grandes economistas a cuyas
voces hemos sido capaces de dar
un altavoz. Algunos están firmando
aquí con nosotros este primer libro,
y por ello se lo agradecemos de
corazón. Tanto como al resto de la
familia que ha firmado alguna
columna, y a los que queremos dar
aquí las gracias igualmente: Simón
González de la Riva, Lilian
Fernández,
Sebastián
Puig,
Mercedes Storch, Carlos Aparicio,
Gian-Lluís
Ribechini
Creus,
Manuel Illueca o Pablo Blasco,
entre muchos otros.
Esperamos que el libro te ayude
a cultivar la duda en su forma de
analizar nuestra realidad. Quizá tu
reacción cuando leas el título sea
pensar que no sólo los economistas
tienen que dudar para ser fiables,
sino que debe dudar cualquier
persona o gran profesional. La duda
es el combustible para seguir
investigando, es el incentivo para
pensar y mejorar en ese
acercamiento hacia la verdad
(siempre tozuda y cargada de
aristas). Y la tarea de un
economista no sólo está en
comprender y explicar qué es la
deuda, el déficit o cómo funcionan
los impuestos. Aspiramos a que
como lector tomes prestadas
algunas de las herramientas de los
economistas a la hora de pensar en
tu día a día: te resultará a la vez útil
y divertido. ¡Prometido!
1
Un puente sobre el Bósforo
ABEL FERNÁNDEZ, ANDRÉS ALONSO
Y JAVIER GARCÍA
La ciencia será siempre una
búsqueda,
jamás
un
descubrimiento real. Es un
viaje, nunca una llegada.
KARL P OPPER
Cada mañana, el puente sobre el
estrecho mar que separa la parte
asiática y la parte europea de
Estambul se convierte en el
escenario de insólitas imágenes.
Pocas vistas en el mundo condensan
tanto poderío visual e histórico
como la antigua Constantinopla
observada
desde
un
punto
suspendido sobre el Bósforo.
Castillos y palacios a ambas orillas
son testimonio de la importancia
estratégica que el estrecho ha
tenido durante la mayor parte de
nuestra historia, desde la fundación
original de la ciudad como polis
griega, pasando por la ocupación
persa, su época bizantina y la
definitiva conquista otomana. Las
vistas más espectaculares se
encuentran hacia el oeste, con los
perfiles de las mezquitas sobre el
Cuerno de Oro, el brazo del
Bósforo que se adentra en la parte
europea de Estambul.
No nos engañemos; la mayoría
de los habitantes cruzan el Bósforo
en los ferris de línea regular,
aunque sólo sea porque pocos
pueden permitirse el estratosférico
precio de la gasolina. Pero Turquía
ha experimentado un fuerte
crecimiento económico durante la
última
década,
concentrado
principalmente en las regiones más
cercanas a Estambul, y entre sus
más de setenta millones de
habitantes ha emergido una clase
acomodada que utiliza el automóvil
como señal de estatus. Además, el
centro económico y comercial de la
ciudad se encuentra en su parte
europea, mientras que los grandes
puertos y la capital del país,
Ankara, se encuentran en la parte
asiática.
Y, si algo abunda en el puente
sobre el Bósforo cada mañana, es
tiempo de sobra para admirar las
maravillas arquitectónicas y para
recordar los momentos históricos
que tal encrucijada de culturas ha
dejado para la posteridad. ¿El
motivo? El inevitable atasco que
cada día se produce en las horas
punta. Aunque existe otro puente
sobre el Bósforo cinco kilómetros
al noreste, dichos dos puentes son
el único paso directo de vehículos
entre las dos partes de una ciudad
en la que habitan trece millones de
personas.
Una de las consecuencias de
este rápido desarrollo es que, cada
día, 180.000 vehículos cruzan el
puente principal sobre el Bósforo,
garantizando un atasco que suele
comenzar con varios kilómetros de
antelación. Se podría argumentar
que parte del problema es
regulatorio, puesto que un peaje
más alto reduciría el tráfico y
aliviaría la situación. Y, si bien ello
es cierto, no lo es menos que una
mejor coordinación del tráfico
podría aumentar el número de
coches que cada hora pasan por el
puente sin producirse atascos. Si
los
180.000
vehículos
que
diariamente cruzan el Bósforo lo
hiciesen en fila ordenada por cada
uno de los seis carriles abiertos,
guardando 30 metros de separación
y a una velocidad de 90 kilómetros
por hora, en sólo diez horas la
totalidad de los vehículos habría
cruzado sin necesidad de detenerse.
¿Qué fenómeno impide entonces
el tráfico fluido? Un equipo de
físicos de la Universidad de
Nagoya, tras realizar simulaciones
con tráfico real y virtual, llegó a la
conclusión de que un leve frenazo
es motivo suficiente para detener
completamente el tráfico de una
autopista. El fenómeno comienza
cuando un conductor realiza un
cambio de carril, bien sea para
intentar ganar unos segundos o para
tomar una salida, y obliga al coche
al que sigue a frenar levemente. La
fracción de tiempo necesaria para
que el conductor que va detrás
reaccione le obliga a frenar con una
intensidad un poco mayor, y lo
mismo sucede también con el coche
que circula inmediatamente detrás.
Cuando la distancia entre los
coches que circulan es pequeña,
ello genera una onda de frenazos
que, como observó el equipo de
investigadores, se propaga con
intensidad creciente en dirección
contraria al tráfico a una velocidad
de unos 20 kilómetros por hora. En
esta situación, lo único que puede
evitar el parón final absoluto es que
la distancia entre dos vehículos de
la autopista sea tal que el segundo
no necesite frenar.
¿Quién es entonces el culpable
de un atasco? Generalmente, el
culpable original acaba siendo un
conductor que ni tiene en cuenta ni
le importa la repercusión que su
cambio de carril tendrá sobre todos
los que le siguen; al fin y al cabo,
¡tiene que tomar su salida! Los
economistas tienen un nombre para
este problema de coordinación:
externalidad. Las externalidades
negativas se producen cuando un
agente realiza una acción con
consecuencias negativas para otras
personas, sin que dicho perjuicio se
vea incorporado en el coste de la
acción. Por ejemplo, cuando una
persona sale de noche por una zona
de bares, el precio de las
consumiciones no tiene en cuenta el
ruido que los bares generan. Para
que un mercado genere la cantidad
óptima de un bien, sus precios
deberían tener en cuenta las
consecuencias externas de dicho
mercado.
En un mercado regulado, una
solución habitual consiste en
introducir un impuesto sobre el
fenómeno
que
genera
externalidades negativas. ¿Sería
posible esto en el caso de los
frenazos?
Por
ahora,
esta
posibilidad es realmente difícil. La
única solución a los colapsos
consistiría de momento en la
introducción de un peaje que
reduzca el tráfico, pero esta
solución distaría mucho de ser la
perfecta porque, como hemos visto,
si la coordinación en la conducción
fuese perfecta, las actuales vías de
circulación podrían soportar mucho
más tráfico que el que actualmente
soportan.
Mientras
los
conductores
soportan
estoicamente
el
embotellamiento
—pocos
se
enfadan, o eso parece cuando uno
les observa, pues saben de
antemano lo que les espera—, un
pequeño
milagro
de
la
coordinación
humana
sucede
simultáneamente: un gran número
de ciudadanos ofrece todo tipo de
servicios a lo largo del atasco,
atendiendo
necesidades
aparentemente variopintas, pero
íntimamente
ligadas
a
los
problemas que genera un atasco.
Algunos cubren necesidades
evidentes, vendiendo comida y
bebida fresca, pero el ingenio de
muchos vendedores es realmente
sorprendente.
Unos
venden
cargadores de coche para todo tipo
de móviles, anticipando que en un
largo atasco muchos conductores
agotarán su batería hablando por
teléfono o navegando por internet.
Otros, ataviados con chalecos
reflectantes, ofrecen sus servicios
como mecánicos para reparar los
numerosos coches que se detienen
en el arcén con el embrague
quemado o el motor recalentado. Y
los más creativos ofrecen flores,
que probablemente serán regaladas
a alguna cita que espera
pacientemente en un restaurante de
la vieja Estambul. Y una
característica curiosa de todo este
conjunto
de
personas
que
sobreviven
solucionando
los
pequeños pero urgentes problemas
de los conductores es que, desde el
punto de vista de la normativa que
rige el comercio en los países
desarrollados, ¡su actividad es
ilegal!
Cualquier
actividad
comercial, por pequeña que sea,
suele estar sometida en nuestros
países a una regulación más o
menos estricta que intenta velar por
el bienestar del consumidor.
Por un lado, miles de
ciudadanos intentan coordinarse
bajo unas ciertas normas de tráfico
para atravesar un puente, pero son
incapaces de evitar el atasco
diario. Cada frenazo y cada golpe
de volante inoportuno por parte de
un conductor acaba perjudicando a
todos los que le suceden. Pero, en
ese mismo lugar, los mismos
ciudadanos
logran
realizar
intercambios provechosos para
todas las partes sin crear molestias
a los demás, a pesar de que las
regulaciones estatales prohíben
formalmente la prestación de este
tipo de pequeños servicios. Es
decir, una acción coordinada
resuelve algunos de los problemas
que otra acción coordinada crea.
¿Por qué algunas interacciones
entre ciudadanos libres fracasan y
otras, en cambio, tienen éxito? Este
tipo de preguntas constituye la
esencia misma de la disciplina de
la Economía (sí, con mayúsculas),
especialmente en lo que se refiere a
los investigadores que estudian el
punto de encuentro entre los
mercados y el papel del Estado.
Cuando las preguntas no se
formulan sobre cuestiones triviales
que ocurren sobre un puente en
Estambul, sino sobre problemas
más cercanos y que nos afectan de
lleno, las personas tenemos una
preocupante tendencia a admitir
respuestas sencillas y englobadas
en un mismo marco ideológico. Así,
los liberales más convencidos
suelen argumentar que la libertad en
la coordinación de nuestras
acciones es mejor que la
intromisión de un regulador, que
rara vez soluciona nada y que,
además, añade siempre costes y
efectos secundarios desconocidos.
Por
otra
parte,
los
más
intervencionistas tienden a ver
infinitas oportunidades de mejora
mediante cambios regulatorios en
nuestras interacciones con el resto
de los ciudadanos.
En cambio, la preciosa estampa
del puente sobre el Bósforo nos
enseña que ninguna respuesta es tan
sencilla, sino que los seres
humanos, al coordinarse en
libertad,
crean
a
menudo
situaciones lejanas de ser óptimas.
Y así como las regulaciones
pueden, en ocasiones, solucionar
problemas, también los crean donde
no los hay, o impiden la solución de
problemas
existentes,
como
sucedería
con
el
pequeño
ecosistema de servicios que se
produce sobre el puente. Conviene
recordar que, a menudo, el ser
humano
tiene
la
suficiente
flexibilidad como para hacer la
vista gorda ante la pequeña
irregularidad de quien vende un
cargador de móvil en un atasco,
reconociendo que la ley vigente no
es siempre la mejor respuesta a
todos los casos.
La complejidad de la economía
como disciplina
Las ciencias sociales son el
conjunto de disciplinas que
estudian las interacciones entre los
seres humanos; dentro de dichas
ciencias sociales, la economía es la
disciplina que se ha ocupado
históricamente de, valga la
redundancia,
las
actividades
económicas entre las personas; es
decir, todo lo relacionado con la
actividad laboral y empresarial, así
como la regulación desde el sector
público de dichas actividades o la
provisión de servicios públicos.
Las ciencias sociales buscan
entender y dar explicación a la
increíble complejidad de estas
relaciones humanas, por lo que no
es extraño que los avances
producidos en las mismas sean muy
inferiores a los de disciplinas como
la física o la biología. En la
economía o la sociología, los
intereses y motivaciones de
millones de seres humanos
interactúan formando uno de los
más complejos sistemas conocidos.
Existe, además, otro problema
que afecta mayoritariamente al
desarrollo de las ciencias sociales,
un problema que también sufren
otras
disciplinas
como
la
climatología o la astronomía: así
como la mayoría de las disciplinas
tiene un cierto margen para la
experimentación,
las
ciencias
sociales han de basar sus estudios
empíricos
en
datos
observacionales, es decir, en datos
obtenidos de la observación y el
registro de la realidad. ¿Por qué
supone esto un problema?
En primer lugar, como las
mediciones no se realizan en las
condiciones controladas de un
laboratorio, dichas mediciones
están a menudo contaminadas con
errores de medición. Por ejemplo,
el producto interior bruto (PIB) de
un país, vital para la investigación
macroeconómica, es el resultado de
un complejo proceso de estimación,
ya que no se puede observar
directamente; por otro lado, el nivel
de empleo se obtiene a través de
encuestas como la Encuesta de
Población Activa (EPA), las cuales
sufren inevitablemente de error
muestral. Pero el problema más
profundo que trae consigo la
naturaleza observacional de los
datos
es
que
un
cierto
comportamiento observado nunca
es producido por un único factor.
Cuando un gobierno introduce
una reforma laboral, suele ser poco
útil analizar qué ocurre durante los
meses siguientes con el paro y la
ocupación de un país: la actividad
económica está sujeta a fuerzas
cíclicas mucho más poderosas que
el alcance a corto plazo de una
reforma laboral o de cualquier otra
reforma estructural. Así, la pregunta
relevante a la hora de analizar los
resultados de, por ejemplo, una
medida contra el fracaso escolar no
es «¿qué ha pasado con el fracaso
escolar tras la medida?», sino
«¿qué hubiera pasado con el
fracaso escolar de no haber entrado
en funcionamiento la medida?». Las
ciencias
sociales
llaman
«contrafactuales» a estos mundos
paralelos hipotéticos que han de ser
el marco de comparación de nuestra
realidad tras una medida. Y ¿cómo
construyen el resto de las
disciplinas dicho contrafactual? El
método más sencillo es la
experimentación, que consiste
precisamente
en
mantener
inalterada una parte de la muestra
de todo estudio como «grupo de
control», una suerte de mundo
alternativo contra el cual comparar
los resultados de la muestra con la
que se experimenta.
En un experimento, los
individuos
son
asignados
aleatoriamente a cada grupo, a los
cuales se les administra un distinto
«tratamiento». Debido a la ley de
los
grandes
números,
las
características iniciales de los
grupos son prácticamente idénticas
si la muestra tiene un tamaño
razonable. Y, como el tratamiento
que cada grupo recibe depende de
un
proceso
aleatorio,
las
diferencias que surgen entre ambos
grupos son debidas al distinto
tratamiento.
Así, mientras la química o la
medicina
pueden
abordar
numerosos problemas desde la
sencillez de la experimentación, las
ciencias sociales han de recurrir a
estrategias empíricas mucho más
complejas, buscando de forma
creativa
sustitutos
de
la
variabilidad experimental. Y éste
es precisamente uno de los temas
que se tratan en este libro. ¿Cómo
podemos
extraer
relaciones
causales entre fenómenos ante la
complejidad de nuestra realidad?
Los economistas llevan tiempo
liderando, dentro de las ciencias
sociales, el desarrollo de métodos
dirigidos a abordar este problema.
Por un lado, también en nuestra
disciplina se están empezando a
realizar
numerosos
«ensayos
aleatorizados» —éste es el nombre
técnico que suelen recibir los
experimentos en ciencias sociales
—, aunque éstos se encuentran al
alcance
de
muy
pocos
investigadores debido a su elevado
coste y también a ciertas barreras
éticas que tienen que ver con qué se
puede experimentar y con qué no: si
queremos saber el efecto sobre el
bienestar de un programa de
desarrollo, ¿es ético elegir
aleatoriamente ciertas poblaciones
subdesarrolladas y dejarlas sin
recibir ayuda para constituir con
ellas el «grupo de control»?
Pero el gran salto cualitativo de
la investigación empírica en
economía se ha producido a partir
de la obsesión de los economistas
por resolver el mencionado
problema de la causalidad. Los
experimentos diseñados son raros
en economía, pero la historia, la
naturaleza o algunas decisiones
humanas producen a menudo
situaciones equiparables a las de
los experimentos formales. Por
ejemplo,
en
este
libro
descubriremos
las
curiosas
enseñanzas ocultas que nos pueden
mostrar celebraciones como el
premio especial de la lotería de
Navidad o tragedias como el
atentado terrorista del 11 de marzo
de 2004. La realidad genera de vez
en cuando perturbaciones que
pueden ser utilizadas por los
economistas
como
seudoexperimentos
mediante
técnicas estadísticas desarrolladas
durante las últimas décadas.
La investigación económica es,
pues, compleja y se encuentra
todavía lejos de los logros de
muchas otras disciplinas, pero los
avances recientes están siendo
importantes, y el crecimiento de la
disponibilidad de datos sin duda
acelerará
este
proceso.
Ya
empezamos, por lo tanto, a explicar
por qué este libro se titula Nunca te
fíes de un economista que no dude.
La duda es realmente una palanca
de progreso para la economía,
porque ésta no está repleta de leyes
físicas, por desgracia.
Una disciplina llena de
conclusiones contraintuitivas
Como mostraba el ejemplo del
puente sobre el Bósforo, las
simplificaciones que a menudo se
publican en los medios de
comunicación —y a las que también
suelen
estar
abonados
los
representantes políticos— suelen
ayudar muy poco a comprender la
realidad de un país. Y es que la
economía no es sólo una disciplina
en la que las respuestas claras
escasean, sino que, allí donde sí
existe una respuesta ampliamente
aceptada, ésta es a menudo
contraintuitiva. Es cierto que
existen fuertes discrepancias entre
grupos y corrientes de economistas,
y
es
probable
que
esas
discrepancias perduren durante
bastante tiempo debido a la
dificultad de obtener evidencia
empírica clara, pero entre los
economistas existen también fuertes
consensos alrededor de algunas
cuestiones en las que la visión del
ciudadano medio está muy alejada.
El consenso entre economistas
es
prácticamente
total
en
afirmaciones como que los
controles
de
precios
son
perjudiciales para el consumidor,
que las barreras a la importación
reducen el bienestar de un país, que
la protección a la agricultura (¡o a
cualquier sector!) es perniciosa
para el interés general o que los
sistemas de pensiones actuales son
insostenibles
debido
a
los
desequilibrios
demográficos
acaecidos durante el siglo XX. La
metáfora de la mano invisible es
ridiculizada en público, incluso
cuando prominentes economistas
progresistas como Paul Krugman o
Joseph Stiglitz han basado la
investigación que les llevó a su
Premio Nobel en dicho principio.
¿Por qué son contraintuitivas
muchas de las conclusiones de
nuestra
disciplina?
Existen
numerosas hipótesis, aunque la
mayoría de ellas tienen como
denominador común el hecho de
que
somos
animales
que
evolucionamos para sobrevivir y
razonar en un entorno muy distinto
al actual. Hace 50.000 años, las
consecuencias de nuestros actos
tenían sólo una repercusión
inmediata, y las decisiones de
carácter colectivo rara vez
alcanzaban a más de un puñado de
individuos sin más sistema
económico que la caza y la
recolección. La economía fue
durante decenas de milenios un
sistema cercano a la «suma cero»
en el que lo que ganaba un
individuo era a menudo una pérdida
para otro, y el hombre es, en
términos evolutivos, idéntico hoy a
aquellos
humanos
con
una
incipiente sociedad primitiva.
Hoy, por el contrario, las
decisiones de naturaleza colectiva
afectan a millones de agentes que
anticipan dichos cambios y
reaccionan a los mismos, con
numerosos
mecanismos
de
transmisión
intertemporal
impensables hace sólo 500 años.
Por un lado, las posibles
consecuencias futuras de nuestros
actos como país rebotan hacia el
presente en forma de tipos de
interés que incrementan los costes
de financiación. Por otro, los
precios de muchas materias primas
se negocian habitualmente con años
de antelación, y dicha estimación
del futuro afecta de nuevo a las
posibilidades
actuales
de
explotación de las mismas.
Las reformas laborales mejoran
o empeoran las condiciones
laborales
de
las
personas
actualmente con trabajo, pero
producen a menudo el efecto
opuesto sobre aquellos trabajos que
aún están por crearse. Tratar de
solucionar los problemas de
impagos y desahucios de quien
tiene hipotecas concedidas y no las
puede pagar puede hacer más
difícil que una persona que quiera
tener una hipoteca por primera vez
lo logre. De la misma forma,
aunque muchos teoremas de
equivalencia
muestran
la
impotencia de los gobiernos a la
hora de afrontar ciertos problemas,
ello no impide que los políticos
finjan conocer la solución para
arañar votos de los ciudadanos más
crédulos. En definitiva, existen
muchos ámbitos donde hay muchos
argumentos contraintuitivos y, lo
que es peor, unívocos.
La mente humana se encuentra
mucho más tranquila cuando es
capaz de encontrar una narrativa
coherente al mundo que la rodea,
pero la complejidad del sistema
económico actual excede con
mucho
su
capacidad
de
comprensión. Y, ante la dificultad
de comprender el sistema de
precios como mecanismo de
transmisión de información y
coordinación
descentralizada,
nuestra mente primitiva salta con
facilidad a la imagen de un gran
sistema coordinado centralmente
por grandes empresas y políticos.
De
la
misma
forma
que
adjudicamos al gobierno la
responsabilidad sobre la evolución
de dicho sistema, tendemos a
confiar demasiado en promesas que
apelan a creencias erróneas.
La respuesta política a la crisis
vivida durante los últimos años es
un perfecto ejemplo de esta
simplificación en la forma en que
vemos las propuestas de política
económica. En los medios de
comunicación se produjo una
polarización entre los partidarios
de un fuerte estímulo fiscal —un
aumento
del
gasto
público
financiado con deuda— frente a
quienes defendían la necesidad de
ser austeros para que la senda de la
deuda pública no se volviese
incontrolable. Incluso se llegó a
rescatar una antigua división
ideológica en el campo de la
macroeconomía, la que se dio entre
los «economistas de agua dulce» y
los «economistas de agua salada»,
que hace referencia a las
discrepancias producidas durante
los años setenta entre los
economistas de universidades como
Chicago, Minnesota y Rochester
(todas situadas a la orilla de los
Grandes Lagos) y los profesores de
universidades como el MIT,
Harvard,
Berkeley,
Yale
o
Columbia (todas ellas a la orilla
del agua salada del mar).
Los economistas de agua
salada, influenciados por la obra de
Keynes, defendían el sencillo
modelo clásico keynesiano y la
capacidad del gobierno de atenuar
los ciclos económicos mediante la
política fiscal y monetaria, mientras
que los economistas de agua dulce,
con Milton Friedman, Robert Lucas
o George Stigler a la cabeza,
cuestionaban la capacidad del
gobierno de moldear con facilidad
la economía al tener en cuenta la
posible anticipación de los agentes
a las decisiones políticas: por
ejemplo, si los mercados de deuda
anticipan un aumento de la
inflación, reaccionarán ajustando al
alza los tipos de interés para tener
en cuenta la futura pérdida de
capacidad adquisitiva del dinero.
La división inicial fue superándose
con los años, y, finalmente, la
mayoría de las nuevas ideas de los
economistas de agua salada fueron
incorporadas a la corriente
ortodoxa de la macroeconomía. La
siguiente
generación
de
macroeconomistas (entre los que
destacan
economistas
como
Michael
Woodford,
Larry
Christiano o Ben Bernanke,
desconocidos en su faceta de
investigadores para el gran
público) construye modelos que
mantienen elementos de la tradición
keynesiana, pero están plagados de
incertidumbre,
expectativas
racionales y de las numerosas
imperfecciones
que
se
han
descubierto durante los últimos
años.
Como se puede comprobar, los
actuales modelos macroeconómicos
son
de
una
complejidad
difícilmente accesible para el
común de los mortales, ¡e incluso
para la mayoría de los economistas
no especialistas en la materia!, y
ofrecen respuestas mucho menos
claras y precisas que los primeros
modelos keynesianos.
Pero, mientras tanto, la prensa y
los creadores de opinión han
preferido resucitar un debate
inexistente y basado en preguntas
fáciles y respuestas precisas. Al fin
y al cabo, los ciudadanos demandan
respuestas ante la gravedad de la
crisis, pero no tienen el tiempo de
aprender
los
complejos
mecanismos
de
interacción
existentes entre todos los agentes...
¡ni
paciencia
para
aceptar
respuestas ambiguas!
El imperialismo económico
también puede ser divertido
El puente sobre el Bósforo, con sus
atascos, mecánicos, flores y
cargadores de móvil, ofrece una
buena ilustración de los dilemas
sobre los que trata la disciplina de
la economía. Y es normal que una
pregunta salte a la mente: ¿no
debería la economía encargarse
principalmente de problemas más
importantes y generales, como el
crecimiento, las exportaciones e
importaciones, la inflación o el
desempleo?
Durante muchas décadas, este
tipo
de
preguntas
fueron
consideradas
las
cuestiones
centrales de la disciplina, y eran
raros los trabajos que se atrevían a
analizar otros campos. Pero Gary
Becker, de la Universidad de
Chicago, rompió para siempre el
aislamiento de la disciplina al
comenzar a utilizar las herramientas
clásicas
del
pensamiento
económico
para
analizar
y
comprender
problemas
aparentemente lejanos como la
delincuencia o las relaciones
familiares. El impacto de sus
trabajos fue tal que muchos otros
economistas
comenzaron
a
aproximarse a problemas de otras
disciplinas con los métodos típicos
de la economía: coste de
oportunidad,
escasez,
oferta,
demanda, preferencias, etc. Las
disciplinas más afectadas por esta
invasión fueron, por supuesto,
aquellas más cercanas por su
carácter de ciencia social: la
sociología, la ciencia política, la
historia o incluso la geografía. Y
este entremetimiento generalizado
llegó incluso a generar una
expresión con nombre propio,
«imperialismo económico», no
exenta de una evidente connotación
negativa.
Como sucede en estos casos, la
colonización de otras disciplinas ha
estado plagada de numerosos
excesos y de aproximaciones
simplistas a problemas complejos
que otras disciplinas habían tratado
ya con mucha mayor profundidad.
Además, la mayor notoriedad y
tamaño de los departamentos de
economía era suficiente, a menudo,
para eclipsar las aportaciones
realizadas
desde
otros
departamentos con muchos menos
recursos. Pero había un motivo
especialmente poderoso por el cual
el enfoque económico estaba
ganando terreno: la enorme ventaja
en el desarrollo de las técnicas
cuantitativas con respecto al resto
de las ciencias sociales. Debido al
hecho de que la economía había
tratado desde siempre con datos,
los
economistas
fueron
desarrollando una parte de la
estadística hasta el punto de crear
un nombre propio para la misma:
econometría.
La dificultad para extraer
relaciones de causalidad entre los
distintos fenómenos económicos ha
llevado al desarrollo de técnicas
estadísticas
extremadamente
sofisticadas, muchas de las cuales
han
constituido
desarrollos
fundamentales en la estadística,
como el concepto de cointegración
o el método generalizado de los
momentos (MGM), avances que
exceden con mucho el propósito de
este libro pero que han llevado a
sus autores a recibir el Premio
Nobel de Economía.
Pero, así como una parte de las
áreas invadidas repudiaba los
excesos de los economistas metidos
a, por ejemplo, sociólogos, otra
parte
importante
de
los
investigadores en ciencias sociales
vio el potencial de muchos de los
conceptos básicos de economía a la
hora de comprender los problemas
sobre los cuales llevaban ya años
investigando. La consecuencia del
imperialismo económico ha sido
finalmente positiva para el estado
de la investigación en ciencias
sociales, ya que las áreas que han
recibido dicha influencia han
adoptado finalmente las ideas más
útiles, mientras que la economía ha
adoptado también muchas ideas
ajenas, enriqueciendo así su forma
de ver el mundo, como, por
ejemplo, ha sucedido con las ideas
sobre la racionalidad adoptadas de
la psicología o las ideas sobre las
instituciones provenientes de la
sociología o la historia.
Como pequeño homenaje al
crecimiento imperialista de nuestra
disciplina, en este libro tratamos
también numerosos ejemplos de la
vida cotidiana en los que una
mirada económica puede arrojar
una luz especial, como puede ser el
caso de las dietas, el amor, la
felicidad o cómo se podría utilizar
la ingeniería financiera para
abordar problemas globales y
complejos como, por ejemplo,
buscar tratamientos efectivos contra
el cáncer.
Las leyes de la oferta y la
demanda rigen mucho más allá de
los
mercados
formales,
y
fenómenos
como
el
efecto
sustitución y el efecto renta pueden
ayudarte también a comprender
mejor algunos de tus problemas del
día a día. La economía es una
ciencia compleja, pero puede
ofrecer algunas lecciones sencillas
sobre problemas aparentemente
muy lejanos. Sus respuestas nunca
te
permitirán
conocer
las
profundidades insondables del
amor, pero quizá sí puedan iluminar
algún
aspecto
del
mismo
inadvertido para ti hasta ahora.
Un viaje apasionante
La economía es, por lo tanto, una
ciencia compleja y apasionante que
parte de las motivaciones más
elementales de los individuos para
intentar comprender cómo éstos se
relacionan entre sí, tanto en
fenómenos asociados con la vida
económica como en el ámbito
personal... ¡o incluso en la relación
de los individuos consigo mismos!
Cualquier escenario es una buena
oportunidad para pensar en
términos económicos, como el
mencionado puente sobre el
Bósforo, en el cual se producen
simultáneamente numerosos éxitos y
errores de coordinación, así como
también
pequeños
dilemas
regulatorios. Proponemos al lector
un apasionante paseo por esta
complejidad a través de la
aplicación de la economía a todos
estos problemas, y además
prometemos que el paseo no sólo
será instructivo... ¡sino también
divertido! Al menos, todo lo
divertido que puede ser un libro
que trata también problemas serios
como la discriminación de la mujer
o el terrorismo a través de una lupa
conocida como la «ciencia
lúgubre».
Y es que algo ha cambiado
desde el momento en que nuestros
abuelos aprendieron lo que es la
prima de riesgo. La economía y las
finanzas se han incrustado en
nuestras vidas como un meteorito
caído del cielo del cual
comprendemos poco. Las opiniones
de analistas y tertulianos sobre los
orígenes y soluciones de los
problemas son abundantes, y llevan
al error de considerar a los
economistas como médicos que,
dados unos síntomas, pueden
recetar soluciones rápidas y
eficaces.
En cambio, nuestra experiencia
nos permite darte un consejo:
desconfía de un economista que no
dude; el mundo es demasiado
complejo e impredecible. Y esto no
es nada peyorativo hacia los
economistas, o no debería serlo. La
economía no es un dogma, más bien
al contrario. La duda es la mejor
herramienta de todo científico. De
hecho, a nosotros nos encanta
dudar, y por eso estudiamos
economía, la ciencia de la
incertidumbre.
Los economistas casi siempre
fallamos en nuestras predicciones.
Xavier Sala i Martín, catedrático en
la prestigiosa Universidad de
Columbia, describe nuestra labor
como la de un conductor que dirige
su coche mirando por el retrovisor:
... si la carretera es recta y no giras
el volante, no pasa nada y todo el
mundo piensa que sabes lo que
haces. Ahora bien, si giras cuando
no hay curva o tiras recto cuando la
hay, te vas directo a la cuneta y la
gente se ríe de tu incompetencia.
No obstante, y en contra de la
sabiduría popular, la caja de
herramientas de la economía es muy
potente a la hora de analizar tanto
nuestros problemas económicos
como aquellos derivados de la vida
cotidiana. Es una caja de
herramientas variada e interesante
que bebe de muchas disciplinas,
pero que desde luego no sirve para
todo, y mucho menos para asentar
dogmas de fe.
Los economistas estamos más o
menos cómodos explicando las
curvas pasadas, pero (sabemos
que) el futuro de la carretera es
impredecible. Tan sólo aspiramos a
no descarrilar. Aspiración que en
2008 se quebró, como Lehman
Brothers. Caímos con todo el
equipo pendiente abajo. Hasta tal
punto que obligamos al ciudadano
medio a familiarizarse con
conceptos antes reservados para
aburridos analistas que tenían sus
cinco minutos en los medios de
comunicación (momento ideal para
desconectar). De repente, la bolsa,
la prima de riesgo, el déficit o la
crisis bancaria eran temas que
estaban en las tertulias de todos los
medios, pero también en el bar de
la esquina.
Lo mejor de ser economista es
que ves las cosas con otra mirada,
con otras gafas. Dejas de ver
certezas (bueno, hay algún gurú muy
asertivo que juega a la política y
pretende adoctrinar) y comienzas a
ver todo con probabilidades. Por
eso nosotros proponemos dejar de
lado los déficits, la macroeconomía
y los mercados financieros, y
ayudarte a graduar tu vista con las
gafas de un economista. Igual hasta
te gusta lo meticuloso que se puede
llegar a ser. Te avisamos desde el
primer momento, es muy adictivo.
Felicidad, dietas, mentiras,
terrorismo o la independencia de
Cataluña. Éstos son algunos de los
temas que nos gustan y que, vistos
con las gafas de un economista,
pueden ser analizados con otros
prismas que te ayuden a pensar «de
otra manera», o como gusta decir a
los expertos en innovación, «pensar
fuera de la caja». Éste es
precisamente el objetivo de este
libro, ayudarte a pensar sobre una
amplia variedad de temas que están
en tu vida diaria.
Aparcamos ese metalenguaje,
que muchas veces es una
combinación de pedantería y de
dificultad para explicar conceptos
complejos, para descubrir en
cambio si es rentable pedir
sacarina con el café después de una
comilona o si, en mitad de una
dieta, tiene sentido tomarse una
tarta de chocolate. Y qué decir si un
economista te puede dar algunas
claves para ligar, rellenar un
currículum o hacer una presentación
en público. Incluso aportaremos
propuestas para mejorar las
condiciones de pobreza en África o
curar el cáncer, ¿ambicioso
verdad?
Todo
esto
lo
haremos
asumiendo que tenemos sesgos que
nos desvían del ya famoso «homo
economicus racional». Pero no nos
asustemos, usando la terminología
de John List, uno de los
economistas más brillantes en el
campo de la economía experimental
y conductual, veremos cómo
encajan los sesgos psicológicos
individuales con el supuesto
neoclásico
de
racionalidad
colectiva. Si queremos hacer un
viaje de Barcelona a Madrid, por
ejemplo para ver un partido en el
Santiago Bernabéu, la teoría
neoclásica nos llevaría hasta, por
ejemplo, Getafe. Pero necesitamos
la teoría de la economía conductual
para llegar desde Getafe hasta
nuestro asiento en la fila 15 del
estadio.
Entraremos en este nuevo y
vertiginoso campo de investigación
para explicar que no deberíamos
asumir tan alegremente que las
personas suelen ser racionales y
que toman sistemáticamente las
decisiones adecuadas. Estamos
contaminados por múltiples sesgos
que la psicología ha estudiado, los
cuales afectan tanto a las finanzas
corporativas como a las familiares,
a las empresas que nacen y a las
que lanzan grandes proyectos de
inversión. El riesgo y la
incertidumbre son silenciosos y
difíciles de ver, y nuestro
comportamiento influye muchas
veces para la toma de decisiones
«inteligentes».
Esta irracionalidad individual
puede agregarse y convertirse en
racionalidad colectiva, tal y como
nos explica James Surowiecki en
The Wisdom of Crowds ( «La
sabiduría de las masas»). Éste es el
poder de la inteligencia colectiva,
otro camino por el que te
introduciremos. Es un camino muy
atractivo porque en este mundo
complejo e impredecible hay
mecanismos muy efectivos para
aprender a predecir mejor o,
incluso, para curar a personas con
enfermedades
extremadamente
raras.
Quizá compartes con nosotros
que estamos saturados de los
análisis financieros y bursátiles
aparentemente
avanzados
que
inundan
los
medios
de
comunicación.
Carentes
de
memoria, nadie nos avisa de los
historiales de acierto y error de los
gurús, y perdemos la perspectiva de
que la mayoría de las opiniones y
recetas que nos proponen son meras
ocurrencias que se quedan en el
olvido. Los medios se desvían
sistemáticamente de la verdad, que
dista de ser única y cierta. Una
incertidumbre que ha dado pie a
que el brillante economista
Matthew Gentzkow analice el sesgo
de los medios de comunicación y
nos explique cómo funciona.
Comentamos estudios muy
peculiares
de
economistas
brillantes y apasionados que usan
esas herramientas de la lógica
económica
para
múltiples
problemas
no-económicos.
Aprenderemos a saber por qué
mentimos y comprobaremos si
Bárcenas decía la verdad. Veremos
cómo herramientas denostadas por
la crisis como la titulización de
activos pueden servir para montar
un plan de financiación de la cura
del cáncer, y usaremos las técnicas
de nudge para ver cómo los
incentivos por sí solos pueden
lograr que los propios ciudadanos
cuiden de sí mismos, lo cual nos da
una idea sobre cómo suavizar el
problema de las pensiones en
España o el fraude fiscal.
Estamos
acostumbrados
a
analizar la pobreza como un
fenómeno muy concreto de falta de
recursos, de problemas educativos
y sanitarios. Tenemos la foto de los
mendigos, de los vertederos llenos
de niños, de África. Pero la
pobreza en el siglo XXI está
tomando nuevos matices. Cada vez
son más los costes que genera la
pobreza y la exclusión social, y es
muy compleja la solución a estos
problemas globales que requieren
de políticas con nuevos diseños.
Hablaremos de estos costes, de
estas políticas y de qué impacto
puede tener esto en un país como
España, con una gran bolsa de
desempleo joven y no tan joven,
crónico y de larga duración.
Y qué decir de la complejidad a
la que tienen que hacer frente las
organizaciones para innovar y crear
riqueza. Piensa en el supermercado
al que acudes a comprar, tiene más
de 25.000 referencias de productos
alimentarios distintos. La realidad
nos demuestra todos los días que
ningún plan de negocio soporta el
primer contacto con un cliente,
porque se queda obsoleto. Crear
algo diferencial es cada vez más
barato, pero también más y más
difícil. En las empresas ya no sólo
se gestionan cuerpos que trabajan
cuarenta horas a la semana en
tareas
predecibles
y
predeterminadas; la complejidad
radica en que son imprescindibles
para avanzar modelos de gestión de
mentes, con sus motivaciones, con
sus limitaciones y, sobre todo, con
su capacidad de adaptación. Las
jerarquías se tambalean. Los
riesgos son cada vez más
silenciosos e impredecibles. Así
que si estás asustado porque el
mundo te parece más y más
complejo cada día, deja de
asustarte, ¡es así! Y tenemos que
usar
nuevas
lógicas
para
enfrentarnos a él.
En definitiva, como puedes
comprobar, éste no es un libro de
economía «usual», sino que
pretende ser un viaje apasionante,
ameno (prometido), a través de
casos reales. La economía no es
una herramienta perfecta y se
enfrenta de forma constante a
nuevos desafíos, para lo cual
necesita integrar y ampliar nuevos
conocimientos de otras disciplinas.
Y ése es precisamente el objetivo
de este libro: dar a conocer estas
nuevas aplicaciones y formas de
ver el mundo, que afectan tanto al
transcurso de la historia como a
nuestros pequeños quehaceres
diarios. Como podrás comprobar a
través de casos muy cercanos a la
realidad de cualquiera de nosotros,
nunca te fíes de un economista que
no dude.
2
La inteligencia colectiva
puede salvar vidas
ANDRÉS ALONSO
Diversidad e independencia son
importantes porque las mejores
decisiones
colectivas
son
producto del desacuerdo y el
debate, no del consenso o
compromiso.
JAMES SUROWIECKI, en The
Wisdom of Crowds (2004)
Pensemos en internet. Miles de
personas
independientes
y
dispersas
crean de
manera
descentralizada
páginas
web,
referenciándose unas a otras. El
algoritmo de Google todo lo que
hace es agregar esta información de
manera eficiente, tal que cuando
tecleas una consulta en el buscador,
su respuesta nos parece en
ocasiones
impresionantemente
inteligente.
La importancia de una página
web es un problema inherentemente
subjetivo que depende del interés
de los lectores, de su conocimiento
y de sus inclinaciones. Aun así, se
puede decir objetivamente mucho
sobre la importancia relativa de las
páginas web.
Así comienza uno de los
artículos
científicos
más
importantes de la historia, al menos
en términos de su impacto
inmediato sobre la realidad
económica
y
social:
«The
PageRank
Citation
Ranking:
Bringing Order to the Web», en el
que Larry Page y Sergey Brin
sentaban las bases de lo que sería
el buscador de Google.
Este artículo describe PageRank,
un método para valorar las páginas
web de forma objetiva y mecánica,
midiendo de forma efectiva la
atención e interés humanos
dirigidos hacia cada página.
Comparamos PageRank con un
«web surfer» aleatorio idealizado.
Mostramos cómo calcular de forma
eficiente el PageRank para un
número grande de páginas y
mostramos cómo utilizar el
PageRank para la búsqueda y
navegación de los usuarios.
De los 24 millones de páginas
web que su primera versión
consiguió indexar, internet ha
crecido hoy hasta superar, según
estimaciones razonables, los 4.000
millones de direcciones distintas.
Dado que el algoritmo ha de buscar
no sólo los vínculos de primer
orden que una página recibe, sino
también los de órdenes superiores,
el problema real no se encuentra en
la idea original de cómo medir la
relevancia en internet, sino en
lograr indexar el mayor porcentaje
de sitios existentes en la red (¡miles
de millones!) y en evaluar los
vínculos que entran y salen de cada
web.
La gran pregunta es: ¿Cuándo se
puede decir que un grupo es
inteligente? ¿Por qué Google es tan
inteligente en opinión de los
usuarios? ¿Se debe al algoritmo o
al
proceso
de
creación
descentralizada de información por
millones de usuarios? Ésta es la
pregunta que se hace el centro de
investigación Centre for Collective
Inteligence (CCI) del prestigioso
Instituto
Tecnológico
de
Massachusetts (MIT).
Técnicamente,
definimos
inteligencia colectiva como un
grupo de individuos que actuan
juntos de manera tal que parecen
inteligentes. Pero ¿puede ser un
grupo de personas más inteligente
que cada una de ellas por
separado? Ésta es una pregunta muy
importante, sobre todo cuando se
trata de reducir la complejidad con
la que tenemos que desenvolvernos
en el mundo real. En realidad,
siguiendo la definición del MIT, la
inteligencia colectiva ha existido
desde hace miles de años:
ejércitos, compañías, países o
familias actúan en determinadas
ocasiones de forma muy inteligente
para un observador externo.
Thomas Malone, director del
CCI, inició en 2006 el reto de
juntar expertos de campos tan
diversos como la neurociencia, la
psicología social, la informática y
las redes sociales, e investigadores
especializados en aplicar las bases
de la psicología conductual en los
modelos económicos. El objetivo
de Malone era conseguir una
medida de inteligencia colectiva
que nos permitiera evaluar el
rendimiento de un grupo y tratar de
llegar a predecir el éxito del
mismo.
Siempre que trabajamos con la
inteligencia de las personas
tenemos un componente subjetivo y
que tiene que ver con cómo de
hábiles somos resolviendo una
tarea concreta. Es decir, primero
debemos definir la tarea a realizar
y
luego
valoramos
nuestra
capacidad de resolverla. Esto es lo
que mide la medida estadística
conocida como Test de Cociente
Intelectual
(CI),
ampliamente
utilizado en las valoraciones de
individuos aislados.
Esta subjetividad tiende a
llevarnos a equívocos; por ejemplo,
a pensar que las personas que son
buenas resolviendo problemas
numéricos no lo serán en tareas de
letras, o viceversa. En cambio, esto
es algo que hoy sabemos que no es
cierto. Aquellos que destacan en su
habilidad analítica, en promedio,
suelen ser mejores que la media en
todos los campos. Es lo que los
psicólogos llaman el «Factor G», la
existencia de un factor general de
inteligencia que subyace a las
habilidades para la ejecución de las
tareas
intelectuales.
Es
precisamente este Factor G, y no el
CI, la única variable que
estadísticamente nos ayuda a
estimar cuán exitoso puede ser el
futuro de una persona (profesión,
salario, reputación). Hoy Thomas
Malone trabaja con grupos de
personas desarrollando medidas al
estilo Factor G para colectivos, y
¿sabes cuál es la primera gran
conclusión
científicamente
demostrada? Algo que muchos
sabemos por experiencia propia:
Hay grupos de personas muy
ineficientes
compuestos
por
personas muy inteligentes.
El reto consiste en comprender
qué hace a un grupo inteligente
como tal, puesto que no son los
mismos factores que hacen a las
personas
inteligentes
como
individuos. Pensemos en el paseo
de la Castellana un lunes por la
mañana, con cientos de coches en
fila
india
sincrónicamente
avanzando y adelantándose. O en la
Gran Vía de Madrid un sábado por
la tarde, con miles de personas
intentando llegar de Cibeles a plaza
de España en el menor tiempo
posible. Algo que para un
observador externo surge como de
manera
espontánea
es
la
demostración empírica de un
colectivo que se comporta de
manera inteligente. En el capítulo
en el que hablaremos de la potencia
de la analítica de los datos
ponemos el ejemplo de las
hormigas, que encuentran el camino
más corto para llegar a su casa tras
recolectar comida, mas, por
separado, ninguna sería tan
eficiente. Pero ¿qué hay en los
grupos humanos que los convierte a
veces en entidades sumamente
inteligentes y otras en entidades
estúpidas?
Nos tenemos que remitir a un
artículo de 1907 de la revista
Nature para conocer la ciencia que
hay detrás del poder de los
colectivos. Cuenta la historia
conocida como «el buey de
Galton». Sir Francis Galton fue un
estadístico que inventó el uso de la
línea de regresión, realmente
importante y conocida por todos los
que hayamos tenido algún que otro
acercamiento con la estadística.
También fue pionero explicando el
concepto de regresión a la media,
popularizó el uso de la distribución
normal e introdujo el concepto de
correlación.
Este gran estadístico acudió a
una feria de ganado en Plymouth,
donde le llamó la atención una
competición sobre el peso de un
buey. El objetivo era adivinar el
peso de la pieza una vez
descuartizada y preparada. Cerca
de 800 personas participaron
escribiendo su predicción en un
pedazo de papel. El ganador se
llevaría un premio. Sir Francis
Galton recopiló todos los datos y
los analizó estadísticamente y
comprobó que la estimación media
de todos los participantes estaba
sorprendentemente cerca del peso
real del buey (1.198 libras). En
concreto, se desviaba sólo por 1
libra. Esta estimación no sólo era
mejor que la del ganador individual
de la competición, sino que era
mejor que las cifras que muchos
expertos habían aportado. En un
estudio posterior descubrió que la
mediana se comportaba incluso
como mejor estimador.
Nace de aquí el concepto que
en 2004 popularizó el periodista de
la revista The New Yorker James
Surowiecki en su libro The Wisdom
of Crowds, en el que lucharía por
explicar el poder de la agregación
de la información y por averiguar
cuándo los grupos se comportan de
manera inteligente y cuándo no.
Esquemáticamente, son cuatro
las condiciones que se tienen que
dar para que un grupo se comporte
bien:
A. Diversidad: Todos los
miembros del grupo deben poseer
su propia fuente de información
privada.
B. Independencia: Nadie debe
dejarse influir por el resto de
miembros del grupo.
C. Descentralización: Cada cual
debe poder especializarse en una
parte pequeña del problema
planteado.
D. Agregación: Debe existir
algún mecanismo de agregación de
la información; por ejemplo, Galton
usó la media y finalmente propuso
la mediana. Y como veremos a lo
largo del capítulo, hoy conocemos
mucho más cómo son las encuestas
ponderadas y los mercados de
predicción.
Quizá el proyecto que más
ambiciosamente trabaja el estudio
de estos mecanismos de agregación
sea el Good Judgement Project, un
grupo de investigación de la
Universidad
de
Pennsylvania
liderado por el catedrático Philip
Tetlock, autor del superventas
Expert Political Judgement.
Philip Tetlock se propuso
averiguar por qué ningún supuesto
experto en el campo de la política
podía consistentemente predecir lo
que ocurriría en el futuro cercano.
Y no sólo hablamos de expertos
mediáticos, sino también de
catedráticos en sociología y
politólogos: nadie sabía más que el
resto cuando se recopilaban sus
respuestas a problemas que
posteriormente se resolvían, con lo
que se podía verificar la eficacia
de las predicciones de cada cual.
La realidad es que cuando los
expertos fallan, raramente aparecen
en prensa y nadie toma nota de sus
opiniones, y si se les pregunta
sobre
su
escasa
puntería,
normalmente achacan el fallo a falta
de precisión en el momento de
cuándo sucedería o a que estamos
ante
un
evento
de
baja
probabilidad,
totalmente
impredecible.
No es menos cierto que, a falta
de que haya dinero de por medio,
nadie te paga por tus aciertos; en
cambio, los expertos que aparecen
en prensa, medios o televisión,
reciben una recompensa importante:
reputación. Ante este hecho, la
premisa de Tetlock es que cuanto
más conocido es un experto y más
frecuentemente aparece citado en
los medios, menos fiables serán sus
predicciones sobre el futuro más
probable que va a venir. Es decir,
la precisión de las predicciones de
los expertos tiene una relación
inversa con la autoconfianza, el
renombre y, llegado cierto punto,
incluso con el (exceso) de
conocimiento en profundidad de
una materia. Efectivamente, ¡cuanto
más sabes de una materia, menos
fiable puedes llegar a ser!
Un matemático cuyos escritos
toda mente inquieta tiene que tener
como libro de cabecera es John
Allen Paulos, quien en su libro El
hombre anumérico nos recuerda:
Hay una tendencia general muy
fuerte a olvidar los fracasos y
concentrarse en los éxitos y los
aciertos. Los casinos abonan esta
tendencia haciendo que cada vez
que alguien gana un cuarto de dólar
en una máquina tragaperras,
parpadeen las lucecitas y la moneda
tintinee en la bandeja de metal. Con
tanta lucecita y tanto tintineo, no es
difícil llegar a creer que todo el
mundo está ganando. Las pérdidas
y los fracasos son silenciosos. Lo
mismo vale para los tan cacareados
éxitos financieros frente a los que
se
arruinan
de
manera
relativamente silenciosa jugando a
la bolsa, y también para el
curandero que gana fama con
cualquier mejoría fortuita, pero
niega cualquier responsabilidad si,
por ejemplo, atiende a un ciego y
éste se queda cojo.
Pero volvamos a los supuestos
expertos y a por qué fallan, a veces
de forma estrepitosa, al predecir la
realidad. Una pista del porqué esto
puede suceder es la cualidad de la
diversidad, que James Surowiecki
nos recuerda que deben tener los
grupos para funcionar de manera
inteligente: cuantas más fuentes de
información, si son independientes
y están bien agregadas, más fácil
resulta que se eliminen los sesgos
(errores) de opinión.
Así,
Tetlock
comenzó
preguntando a 244 personas que se
dedicaban profesionalmente a dar
recomendaciones sobre tendencias
económicas y políticas. Les pidió
que aportaran sus estimaciones
sobre la probabilidad de que
ciertos sucesos fueran o no a
ocurrir.
¿Terminaría el Apartheid en
África? ¿Sería expulsado en un
golpe Gorbachov? ¿Se disolvería
Canadá como nación? ¿Iría Estados
Unidos a la guerra del golfo
Pérsico?
Cuando terminó el estudio, en
2003, había recopilado más de
82.000 predicciones; además,
también había realizado encuestas
de personalidad a los expertos que
aportaban sus estimaciones, con el
objetivo de medir cómo habían
aportado su conocimiento, cómo se
comportaban al comprobar los
resultados de las preguntas y cómo
accedían e incorporaban la nueva
información que iba surgiendo a sus
estimaciones ya realizadas. Tetlock
midió
estadísticamente
la
capacidad de anticipar tendencias,
así como la capacidad de acierto de
sucesos puntuales. El resultado no
fue muy impresionante, por
esperado. Los seres humanos que se
dedican profesionalmente a estudiar
cómo puede ser el futuro no son
mejores anticipando lo que puede
ocurrir que unos monos lanzando
dardos en un diana.
Imagínate quién podía negar las
palabras de todo un lord Kelvin,
presidente de una de las mejores
asociaciones
científicas
del
momento, la Royal Society, cuando
dijo que «máquinas voladoras más
pesadas que el aire, imposible».[1]
O qué se nos pasa por la cabeza
después de repasar esta cita de uno
de los economistas que mejor ha
comprendido los problemas de la
complejidad y las dificultades de
las predicciones, Tim Harford, en
su libro Adáptate:
Los sectores innovadores son la
excepción a la regla. Como el
software en código abierto y las
aplicaciones del iPhone son una
fuente muy visible de innovación y
se pueden inventar en una
residencia de estudiantes, solemos
dar por sentado que cualquier
innovación se puede inventar del
mismo modo. No es así. Sigue
pendiente la curación del cáncer, la
demencia y las enfermedades
coronarias. En 1984 se identificó el
VIH y la secretaria de Sanidad de
Estados Unidos, Margaret Heckler,
anunció una vacuna para prevenir
el sida en el plazo de dos años.
Llevamos más de un cuarto de siglo
de retraso... ¿Y qué decir de una
fuente verdaderamente efectiva de
energía limpia: fusión nuclear o
paneles solares tan baratos que
pueden emplearse para empapelar
paredes?
Quizás una de las partes más
interesantes del estudio de Tetlock
fue el poder calibrar la importancia
de la intensidad del conocimiento
en una materia. Saber un poco
sobre un tema concreto aporta
capacidad predictiva, pero saber
demasiado ofrece «rendimientos
predictivos decrecientes». Expertos
en economía dentro del grupo de
estudio fueron en ocasiones mucho
más precisos en asuntos de política
que los expertos del grupo en dicha
materia,
y
viceversa.
La
sobreconfianza desempeñaba un
papel clave a la hora de asignar
probabilidades.
Tetlock dio con la medida de
uno de los pecados más humanos
que existen: nos enamoramos de
nuestras pasiones y odiamos estar
equivocados. Nos obsesionamos
con la complejidad que nos rodea,
y somos incapaces de discernir
patrones sencillos cuando los
vemos. El propio Tetlock cuenta un
experimento que presenció en una
clase de la Universidad de Yale:
En un tablero con forma de T un
investigador ponía en ocasiones
comida en cada uno de los extremos
izquierdo y derecho de dicha T,
mientras que desde la parte inferior
salía una rata que debía elegir si ir
hacia un lado u otro esperando que
saliera la comida por dicho lado.
Se aleatorizó la frecuencia con la
que salía la comida por cada
extremo de la T, pero de media la
distribución era sencilla: un 60 por
ciento de las veces salía por la
izquierda y un 40 por ciento por la
derecha. Se pidió a los estudiantes
que adivinaran por qué lado saldría
consecutivamente la comida, y a la
vez, la rata hacía lo oportuno. Con
el tiempo, la rata aprendió la
secuencia, y casi siempre se iba a
la izquierda, acertando un 60 por
ciento de las veces. Un aprobado
justito, pero aprobado. En cambio,
los estudiantes, obsesionados con
averiguar un patrón oculto y poder
batir al animal, acabaron acertando
un 52 por ciento de las veces,
¡prácticamente un suspenso!
Las predicciones mediáticas
muchas veces no son diferentes a
este experimento. Cuanto más
elaboradas y estructuradas, más
tirón entre el público, que adjudica
una capacidad analítica al experto
por su ingenio.
Esta misma idea rige en la
existencia de la teoría de extremos
ideológicos en los medios de
comunicación. Si bien en la teoría
política el centro es quien lidera la
estrategia de los partidos, en
medios de comunicación el teorema
de Hotelling no funciona: situarse
en la neutralidad o centro no es la
estrategia dominante para los
intereses de la prensa. El brillante
economista Matthew Gentzkow
(medalla John Bates Clark en 2014
al economista más brillante menor
de cuarenta años) es quizá la más
conocida referencia en este asunto.
«¿Están los medios al servicio del
gobierno?». Los conservadores
sólo quieren validar sus propias
ideas, y por el lado de la izquierda,
los progresistas quieren lo mismo.
Por eso eligen qué medios leer para
su satisfacción. En vez de buscar
información que rete nuestra
predicción y nos ayude a
demostrarnos
que
estamos
equivocados, somos proclives a
buscar la autoconfirmación.
Por otro lado, en su brillante
obra Decídete, los hermanos Dan y
Chip Heath analizan con el máximo
rigor una de las cuestiones más
difíciles a las que nos enfrentamos
todos los días, en casi todos los
ámbitos
de
la
vida:
la
incertidumbre asociada a la toma
de decisiones. Y hay una cita que
explica con mucho rigor cómo
funcionan los sesgos de una forma
individual:
En
la
vida
normalmente
acostumbramos a abrazar una
rápida creencia sobre una situación
y luego buscamos información que
reafirme nuestra creencia. Este
hábito nocivo se llama «sesgo de
confirmación»... Cuando la gente
tiene posibilidad de recopilar
información del mundo, es más
probable
que
seleccione
información que apoye sus
actitudes, creencias y acciones
preexistentes.
[...] El sesgo de confirmación
probablemente sea el único gran
problema en los negocios, porque
ni la gente más experimentada lo
entiende. La gente sale a recopilar
datos y no se da cuenta de que está
amañando las cuentas.
Cuando queremos que algo sea
cierto, iluminamos las cosas que lo
respaldan y, luego, cuando sacamos
conclusiones de esas escenas
iluminadas, nos felicitamos por
haber tomado una decisión
sopesada... ¡pues sí que...!
El futuro tiene una capacidad
asombrosa para sorprendernos.
Con el foco no podemos iluminar
áreas que no sabemos que existen.
Y esto conecta claramente con
las conclusiones del propio
Tetlock: las personas que mejor
predicen son precisamente las que
luchan
internamente
por
demostrarse erróneas, y en dicho
ejercicio, acaban aprendiendo un
poco de muchas materias, pero su
curiosidad no les permite centrarse
excesivamente en un único campo.
Abren el foco y tratan de vacunarse
contra los sesgos más típicos y tan
difíciles de combatir.
Aparece así la aplicación de la
histórica metáfora del erizo y el
zorro: «El zorro sabe muchas
cosas, pero el erizo sabe una gran
cosa». Pues bien, los zorros son
mejores prediciendo.
Hoy sabemos además que para
que un grupo sea inteligente, no
sólo tiene que poseer miembros con
cualidades de «zorro», que como ya
sabemos no es técnicamente lo
mismo
que
ser
puramente
inteligentes en el sentido de un
elevado
cociente
intelectual.
Thomas
Malone,
como
comentamos, en su intento de
descubrir un CI colectivo, nos ha
demostrado que, por ejemplo, los
grupos con mayor proporción de
mujeres ¡son más inteligentes!
¿Sorprendido? Este estudio, del
que se hizo eco la Harvard
Business Review, explica que las
mujeres tienen, de media, mayor
percepción social.[2] Son capaces
de comprender más rápidamente
qué sucede a su alrededor, lo cual
les ayuda a seleccionar fuentes de
información
dispersas
y
a
beneficiarse de la descentralización
en el aprendizaje.
En concreto, tres son los
factores
estadísticamente
significativos a la hora de evaluar
la inteligencia de un grupo:
primero, la percepción social
media de los individuos del grupo;
segundo, la igualdad en la
contribución de sus miembros, y
tercero, la ratio de hombres contra
mujeres que componen el grupo.
¿Te
imaginas
saber
científicamente qué debe tener un
grupo para
ser
inteligente?
Podríamos diseñar departamentos
de trabajo óptimos en las empresas,
ministerios más eficientes e incluso
organizar de manera inteligente
nuestras
ciudades.
Hemos
aprendido mucho sobre las
cualidades de los miembros, pero
una tarea pendiente es investigar
más sobre los mecanismos de
agregación que ya mencionamos, y
a esto precisamente es a lo que se
dedica Tetlock en su Good
Judgement Project: a estudiar los
mecanismos que mejor resultado
dan y a saber por qué, cómo y
cuándo. Su fin último sería poder
responder a la pregunta: ¿Podemos
aprender a predecir mejor?
Para tal fin, el grupo se propuso
elaborar una macrocompetición de
predicciones sobre economía,
política
y
relaciones
internacionales. A semejanza del
«buey de Galton», pero con mayor
ambición. Consiguió financiación
de la agencia IARPA (Intelligence
Advanced
Research
Projects
Activity), que se dedica a la
investigación
en
temas
de
inteligencia y está asociada al
Ministerio de Defensa de Estados
Unidos. La competición es abierta y
cualquiera
puede
participar.
Actualmente ya están por la cuarta
temporada, y su funcionamiento es
sencillo a la vez que sorprendente.
Se establecen grupos de
participantes, a los que se les pide
estimar
la
probabilidad de
ocurrencia
de
determinados
sucesos. ¿Firmará un acuerdo
comercial Estados Unidos con la
zona euro? ¿Estallará una guerra en
Corea del Norte? Los participantes
responden usando dos mecanismos:
encuestas
y
mercados
de
predicciones. Lo hacen por grupos
aleatorizados al inicio, y luego
seleccionados según rendimiento,
de modo que el objetivo último de
la competición es poder construir el
grupo de «superpredictores» que
consistentemente hayan batido a la
suerte y puedan demostrar ser los
mejores prediciendo.
Los superpredictores, ¿nacen o se
hacen?
En una de las últimas rondas del
Good Judgement Project, competían
profesionales de la Agencia Central
de
Inteligencia
(CIA)
estadounidense junto con gente
común como la señora Ritch, de
sesenta años y ama de casa, que
cuando se registró no pensaba que
supiera mucho, y menos sobre
acontecimientos mundiales. Durante
los dos primeros años se dedicó a
«escoger números» para asignar las
probabilidades de ocurrencia de
los sucesos sobre los que le
preguntaban, y sorprendentemente
¡acabó en el 1 por ciento superior
de los mejores participantes!
Efectivamente,
entre
los
mejores predictores ¡había gente
que sabía más que la propia CIA!
Ritch no gozaba de ninguna fuente
especial de información, ni tenía
conocimientos fuera de lo normal
sobre cualquier materia. Sin
embargo, de media las respuestas
del grupo de superpredictores eran
un 30 por ciento más precisas que
las del resto de 3.000 predictores.
¿Recurría a informarse en oscuros
lugares de internet ante preguntas
sobre si, por ejemplo, habría algún
nuevo ataque terrorista en Israel?
La respuesta es no, y más sencilla
de lo que pensamos: ¡tan sólo se
dedicaba a buscarlo todo en
Google!
¿Cómo puede esto ser cierto?
Gran parte del éxito está en el
diseño del grupo, para lo cual los
incentivos son clave.
Los mercados de predicciones
He hablado varias veces de los
mercados de predicciones, pero
¿qué son? Uno de los mecanismos
utilizados en el Good Judgement
Project, como decía, eran las
encuestas: preguntas en formularios
que de forma estática evaluaban las
respuestas de los competidores. Sin
embargo, en psicología conductual
sabemos que los incentivos son la
gasolina de las personas: «Pon tu
dinero donde tengas tu boca».
Tetlock ya se dio cuenta de que
la razón de que existan expertos es
que éstos son remunerados por la
reputación, y sólo un grupo selecto
de personas es capaz de conseguir
monetizar la reputación. Sin
embargo, en su libro, Tetlock
concluye
que
la
evidencia
encontrada en contra de la
capacidad predictiva de los
expertos no es argumento crítico
contra la existencia de los mismos.
Un experto no sólo es aquel que
predice bien, es aquel que
comunica, entiende y transmite con
maestría los asuntos relacionados
con cierto campo de estudio.
De este modo, ¿qué podemos
hacer para motivar a los
verdaderos
expertos
nomediáticos? El dinero es el
incentivo más conocido por todos
nosotros. Si bien no es el único, es
el que más fácilmente alinearía los
incentivos de personas que no se
conocen entre ellas. Siguiendo estas
premisas, en economía tenemos un
mecanismo que permite juntar la
información dispersa mediante los
incentivos monetarios: el mercado.
Cada cual tiene su opinión, unos
piensan que hay que tener más
acciones en cartera, y compran,
mientras que otros piensan que hay
que tener menos, y venden. Lo
único que hace el mercado es llevar
la cuenta de las opiniones dispersas
de los individuos mediante el
precio.
El economista y físico Robin
Hanson es quizás el pionero y más
firme defensor de los mercados de
predicciones, que no son otra cosa
que una plataforma para poner a los
individuos a competir acerca de si
sucederá o no un acontecimiento
futuro, y resumir la opinión
mayoritaria en un precio o
probabilidad.
Si nos preguntan quién ganará
las próximas elecciones en España,
todos tenemos cierta parte de
información, ya sea adquirida por
propia experiencia o incorporada a
través de algún medio informativo.
Sin embargo, tal y como nos
explica la teoría del ruido y la
señal, ampliamente popularizada en
los últimos años por el estadístico
estadounidense Nate Silver[3]
(aquel que acertó todos los
resultados en las elecciones
presidenciales estadounidenses de
2008), todo paquete de información
se compone de una parte veraz que
llamamos señal y una parte de
ruido. La gran cuestión es: ¿qué
parte es veraz y qué parte ruido?
Esta tarea es la que Robin
Hanson propone que dejemos al
mercado. Cuando las personas que
participan en el mismo tienen un
nivel de creencia suficiente como
para arriesgar su dinero, aportarán
su mejor informació, y encontrarán
las excusas necesarias para no
contestar cuando no estén seguros
de la respuesta.
Mientras que la inferencia
estadística tradicional se basa en
modelos de estimación propios
según
unos
supuestos
de
comportamiento de las variables
aleatorias que queremos predecir,
los mercados de predicciones
aspiran a hacer predicciones
«libres de modelo», ya que se
basan en la selección natural que
logramos poniendo todos los
modelos disponibles a competir
entre sí y quedándonos con lo mejor
de cada uno.
Si de nuevo nos remitimos a las
condiciones iniciales que nos
explicaba James Surowiecki de
independencia y diversidad, es
fácil intuir que estadísticamente si
nuestro grupo está simétricamente
distribuido, la agregación correcta
de opiniones puede llevarnos a
conseguir que el ruido de unos
miembros se compense con el ruido
de otros miembros, permitiendo que
surja una poderosa suma de señales
que
ganarán
en
capacidad
predictiva a la mejor de las señales
que hay en el propio grupo.
Vendría a ser algo así como que
la cadena es más fuerte que el
eslabón más fuerte de la misma.
¿Cuándo es una apuesta y cuándo
una predicción?
En el fondo, lo que nos propone
Hanson no es más que pedir a los
potenciales
expertos
que
«apuesten» a lo que a su juicio es
más probable que ocurra. ¿Qué
diferencia hay pues con las
apuestas deportivas, por ejemplo?
Para entender el poder de los
mercados tenemos que seguir
adentrándonos en la idea de la
señal y el ruido. En deporte,
¿cuánta información veraz podemos
conseguir sobre la posible victoria
de nuestro equipo favorito? Casi
todo es ruido, aleatoriedad. Algo
podemos extraer del seguimiento de
las características de la plantilla,
del historial incluso de victorias,
pero en realidad, prácticamente
todo es aleatoriedad. De este modo,
cuando jugamos a aleatoriedad
decimos que estamos apostando.
En cambio, si sabes más que el
resto, no estás apostando, estás
invirtiendo.
En
concreto,
invirtiendo en la calidad de tu
señal. En política, por ejemplo, sí
podemos pensar que habrá expertos
que sepan más sobre la intención de
voto o sobre la calidad del
programa electoral de cierto
candidato. Estas personas sí que
podrán aportar buena parte de
veracidad en su información
gracias a un mercado especulativo.
Pero si los mercados provocan
crisis económicas, ¿cómo me puedo
fiar de ellos? No debemos
confundir la eficiencia asignando
recursos económicos con la
eficiencia
informativa.
Los
mercados son la institución,
demostrada, que mejor recopila
información disponible y dispersa.
No hablamos de dinero cuando
hablamos de inteligencia colectiva.
Muchos de los mercados de
predicciones existentes no usan
dinero real, sino ficticio, unido a
rankings y otros incentivos de
participación no monetarios. No
aspiramos a especular para
hacernos ricos, sino a especular
para encontrar la mejor opinión
dentro del grupo de individuos. A
fecha de hoy, el hecho es que el
mercado es la institución más
eficiente que conocemos para
recoger información dispersa. No
se trata de decir que los mercados
son la mejor alternativa absoluta,
sino la mejor alternativa en
términos relativos que conocemos
hoy en día.
De este modo, los mercados de
predicciones deberían aspirar a
diferenciarse de las apuestas
online, por su finalidad social
productiva. Las inversiones de
expertos pueden aportarnos luz
sobre las tendencias futuras. Y esto
es algo que Tetlock ha demostrado
y está utilizando en su Good
Judgement Project. Una correcta
combinación de mercados de
predicciones
y
encuestas
ponderadas aporta el marco
perfecto
de
agregación
de
opiniones. El mismo MIT aspira a
medir y diseñar colectivos
inteligentes, para lo cual precisa de
los mercados de predicciones como
mecanismo de agregación de los
grupos.
Una encuesta sería una foto,
potencialmente sesgada, ya que en
el fondo lo único que me juego es
mi reputación. En cambio, un
mercado de predicciones es un
vídeo, ¡e insesgado! Gracias a los
incentivos, las personas pueden ir
aportando o cambiando su opinión
dentro del mercado, comprando o
vendiendo según evolucione el
precio, que no es otra cosa que la
probabilidad que estima el
consenso del mercado de que el
suceso cotizado ocurra. Por esta
razón, en 2008 la revista Science
publicó un famoso alegato a favor
de los mismos: «The Promise of
Prediction Markets».
El artículo original lo firman
varios
premios
Nobel
de
Economía, como Kenneth J. Arrow
(Nobel 1972), Thomas C. Schelling
(Nobel 2005), Robert Shiller
(Nobel 2013) y Vernon L. Smith
(Nobel
2002,
con
Daniel
Kahneman). Junto a ellos se
encuentra también el principal
motor intelectual de los mercados
de predicciones, Robin Hanson, a
quien
acompañan
otros
investigadores
con
bastante
repercusión mediática, como es el
caso de Justin Wolfers o Eric
Zizewitz. El artículo está también
firmado por personalidades del
mundo de la economía conductual
como Paul C. Tetlock, Philip E.
Tetlock (Good Judgement Project) y
Cass R. Sunstein. Les acompañan
también Robert Forsythe, Michael
Gorham, Robert Hahn, John O.
Ledyard, Saul Levmore, Robert
Litan, Paul Milgrom, Forrest D.
Nelson, George R. Neumann,
Marco Ottaviani y Erik Snowberg.
Y para finalizar tenemos uno de los
mayores microeconomistas vivos,
el actual economista jefe de
Google, Hal R. Varian (también
padre del lema «Statistics is
sexy»).
La conclusión es que los
mercados de predicciones deben
regularse por separado de las
apuestas, en tanto que «la habilidad
de grupos de personas para hacer
predicciones es una potente
herramienta de investigación que
debería liberarse de innecesarias
restricciones gubernamentales». Si
bien hoy en día no tenemos aún un
marco regulatorio sólido, la verdad
es que los mercados siguen
abriéndose camino a base de su
altísima
capacidad predictiva
demostrada de manera empírica, y
existen ya permisos para la apertura
de mercados de predicciones para
las próximas elecciones generales
de 2016 en Estados Unidos: Predict
It!
La idea es que no sólo
aspiramos
a
predecir
acontecimientos, sino ¡a encontrar a
las personas que son auténticas
expertas! Esto no va de adivinar el
futuro, se trata de lograr un proceso
auditado
para
que
democráticamente las personas que
naturalmente saben más de una
materia hablen más alto que el resto
del grupo de manera automática
gracias a la memoria del propio
mercado, que llevará la cuenta con
el cálculo del rendimiento de cada
partícipe.
Un mercado de predicciones para
curar enfermedades raras
Los mercados de predicciones se
vienen utilizando satisfactoriamente
en multitud de campos: a nivel
corporativo para predecir, por
ejemplo, el cumplimiento de metas
empresariales. El mismo Google lo
ha utilizado dentro de su plantilla
con éxito. O, el Iowa Electronic
Market, el primer gran mercado de
predicciones regulado en Estados
Unidos, donde se pueden cotizar
acontecimientos
políticos
con
apuestas de importes reducidos,
pero suficientes para incentivar y
batir a las encuestas políticas. O la
plataforma
Hollywood
Stock
Exchange (HSX), donde cotiza la
taquilla de los estrenos de cine y el
caché de los principales actores,
siendo su capacidad predictiva
sobre el éxito de las películas tan
valiosa que una entidad financiera,
Cantor
Fitzgerald,
acabó
adquiriéndola.
El marketing es otro de los
campos donde más éxito han tenido
estos mercados. Preguntando, por
ejemplo, «¿qué componente será el
más importante en el éxito del
producto X?, ¿cuánto tardará el
producto Y en batir determinado
nivel de ventas?», etc., se consigue
un fuerte poder de predicción sobre
el éxito empresarial mediante un
sistema coste-eficiente de apuestas
rápidas que baten a la tradicional
investigación de mercados. El
economista Jared Heyman fue
pionero, con su empresa Infosurv,
en la comercialización de este tipo
de tecnología.
Tras años de éxito aplicando
mercados de predicciones en
empresas, Heyman decidió vender
Infosurv y emprender la vuelta al
mundo. Durante el viaje, Jared hubo
de convivir con la larga
enfermedad que padecía su hermana
pequeña. En tres años, tras la visita
de varios médicos especialistas,
nadie
había
conseguido
diagnosticar qué le ocurría a su
hermana, cuyo síntoma principal
era un cansancio crónico.
La agonía finalmente terminó
tras más de 200.000 dólares
invertidos y años de sufrimiento,
pero este caso dio a Jared la idea
de aplicar la tecnología de
mercados de predicciones al campo
del diagnóstico médico.
¿Realmente no había ningún
médico que supiera la respuesta?
Jared, como experto en la materia
de inteligencia colectiva, se planteó
romper, pues, otro tabú: ¿estamos
dejando fuera del campo sanitario a
una diversidad de expertos que
potencialmente podrían mejorar los
diagnósticos?
Partiendo de esta idea, en 2013
creó la empresa CrowdMed, donde
mediante una plataforma propia de
mercado de predicciones plantea el
reto de resolver misterios médicos
a una batería de «detectives
médicos»
que
cotizan
los
diagnósticos más probables a las
enfermedades planteadas.
Quizás el mayor reto de
CrowdMed sea luchar contra el
prejuicio moral de introducir
incentivos monetarios en el
diagnóstico médico, algo que por
ejemplo en España choca con el
actual sistema de sanidad pública.
Sin embargo, los resultados hablan
por sí solos, y en un año escaso de
vida, la empresa ya supera una tasa
de acierto del 60 por ciento, dando
esperanza a casos que no han
encontrado solución en el cauce
sanitario ordinario.
Este sistema de obtener una
segunda opinión médica de manera
coste-eficiente es una forma de
luchar contra la «infoxicación» del
«doctor Google», donde la
información a la que tenemos
acceso nos sobrepasa e incluso
perjudica.
Estableciendo
los
incentivos adecuados, podemos
conseguir que un oncólogo de
Virginia cure a un paciente de
Nuevo
México,
quien
ha
establecido una recompensa muy
pequeña en su caso, pero que se
apalanca por el mayor incentivo
que quizás ofrece CrowdMed a sus
detectives médicos: un mecanismo
democrático para demostrar su
mérito.
La meritocracia medida de
forma robusta (no sólo por títulos
académicos o fama de una u otra
universidad) que ofrecen los
mercados de predicciones hace que
en CrowdMed los médicos no sean
los únicos que curan pacientes:
estudiantes
de
medicina,
farmacéuticos,
enfermeras
o
¡antiguos pacientes! colaboran
aportando
sus
paquetes
de
información al
cotizar
qué
enfermedad es más probable que
tenga el paciente.
El propio Heyman comprobó
los resultados del mercado en su
caso
familiar,
y
concluyó:
«Mediante la externalización a la
multitud, los usuarios fueron
capaces de identificar en dos
semanas lo que los médicos
tardaron tres años en diagnosticar».
¿A qué esperamos para romper
tabúes y darle una oportunidad a la
inteligencia
colectiva
bien
aplicada? En Estados Unidos,
CrowdMed goza de una fuerte
financiación privada por parte de
prestigiosos fondos de inversión de
capital riesgo. Pero hay más modos
en que los mercados pueden ayudar
a la sanidad.
La siguiente gran innovación
que usa la inteligencia colectiva del
mercado para salvar vidas viene de
la mano de Andrew Lo, uno de los
matemáticos más famosos en el
campo de la ingeniería financiera.
Así es, uno de esos expertos
cuantitativos que bien podría estar
dedicándose a ganar fortunas en los
fondos de inversión (hedge funds)
ha reconducido su investigación
hacia un fin mucho más valioso: se
propone curar el cáncer en el
mundo.
Financiación colectiva inteligente
para curar el cáncer
«Ingeniería financiera para curar el
cáncer.» Éste es el sugerente título
de una ponencia del profesor
Andrew Lo, del MIT. Hablamos de
un tema serio, no sólo por el fin
último del tema tratado, financiar la
cura del cáncer de manera factible,
sino porque Lo es uno de los padres
de las finanzas cuantitativas, siendo
archiconocido su artículo «A NonRandom Walk Down Wall Street».
Por lo tanto, no nos dejemos llevar
por el titular únicamente y
atendamos al detalle del debate que
introduce Lo. Su idea es que la
ingeniería
financiera
ofrece
herramientas que convertirían la
financiación de proyectos de
investigación del cáncer en algo
perfectamente
viable
económicamente. En concreto, se
trata de la titulización y la gestión
moderna de carteras.
Los últimos descubrimientos en
la investigación contra el cáncer
apuntan a que la solución puede
estar en una futura personalización
de los tratamientos. Es decir, la
base genómica de la enfermedad
haría inviable una estandarización
del tratamiento, de modo que la
financiación tradicional de un
proyecto
de
investigación
farmacéutico no se aplicaría en este
caso.
Típicamente,
cuando
una
empresa como Pfizer investiga en
un proyecto como el Viagra, éste
tiene una característica básica: una
probabilidad baja de tener un
resultado de gran impacto. Pfizer
sabía que si su investigación
fructificaba, los ingresos derivados
de la venta de ese medicamento
explotarían, en tanto que podría
aplicarse a gran escala por ser un
tratamiento homogéneo a todos los
pacientes objetivo. El modo de
valorar esto es típicamente
mediante opciones financieras y
árboles de decisión (aspecto que
explicamos con más detalle en otro
capítulo), que nos permiten
incorporar el valor temporal de esa
opción contingente que posee Pfizer
(opción entendida
como la
posibilidad
«de
que
el
medicamento salga bien»). Por ello,
la financiación de estos grandes
proyectos es algo costosa, pero
posible hoy en día, precisamente
porque, al ser capaces de
incorporar el valor de esta opción,
demostramos que el rendimiento
esperado del proyecto, ajustado a
su riesgo, es positivo, ya que
aunque la probabilidad de éxito es
baja, el impacto de un resultado
positivo de estas investigaciones
traería una corriente enorme de
ingresos.
¿Qué ocurre en el caso del
cáncer, donde los pacientes
objetivo no son homogéneos, sino
que cada cual precisa una variedad
diferente de medicamento?: su
tratamiento no es homogéneo. Ésta
es la esencia de la dificultad de su
financiación. No podemos pedir a
los inversores que inviertan en una
gran empresa como Pfizer que
aspire a curar ella sola el cáncer.
Técnicamente esto implica que la
esperanza de invertir en un solo
proyecto de cura del cáncer no es
positiva, pero la esperanza de
invertir en una cartera diversificada
de proyectos de cura del cáncer sí
tiene esperanza positiva. Y esto es
así porque gracias a juntar muchos
proyectos, conseguimos reducir la
volatilidad de los retornos de la
cartera. En concreto, a partir de
juntar
unos
150
proyectos
diferentes, la desviación estándar
de esos rendimientos de la cartera
comienza a disminuir ¡convirtiendo
el proyecto global en algo en lo que
poder invertir!
Así, la solución de Andrew Lo
pasa por agrupar los cientos o
miles de posibles curas que
posiblemente
se
vayan
descubriendo,
y
vender
participaciones de esas inversiones
a millones de inversores, ¡el poder
de la agregación!
Aquí es donde Lo introduce
magistralmente algo que conocemos
muy
bien:
la
titulización.
Técnicamente,
en
mercados
financieros, por muy heterogénea
que sea la deuda, podemos
agruparla, segmentarla y valorarla
para
venderla
por
tramos
(tranches) de diferente perfil de
riesgo para diferentes tipos de
inversores. ¿Te suena conocido?
Efectivamente, en el caso de la
financiación de hipotecas tenemos
algo muy similar. En concreto,
piensa en hipotecas subprime,
¿cómo financiar el acceso a la
vivienda de millones de personas
con bajos recursos económicos?
Mediante megatitulizaciones.
Estas emisiones de bonos de
titulización permitieron, por encima
de todo el desastre que hoy
podamos ver (que el tronco no nos
impida ver el bosque), el acceso a
la vivienda en propiedad de
millones de estadounidenses. Éste
era un proyecto político bautizado
como Estrategia Nacional de
Acceso a la Vivienda, que se
consiguió satisfactoriamente con la
ingeniería financiera: introduciendo
a las agencias públicas como
Fannie Mae y Freddie Mac en la
titulización de préstamos subprime
que garantizaran los tramos de
mayor riesgo. En Estados Unidos,
desde la introducción en 1995 de
esta estrategia, la tasa de vivienda
en propiedad se disparó.
Además, la gestión de carteras
nos aconseja invertir la mayoría de
nuestro capital en alternativas
seguras, pero siempre hay cierto
espacio para exponernos a un
mayor riesgo a cambio de mayor
remuneración. Es decir, todos nos
beneficiamos de tener parte de los
ahorros en «boletos de lotería»,
entendidos en función de nuestra
capacidad de asumir riesgos. Unos
inversores desearán invertir en
deuda del Estado y en acciones de
elevada capitalización, pero otra
opción es invertir un poco de
nuestro capital en empresas como
Pfizer, buscando un potencial fuerte
impacto positivo sobre nuestra
cartera. Con la solución de Lo,
podríamos pedir a los inversores
que compraran un solo bono de
titulización «del cáncer», y con
ello, exponerse a un potencial gran
éxito.
La
financiación colectiva,
mediante la titulización, puede ser
clave en la investigación del
cáncer. Por ello, Lo quiere darle
vida de nuevo a la mal juzgada
titulización. Tema diferente es el
fallo (monstruoso) que se cometió
con
la
comercialización
y
regulación de estos bonos de
titulización hipotecaria en Estados
Unidos, que se empaquetaron, y
reempaquetaron una y otra vez, y se
vendieron a bancos e inversores de
manera inadecuada.
Pensemos en todo lo aprendido
y en las herramientas que la gestión
moderna de carteras nos enseña: la
correlación entre los proyectos de
cura del cáncer (hipotecas en su
día) es algo que hoy sabemos más
importante aún, y que podemos
medir e incluso cotizar. En su día,
el gran problema de juntar
hipotecas para titulizarlas fue que
eran
un
activo
demasiado
correlacionado, y cuando las
condiciones empeoraron, las tasas
de impago se dispararon todas a la
vez: cuando la economía va mal,
caen salarios y todos tendemos a
impagar la hipoteca más fácilmente
¡y a la vez! Sin embargo, los
proyectos de cura del cáncer, en
tanto que son investigaciones
heterogéneas, no estarán tan
correlacionadas, ofreciendo una
mayor estabilidad potencialmente
en las carteras titulizadas.
La realidad es que la ingeniería
financiera no está hecha sólo para
los hedge funds, sino para usos
mucho más potentes. Podemos
aprender de los errores, y hoy
tenemos experiencia regulando este
tipo de mercados de titulización. Lo
sueña en concreto con un fondo de
unos 30.000 millones de dólares,
construido por aportaciones de
3.000 dólares por 10 millones de
inversores.
¿Quién no quiere invertir un poco
de sus ahorros en curar el
cáncer?
Como veremos en otro capítulo del
libro, la gestión de carteras nos
enseña que nuestras inversiones en
felicidad
no
deben
estar
correlacionadas, por lo que invertir
en salud es algo que ciertamente
conviene a más de uno de nosotros,
y no sólo a millonarios.
Además, la titulización puede
ofrecer la posibilidad de que
invirtamos en tramos de ese fondo
de inversión con diferente perfil de
riesgo. Si eres Bill Gates y tienes
una fundación con tu mujer,
Melinda, puedes invertir en los
tramos equity o de mayor riesgo,
pero si eres inversor minorista
puedes irte a un tramo super-senior
que incluso avale un gobierno.
¿No piensas que la idea es
preciosa? No invirtamos en la cura
del cáncer como un proyecto único
u homogéneo, sino como su
realidad está descubriendo que es:
algo puramente heterogéneo. Para
lo cual la solución pasa por agrupar
los cientos o miles de posibles
curas que probablemente se vayan
descubriendo,
y
vender
participaciones de esas inversiones
a millones de inversores. Este tipo
de proyectos pueden estructurarse,
mediante titulizaciones, y pueden
valorarse,
mediante
gestión
moderna de carteras.
Movilizando a las masas de
manera inteligente
Podemos ir un poco más allá
incluso: ¿Y si ofrecemos la
posibilidad en la declaración de la
renta de, por defecto, invertir el
importe que nos saliera a devolver
en un tramo de la «titulización
nacional para curar el cáncer»?
Hemos aprendido que los
grupos de individuos pueden ser
inteligentes; existen factores que
nos permiten medir su inteligencia y
aspiramos a poder diseñar mejor a
los colectivos. A su vez, hemos
hablado de los mecanismos de
agregación más eficientes y
concluido su inmenso poder, que a
nivel de mercado nos permite
incluso asignar recursos de manera
más inteligente. Para ello, los
incentivos son clave. Pero sólo
hemos hablado del dinero como
incentivo «natural», ¿y si hubiera un
sistema de incentivos más efectivo
que el dinero?
Sobre el diseño de incentivos
para
movilizar
de
manera
inteligente
a
colectivos
de
individuos tenemos un campo de
investigación
con
grandísimo
potencial denominado nudge, título
del superventas de Richard H.
Thaler y Cass Sunstein (firmantes
del ya comentado «The Promise of
Prediction Markets») Un pequeño
empujón (Nudge). La teoría que hay
detrás de este campo de estudio es
el «paternalismo blando», que se
enfoca hacia la consecución del
mejor fin para los miembros de un
grupo, indicándoles naturalmente el
camino, pero dejándoles que lo
recorran libremente. Se trata de ese
empujón inconsciente que los
padres dan a los hijos, por su
propio bien, y sin que ellos en
realidad sean conscientes del
mismo.
El nudge puede llevar al mismo
tipo
de
objeción que
el
paternalismo más duro y clásico:
¿por qué han de obligar los
gobiernos a sus ciudadanos a
realizar acciones que sólo afectan
al propio individuo? Por ejemplo,
bien se puede argumentar que la
decisión de ahorrar para una
hipotética jubilación es algo que
entra
dentro
del
ámbito
estrictamente privado. ¿Por qué los
gobiernos hacen obligatorias las
pensiones?
La respuesta se encuentra en
una sencilla aplicación de la teoría
de juegos. Consideremos el
problema como un juego secuencial
entre dos agentes: el individuo y el
Estado. Primero, el Estado debe
decidir entre declarar o no la
obligatoriedad de un sistema de
pensiones. Tras ello, el individuo
tiene la opción de ahorrar o no
ahorrar para su jubilación. Es decir,
existe una disyuntiva inicial entre el
paternalismo estatal y la libertad
individual. ¿Por qué los gobiernos
escogen sin excepción la primera
vía?
El mejor resultado final sería
aquel en el que los individuos
ahorran sin ser obligados a ello:
todo el mundo tiene su pensión y la
libertad individual sigue intacta.
Pero dicho equilibrio no existe en
el mundo desarrollado, pues los
gobiernos son conscientes de que la
no obligatoriedad llevaría a otro
tipo
de
equilibrio:
muchos
individuos no ahorrarían, pero, a la
hora de la verdad, un Estado
moderno no permitiría que un
ciudadano de más de setenta años
falleciese en la miseria absoluta y
le acabaría proporcionando una
pensión aun sin haber cotizado o
ahorrado. Ese problema es
precisamente el origen de nuestro
sistema de pensiones de reparto,
que se remonta al año 1889, cuando
el gobierno prusiano de Otto von
Bismarck estableció el primer
sistema de seguridad social para
evitar la miseria entre los
ciudadanos con demasiada edad
para trabajar.
Por lo tanto, la solución actual
es lo que se conoce en la jerga
como un second best, al reconocer
que el óptimo social (first best)
parece inalcanzable dada nuestra
conciencia social. Ello no quiere
decir, no obstante, que toda
intervención
sea
justificable
mediante este argumento. Pero sí
que es un buen punto de partida
para comprender el enfoque
público
de
muchos
temas
relacionados con los riesgos
(seguros de automóviles, sanidad,
etc.).
Veamos
algunos
ejemplos
demostrados de la efectividad del
nudge:
— La impresión de las calorías
de la comida en los
restaurantes induce a comer
más saludablemente.
—
El desglose del gasto
eléctrico
por
electrodomésticos
puede
llevar a un ahorro de
electricidad del 40 por
ciento.
— Cambiar las opciones por
defecto de un contrato
laboral ayuda a ahorrar de
una manera mejor.
¿Por qué no diseñar entonces un
sistema
de
incentivos
para
colectivamente
mejorar
las
pensiones en España?
Incentivos tipo nudge para
solucionar la financiación de las
pensiones
Respetando los principios del
nudge,
el
ahorro
de
los
trabajadores podría ser sólo
voluntario, pero con un pequeño
detalle sin importancia aparente: la
opción por defecto sería «Sí
ahorrar» una pequeña fracción del
sueldo. La economía conductual ha
identificado una fuerte tendencia de
las personas a aceptar las opciones
por defecto, por lo que este
pequeño detalle podría ayudar a
ahorrar a muchas personas. Quien
no quisiese ahorrar más (o
prefiriese hacerlo mediante un
fondo privado) sólo tendría que
indicar a la Seguridad Social que
no desea aportar ¿un 2 por ciento?
de su sueldo al fondo y quedaría
fuera de la acción del Estado.
¿Cuánto podría suponer un
pequeño ahorro del 2 por ciento a
lo largo de la vida de un
trabajador? Otro sesgo bien
conocido
por
la
economía
conductual es la dificultad del
ciudadano medio para comprender
el poder de la capitalización
compuesta de los ahorros en el
largo plazo. Por ejemplo, un
pequeño ahorro del 2 por ciento
sobre el sueldo medio en España,
22.790 euros en 2012, al cual se le
aplicase una rentabilidad real del 3
por ciento —algo factible gracias a
la mayor rentabilidad en el largo
plazo de la renta variable—,
supondría a lo largo de una vida
laboral
unos
45.000
euros
ahorrados en términos reales, es
decir, a precios de hoy. La propia
Seguridad Social podría así añadir
a los pensionistas un aumento
vitalicio de la pensión a cambio de
la cantidad ahorrada, que para
dicha
cantidad
supondrían
alrededor de 300 euros mensuales,
cantidad nada desdeñable en
comparación con los 940 euros de
la pensión media actual.
De esta manera, Thaler y
Sunstein proponen incentivar a la
sociedad de manera inteligente. Sin
embargo, para que funcione este
tipo de incentivos, los miembros
del colectivo no deben ser
conscientes del diseño paternalista
que se esconde detrás del mismo, lo
cual ciertamente puede chocar con
la ética civil del quién regula al
regulador.
La verdad es que hoy tenemos
países que ya utilizan estas
técnicas, con su cierto control y
apoyados
por
una
inmensa
evidencia científica. En Reino
Unido
existe
un
equipo
especializado en estas técnicas
llamado Behavioral Insights Team,
más comúnmente conocidos como
«Unidad Nudge», liderado por el
psicólogo David Halpern. De modo
similar, en Estados Unidos, Cass
Sunstein trabajó como director de
la Oficina de Información y Asuntos
Regulatorios del gabinete de
Barack Obama. Y sin ir más lejos,
en Dinamarca nació la Agencia
Danesa del Nudge, liderada por
Pelle Guldborg Hansen.
En última instancia, se trata de
«facilitar la vida a las personas»,
siendo conscientes de que podemos
influir en las decisiones de los
individuos para su propio bien
cuando
sabemos
que
sus
comportamientos son predecibles.
La inteligencia no entiende de
jerarquías en la empresa
En el maravilloso libro del
fundador de la revista Fast
Company, William Taylor, Hazlo
distinto y triunfa, se ponen
ejemplos reales muy interesantes
sobre el poder de esta inteligencia
colectiva y cómo esto es un tren ya
imparable. Así, por ejemplo, entre
las muchas cosas que nos cuenta
Taylor, habla de la empresa fundada
por el gran tecnólogo Joe Marino,
el cual creó un mecanismo interno
de inteligencia colectiva en su
empresa, a través de mercados de
predicción, que le permitieron
obtener innovaciones realmente
rompedoras en el mercado y que
fueron en verdad exitosas y
rentables. El secreto, según Marino
le contaba a Taylor, es que:
... como fundadores, lo único que
sabemos es que no lo sabemos
todo. Nuestro trabajo es crear un
entorno en el que gente pueda
expresar
sus
ideas,
independientemente del lugar que
ocupen en la organización, y luego
dar sentido a todas las ideas que
emergen.
La forma en la que lo hicieron
fue realmente innovadora:
Los nuevos empleados, desde el
primer día, reciben 10.000 dólares
en «dinero de opinión» y son
invitados a formar parte de la bolsa
de ideas interna de la empresa, una
tecnología que diseñaron para
fomentar la creatividad. Esta bolsa
es un mecanismo para llevar la
relación con los empleados más allá
del nivel de transacción —yo te
pago, tú haces un trabajo—, a un
nivel emocional en el que tengan
confianza con la dirección futura de
la empresa, puedan opinar, sean
escuchados y sean recompensados
por las buenas ideas. Nosotros
preguntamos: ¿qué podemos hacer
con esto, con lo que sabemos? Y el
mercado bursátil nos ayuda a
obtener las respuestas.
Cualquier
empleado
puede
proponer que la empresa adquiera o
desarrolle una tecnología nueva,
entre en una nueva línea de negocio
o haga una mejora de eficiencia en
costes. Estas propuestas se
convierten en títulos, acompañados
de sus propios identificadores, lista
de discusión y alertas de e-mail... y
empiezan a negociarse a un precio
de 10 dólares. La interfaz de
usuario es como un terminal de
Bloomberg, con valores de cartera,
cotizaciones
y
demás.
Los
empleados muestran su entusiasmo
invirtiendo por una idea y, mejor
aún, ofreciéndose voluntarios para
trabajar en un proyecto, para lograr
«los pequeños pasos que hacen que
una idea prospere». Los voluntarios
comparten sus beneficios en forma
de dinero real si el título genera
beneficios reales.
¿Has visto? Una cita larga, pero
un ejemplo precioso para pensar en
que hay otra forma de hacer las
cosas, y los economistas tienen
mucho que ayudar en ello. Pero de
estas cosas seguiremos hablando en
el capítulo de complejidad y
management.
¿Y
en
España,
existe
inteligencia
colectiva?
Esta
pregunta no la podemos responder
los aquí firmantes, sólo sabemos
que la inteligencia es algo subjetivo
que depende de un observador
externo, así que ¡que cada lector
opine por sí mismo! Pero en nuestro
esfuerzo por introducir este campo
de estudio hemos creado el primer
mercado de predicciones en
España,
llamado
FuturaMarkets.com. Estás invitado
como lector curioso a probarte en
los terrenos de economía, política y
deportes. Ya puedes hacer tus
predicciones
y
¡medir
tu
rendimiento!
Infinitas aplicaciones inteligentes
Hemos aprendido que los mercados
de predicciones pueden ayudarnos
a sacar a la luz enfermedades raras
no encontradas en el cauce sanitario
ordinario. El poder de la
agregación de riesgos financieros
puede ayudarnos a encontrar el
acceso
para
colectivamente
financiar la cura del cáncer, y
mediante técnicas de nudge
podemos llegar a una larga lista de
objetivos para mejorar nuestro
bienestar sanitario, como, por
ejemplo,
salvaguardar
la
sostenibilidad de nuestro sistema
de pensiones, incrementar las tasas
de donación de órganos gracias a la
reciprocidad o reducir el error
médico en la prescripción de
medicamentos.
Este prometedor campo de
estudio tiene una lista de
aplicaciones casi infinita, y por ello
esperamos que en un futuro sigamos
escuchando más desarrollos en el
terreno de la inteligencia colectiva.
Sin ir más lejos, los mercados de
predicciones se usan para predecir
tendencias en la evolución de
enfermedades infecciosas o como
tecnología en la ayuda del rastreo
de los restos del avión de Malaysia
Airlines MH 370 desaparecido en
marzo de 2014.
Sirva como curiosidad decir
que Richard H. Thaler es uno de
esos «candidatos permanentes»
desde hace tiempo a ganar un día el
Premio Nobel de Economía.
3
Dios no suele proporcionar
experimentos naturales
ABEL FERNÁNDEZ
Apoyamos lo visible, lo
incorporado, lo personal, lo
narrado,
y
lo
tangible;
despreciamos lo abstracto.
NASSIM NICHOLAS T ALEB, en El
cisne negro
¿Puede
un
grupo
terrorista
alterar unas elecciones?
El 11 de marzo de 2004, poco más
allá de las 7.30 horas, España
sufría el mayor atentado terrorista
de su historia reciente. Una serie de
explosivos colocados en varios
trenes de cercanías provocó una
descomunal tragedia que acabó con
la vida de 192 personas y con casi
2.000 heridos de diversa gravedad.
Los
dos
días
siguientes,
inmediatamente anteriores a las
elecciones generales del 14 de
marzo de 2004, han pasado a la
historia por la polémica vivida,
minuto a minuto, en torno a la
autoría de los atentados. Durante
las primeras horas, el gobierno la
atribuye a la banda terrorista ETA,
a pesar de que fuentes cercanas a la
misma niegan cualquier implicación
en el suceso. Durante horas, los
altos cargos de la Administración
reciben la consigna de atribuir a
ETA la autoría de la masacre, pero
a media tarde comienzan a aparecer
unas primeras pruebas —mochilas
no detonadas, una furgoneta
abandonada y una cinta con
versículos del Corán— que apuntan
a una posible autoría de origen
islamista.
Tras la aparición de dichas
primeras pruebas, el gobierno
prefiere seguir centrando la
principal línea de investigación en
torno a la hipótesis de ETA, pero
los medios de comunicación
empiezan a dar un mayor eco a la
hipótesis alternativa, que es
reforzada por un comunicado en
Londres de un grupo terrorista
vinculado a Al-Qaeda. A lo largo
del viernes comienzan a acumularse
evidencias que apuntan en mayor
medida al grupo islamista que a
ETA, pero el gobierno continúa
apuntando a esta última como
autora de los atentados; así lo
muestra la portada del diario El
Mundo del sábado 13 de marzo, en
la que Mariano Rajoy, candidato a
la presidencia del gobierno por el
Partido Popular (PP), afirma:
«Tengo la convicción moral de que
fue ETA». A lo largo del mismo
sábado, jornada de reflexión
anterior a las elecciones generales,
el partido en el poder siguió
manteniendo su posición a pesar de
que las pruebas comenzaban a
apuntar de forma abrumadora hacia
la hipótesis islamista, con la
detención de varias personas de
origen marroquí y del depósito en
Telemadrid de una cinta de vídeo
en la que el grupo vinculado a Al-
Qaeda reivindicaba de nuevo la
autoría.
¿Por qué mantuvo el gobierno la
hipótesis de ETA a pesar de que la
evidencia comenzaba a inclinarse
mayoritariamente sobre el grupo
islamista radical? Durante las
primeras horas, tras los atentados,
todos
los
grupos
políticos,
incluidos Izquierda Unida (IU) y el
Partido Socialista Obrero Español
(PSOE), se habían alineado con el
PP en la condena unánime a ETA.
Pero la aparición de pruebas en el
sentido contrario hizo sospechar a
los partidos de la oposición que el
gobierno podría estar intentando
retener evidencias hasta que las
elecciones
hubieran
pasado.
Difícilmente sabremos hasta qué
punto la posición del PP fue fruto
de una convicción real o de un
intento
de
manipulación
informativa, ya que el origen de los
atentados podría condicionar el
resultado de las elecciones: el
electorado
seguramente
interpretaría un atentado islamista
como
consecuencia
de
la
participación española en la guerra
de Iraq, mientras que un atentado de
ETA habría reforzado, en cambio,
una necesidad de unidad nacional
que ha formado parte de los valores
tradicionales del PP.
El comportamiento del PP
provocó una oleada de protestas de
parte de la ciudadanía, que sentía
que
el
gobierno
estaba
aprovechando su posición de poder
para ocultar información y retrasar
la revelación de la hipótesis
principal de la autoría islamista. La
polémica campaña improvisada del
«Pásalo» recorrió toda España en
cuestión de horas a través de
mensajes de texto, incitando a la
participación
electoral
y
denunciando
la
posible
manipulación informativa del PP.
Finalmente, el domingo 14 de
marzo, el electorado español daba
un vuelco al panorama político del
país al otorgar la victoria al PSOE
con un 42,6 por ciento de los votos,
mientras que el PP se quedaba en un
37,6 por ciento.
¿Habían influido los atentados
terroristas en los resultados
electorales? ¿Perdió el PP las
elecciones por su intento de
ocultación de información? En los
meses siguientes se produjo un
encendido debate sobre el efecto
del 11-M: independientemente de
las motivaciones del PP y de las
causas e implicaciones de los
atentados, las formaciones políticas
y sus ciudadanos afines mostraban
una lógica preocupación por la
posibilidad de que un grupo
terrorista hubiera influido en el
resultado de unas elecciones
democráticas.
A estas alturas, es normal que el
lector se esté ya preguntando: «¿Y
qué tienen que ver los atentados del
11-M con la economía, sus rarezas
y
complejidades?».
Paradójicamente,
y
como
descubriremos en este capítulo, el
mayor atentado terrorista sufrido en
la democracia constituye uno de los
mejores ejemplos de la corriente
que ha revolucionado la economía
empírica durante estos últimos
años: el aprovechamiento de los
experimentos
naturales
como
solución al problema de la
causalidad.
Abordando el problema de la
causalidad
Dentro de la corriente de
popularización
que
ha
experimentado
la
estadística
durante el último lustro —
probablemente debida al auge del
«periodismo de datos» y a la
exitosa etiqueta del «Big Data»—,
pocas frases de la jerga han calado
tanto como la célebre «correlación
no implica causalidad». De hecho,
la frase ha adquirido tanta
popularidad que incluso ha llegado
a generar un pernicioso efecto: la
creencia de que ninguna correlación
puede probar la causalidad. Como
se explicaba en el primer capítulo,
la economía es una disciplina que
sufre especialmente del problema
de la causalidad, o, como
acostumbran
a
decir
los
economistas, el «problema de la
identificación».
El
problema
de
la
identificación consiste en la
dificultad de poder probar una
hipótesis ante la presencia de
causalidad inversa o fenómenos
externos que pueden causar
correlaciones espurias. Hace dos
años, un artículo en el New
England Journal of Medicine
relacionaba el consumo per cápita
de chocolate de un país con el
número de ganadores per cápita de
un Premio Nobel. El instinto natural
de quien tiene un mínimo de
pensamiento
analítico
es
preguntarse qué tipo de factor está
causando ambos fenómenos a la
vez, y el examen cuidadoso de las
primeras posiciones en ambos
fenómenos
—Suiza,
Austria,
Alemania, los países escandinavos,
Reino Unido e Irlanda— invita a
especular que el chocolate es un
fenómeno cultural europeo, que es a
su vez el continente que ha
dominado, para bien o para mal, el
mundo durante los últimos cinco
siglos, hasta la aparición de
Estados Unidos. Además, países
como Japón o China, cuya
orientación hacia la investigación
internacional es muy reciente,
consumen unas cantidades muy
bajas de chocolate. Por último, con
la salvedad de Japón, que es un
país rico, el consumo de chocolate
parece estar muy ligado a la renta
per cápita de los países, lo cual
parece la forma más fácil de
explicar el mayor número de
Premios Nobel per cápita.
Nuestra mente racional busca,
por lo tanto, una evidencia que nos
confirme que comer chocolate
probablemente sea de poca ayuda a
la hora de obtener un Premio
Nobel. No obstante, pretendiendo
indagar más sobre el tema, la
revista Nature entrevistó a 260
científicos, de los cuales 23 tenían
el Premio Nobel y el resto no. Pues
bien, entre los 23 científicos
galardonados, el 43 por ciento
tomaba chocolate dos o más veces
por semana, mientras que, entre el
resto
de
entrevistados
no
galardonados..., ¡sólo el 25 por
ciento lo hacía! La diferencia entre
ambas proporciones es altamente
significativa, lo cual abre la puerta
a que sí pueda haber algún efecto
causal, puesto que ya no se
comparaban países de todos los
colores,
sino
investigadores
preseleccionados con una cierta
entidad. Parte del motivo podría
estar en los flavonoides, un
compuesto altamente asociado a las
capacidades cognitivas en el ser
humano. Esta serie de evidencias
distan mucho de ser concluyentes,
pero apuntan a lo complejo que es
adquirir conocimiento relevante
cuando
existen
múltiples
mecanismos
de
causalidad
entrelazados.
¿Podría existir alguna forma de
corroborar si existe dicha relación
entre el chocolate y la excelencia
investigadora? Sin duda. Un
experimento aleatorio realizado
sobre un gran número de
investigadores podría revelar el
efecto real, siempre y cuando su
diseño
se
planificase
cuidadosamente. Por ejemplo,
imagina que pudiésemos elegir a
miles de doctores salidos de un
cierto conjunto de universidades y
convencerles para que participasen
en el siguiente experimento: a partir
de una asignación aleatoria, un
grupo se abstendría para siempre
de consumir chocolate, otro lo
comería una vez por semana, otro
dos y así hasta los siete días de la
semana. Los siete grupos estarían,
por lo tanto, recibiendo un
«tratamiento» distinto, siguiendo la
misma metodología que se realiza
en los ensayos clínicos en
medicina.
A continuación, habría que
seguir a dichos investigadores a lo
largo de toda su carrera (o, al
menos, durante dos o tres décadas,
el período más productivo de sus
vidas investigadoras tras la
obtención del doctorado). Como la
asignación se habría realizado
aleatoriamente, las preocupaciones
por su país de origen, su cultura o
su renta no entrarían en juego, por
lo que las diferencias que
emergiesen entre ambos grupos
podrían atribuirse con mucha mayor
certidumbre al efecto del chocolate.
No obstante, como habrás pensado
ya, ¿cuál es la probabilidad de que
este estudio se lleve a cabo?
Además de la complejidad de su
diseño,
implementación
y
seguimiento...,
¡habría
que
encontrar a miles de doctores
dispuestos a arriesgarse a no comer
chocolate durante muchos años!
Intolerable, por supuesto.
Esta dificultad a la hora de
realizar experimentos, que parece
anecdótica en este caso, es, sin
embargo, la gran dificultad a la que
se enfrentan las ciencias sociales.
Como rara vez podrá un
investigador
realizar
un
experimento de tal envergadura,
habrá de lidiar toda su vida con el
problema de la identificación: si
quiero saber si un amante del
chocolate es más productivo en
investigación gracias al mismo,
¿con quién habré de compararlo?
Es
decir,
¿cuál
sería
el
contrafactual
de
nuestro
investigador? El contrafactual, ese
sujeto paralelo que hace las veces
de grupo de control, es el Santo
Grial de toda investigación
empírica no experimental. Cuando
un país sube los tipos de interés,
suelen suceder muchas cosas, y a
menudo se encuentra entre dichas
cosas un aumento o un descenso del
paro. Pero ¿qué habría ocurrido si
dicho país no hubiese subido los
tipos de interés? De la misma
forma, ¿qué habría sucedido con el
desempleo en España sin las
reformas laborales efectuadas
durante la crisis?
No es extraño que fuesen los
economistas, dentro de las ciencias
sociales, quienes más esfuerzo
pusieran
en
evitar
estas
limitaciones para ser capaces de
aprender de la realidad. La norma
hoy en los trabajos empíricos de
economía es que, cuando un
investigador presenta el problema y
la hipótesis a investigar, explique
cuál
es
su estrategia
de
identificación. Es decir, ¿cómo
abordar el problema de la
causalidad? ¿Cómo saber si la
relación entre dos o varios
fenómenos no es espuria, es decir,
casual pero no causal?
Y aquí es donde nuestra
caprichosa realidad ofrece de vez
en cuando ciertas variaciones
accidentales que pueden servir a
los investigadores para construir su
contrafactual
contra
el
que
comparar la complejidad de la
realidad. Este capítulo describe
cómo muchos economistas son
capaces de usar los denominados
«experimentos naturales» para
aprender sobre el mundo que nos
rodea. Las variaciones accidentales
pueden provenir de la naturaleza,
de ciertas decisiones políticas
aplicadas con umbrales o criterios
geográficos arbitrarios, de la
aleatorización de procesos como la
composición de un tribunal de
oposiciones o, como en el tema
original de este capítulo, de un
atentado terrorista.
Aprendiendo de un macabro
experimento natural
José
García-Montalvo
es
catedrático de la Universidad
Pompeu Fabra y uno de los
economistas
españoles
más
respetados de su generación. Pero
sus logros no se concentran sólo en
el mundo académico, sino que fue
una de las primeras personas en
crear con éxito un blog durante los
años previos a la crisis, desde el
cual describió con todo lujo de
detalles la burbuja inmobiliaria que
se estaba gestando en España y las
consecuencias catastróficas que
podría tener su estallido. Al
contrario de muchos otros que
presumen de haber predicho la
crisis, muchos de los cuales
también predijeron otras cuatro que
no tuvieron lugar, basaba su
análisis y sus predicciones en el
análisis económico más sólido.
Pero ¿realmente podemos fiarnos
de un economista que hace
predicciones?
Como norma general, es
preferible
ignorar
a
los
economistas
que
hacen
predicciones genéricas sobre la
evolución futura de algún agregado
macroeconómico
como
el
desempleo o la inflación. Pero, en
ocasiones, la teoría y la evidencia
sí pueden advertirnos de que se está
gestando
un
problema
de
dimensiones considerables. Durante
los años que precedieron a 2008, la
evidencia comparativa de una
burbuja inmobiliaria en España era
aplastante,
especialmente
al
comparar el precio de adquisición
de una vivienda con el precio
medio del alquiler, y el profesor
García-Montalvo escribió largo y
tendido
sobre
el
tema,
enfrentándose a otros supuestos
expertos que negaban la existencia
de la misma.
La
principal
rama
de
especialización
de
GarcíaMontalvo no es, sin embargo, la de
polemista a través de internet, sino
la econometría, que es el nombre
que la economía ha dado al
conjunto de técnicas estadísticas
utilizadas habitualmente en dicha
disciplina. La mente de un experto
en econometría no pierde la
posibilidad de analizar la realidad
buscando posibles contrafactuales,
y el profesor García-Montalvo fue
la primera persona en percatarse
del
poderoso
y
macabro
experimento natural que los
terroristas del 11-M habían
generado con su atentado. Debido a
la proximidad del atentado a la
fecha de las elecciones generales,
el plazo para la emisión de los
votos por correo había terminado
días atrás, con lo cual un grupo de
votantes ya había tomado su
decisión antes de producirse el
atentado terrorista. Es decir, al
preguntarse uno «¿qué hubiera
pasado
con
las
elecciones
generales si no se hubiera
producido el atentado?», el
contrafactual
necesario
para
comparar la realidad... ¡se había
creado accidentalmente por la
separación temporal entre ambos
grupos! Los votantes por correo
habían
pasado
a
ser
un
insospechado grupo de control
contra el cual comparar los
resultados tras el atentado.
Lógicamente, la composición de
los votantes por correo no es igual
que la composición de los votantes
presenciales, por lo que en su
trabajo García-Montalvo hubo de
recurrir a una técnica estadística
conocida como «diferencias sobre
las diferencias», en la que primero
se
analizan las
diferencias
sistemáticas en las elecciones
pasadas respecto a los votantes por
correo y los votantes presenciales
para luego ajustar la estimación de
votos que cada partido hubiera
tenido en ausencia de los atentados.
Parte de la motivación del trabajo
era también la de desmontar
algunos análisis que se habían
producido, en los cuales se
argumentaba que, de no haber
ocurrido los atentados, el PSOE
habría ganado las elecciones de
todas formas. Dichos análisis se
habían realizado a partir de la
encuesta postelectoral del Centro
de Investigaciones Sociológicas
(CIS), y dicha interpretación
escondía
graves
carencias
metodológicas.
Además, uno de los resultados
inmediatos del 11-M y de la
tormenta política sucedida durante
los dos días siguientes había sido
un incremento muy significativo de
la
participación
electoral
presencial respecto a la tasa de
participación por correo. Pues bien,
la encuesta postelectoral del CIS
apuntaba también en la dirección
correcta, ya que el 88 por ciento de
aquellas personas que declararon
haber votado debido a los atentados
lo hicieron a favor del PSOE.
El resultado del estudio,
publicado en la prestigiosa revista
The Review of Economics and
Statistics, no deja lugar a la duda:
de no haberse producido los
atentados, el PP habría ganado las
elecciones generales con el 42-45
por ciento de los votos, mientras
que el PSOE habría obtenido el 37
por ciento. Es decir, un grupo
terrorista fue capaz de alterar el
rumbo de la democracia española
con un atentado. Aunque también
cabría preguntarse, ¿puede que la
culpa se debiese a la mala gestión
de la información del atentado por
parte del partido en el gobierno?
¿Podría el PP haber ganado las
elecciones si hubiese reconocido
inmediatamente que las sospechas
apuntaban desde el mismo día hacia
la autoría islamista? La pérdida de
las elecciones podría así atribuirse
tanto al miedo a más atentados
como al súbito descontento por las
consecuencias sobre suelo español
de la guerra de Iraq y como un voto
de castigo por una percepción de
deshonestidad en el PP.
Y, así como el análisis
estadístico riguroso puede ayudar a
encontrar
enseñanzas
insospechadas en formas de
experimentos naturales, también es
muy útil para indicar qué se puede
y qué no se puede aprender de unos
ciertos datos. La variabilidad
natural introducida por el voto por
correo nos permite analizar el
efecto de todos los hechos en su
conjunto —atentados y gestión de la
crisis—, pero en absoluto puede
atribuir la derrota electoral del PP
a uno de los mencionados factores.
Y ahí radica precisamente el valor
del analista de datos, en saber en
cada momento qué tipo de
conocimiento se puede obtener de
unos datos disponibles. El caso del
atentado
terrorista
es
muy
ilustrativo por la simplicidad del
experimento natural generado, pero
rara
vez
suceden
eventos
accidentales que generen la
situación necesaria para ello. En la
mayoría de las ocasiones los
economistas
han de
buscar
estrategias de identificación más
sutiles y complejas.
El techo de cristal
Uno de los campos más
apasionantes
dentro
de
la
investigación en economía laboral
consiste, sin duda, en el estudio de
las abultadas diferencias salariales
entre ambos sexos. Las mujeres
tienen en España un salario medio
sensiblemente inferior al de los
hombres, pero el cálculo de una
media no aborda el primer
problema metodológico existente en
dicha comparación: el hecho de que
hombres y mujeres realizan
distintos tipos de trabajos. Y quizá
la diferencia más significativa a la
hora de explicar las diferencias
salariales se encuentra en que las
mujeres
están
severamente
infrarrepresentadas en los puestos
de alta dirección en las empresas.
A pesar del esfuerzo de algunas
empresas por alcanzar una mayor
paridad en la composición de sus
consejos
de
dirección,
la
proporción de directivas aún dista
mucho de equipararse al peso de la
mujer en el mercado laboral del
país, que se acerca inexorablemente
al 50 por ciento.
Una de las hipótesis más
extendidas a la hora de explicar
esta falta de mujeres en el ámbito
directivo es la existencia de un
«techo de cristal» que les impide
progresar, consistente en el hecho
de que los hombres suelen ser
mayoría en las posiciones de alta
dirección o alto funcionariado y
podrían estar discriminándolas a la
hora de acceder a dicho tipo de
puestos.
Esta
discriminación
podría, según la hipótesis, ser
debida tanto a un sesgo explícito, es
decir, los hombres podrían creer
que las mujeres no son igual de
productivas que ellos en dicho tipo
de posiciones, como implícito:
aunque puedan no creerlo, podrían
estar discriminando a la mujer
instintivamente.
Una
de
las
primeras
confirmaciones empíricas que
parecían apuntar hacia dicha
hipótesis se hizo evidente durante
la transformación de los procesos
de selección de las orquestas
sinfónicas estadounidenses ocurrida
durante los años setenta y ochenta.
Los responsables de las orquestas
habían
observado
que
la
proporción
de
hombres
seleccionados para las mismas era
habitualmente muy superior a la
proporción de hombres inscritos en
las pruebas. Al fin y al cabo, la
valoración de una expresión
artística es una actividad sujeta a un
grado fuerte de subjetividad, por lo
que no parecía descabellado
sospechar que el jurado estaba
valorando sistemáticamente la
calidad artística de las mujeres que
se presentaban a la audición. Para
impedir este posible sesgo
implícito —¡o explícito!— hacia
las instrumentistas femeninas, los
responsables de las audiciones
introdujeron una curiosa novedad
en el formato de las audiciones: a
la hora de interpretar las obras
requeridas, los candidatos tocarían
su instrumento detrás de una cortina
opaca, y además deberían ir
descalzos para dificultar aún más la
identificación del
sexo del
aspirante. El objetivo era, por lo
tanto, obtener un juicio mucho más
imparcial a través de una audición
ciega, lo cual recuerda a uno de los
estándares más sólidos de la
metodología clínica experimental,
en el cual se recomienda que los
analistas de las muestras no
conozcan qué grupo experimental
están analizando para así evitar la
inclinación natural a probar la
hipótesis favorita del investigador.
Los resultados del caso de las
orquestas fueron contundentes: tras
la aplicación de la política de
audiciones ciegas, el número de
mujeres que pasaban la primera
ronda de audiciones aumentó del 5
por ciento al 25 por ciento, en tanto
que la probabilidad de que una
mujer obtuviera la valoración más
alta en la ronda final se
multiplicaba por siete. Es decir, los
jurados estaban ejerciendo una
fortísima discriminación contra las
mujeres, y la sencilla introducción
de una cortina había mejorado
increíblemente la justicia del
sistema de selección.
Una pregunta natural a esta
observación empírica es: ¿cómo
sería posible aplicar un método
análogo para otros tipos de
selección de personal? Al fin y al
cabo, los músicos tienen la suerte
de que han de expresar su talento a
través de un instrumento, pero esta
peculiaridad no siempre es
aplicable a otros contextos. Los
instrumentos musicales no son, por
supuesto, singulares en este
aspecto.
Por
ejemplo,
los
programadores se expresan también
a través de sus particulares
instrumentos, las computadoras y
los lenguajes de programación, por
lo que las empresas que contratan a
este tipo de profesionales pueden
mejorar su proceso de selección
basándose en una revisión de
código anonimizada. Pero para
cierto tipo de actividades la cosa se
vuelve mucho más complicada:
¿cómo podrían las empresas
evaluar el tipo de aptitudes
personales ligadas a la gestión de
equipos?
A la hora de contratar a un
gerente o directivo, una de las
cualidades más valoradas es la
capacidad en la gestión de equipos
a través de conceptos abstractos
como el carisma, el liderazgo o el
poder de motivación. Y este tipo de
habilidades son muy difíciles de
evaluar mediante un instrumento
externo al aspirante, que es juzgado
habitualmente en su día a día en el
trabajo o mediante la impresión
personal que pueda causar en un
proceso de selección. ¿Cómo sería
posible romper el techo de cristal
cuando es imposible poner en
marcha un proceso que blinde a los
entrevistadores de los posibles
sesgos contra la capacidad de las
mujeres que puedan albergar en su
interior?
Ante la dificultad de solventar
dicho problema, una solución
aparente para el mismo consistiría
en forzar legalmente una cierta
proporción de mujeres en los
órganos de administración de
empresas y del sector público para
poner fin así a la supuesta
discriminación implícita de los
hombres hacia las mujeres. Este
movimiento
ha
conseguido
importantes avances en los últimos
años, tanto desde el punto de vista
legal como desde el de la
responsabilidad
empresarial:
aunque algunos países como
Noruega
han
legislado
explícitamente la necesidad de una
paridad entre hombres y mujeres en
los consejos de administración; en
otros países se ha producido
también un movimiento hacia dicha
paridad impulsado voluntariamente
por las empresas.
No obstante, y aunque la
equiparación de responsabilidades
entre hombres y mujeres tenga
numerosos aspectos positivos —
por ejemplo, las mujeres podrían
tener una mayor propensión a
apoyar medidas a favor de la
conciliación laboral y familiar en
las empresas—, existe aún un
aspecto importante de la hipótesis
del techo de cristal que no ha sido
probado: ¿quiénes son los que
realmente discriminan contra las
mujeres? ¿Son sólo los hombres?
¿Acaso no podría estar dándose
también este fenómeno entre las
propias mujeres? Estas preguntas
son relevantes porque si las
mujeres compartiesen dicho sesgo
contra las candidatas de su mismo
sexo, la imposición de cuotas por
sexos en los órganos de
administración sería inútil a la hora
de mejorar la posición global de
las mujeres en el sistema laboral.
Estaríamos
maquillando
la
situación
real
nombrando
consejeras femeninas sin arreglar el
problema de fondo de la
discriminación, un problema que sí
se soluciona, en cambio, con los
procesos de selección ciegos o
anónimos.
Berta Esteve-Volart, de la
Universidad de York, y Manuel
Bagüés, de la Universidad de
Aalto, son dos de los mayores
expertos mundiales en este tipo de
cuestiones. Su primer trabajo juntos
les llevó a explorar un curioso
experimento natural que generan las
Administraciones Públicas a la
hora de elegir los tribunales para
las
oposiciones
públicas.
Concretamente,
los
autores
observaron que, en las oposiciones
a judicatura en España, la
composición de los cinco miembros
del jurado de la última prueba oral
se produce mediante un sorteo entre
el propio cuerpo de judicatura, lo
que introduce una aleatoriedad pura
en la composición del tribunal:
algunos tribunales pueden estar
compuestos por una proporción
elevada de mujeres, mientras que
otros pueden incluso no tener
ninguna mujer. Como dicha
composición es fruto de una
elección puramente aleatoria, el
problema de la identificación queda
automáticamente resuelto, ya que un
tribunal con mujeres es un
contrafactual perfecto de otro sin
mujeres. Es decir, si observamos
los resultados de los tribunales sin
mujeres y nos preguntamos
«¿hubieran mejorado los resultados
si en el jurado hubiera una mayor
proporción
femenina?»,
los
tribunales compuestos por mujeres
supondrían el perfecto marco de
comparación.
El resultado de la investigación,
publicado bajo el título «¿Puede la
paridad de sexos romper el techo
de cristal? Evidencia de un
experimento
repetido
aleatorizado», recibió una gran
atención debido a lo inesperado de
sus resultados: las mujeres
aleatoriamente
asignadas
a
tribunales con mayoría de mujeres
tenían
una
probabilidad
sensiblemente menor de aprobar las
oposiciones.
Los
resultados
contradecían la hipótesis de que
son
los
hombres
quienes
discriminan negativamente a las
mujeres y cuestionaban la idea de
que la paridad en los órganos de
decisión pudiese ayudar a resolver
el
problema
existente
de
discriminación. ¿Por qué obtenían
peores resultados las mujeres en
los tribunales con mayoría de
evaluadores de su mismo sexo? Los
autores profundizaron en esa
cuestión y se encontraron de nuevo
con otra relativa sorpresa: lo que
estaba sucediendo no era que las
mujeres valorasen peor a las
aspirantes femeninas, sino que
estaban
sobrevalorando
la
capacidad de los candidatos
masculinos.
De nuevo, lo que parecía una
hipótesis
razonable
y
universalmente aceptada parecía
tambalearse ante el encuentro con
la realidad. Es más, es probable
que el efecto observado en las
oposiciones a judicatura fuese
distinto si pudiésemos realizar el
mismo análisis sobre otros
procesos de selección en otros
sectores,
ya
que
muchas
profesiones
pueden
llevar
implícitos
algunos
supuestos
culturales
sobre
el
posible
desempeño de las mujeres o los
hombres (basta para ello comparar
la percepción popular de la
enfermería frente a la ingeniería).
Desde el punto de vista
metodológico, lo interesante de este
ejemplo es el hecho de que el
sector público puede generar
también experimentos naturales,
dada su habitual propensión a
introducir sorteos en multitud de
situaciones. Por ejemplo, además
de los conocidos tribunales de
oposiciones, el sector público ha
llegado a introducir sorteos...
¡incluso en la adjudicación de
viviendas de protección oficial! En
una curiosa concepción del
concepto de justicia, numerosas
comunidades autónomas repartieron
durante muchos años mediante
sorteo la posibilidad de comprar
viviendas a un precio muy inferior
al del mercado, una situación
especialmente ventajosa durante los
años en que se estaba gestando la
burbuja inmobiliaria. Tras hacer
una preselección inicial siguiendo
criterios lógicos como la renta o la
situación familiar, el sorteo
permitía a algunas familias el
acceso a una vivienda en propiedad
o alquiler a precios realmente
reducidos mientras el resto de las
familias habían de enfrentarse a un
mercado
inmobiliario
completamente enloquecido. Es
decir, el Estado transfirió durante
años enormes flujos de renta a
algunos ciudadanos con el sistema
del sorteo, lo cual, sin duda, habrá
tenido implicaciones en la vida
personal y laboral de dichas
personas. A pesar de lo apasionante
del asunto, en este capítulo no se
analizan los resultados de esta
forma de adjudicar viviendas, pues
no nos consta que dicho
experimento natural haya sido
todavía explotado en España. Sólo
nos gustaría mostrar cómo en
España puede haber numerosísimos
experimentos naturales aún por
explotar,
muchos
de
ellos
generados por el sector público.
Jueces compasivos y dependencia
de los programas de ayuda
En ocasiones, los experimentos
naturales pueden nacer de los
distintos
comportamientos
sistemáticos de ciertas personas.
Un ejemplo clásico, y muy útil en la
investigación jurídica, es el hecho
de
que
haya
jueces
sistemáticamente más duros o más
benevolentes a la hora de decidir.
Este
hecho
es
explotado
sistemáticamente en Estados Unidos
para estudiar todo tipo de efectos,
como las consecuencias sobre la
reinserción futura de ser condenado
a prisión en un centro penitenciario.
Algunos
jueces
son
sistemáticamente más propensos a
enviar a los acusados a prisión, y
como los encausados son asignados
aleatoriamente a los distintos
jueces, es posible utilizar esa
variabilidad sistemática como
experimento natural para saber si la
prisión es un buen instrumento a la
hora de prevenir futuros delitos.
No obstante, en este apartado
vamos a conocer el fascinante
trabajo de Gordon B. Dahl,
Andreas Ravndal Kostøl y Magne
Mogstad, de las universidades de
California-San Diego y de Bergen,
en el que intentan responder a la
cuestión de si la dependencia de
programas de ayudas sociales se
transmite intergeneracionalmente.
Es decir, ¿puede el sector público
crear
una «cultura de la
dependencia» en las familias a las
que ayuda, dificultando su salida de
dicha situación a lo largo de varias
generaciones? La pregunta es
relevante porque, al ayudar a una
persona necesitada, el Estado
puede estar introduciendo también
una perniciosa propensión en sus
descendientes a depender también
del Estado, con consecuencias
negativas para sus perspectivas de
desarrollo personal.
El problema vuelve a poner de
relieve la cuestión de la
identificación, ya que las familias
que reciben ayudas sociales tienen
habitualmente una renta baja o
media-baja, y la renta familiar es
todavía hoy uno de los principales
condicionantes de la renta futura de
los individuos. Aunque exista una
cierta igualdad de oportunidades
mediante las becas para el estudio,
incluso en los países más
igualitaristas sigue transmitiéndose
una desigualdad de resultados
dependiente de la renta de los
padres. Pues bien, si las familias de
renta baja son más propensas a
necesitar ayudas sociales, como sus
hijos tendrán en la media una renta
también inferior a la media del
resto de la sociedad, ello
provocará a su vez que sean más
propensos a necesitar ayudas
sociales. ¿Cómo enfocar entonces
el problema metodológico?
De nuevo un experimento
natural ha acudido en ayuda a los
investigadores.
Siguiendo
el
ejemplo antes mencionado, existen
jueces mucho más benevolentes que
otros a la hora de conceder ayudas
sociales, y algunos programas de
este tipo requieren la intervención
de un juez. En este caso concreto,
se trata del programa noruego de
ayuda a discapacitados, los cuales
pueden recibir una pensión en
función
de
su
grado
de
discapacidad. Cuando la petición
inicial es denegada, el caso deriva
en manos de un juez, entre los
cuales varía sustancialmente el
grado de benevolencia. Ser
asignado a un juez u otro, lo cual es
determinado por un proceso
aleatorio,
puede
incrementar
significativamente la probabilidad
de recibir o no una prestación
social.
Los resultados fueron de nuevo
claros, observándose una fuerte
transmisión de este patrón de
predisposición a la dependencia
social: el mero hecho de haber sido
asignado a un juez más benevolente
—es decir, más proclive a
conceder la prestación— hacía que
la siguiente generación de hijos
tuviese una mayor propensión a
depender de este tipo de
programas. La transmisión se
producía con especial fuerza de
padres a hijos, pero era mucho
menor cuando la persona a cargo
era
de
otro
rango
de
consanguinidad. Y ello es un
problema porque la recepción de
ayuda social suele estar asociada a
un cierto estigma y parece
condicionar el desarrollo futuro del
receptor.
¿Y cuál sería la conclusión de
la política económica a extraer de
este estudio? Así como en el caso
del techo de cristal, el análisis
parecía decir que la anonimización
de las pruebas podría ser más
efectiva que la imposición de
cuotas. ¿Qué se desprende de la
transmisión intergeneracional de la
propensión a la dependencia?
Nadie en su sano juicio parecería
dispuesto a defender una menor
cobertura social para evitar dicha
transmisión, y ello subraya un
problema
adicional
de
la
investigación en ciencias sociales:
a menudo, los resultados de las
investigaciones arrojan resultados
contrarios a nuestros valores y
creencias, o señalan problemas sin
solución razonable. Aceptar esta
realidad no es más que aceptar que
nuestra sociedad es un sistema
increíblemente
complejo
con
numerosos incentivos cruzados que
afectan a cada decisión, y que en
muchas ocasiones, a pesar de lo
fácil que retratan la realidad
muchos expertos televisivos, no
existen soluciones factibles a
problemas reales.
¿Votamos racionalmente? El
curioso caso del Gordo de
Navidad
Otra de las enseñanzas habituales
que suelen producirse al investigar
en la intersección entre economía y
política es que, a la hora de votar,
nos comportamos de forma poco
racional. Uno de los principales
problemas que ha de afrontar todo
ciudadano a la hora de votar es el
de atribuir a sus gobernantes la
proporción exacta de culpa o
mérito que éstos tienen sobre el
desarrollo de su propia vida y su
felicidad. Quien piense que los
ciudadanos son capaces de atribuir
correctamente las causas de su
dicha o desdicha está muy
equivocado. Entre los muchos
sesgos cognitivos que afectan al ser
humano se encuentran los sesgos de
atribución. En el caso de las cosas
buenas y malas que nos suceden en
la vida, nuestro cerebro tiene una
especial propensión a atribuir al
mérito propio las cosas buenas que
le suceden a uno y a atribuir al
prójimo (especialmente, a los
gobernantes) las cosas malas que
nos ocurren.
Incluso la forma que tenemos de
ver el mundo puede ser influida por
eventos completamente aleatorios
en nuestras vidas. ¿Qué nivel de
confianza te genera el mercado
como mecanismo de asignación de
recursos? ¿Hasta qué punto tu
sociedad es meritocrática o se basa
en el nepotismo? Las respuestas a
estas preguntas, que bien podría
pensarse que deberían estar
ancladas en profundos valores, son
sorprendentemente
volubles
y
dependientes
de
la
suerte
económica de los individuos. En
una ocasión, en Argentina sucedió
un experimento natural que nos
puede ayudar a comprender parte el
problema. Durante la expansión de
Buenos Aires, una buena parte de
las tierras colindantes estaba
ocupada por habitantes que residían
sin propiedad legal en tierra ajena.
El gobierno puso en marcha un plan
de expropiación de tierras para
cedérselas a los actuales ocupantes.
Algunos propietarios intentaron
frenar el proceso, mientras que
otros rindieron sus tierras, que
fueron transferidas a los ocupantes.
Los propietarios que no querían
ceder sus tierras se enzarzaron en
un eterno litigio con el gobierno,
creándose mientras tanto dos tipos
de ciudadanos ocupantes: aquellos
que habían recibido ya la tierra en
propiedad y aquellos que no. Pues
bien, las actitudes y las creencias
pro-mercado y pro-meritocracia de
los receptores de tierra aumentaron
considerablemente en comparación
con las de los que no habían
recibido la propiedad de la tierra.
Un hecho fortuito condicionaba su
forma de ver el mundo, como
detallaba el artículo «Derechos de
propiedad y creencias: Evidencia
de la asignación de títulos de
propiedad sobre la tierra a
ocupar», de Rafael Di Tella,
Sebastian Galiani y Ernesto
Schargrodsky.
Así, los ciudadanos tenemos
problemas al atribuir nuestras
felicidades y miserias, y un
curiosísimo caso parece confirmar
que los españoles no somos una
excepción a este problema. Manuel
Bagüés y Berta Esteve-Volart no
sólo han dedicado su tiempo a
investigar el papel de la mujer en el
mercado laboral, sino que,
interesados también por muchos
asuntos relacionados con la
política, se dieron cuenta de una
interesante
posibilidad
que
brindaba el sorteo especial de la
lotería de Navidad. Cada año se
pone en juego, aproximadamente, el
0,3 por ciento del PIB de España, y
los billetes de lotería se comparten
entre amigos y familiares, lo que
hace que el Gordo suela estar
repartido,
pero
también
concentrado en la población de la
Administración de Lotería que
vende dicho número.
¿Cómo afecta recibir el Gordo
al comportamiento de los votantes
en España? Los autores analizaron
los resultados de la lotería desde
1986 y observaron que el impacto
medio que para una provincia
supone obtener el Gordo equivale a
un shock del 3 por ciento de su PIB
per cápita (el impacto es,
naturalmente, mucho mayor cuando
toca en una provincia pequeña que
cuando lo hace en alguna de
nuestras principales ciudades).
Pues bien, cada décimo de lotería
premiado está asociado a un
aumento significativo de 0,6 votos
para el partido en el poder. Dado el
gran impacto que supone el Gordo
en la provincia media, ello se
traduce en un aumento aproximado
del 0,63 por ciento de los votos
para dicho partido. Los resultados
son de nuevo sorprendentes, porque
todos los ciudadanos comprenden
bien que el resultado del Gordo es
aleatorio y no tiene nada que ver
con el comportamiento de sus
gobernantes.
Así que los beneficiados
indirectos de este tipo de sorteos
son, además de los agraciados...,
¡el partido en el poder en la
provincia en cuestión! Y, si bien un
0,63 por ciento podría no parecerle
excesivo a algún lector, le pedimos
que recapacite sobre el primer
efecto mencionado: cada décimo
del Gordo vendido incrementa en
0,6 los votos del partido en el
poder, con lo cual una de cada dos
o tres personas (recordemos que
los billetes se comparten a menudo)
decide votar al partido en el poder.
Ello pone de relieve el grave
problema de atribución que
sufrimos los ciudadanos a la hora
de culpar y dar las gracias por
nuestros avatares diarios.
El Gordo en forma de orografía:
tráfico de esclavos e instituciones
Aunque hasta ahora hemos visto
unos cuantos casos de experimentos
naturales generados por el hombre,
también es posible que dicha
variabilidad experimental sea
provocada por la propia naturaleza,
tanto a través de accidentes
naturales producidos hoy... o
incluso durante el pasado.
Durante los siglos XVI-XVIII, las
monarquías europeas abusaron de
su
superioridad
tecnológica
cometiendo uno de los mayores
crímenes sistemáticos en la historia
de la humanidad: el tráfico masivo
de esclavos provenientes de África,
algo no sólo aceptado sino incluso
incentivado por reyes y gobiernos
que pretendían así obtener mano de
obra barata para las nuevas
colonias americanas. En el tráfico
de esclavos participaron también
habitantes de los países expoliados,
que se encargaban de capturar a sus
propios compatriotas para que
fuesen más tarde vendidos como
esclavos al otro lado del océano. Y
uno de los principales problemas
que el tráfico de esclavos produjo
fue un socavamiento paulatino de la
confianza de los habitantes de
dichos países. ¿Es posible que la
debilidad institucional actual de
muchas antiguas colonias africanas
sea consecuencia de los atropellos
cometidos durante siglos?
El papel de las instituciones
políticas sobre el bienestar y el
crecimiento económico es una de
las preguntas que más ha interesado
a los investigadores en economía
durante las últimas décadas. La
teoría económica dice que para que
un país pueda desarrollarse
satisfactoriamente, éste ha de contar
con una serie de instituciones
vitales, como la propiedad privada,
la seguridad jurídica o el respeto
por
los
derechos
humanos.
Actualmente,
existen
varias
fundaciones
y
grupos
de
investigación dedicados a evaluar
la calidad de las instituciones
públicas de cada país, y muchas de
ellas elaboran métricas respecto a
las mismas que intentan condensar
aspectos clave como la limpieza de
las elecciones, la corrupción de los
funcionarios públicos, la eficiencia
del gobierno, la igualdad ante la ley
o el respeto por los derechos de los
ciudadanos. Entre ellas destaca la
base de datos del Polity Project,
que ofrece una medida sintética de
la calidad de las instituciones de
cada país.
La inclinación natural a la hora
de examinar este tipo de cuestiones
es sencilla: ¿por qué no
observamos la relación entre el
crecimiento o el bienestar de los
países y la calidad de sus
instituciones? El problema que nos
encontramos de nuevo en esta
ocasión es que la relación de
causalidad puede correr en ambos
sentidos:
¿son
las
buenas
instituciones las causantes de un
mayor nivel de renta? ¿O acaso el
mayor desarrollo económico ha
hecho posible el desarrollo
posterior de mejores instituciones?
¿Podría incluso haber un tercer
factor causando ambos?
Diego Puga, profesor del
Centro de Estudios Monetarios y
Financieros y galardonado en 2008
con el Premio Banco Herrero al
mejor economista español menor de
cuarenta años, es uno de los
mayores expertos mundiales en
geografía económica. Atraído por
la temática de las instituciones y el
crecimiento económico y por el
papel de la geografía, se embarcó,
junto con Nathan Nunn, de la
Universidad de Harvard, en el
ambicioso
proyecto
de
desenmarañar dichas posibles
relaciones de causalidad. A priori,
una mala orografía suponía hace
siglos una menor productividad
debido a los costes de transporte.
Pero en la África del tráfico de
esclavos, una orografía sinuosa
suponía una bendición para sus
habitantes, que podían esconderse
con mucha mayor facilidad y evitar
ser capturados. Así, las potencias
esclavistas centraron sus esfuerzos
en mucha mayor medida allí donde
más barato y fácil fuese obtener
esclavos.
Usando un complejo algoritmo
para medir la rugosidad del terreno,
los autores construyeron un índice
de rugosidad específico de país. Y
¿para qué necesitaban los autores
dicha información? Porque, en
cierto modo, la rugosidad podía
interpretarse, mediante la técnica
estadística
conocida
como
«variables instrumentales», como
un nuevo experimento natural. Ya
que la relación entre renta e
instituciones no podía estudiarse
directamente por el problema de la
identificación,
los
autores
estudiaron primero qué parte de la
realidad de las instituciones podía
explicarse con la rugosidad del
terreno africana, descubriendo una
relación muy fuerte entre ambas. La
primera hipótesis de Puga y Nunn
parecía por lo tanto confirmarse:
allí donde la orografía era más
sinuosa, las instituciones actuales
son mucho más seguras y potentes,
quizá por
no haber
sido
sistemáticamente
socavadas
y
destruidas a base de desconfianza.
El mencionado método de las
variables instrumentales consiste en
utilizar, a la hora de estudiar un
fenómeno —en este caso, ¿causan
las
instituciones
un
mayor
crecimiento?—, la parte del
fenómeno que se debe a motivos
puramente aleatorios, o a motivos
que no puedan entrar en juego en la
relación actual entre instituciones y
renta. La orografía es, por lo tanto,
un buen ejemplo de experimento
natural en este fenómeno, ya que
ésta puede causar las instituciones,
y las instituciones pueden afectar a
la renta per cápita hoy, pero la renta
per cápita no puede cambiar la
orografía y mucho menos el pasado.
El resultado final del trabajo de
Puga y Nunn, titulado «Rugosidad:
la bendición de una mala geografía
en África», muestra que aquellos
países africanos con mejores
instituciones deben su mejor
posición a una peor orografía, y que
estas diferencias explican la mayor
renta per cápita actual de dichos
países, frente a aquellos que
sufrieron largos siglos de acoso
esclavista y cuyas instituciones se
encuentran en mucho peor estado.
Experimentos por todas partes
Como hemos visto en este capítulo,
tanto la acción del hombre como la
propia naturaleza del planeta nos
proveen a menudo de fantásticos
experimentos naturales que nos
permiten abordar satisfactoriamente
el problema de la identificación.
Una gran parte del éxito de los
economistas que realizan trabajos
de tipo empírico o aplicado
depende de su capacidad para
encontrar estas variaciones que
permiten establecer con mayor
claridad
las
relaciones
de
causalidad en los fenómenos que
estudian. De hecho, podría decirse
que, ante el éxito que ha encontrado
este
tipo
de
aproximación
académica, existe hoy una cierta
tendencia entre muchos economistas
a buscar antes un experimento
natural interesante y a buscar a
continuación el problema para el
que puede resultar interesante. ¡Tal
es la aceptación de este tipo de
enfoque entre la comunidad
investigadora!
Un atentado terrorista, la lotería
de Navidad, las diferencias de
carácter entre jueces, la rugosidad
de África y los tribunales de
oposiciones esconden, por lo tanto,
una característica común: son
pequeñas llaves que abren la puerta
a un conocimiento causal más
riguroso de lo que las ciencias
sociales nos tenían acostumbrados
hasta hace pocas décadas. No
obstante, existe un ámbito al que
este tipo de enfoque todavía no ha
llegado, y que sin duda podría
beneficiarse del mismo: la empresa
privada.
El enfoque de la identificación
requiere una amplia experiencia
investigadora, una mente entrenada
para comprender los entresijos de
las relaciones de causalidad y una
curiosidad innata para observar
muchos hechos y fenómenos como
posibles fuentes de variabilidad
experimental. Como célebremente
expresó John Cochrane, de la
Universidad de Chicago: «¿De
dónde procede la variabilidad de tu
variable explicativa? Dios no
proporciona
a
menudo
experimentos naturales». Es decir,
es muy raro presenciar accidentes
que provoquen en nuestros datos
variabilidad experimental, y esos
milagrosos momentos deberían ser
aprovechados hasta su última
esencia.
4
¿Nos quitarán los robots
nuestro empleo?
JAVIER GARCÍA
Cambiaría, si pudiera, toda mi
tecnología por una tarde con
Sócrates.
STEVE JOBS en 2001, entrevista en
Newsweek
¿Eres
terapista
dentista o
recreacional,
entrenador personal? ¡Enhorabuena!
Has tomado una buena decisión
laboral: tu nómina está a salvo de
los robots.
Si eres teleoperador de
marketing, contable, auditor o
empleado de ventas, continúa
leyendo, porque tu empleo tiene una
probabilidad superior al 90 por
ciento de desaparecer con la
introducción de
las
nuevas
tecnologías. Esto es lo que
calcularon C. Frey y M. Osborne en
el año 2013 en su estudio «El futuro
del empleo: ¿Cómo de susceptibles
son
los
trabajos
a
la
computarización?».
¿Qué une al inodoro y al iPhone?
Su importancia como hito histórico
en el desarrollo humano..., ¡no
pienses mal!
Pocos avances tecnológicos
combinan tanto impacto en nuestras
vidas y anonimato sobre su historia
como el inodoro. Patentado en 1775
por Alexander Cummings, su
instalación masiva a lo largo del
siglo XIX fue uno de los mayores
avances en materia de salud
pública de nuestra historia, al
permitir controlar una innumerable
variedad de enfermedades, desde la
difteria hasta el cólera, muchas de
ellas mortales. Así, su relevancia
no se debe sólo a su comodidad en
términos de higiene, sino también a
que ha salvado cientos de millones
de vidas.
Desde la patente del inodoro
hasta el iPhone 6 ha pasado
aproximadamente un cuarto de
milenio, y las cosas han cambiado
mucho. En 1800, en los primeros
pasos de la Revolución Industrial,
la renta media de una persona en
Estados Unidos equivalía a 3.450
dólares anuales (a precios de hoy),
mientras que en la actualidad
supera los 48.000. Un ciudadano
estadounidense no sólo puede
comprar mucha más cantidad de
bienes y servicios que entonces,
sino que hemos logrado pasar de
una economía con un centenar de
referencias de productos a una, la
actual, con más de 10.000 millones
de
referencias
(un
gran
supermercado en una ciudad media
tiene más de 25.000 referencias de
productos alimentarios distintos,
por ejemplo).[4]
O piensa en una tostadora de 50
euros que compramos en cualquier
tienda. Tiene más de 400
componentes, que fabrican diversas
empresas a lo largo del mundo y
con un grado de sofisticación
increíble; ¿cómo es posible que
llegue esa tostadora tan sencilla a
tener ese precio y estar disponible
todos los días en cualquier
supermercado?
Asimismo, se confirma por
minutos que el mundo es cada vez
más pequeño. Observa simplemente
la complejidad mundial de las
líneas áreas, y rápido nos daremos
cuenta de que, a pesar de internet,
estamos a unas horas de cualquier
parte.
Y además, todos estos cambios
se están haciendo a un ritmo
realmente aplastante. Como dice
César Molinas en su reciente libro:
Entre la revolución neolítica (donde
surgieron los pueblos, ciudades,
escritura, política) y la Revolución
Industrial transcurrieron 10.000
años.
Resulta que en los doscientos
últimos años, el mundo ha
cambiado de forma exponencial en
riqueza y en posibilidades (han
pasado muy pocas décadas entre
que llegó la electricidad y apareció
internet, y, por ejemplo, el móvil es
algo muy reciente). El crecimiento
económico, en términos históricos,
aún es un bebé.
Durante todo este proceso,
nuestra relación con el progreso
tecnológico ha sido muy difícil, y lo
sigue siendo (pon en Google
«empleo y robots» y el debate está
servido). ¡Las máquinas sustituirán
a los humanos! Pero esto no es
nuevo, la primera huelga general en
España se produce en 1855, siendo
el blanco de las iras de los
trabajadores las nuevas máquinas
que se instauraban con fuerza en las
fábricas, especialmente en zonas de
mayor tradición industrial, como
Cataluña.
Las máquinas eran el enemigo
que destruía empleo y salarios. Esta
percepción del proceso productivo,
conocida desde entonces como
ludismo, fue perdiendo fuerza
paulatinamente ante la evidencia de
las mejoras en la calidad de vida
que la mecanización y la tecnología
trajeron consigo.
Por
ello,
sorprende
enormemente el curioso artículo
que la MIT Technology Review
publicó bajo el rotundo titular «La
TI destruye más empleos de los que
crea». Poco después, en diciembre
de 2014, la Harvard Business
Review abordó también este
problema. Los robots sustituirían,
incluso, a la mano de obra más
barata en los países emergentes. Si
eso pasa a los trabajadores que
menos cobran, ¿qué será lo
siguiente?
¿Será el mundo al estilo de la
serie de animación Futurama?
Si atendemos a nuestro nivel de
bienestar medio y a la renta per
cápita, los dos últimos siglos han
sido únicos en la historia
económica de la humanidad. En los
largos milenios que van desde el
neolítico hasta el reciente siglo XIX,
la inmensa mayoría de la población
era agrícola y subsistía con una
renta mínima.
El siguiente gráfico cuenta,
posiblemente, la más importante y
bella historia de la humanidad: la
del acceso generalizado a una
mínima calidad de vida. Hasta el
siglo XIX rara vez superaba un país
los 1.000 dólares per cápita. A
partir
de
la
mecanización
introducida por la revolución
industrial, la renta per cápita se
dispara en casi todas las áreas del
mundo. Incluso África, con el peor
historial de crecimiento del siglo
XX, supera con claridad el estándar
de vida máximo de toda la historia
de la humanidad.
La revolución industrial trajo el
inodoro, la electricidad, los
antibióticos, la máquina de vapor,
las lanzaderas volantes y un gran
número de avances tecnológicos y
científicos que transformaron los
procesos
productivos.
La
mecanización y las ganancias de
productividad fueron reduciendo
las necesidades de mano de obra en
el campo hasta representar sólo una
pequeña fracción sobre el total del
empleo en una economía moderna.
¿Se ha frenado este proceso en
la actualidad? Ni mucho menos.
Los argumentos en contra de la
desaparición del empleo debido a
las mejoras tecnológicas en la
agricultura y en la industria se dan
de frente contra los datos. El
siguiente gráfico muestra, para
todos los países de la Organización
para la Cooperación y el
Desarrollo Económicos (OCDE), la
relación entre (1) el porcentaje de
empleo en la agricultura y la
industria y (2) la tasa total de
empleo, esto es, el porcentaje de
población mayor de quince años
que tiene empleo. El período de
cálculo es el de 1992-2010.
La relación es fuertemente
negativa: mientras que el porcentaje
de ocupación en agricultura e
industria se redujo del 38 por
ciento al 29 por ciento, la tasa de
empleo
aumentó,
incluso
considerando los efectos sobre el
empleo de la tremenda crisis de
2008. La liberación de recursos de
la industria y la agricultura ha
traído todavía más empleo para la
economía de la OCDE en su
conjunto. ¿Cómo funciona este
mecanismo tan antintuitivo por el
cual la destrucción de empleo se
traduce en mayor empleo en otros
sectores?
Los perritos calientes nos
permiten comprender nuestro
misterioso problema con la
tecnología
Para ilustrar la curiosa relación
entre tecnología y empleo, hagamos
un breve ejercicio de abstracción.
Pensemos en España como un país
donde sólo se venden dos
productos
que,
además,
se
consumen juntos: salchichas y
bollos de pan. Supongamos,
redondeando, que somos 40
millones de personas, de las cuales
20 millones trabajan: 10 millones
de personas hacen bollos de pan y
los otros 10 millones hacen
salchichas. Cada trabajador tiene
una productividad diaria de 12
bollos de pan y 12 salchichas. Esto
permite que los 10 millones de
personas de cada sector logren una
producción de 120 millones de
perritos calientes y que los
españoles puedan comer tres
perritos calientes al día (olvidemos
por el momento las oportunidades
de negocio en la «industria
auxiliar» del tratamiento del
colesterol). Esta sencilla situación
fue propuesta por el maravilloso
Krugman en los años noventa para
explicar el impacto de la tecnología
sobre la productividad y el empleo.
Veamos cómo.
Supongamos que un equipo de
ingenieros del sector de las
salchichas encuentra una manera de
aumentar su productividad: han
averiguado cómo fabricar 18
salchichas al día por cada persona
empleada. ¿Qué efecto tendría un
cambio así sobre el empleo y sobre
nuestro bienestar?
1.
Si la asignación de
trabajadores no cambiase,
España pasaría a generar
180 millones de salchichas
al día, mientras que los
fabricantes
de
bollos
seguirían produciendo sólo
120 millones. De repente,
tenemos un exceso de
salchichas y una terrible
escasez de bollos de pan en
nuestra economía: cada
salchicha adicional aporta
muy poco, pero cada nuevo
bollo es un nuevo perrito
caliente. Ha disminuido el
valor de cada nueva
salchicha y ha aumentado el
valor marginal de cada
bollo.
2.
El resultado es
contraintuitivo. En el sector
en el que ha aumentado la
productividad
son
necesarios
menos
trabajadores, mientras que,
por la complementariedad
entre panes y salchichas, los
trabajadores tienen ahora
más valor en el otro sector.
3.
Con un funcionamiento
normal del mercado laboral,
la nueva demanda de bollos
podría crear millones de
nuevos empleos hasta pasar
a producir 180 millones de
bollos: las ganancias de
productividad en un sector
se traducen en una mayor
demanda y en mayor empleo
en otros sectores.
4.
Pero si no se crean los
nuevos empleos en el sector
de los bollos..., ¡podrían
incluso destruirse empleos
en el sector de las
salchichas! Concretamente,
podrían destruirse hasta 3,3
millones de empleos y
España
seguiría
produciendo 120 millones
de salchichas, como antes.
Los españoles seguirían
comiendo tres perritos al
día, pero para ello es
necesario mucho menos
trabajo. El titular sería
claro: la tecnología destruye
empleo.
5.
Sin embargo, esos 3,3
millones
de
empleos
«expulsados» del sector de
las salchichas se podrían
distribuir
entre
ambos
sectores, de forma que el
país podría disfrutar de más
perritos calientes cada día.
Si el sector de los bollos
contrata a 2 millones de
trabajadores y el de las
salchichas a 1,3 millones,
entre ambos son capaces de
producir 144 millones de
perritos
calientes,
24
millones más que en la
situación inicial. Nuestro
PIB —medido en este caso
en perritos calientes— ha
aumentado un 20 por ciento
gracias a la mejora
tecnológica de un sector y
de cómo esta ganancia se ha
trasladado hacia el resto.
¿Y si las ganancias de
productividad fueran tan elevadas y
nuestra capacidad de producir
perritos tan alta que ya no
quisiéramos comer más de 4/5 al
día? La respuesta es que se abriría
una puerta fantástica para crear
otros sectores, como el del kétchup,
las patatas, los bares, la cerveza...,
¡y sí, ahora sí: la industria del
control del colesterol!
La acusación del mencionado
artículo, «La tecnología de la
información destruye más empleo
de los que crea», tiene, por lo tanto,
una visión alarmista sesgada.
¿Acaso no podemos considerar
como «empleos en tecnología de la
información» a la plantilla de
Inditex, que se caracteriza por uno
de los sistemas de logística más
avanzados del mundo? Cuando un
cirujano utiliza un nuevo software
como asistencia en una operación,
¿acaso no es también un puesto de
trabajo TI? ¿Y qué me dices de un
controlador aéreo? Las TI son una
bomba
de
productividad
y
eficiencia para toda la economía y
nuestro
primer
motor
de
innovación: 1 de cada 4 euros en
I+D en Europa se destina a las TI
en todo tipo de campos: energía,
nuevos materiales, logística, etc.
La clave: la velocidad de ajuste
¿Dónde se encuentra, pues, la
disyuntiva entre tecnología y
empleo? En la velocidad del ajuste
y sus consecuencias. Las personas
que pierden empleo en un sector no
necesariamente son las mismas que
lo logran en otro sector. Por
ejemplo, el dependiente de quiosco
que pierde su puesto por una
máquina que dispensa golosinas no
es quien pasa a diseñar los
autómatas dispensadores.
El mercado valora cada vez
menos
las
habilidades
no
cualificadas,
una
tendencia
probablemente
irreversible.
Recuerda la primera tabla del
capítulo: terapistas recreacionales,
entrenadores e incluso actores.
Empleos con muy alto componente
subjetivo, donde el potencial
cognitivo es altamente valioso.
La caída generalizada de las
barreras comerciales, incluso en la
prestación de servicios, está
deprimiendo los salarios de los
trabajadores
no
cualificados
conforme cientos de millones de
nuevos trabajadores sin formación
se incorporan a la cadena mundial
de producción.
De hecho, el concepto de
cualificación en el trabajo está
cambiando desde la formación en
habilidades «duras» (formación
reglada) a la formación en
habilidades «blandas» (creatividad,
capacidad de
adaptación y
«antifragilidad»...,
como
explicaremos más adelante). Una
pista de este cambio: las grandes
empresas de internet, en sus
procesos de selección, analizan
antes si los candidatos se ajustan a
sus «valores» que el origen de sus
titulaciones
universitarias. Lo
primero es más difícil de medir, lo
segundo hoy en día es más fácil.
El mundo lleva más de dos
siglos en un imparable proceso de
sustitución de recursos poco
cualificados
por
tecnología.
Gracias a ello, podemos dedicar
nuestros esfuerzos a aquello que
peor sabe hacer una máquina:
diseñar productos, crear nuevas
formas de hacer las cosas, explorar
oportunidades y seguir buscando
formas de mejorar nuestra calidad
de vida. Ninguna máquina va a
encontrar por sí misma la vacuna
contra la malaria o la solución al
cambio climático, ni siquiera va a
tomar decisiones sobre qué nuevo
producto funcionará en un mercado.
Ello requiere de personas que usen
el
único recurso realmente
renovable
que
tenemos:
el
conocimiento.
El secreto está en la
incertidumbre: quien mejor la
soporte, ¡gana!
Si hay una profesión en el mundo
que tiene que lidiar con el riesgo y
la incertidumbre, ésa es la del
financiero.
Como nos dijo Guy Kawasaki
en una entrevista que nos concedió
en Sintetia, siempre hay alguien en
un garaje —a miles de kilómetros
— que está haciendo algo que
puede suponer la destrucción de tu
idea (empresa). La innovación, o
forma parte del ADN de toda
empresa o no existirá empresa. Y,
además, la innovación, o es radical,
es decir, aporta una sustancial
propuesta de valor al mercado, o no
lo será, o dicho de otra manera,
será demasiado efímera, con poco
impacto. Así que si existiera un
indicador del nivel de exigencia
para quien lanza una idea al
mercado en el siglo XXI, apostaría
firmemente por que éste ha
aumentado sustancialmente en las
dos últimas décadas, y lo hará aún
más.
Durante
décadas
venimos
asistiendo a una transformación en
la forma en la que hacemos las
cosas,
de
una
economía
industrializada, orientada a una
fabricación en masa y unos
servicios focalizados en la
eficiencia y la productividad de los
recursos, a otra economía donde los
inputs estratégicos ya no son los
recursos naturales ni la localización
física en un determinado lugar.
Cualquier compañía que quiera ser
sólida en el siglo XXI tiene que
jugar a las reglas de lo global, con
fuertes raíces locales, a detectar,
usar y generar un gran valor del
talento y de su ecosistema (también
más global).
No se trata de que internet nos
haya
unido,
generando
comunicación
instantánea,
ni
siquiera que genere caudales de
información
continua
sobre
compañías, productos o precios. En
realidad, se trata de la creación
continua de nuevos mercados,
nuevas posibilidades para detectar
problemas, resolverlos, aportar
valor
y
diferenciarse,
independientemente de dónde te
ubiques. El talento no se identifica
con un título, sino con lo que
muestras y demuestras a los demás
en un escaparate global. Enseñas y
te evalúan por lo que ofreces y
aportas. Las buenas ideas, los
buenos diseños, las propuestas de
valor, se pueden probar y enseñar
en mercados globales sin salir del
salón de tu casa.
Pero la historia no es tan
sencilla. Los menores costes de
acceso a la información y a la
comunicación no se traducen en
éxito de forma instantánea. La
competencia
es
global,
las
habilidades (skills) hay que
ganárselas todos los días. Aprender
y desaprender forma parte del
proceso continuo de la creación.
Pivotar es un verbo clave: probar,
aprender, mejorar. Absorber es el
mejor de nuestros aliados: buscar
información, testear y lograr las
vías para obtener de ella lo que
más nos puede beneficiar. Ahora
los valores importan, y esta crisis,
sobre todo la institucional, nos
demuestra que cada vez son más
importantes. Como Gary Hamel
siempre
nos
enseña
(lo
explicaremos en detalle en el
último capítulo de este libro),
tenemos que lograr humanizar las
empresas, abrirlas, apasionarlas y
convertirlas en un organismo vivo
que
detecte
oportunidades
constantes.
A las personas nos quitarán lo
más «fácil y predecible» de
gestionar, y la diferenciación real
estará en ser capaz de convivir con
la incertidumbre, la fragilidad de
nuestras
decisiones,
la
interpretación de los datos, el
diseño, visionar... En definitiva, la
tecnología está obligando a
sofisticarnos cada día más. Y en el
caso de los financieros, esto es
absolutamente determinante.
Estamos de acuerdo en que la
tecnología ha cambiado la forma en
que nos organizamos, pero sobre
todo la importancia relativa de los
inputs. Quien diseña, quien siente,
quien visiona, quien aporta valor,
quien asimila información para
convertirla en conocimiento de
valor, son las personas. Y las
personas
no
son
máquinas
programables. Los talentos se
crean, se incentivan, se forjan con
proyectos ilusionantes y con unas
nuevas relaciones laborales más
humanas, que aporten posibilidades
para el desarrollo personal, para el
crecimiento y la autoexigencia.
Innovar, aportar experiencia en el
consumo, vender y comunicar lo
hacemos las personas. Y, por lo
tanto, estas personas son la esencia
de los intangibles que gobiernan y
gobernarán la creación de riqueza y
empleo en el futuro.
¿Están bien valorados los
intangibles en las contabilidades?
¿Y cómo valoramos proyectos de
inversión con un entorno tan
complejo, cambiante e incierto?
¿Cómo medimos la creación de
valor
si,
precisamente,
lo
determinante del mismo suele estar
fuera de los libros de contabilidad?
¿Cómo se puede predecir, invertir,
atender a nuevas exigencias en
entornos
tan
cambiantes
y
exigentes?
Estas
preguntas
son
determinantes para un economista y
un financiero en el siglo XXI. Y
enfrentarse a ellas es realmente
difícil. Requiere de muchas
habilidades,
conocimientos
complementarios, capacidad para
escuchar y para tener una visión
estratégica. En definitiva, el papel
del financiero hoy es radicalmente
diferente al de hace cinco décadas,
y lo será mucho más dentro de...
una década, ¡o incluso mucho antes!
Los economistas dedicados a la
gestión financiera en las empresas,
es decir, el oxígeno que mantiene
viva a nuestra riqueza y empleo, se
enfrentan a una encrucijada cada
vez más importante. Las cosas que
nos enseñan en las facultades y en
las escuelas de negocios son útiles,
pero son sólo meros instrumentos
que nos permiten adquirir unas
habilidades técnicas necesarias,
pero para nada suficientes para
poder navegar en una economía del
conocimiento, global y dinámica,
que requiere de nuevos perfiles de
financieros.
Si algo enseñó la crisis de 2008
a las escuelas de negocios es a
elevar en la jerarquía de
asignaturas la ética de trabajo. Los
matemáticos
que
elaboraron
modelos cuya finalidad comercial
desconocían y los comerciales que
vendieron
productos
cuyos
fundamentos no comprendían nos
llevaron a un mundo donde, a falta
de ética, todo era tecnología. El
resultado ya lo sabemos: no
funcionó.
El financiero del presente, y
más aún el del futuro, necesita de
nuevas fórmulas para analizar la
realidad,
adoptar
decisiones
empresariales,
de
inversión,
asignar riesgos o vías solventes que
le permitan acompañar sus
habilidades técnicas con las del
resto de los profesionales que
integran una organización. Sólo
actuando de una forma coordinada,
casi mimética, con las finanzas y el
resto
de
actividades
(I+D,
comercial, marketing, compras,
contabilidad, logística...) se puede
empezar a comprender y trabajar en
la creación de ese gran puzle que
supone la creación de valor.
Veamos un ejemplo muy
sencillo de por qué las finanzas
necesitan repensarse. Un analista de
riesgos, por ejemplo, sólo con lo
que le ofrece su pantalla de
ordenador, puede estar sometido a
severos sesgos de análisis. El
siguiente caso es absolutamente
real (se omiten nombres y datos que
no son relevantes para comprender
el problema de fondo).
La máquina que se olvida de la
información «blanda»
Un buen miércoles por la tarde, una
empresa comenta a su consultor que
una
de
sus
principales
competidoras está en apuros y que
quiere iniciar un proceso de
negociación para su adquisición
por las sinergias evidentes entre
ambos negocios. Le gustaría, para
ello, hablar con la principal entidad
bancaria de la empresa en apuros.
El consultor se pone de inmediato
en contacto con el director de zona
del banco, que a su vez hace lo
propio con un analista de riesgos en
la sede central, a cientos de
kilómetros de distancia. El analista
repasa las ratios habituales y no
observa
ningún
problema
apreciable: «Nada que temer, a esta
empresa no le pasa nada». Tras la
reacción de incredulidad, se le
intentan explicar los pormenores de
la situación, que su cliente está
atravesando problemas genuinos,
pero que hay una empresa que
puede ayudar en el proceso
mediante una adquisición. Y aunque
al analista de riesgos le gustaría
quizá poder confiar en el consultor
e ir más allá, su labor es clara y
está bien definida: si no se puede
apreciar en los datos y no se
traduce en algún tipo de alarma, no
conviene preocuparse.
Pocas semanas después, la
empresa en apuros entra en
concurso de acreedores y la entidad
financiera añade gran parte del
pasivo de ésta a la larga lista de
«créditos de dudoso cobro», tras lo
cual la empresa interesada en su
adquisición recibe su llamada para
retomar el contacto y buscar una
salida. ¿Dónde ha radicado el
problema?
¿Acaso
en
la
incapacidad del analista? No, éste
sólo ha seguido un procedimiento
estandarizado que, si bien se
expone a riesgos como el
mencionado, se ha comportado
razonablemente bien en otras
ocasiones.
El
problema
se
encuentra, por supuesto, en la falta
de flexibilidad del proceso a la
hora de incorporar información
relevante pero difícil de medir. La
centralización de los sistemas de
riesgos, a pesar de las ganancias de
eficiencia y precisión que ha
conllevado en muchos casos, falla a
la hora de incorporar el capital
relacional
preexistente:
la
confianza mutua labrada durante
muchos años entre gestores de
oficina y sus clientes.
¿Cree que Google hubiera
encontrado financiación bancaria
en España el día que se creó?
Detrás de un tejido empresarial
altamente innovador siempre hay
alguien
asumiendo
riesgo.
Innovación y riesgo van de la mano,
y sin un sistema financiero
«entrenado» en aportarlos y
rentabilizarlos estaremos frenando
las posibilidades de crecimiento
económico. En última instancia, un
juicio subjetivo puede aportar
información relevante a este tipo de
decisiones. Por ejemplo, ningún
modelo de riesgos informático
ponía en 2007 coto a la
canalización del crédito hacia la
construcción, cuando la mayoría de
los analistas llevaban unos dos
años esperando el estallido de la
burbuja. En pleno 2007, los
modelos
consideraban
la
biotecnología como alto riesgo,
pero no el ladrillo. En general, los
modelos de negocios de alto riesgo
y difícil comprensión han tropezado
siempre con el escasísimo apoyo de
la financiación bancaria, muriendo
antes de nacer a pesar de las
altísimas rentabilidades esperadas
que ofrecen a cambio de su riesgo.
Imagina a Sergey Brin y Larry
Page, fundadores de Google, dando
en sus inicios un paseo por España
y enamorándose del país. Atraídos
por el sol, la gastronomía y la
calidad
de
vida,
deciden
desarrollar su empresa aquí. ¿Te
los imaginas en un banco español?
Peor
aún,
¿los
concibes
consiguiendo crédito para iniciar su
actividad? Y, rozando lo pésimo,
¿los vislumbras consiguiendo una
participación en el capital de la
empresa por parte de un banco? Es
necesaria
una
portentosa
imaginación para creer que esto
podría haber sucedido, aunque
también es justo decir que la
financiación inicial de Google en
Estados Unidos no provino de la
banca. El sistema financiero
español —y, por supuesto, el de
otros lugares del mundo— está muy
entrenado en una única modalidad
de préstamo, el hipotecario con
garantía para la adquisición de
inmuebles: 6 de cada 10 euros de
deuda privada bancaria de este país
están
concentrados
en
la
construcción.
No usamos nuevas lógicas
financieras, pero tampoco
tenemos muchos incentivos para
hacerlo
Recientemente,
The
Global
Competitiveness Report, publicado
por el Foro Económico Mundial, se
dedicó a medir un amplio número
de variables que determinan 12
pilares de la competitividad para
144 países. Los resultados para
España muestran que nuestras
grandes barreras son, por orden de
importancia, las cuatro siguientes:
1. El acceso a la financiación,
2. el mal funcionamiento de
nuestro mercado laboral,
3. la burocracia y
4.
la escasa capacidad de
generar innovación de las
empresas.
Por lo que respecta al acceso a
la
financiación,
España
se
encuentra en el puesto 122 de los
144 países analizados del mundo.
El problema es claro, evidente, e
impide el desarrollo empresarial,
sobre todo de aquellas compañías
con
mayor
capacidad
de
innovación, que son las que mayor
riesgo llevan asociado.
Una de las mayores dificultades
a las que se enfrenta un
emprendedor es lograr financiación
bancaria para su proyecto. Después
de pasar una etapa donde amigos y
familiares te apoyan, aportas tus
(mayores o menores) ahorros y
empiezas a mover el proyecto entre
potenciales «socios financieros»
(business angels, capital semilla o
convocatorias
públicas
de
ayudas/préstamos), y la realidad se
impone: ante cualquier proceso de
crecimiento y consolidación de una
nueva idea empresarial, se precisa
financiación bancaria. Y es ahí
donde la tasa de rechazos, las
condiciones y las dificultades
empiezan a florecer.
¿Cómo puede evaluar una
entidad financiera las buenas e
innovadoras ideas? ¿Cómo valora
el riesgo? Lo habitual es analizar
las cuentas. Pero ¿qué ocurre si no
las tiene porque es una idea que
emerge y no hay nada comparable?
¿Cómo valoras el potencial sin un
histórico?
Los
programas
informáticos y de análisis de
riesgos están muy acostumbrados a
que los alimentemos con datos
históricos sobre los que hacer
simulaciones
y stress
tests
(cambios de escenarios para
analizar cómo se puede o no
devolver una deuda). ¿Qué ocurre
si no hay histórico? ¿Se rechaza sin
más la idea? Si se hiciera esto por
defecto, los bancos perderían
grandes oportunidades de negocio,
y cualquier país se quedaría sin
actividad empresarial innovadora.
En España, lo habitual son las
«garantías», hasta el momento casi
siempre
hipotecarias.
El
emprendedor/a pondrá su casa, la
de sus padres, los ahorros de sus
hijos y todo lo que posea como aval
de la deuda. Pero ¿y si las garantías
hipotecarias no son suficientes?
Aquí es cuando llegamos al
problema de fondo, que reside en el
tratamiento de la información
«blanda» (soft information) o nomedible: las empresas innovadoras
se apoyan en una información de
nueva generación, blanda, y que no
es fácil de contrastar, para explicar
la rentabilidad de sus modelos de
negocio, y las entidades financieras
tienen dificultades para valorar esa
información
(cualitativa
y
cuantitativa) y traducirla en la
concesión o no de un crédito.
Es riesgo, es muy silencioso, y
está en todas las partes
Es más riguroso asumir sólo los
riesgos que uno entienda que tratar
de entender los riesgos que uno
asume.
Vuelve a leer la cita, y piensa en un
ejemplo secuencial, en dos pasos.
Esta cita es del gran Nassim
Nicholas Taleb, en su libro
Antifrágil. Las cosas que se
benefician del desorden (Paidós,
2013). Lo ideal y estrictamente más
correcto sería realizar sólo
aquellas operaciones cuyos riesgos
asociados
son
perfectamente
comprendidos por nosotros. Sin
embargo, muchas veces acabamos
en el escenario alternativo: dada mi
situación actual, me dedico a
entender los riesgos que me rodean
¡y acabo desesperado porque no
comprendo dónde estoy!
Taleb nos dice que no se puede
considerar la «gestión de riesgos»
como una ciencia a través de la
cual, a partir de unos axiomas, se
trata de confirmar una serie de
hipótesis verificables. En nuestro
día a día, en cualquier empresa,
pero sobre todo en las que tratan de
navegar y hacerse un hueco en el
complejo
entramado
de
la
innovación, muchos de nuestros
comportamientos no tienen una
lógica
científica
detrás.
Simplemente tenemos que adoptar
decisiones para sobrevivir, tenemos
que dar pasos, y no siempre hay una
teoría científica de la que echar
mano; quizá no la haya ni siquiera
en cientos de años. Vivimos en un
mundo
incompleto,
complejo,
sujeto a un gran número de
variables interconectadas entre sí
que son muy difíciles de prever.
Pero esa complejidad y esos
riesgos no se pueden acotar de
cualquier manera. El debate es el
siguiente: ¿Qué prefieres, ir en un
avión sin GPS o en uno donde el
GPS no tiene programada la ruta a
la que tú vas? Pocas personas
decidirían subirse al primer avión,
si tienen opción. ¿Prefieres un mal
mapa antes que no tener mapa? Esta
pregunta no es tan sencilla, porque
usar medidas incorrectas, sabiendo
que son incorrectas, para tomar
decisiones no es mejor que no tener
medidas.
En cambio, en el mundo de la
empresa —también en la política, o
incluso en la medicina o en
cualquier disciplina donde disponer
de toda la información es realmente
imposible—, actuamos sabiendo
que las medidas son incorrectas
pero, como es lo único que
tenemos, las aceptamos sin más. A
veces hasta nos las creemos como
si estuvieran escritas a fuego, y,
simplemente, son cifras o análisis
que no sirven. El caso más evidente
es el del plan de negocio, o incluso
el del análisis de rentabilidad de
una inversión. Asumimos que
podemos predecir el futuro, el
comportamiento de los clientes, el
de los precios, la competencia, el
impacto de nuestras inversiones...,
en definitiva, un sinfín de variables
y de supuestos con los que creemos
construir una carretera hacia el
estrellato de todo negocio. ¿Has
visto algún plan de negocio donde
la compañía no sea rentable?
¿Algún análisis de rentabilidad está
basado en supuestos ex-ante
absolutamente predecibles? La
realidad es que no.
Entre 2002 y 2007 en España
había pocas cosas más seguras, más
fáciles de calcular y que más
credibilidad generaban a las
instituciones financieras que el
negocio de las energías renovables
(solar y eólica, fundamentalmente).
Precios regulados por ley (en
quince años sabrías perfectamente
cómo iban a ser esos precios),
costes e inversiones seguras (los
paneles y las torres tenían precios
conocidos
y
fácilmente
previsibles). ¿Qué podía fallar? Un
negocio seguro con tasas de
rentabilidad para el accionista
superiores al 12 por ciento en solar
y del 20 por ciento en eólica. Todo
blindado por la ley. La misma ley
que destrozó toda esa rentabilidad y
que ha colocado a inversores
(apoyados por una ingente cantidad
de deuda) a los pies de los
caballos.
El riesgo es muy silencioso,
hasta que se materializa. Y jugando
al futuro no existen verdades
incuestionables más allá de unas
cuantas leyes científicas. La única
forma de abordar ese riesgo y tener
un cierto (aproximado) control
sobre el mismo es a través de la
intersección de disciplinas, que no
suma. Por lo tanto, si eres un
financiero que ha acabado la
carrera y que pensabas meterte en
un cubículo a contabilizar, hacer
presupuestos y olvidarte de conocer
«nada más», estás abocado al
fracaso profesional. No serás útil.
Es más, serás sustituido por
máquinas en un futuro no muy
lejano.
Estas
tareas
son
automatizables,
fácilmente
delegables y no aportarás valor
estratégico. La intersección entre
disciplinas es fundamental para
crecer profesionalmente en nuestra
actualidad. Y eso requiere mucha
capacidad de adaptación, de
aprendizaje y, por supuesto, de
comunicación.
Te puedes preguntar en estos
momentos, ¿lo mejor es no hacer
nada? Ciertamente, la parálisis
tampoco es una solución, porque en
ese caso estaríamos afrontando
riesgos por omisión más que por
acción y, a veces, no se sabe muy
bien qué es peor. Para que la
complejidad no nos pare, seamos
estrategas
e
integremos
conocimientos. Y es aquí donde veo
un claro y decisivo trabajo en el
mundo de las finanzas corporativas;
tenemos que dar luz y poder a la
estrategia financiera, que no
necesariamente está diseñada por
financieros.
¿Quiere esto decir que los datos
históricos no son importantes y no
los debemos utilizar? En absoluto,
simplemente que no son suficientes
para tomar decisiones de futuro,
porque la incertidumbre ha
dinamitado el puente seguro que es
predecir el futuro a través del
pasado.
Las finanzas en una empresa ya
no pueden ser lo que siempre han
sido, departamentos pasivos, cosas
a externalizar para anotar contable
y fiscalmente lo que ocurre (o se
cree que ocurre, porque no todo lo
importante se recoge en una
contabilidad) en la organización.
Una misma persona con el mismo
conocimiento podría llevar las
finanzas de una empresa de zapatos
y de una biotecnológica que está
tratando de encontrar la solución al
cáncer. ¿No resulta extraño que sea
el mismo papel de un financiero en
una empresa de zapatos que en una
de
biotecnología?
Si
le
preguntamos a un asesor contable y
fiscal, incluso nos diría que le da
más trabajo y quebraderos de
cabeza la empresa de zapatos. ¿No
falla algo? ¿Dónde hay más riesgo?
¿Dónde se necesita más capacidad
de análisis, de evaluación de
riesgos, de comprensión del
negocio, de comunicación? El
papel de las finanzas en la empresa
del siglo XXI es radicalmente
distinto a lo que estamos
acostumbrados. Se necesitan nuevas
lógicas, nuevos conocimientos, más
capacidad de integrar disciplinas
con impacto en las finanzas. Quizá
no estamos aún preparados para
ello, y quizá sigamos aplicando
modelos de gestión de riesgos
caducos a problemas nuevos, y con
ello matamos la frescura y la
capacidad de innovación de las
compañías. Pensemos en ello.
¿Cuáles son algunas de esas
nuevas lógicas financieras?
Nos gustaría hacer una reflexión
sobre cómo funcionan el riesgo y la
incertidumbre. ¿Cómo pasamos de
un mundo predecible a otro
totalmente impredecible y qué
consecuencias
tiene
esto?
Podríamos dedicarnos a poner un
porrón de formulitas, supuestos y
números para comprender este
fenómeno. Pero a riesgo (como ves,
no hay certidumbre plena) de no ser
exhaustivo y dejar cosas en el
tintero, creo que se puede mostrar
de forma muy gráfica e intuitiva la
complejidad en que nos coloca
tomar decisiones en contextos de
incertidumbre o, sobre todo, cuando
no somos capaces de anticipar ni
cómo va a responder el mercado, ni
la competencia, ni siquiera si
nosotros mismos cometeremos
errores que nos hagan ser
ineficaces
en
las
acciones
planificadas. Como hemos dicho,
los riesgos son muy silenciosos.
Supuesto 1. La alegría de vivir en
un mundo predecible
Pensemos en una situación donde
tenemos certidumbre plena sobre el
futuro. Tenemos una fórmula que
nos dice que si hacemos X vamos a
generar Y. Sabemos exactamente
cómo se comportan todas las
variables que influyen en el
proceso. Por ejemplo, sabemos que
tenemos tres opciones de inversión:
A, B, C. Estas tres opciones sólo se
diferencian por la cantidad de euros
invertidos y por tener una estrategia
de publicidad distinta (por ejemplo,
la A podría ser una inversión en la
televisión, la B podría ser sólo
digital y algo de televisión, y la C,
sólo radio). En la alternativa A,
habría que invertir, por ejemplo, 5
millones de euros, en la B, la mitad,
2,5 millones, y en la C, tan sólo
500.000 euros.
En este mundo predecible,
invertir más genera mejores
resultados, que van mejorando con
el tiempo. Vamos a suponer que los
resultados se miden en términos de
caja (grosso modo y para
entendernos, dinero neto que entra
tras acometer la inversión...
ingresos menos gastos). En el
mundo predecible del gráfico
superior, claramente invertiríamos
en aquel lugar donde generemos los
mejores resultados con la menor
inversión posible. Tal y como lo
tenemos pintado, para colocarnos
en la cima A111, tenemos que
invertir 5 millones e ir acometiendo
las etapas del camino A.
En este mundo predecible, de
información perfecta, sabemos qué
harán los consumidores cuando
invirtamos ese dinero, podemos
predecir la competencia, el marco
regulatorio
o
las
variables
macroeconómicas clave que puedan
influir en nuestras ventas (por
ejemplo, los tipos de interés, que
afectan al consumo, o los
impuestos, que afectan a la renta
disponible). Como lo sabemos
todo, y nuestra formulita nos da el
valor exacto..., no hay dudas,
apostamos por el mundo A, aunque
haya que invertir 5 millones de
euros.
Supuesto 2. Pero en la vida no
hay certezas absolutas
¿Cómo funciona el riesgo en un
ejemplo tan sencillo? A través de
un concepto muy clave y que
reconocemos
rápido:
la
probabilidad. Si queremos predecir
el futuro, hay que tener en cuenta
que son pocas las cosas que tienen
una probabilidad del ciento por
ciento. Y en gestión de empresas o
inversión, menos. Siempre hay
factores que no podemos medir con
precisión, o controlar de antemano
y, por lo tanto, cualquier ámbito que
influya en nuestros resultados y que
sea aleatorio (depende del azar o,
al menos, no lo podemos medir con
precisión) convierte todos los
resultados en aleatorios. Así de
fácil.
Si el éxito de nuestra inversión
depende de tres parámetros, por
mucho
que,
por
ejemplo,
conozcamos
dos
de
ellos
perfectamente y los podamos
predecir al ciento por ciento, si no
podemos ni aislar (separar) ni
medir el tercero y, por lo tanto, éste
puede ser aleatorio, nuestro éxito se
convierte en algo aleatorio.
Una
forma
de
verlo
gráficamente, en un supuesto muy
sencillo, es la siguiente:
Ahora resulta que los caminos
A y B no son únicos, tienen
bifurcaciones. Estas bifurcaciones
quieren decirnos que, una vez
invertida una cantidad, puede
ocurrir una cosa (A1, B1) u otra
cosa distinta (A2, B2). Ahora las
cosas ya no son tan fáciles como en
el supuesto 1. Necesitamos más
información y, sobre todo, tenemos
muchas más dudas:
¿Qué pasa si invierto 5 millones
de euros, pero sale mal y me muevo
por el camino A2? Resulta que
invirtiendo 2,5 millones, la mitad,
podría haber conseguido mejores
resultados siempre que con la
alternativa A2. ¿Qué riesgo asumo
de invertir 5 millones (opción A) y
acabar en A2? Ésa es la gran
pregunta. Para responder a esa
pregunta necesitaríamos saber qué
probabilidad existe de que una vez
que haya invertido una cantidad
vayamos por uno u otro camino.
Lo que está claro es que
siempre podemos encontrar una
probabilidad (en realidad, muchas)
que nos coloque en una situación
donde la opción B sea la más
inteligente. Lo que en un mundo
perfecto y predecible no daba lugar
a dudas —invertir en A—, ahora se
nos plantea con dudas razonables.
Demos una vuelta de tuerca
más: ¿te imaginas tener infinitas
opciones una vez invertida una
cantidad? Tener infinitos caminos
es como no tener ninguno..., nos
estamos jugando los resultados a la
lotería. Pues ése es el reto, tratar de
tener la mayor información posible
para acotar las posibilidades y
poder decidir mejor. Nadie puede
predecir el futuro, pero al menos
podemos estudiar las opciones que
consideremos más probables y
tratar de decidir con más
fundamento.
Supuesto 3. En el mundo de la
incertidumbre, las opciones valen
dinero
Podríamos habernos quedado en el
supuesto 2, asumir que el mundo es
complejo, que en etapas de
mercados nuevos y disruptivos es
imposible predecir el futuro, y que
siempre será una especie de lotería.
Así que quien logre invertir 5
millones y situarse en el camino A1
será un gran vencedor, muy rentable
y saldrá en todas las portadas de
los periódicos. En caso contrario,
asumirá que tiene que tirar los
millones por el desagüe e irá a
engrosar la larga lista de fracasos
de inversión.
Habíamos dicho que la
diferencia entre las tres opciones
era la cantidad de dinero, pero, y es
importante el pero, también la
estrategia publicitaria a seguir. La
opción A es gastarse todo el dinero
en anuncios de televisión y la
opción B es también invertir en
televisión pero sobre todo poner el
foco en el marketing digital, en
internet. Desconocemos qué canal
puede llegar mejor a nuestro cliente
tipo, pero sabemos que la audiencia
televisiva es una vía para mandar
un mensaje (caro) a muchísimas
personas (sin diferenciar bien sexo,
edad o gustos).
Ahora asumamos que no toda
decisión es indivisible, es decir,
que no hay blancos y negros, que
podemos experimentar, probar, y
que tomamos el modelo más
flexible. Empezamos en el mundo B
(descartamos la C, para simplificar
el análisis). Ahora podemos
diseñar una estrategia mixta con el
primer millón: «anuncio en
televisión y segmentación de
nuestros
potenciales
clientes;
tratamos de llegar a ellos a través
de anuncios selectivos en internet».
¿Qué estamos haciendo al
trocear
la
inversión
y
experimentar? Ganar opciones.
Cuando
tomamos
pequeñas
decisiones en contextos de alta
incertidumbre podemos evaluar,
casi al instante, cómo van
reaccionando los parámetros clave
de
nuestra
inversión.
¿Nos
movemos por B1 o por B2?
Imaginemos que estamos en el
punto B1, parece que la televisión
es efectiva, pero la potencia de
internet también tiene sus frutos.
Acabamos de construir una opción.
Fíjate en el gráfico:
Acabamos de trocear el
proceso en dos fases. Me reservo la
mitad de mi inversión en la opción
A, pruebo con la B y, si tengo éxito
(puedo evaluar cuál es la estrategia
publicitaria con más impacto), pues
tengo la opción de reprogramar mi
estrategia. Dado el punto en el que
estoy (punto destacado en el
gráfico), ¿cuánto tendría que
invertir para cambiar de curva y
pasar a A1? ¿Más o menos de 2,5
millones de euros? ¿Con qué
resultados potenciales? ¿Se abren
nuevas vías?
Son otra vez preguntas difíciles,
pero siempre habrá un escenario
(en realidad con muchísimas
probabilidades) que nos dice que
esos 2,5 millones de euros que has
conseguido gracias a que te
reservaste una «opción» de futuro,
ahora pueden lograr colocarte en
unos rendimientos muy elevados
con «menor» riesgo.
A medida que vamos caminando
y experimentando, podemos medir,
aprender y, por lo tanto, trocear la
complejidad del futuro en pequeñas
fases (tan pequeñas como podamos)
e inyectar el dinero según se vaya
aprendiendo de esos resultados. En
vez de invertir 5 millones de golpe
y jugarte el todo o nada, lo que nos
dice esta lógica es:
¡Cuidado! Reserva opciones, que
las puedes necesitar. El mundo no
es predecible y tienes que tener
recursos para invertir a medida que
vas aprendiendo.
En el mundo de las finanzas
esto parece un poco locura,
¿verdad? Pero a que no nos lo
parece cuando un deportista de élite
va a hacer un ironman, o una
escalada peligrosa. La clave no es
actuar como si la carrera fuera
ciento por ciento predecible, ni que
tus fuerzas lo serán. No sabes cómo
soplará el aire, el sol, si el calcetín
te provocará una herida..., miles de
cosas..., ¿qué hacer? Guardar
opciones, energía, y dosificarla de
forma inteligente. Todo deportista
de élite es en realidad un gran
estratega que gracias a su alta
formación y experiencia va
tomando decisiones pequeñas...,
pero efectivas y medidas.
Pues el financiero tiene que
actuar como un deportista de élite.
Tiene que ser capaz de asumir que
se acabó eso de vivir del pasado
(eso es una condición necesaria y
un proceso automático y con el
valor añadido justo). Ahora la
clave está en cómo valorar
opciones de futuro, en cómo
conectar los recursos financieros
con las distintas posibilidades y
ayudar a todos los demás
departamentos
y
personas
implicadas en los resultados de una
compañía.
Hoy se construye riqueza a través
de valor temporal y expectativas
En noviembre de 2013, los jóvenes
socios fundadores de Snapchat se
convertían instantáneamente en
estrellas mediáticas. Y no sólo por
su juventud —Evan Spiegel tenía
veintitrés años, y su socio, Bobby
Murphy, veinticinco— o por haber
creado un servicio de mensajería
instantánea de popularidad mundial
por la autodestrucción automática
de sus mensajes segundos después
de ser enviados. Se convertían en
estrellas mediáticas por decir «no»
a uno de los gigantes mundiales «de
moda», Facebook. La oferta parecía
imposible de rechazar: 3.000
millones de dólares por una
sociedad sin beneficios. ¡Incluso
llegaron a rechazar otra oferta
superior poco después!
La noticia generó todo tipo de
debates y de preguntas: ¿cómo es
posible que desestimasen 3.000
millones de dólares por una
empresa sin un solo dólar de
beneficios? ¿Es ésta la constatación
de una nueva burbuja en internet?
La oferta inicial había comenzado
en 1.000 millones de dólares,
cantidad muy similar a la que
aceptó Instagram para pasar a
formar parte de Facebook.
Los numerosos interrogantes
nos han animado a intentar aportar
algunas ideas sobre qué hay de
singular en estas empresas para que
ocurran estas cosas: ¿qué sucedió
para que una oferta de 1.000
millones se convirtiera en otra de
3.000 millones? ¿Cómo se puede
ofrecer tal cantidad sin generar
beneficios positivos? ¿Cómo se
valoran este tipo de compañías?
¿Pasarían la «prueba del algodón»
financiero clásico, que nos llevaría
a estimar unos flujos de caja futuros
y descontarlos a su valor presente?
Los fundadores de Snapchat
ignoraron «la ansiedad por ser
ricos» para decidir mejor. El
propio Evan lo explicó bien:
rechazó
la
oferta
porque
consideraba que en 2014 su red de
usuarios se multiplicaría, y con
ello, el valor de su compañía. En la
última ronda de financiación, él y
su socio fundador hicieron caja por
importe de 10 millones de dólares
cada uno. Ahora ya habían
despejado una duda: ¿seremos ricos
con esta empresa? Ya se
imaginaban la respuesta y quitaban
la presión sobre el equipo
directivo. Y a partir de ahí se
decidieron a seguir escalando en su
árbol
de
posibilidades
de
valoración.
Los
fundadores
preferían
esperar
y
seguir
quemando dinero, generalmente de
empresas de capital riesgo que
creían en ellos y en su modelo de
negocio, los cuales parece que
también les animaron a esperar
para lograr un valor mayor.
Esta estrategia de «quemar
caja» es habitual incluso en
gigantes como Twitter, y consiste en
no preocuparse por los ingresos
mientras las entradas de capital
cubran los gastos y en continuar la
propia andadura sin beneficios. Las
métricas de usuarios, de generación
de ingresos, de investigación y de
desarrollo muestran un gran
potencial de futuro..., pero la
realidad de los ingresos permanece
tozuda. A pesar de ello, el primer
día de cotización de Twitter se
saldó con una revalorización
gigantesca, de los 26 dólares
iniciales por acción hasta acabar el
día con un crecimiento cercano al
75 por ciento. Y todo ello después
de que se hicieran públicos los
1.000 millones de dólares que
Yahoo pagó por Tumblr o de que
Facebook recuperara su valor
inicial de salida a bolsa cuando ya
se había hablado de «burbuja
pinchada». Así es que ahora se
habla de lo contrario, vuelve la
«burbuja» de valoraciones, de las
posibilidades que genera la
inversión en modelos de internet.
La pregunta es: ¿tienen sentido
estas operaciones desde un punto
de vista financiero? No seremos
nosotros quienes digamos que cada
una de estas valoraciones es justa y
afinada. Pero sí que queremos
llamar la atención sobre algo que
no suele estar en la mesa de debate.
¿Cómo se hacen esas valoraciones?
¿Estamos ante un problema del
valor o de la técnica utilizada para
medir ese valor? Es muy distinto
valorar una empresa con una gran
trayectoria, buenos balances y
cuenta de pérdidas y ganancias —y
que además opera en mercados
maduros y conocidos— que valorar
empresas con modelos de negocio
disruptivos (difíciles de comparar,
donde las normas de juego del
mercado no están aún claras),
globales y construidas sobre
activos intangibles, difíciles de
medir y, por lo tanto, «fuera de
balance».
Al afrontar la valoración de una
empresa, los economistas partimos
de dos tipos de técnicas básicas:
descuento de flujos de caja o
valoración por múltiplos. En el
primer caso, recurrimos a Gordon y
su teoría de series numéricas para
calcular
valores
residuales;
asumimos un escenario de ingresos,
gastos, inversiones y repagos de
deuda —en definitiva, generación
de flujos de caja—, y se actualiza
esa caja con una tasa de descuento
ajustada al riesgo de la compañía
hasta el momento actual. En el
segundo caso, nos volvemos
auténticos detectives de balances e
inventamos multitud de términos
para describir lo mismo: la
capacidad de generar beneficios.
Tomamos como ejemplo empresas
«parecidas», a ser posible que ya
coticen en bolsa, y se usan métricas
que asumimos comparables para
hacer valoraciones siguiendo algún
parámetro clave como beneficios
(EBITDA), valor de capitalización
(EV) —que se combina con
ingresos o beneficio— o el mismo
precio de la acción sobre el
beneficio de la misma, conocido
como PER (Price to Earnings).
¿Qué ocurre cuando intentamos
aplicar estas metodologías a
modelos disruptivos y con alta
incertidumbre
e
intangibles?
Sucede que nos volvemos locos.
Encontramos ratios como el PER
por encima de 80 (cuando
escribimos esto, el PER de
Facebook es de 98), es decir, que el
precio de la acción es 80 veces
superior a los beneficios anuales
que genera, mientras en sectores
tradicionales esa ratio puede ser de
hasta 3/4 veces inferior (el PER de
Coca-Cola habitual está en torno a
20; General Electric, 19, y Apple,
13).
Como máxima sofisticación,
para empresas basadas en la
provisión de servicios por internet
nos
inventamos
ratios
no
financieras, como los ingresos por
usuario, y nos conformamos con
valorar empresas según el propio
número de usuarios: Facebook vale
20 dólares por usuario, y si Twitter
vale 200 dólares por usuario,
¡entonces
Twitter
está
sobrevalorado! ¿O no? El problema
de fondo es la forma en la que nos
enfrentamos a este tipo de
valoraciones:
la
propia
metodología.
Para comprenderlo, pensemos
en un ejemplo muy sencillo.
Imagina, lector, que buscas a la
persona de tu vida, con la cual te
gustaría pasar el resto de tu vida.
Sabes
que
hay una
baja
probabilidad de encontrar a esa
persona un día cualquiera en un
lugar cualquiera. Primero, porque
la puedes conocer en el autobús, en
internet, en el trabajo o en un sinfín
de escenarios. También sabes que
la probabilidad de que en la
primera cita elijas y sepas que esa
persona es la adecuada es muy
baja. Lo más probable es que
«rechaces» seguir viendo a esa
persona. ¿Cómo actuarás si un día
quedas con una persona en la
primera cita y crees que existen
algunas posibilidades de que sea
alguien especial? Lo que harás será
quedar con esa persona la semana
siguiente, y si descartas que la
persona sea «una petarda»,
volverás a quedar, y así durante
varias semanas. Si no descartas a
esa persona en el proceso,
continuarás hasta el punto de vivir
juntos, incluso hasta el punto de
crear una familia.
Cada evento que pasa, cada
cita, reduce el riesgo de que se trate
de la persona errónea para ti y
aumenta la probabilidad de que sea
la persona «de tu vida». Ese riesgo,
tan elevado al principio, es
«troceado» para crear «opciones»
de que ocurran otros «eventos».
Aun así, hay muchos divorcios,
pero el riesgo de divorciarse es
muy bajo respecto al riesgo de
encontrar a la persona de tu vida en
la primera cita. La vida es un
proceso secuencial de toma de
decisiones, con incertidumbre.
Ahora imagina que te imponen
una ley represiva: «En la primera
cita tienes que elegir quedarte con
esa persona para toda la vida o
rechazarla». ¿Qué harías? Como la
probabilidad de que sea una
persona «especial» es muy baja, lo
más sensato es que descartes a esa
persona casi «por defecto». Si no te
dan opciones de «crear más
eventos», no puedes evaluar bien
ese riesgo ni tomar decisiones con
cierto fundamento.
Pues esto es más o menos lo
que solemos hacer cuando usamos
técnicas clásicas como el descuento
de flujos de caja y las aplicamos a
eventos complejos e impredecibles.
Queremos traer al momento
presente la decisión de invertir o no
en una empresa que necesita
todavía «vivir» muchos eventos
para probar su modelo de negocio.
Al usar como parámetros los flujos
(ingresos, gastos, inversiones,
capacidad de generar caja) a futuro
descontados a un momento presente
todo parece ciencia ficción. Por eso
le aplicamos una tasa de riesgo o
de rentabilidad exigida realmente
alta; en startups tecnológicas, hasta
del 80 por ciento. La consecuencia
es que o bien no invertimos en este
tipo de compañías, o bien las
valoraciones que hacemos se
escapan de nuestra intuición
financiera.
En cambio, como mostramos
con el ejemplo de las parejas, la
vida está repleta de opciones y,
como tal, debemos dar cabida a
valorar el impacto de esas
decisiones en el futuro. Una
empresa no vale por lo que fue,
sino por lo que podrá llegar a ser.
Pero ¿cómo valoramos los cambios
de régimen o estados de la
naturaleza? Nos estamos acercando
y dando vueltas alrededor de un
concepto clave: las opciones
financieras. Con la estimación de
opciones se calcula la generación
de beneficios potenciales en
momentos futuros del tiempo,
causando explosiones (o caídas) en
las valoraciones de las empresas.
No se trata de algo muy novedoso,
pues esta forma de operar tiene una
gran trayectoria académica. Lo que
es realmente complejo es su
utilización para fines 100 por
ciento prácticos. Las opciones
suelen estar muy presentes cuanto
mayor es la complejidad de los
modelos de negocio y mayor es la
incertidumbre:
empresas
de
internet,
biotecnología,
nanotecnología o, en general, en
todas aquellas empresas donde las
inversiones están asociadas a un
riesgo elevado, difícil de medir y
que, además, es secuencial (sólo se
conoce ese riesgo después de que
ocurra un evento determinado). En
definitiva, a las empresas que se
enfrentan a mercados con estructura
The Winner Takes it All («el
ganador se lo lleva todo»).
La realidad es que se puede
descomponer el valor de toda
empresa (o cualquier activo) como
la suma de un valor intrínseco más
un valor temporal. Toda empresa
tiene un valor intrínseco, en tanto
que puede generar un ingreso que
hoy conocemos, con unos gastos e
inversiones que también sabemos
hoy. Además, tiene un boleto de
lotería en el bolsillo: la opción de
generar una nueva corriente de
flujos en el futuro si suceden uno o
varios eventos. Por ejemplo,
¿cuánto valía Pfizer antes de sacar
al mercado la Viagra? Su valor
intrínseco podría ser muy bajo,
porque vendía medicamentos cuya
patente ya había caducado y no
tenía exclusividad. En cambio, su
valor temporal era altísimo: fruto
de muchos (y cuantiosos) esfuerzos
en investigación habían encontrado
la posibilidad de desarrollar un
fármaco con una gran demanda
mundial, la Viagra. Una vez que la
Viagra era una realidad y se
hubieron soportado todos los costes
e inversiones para lograr el
fármaco, el valor de la compañía
explotó. Pues bien, lo mismo está
(o puede estar) sucediendo con
muchas empresas de internet, con
cuantiosas
inversiones
en
investigación o, simplemente, con
muchos activos intangibles que
trabajan sin que los podamos
«percibir» tan fácilmente.
Twitter, Facebook o Tumblr, al
igual que Snapchat, son las nuevas
empresas farmacéuticas. Pueden
cambiar el mundo o la forma en la
que
nos
comunicamos
e
interactuamos con sus productos,
compartamos o no dicha opinión.
Pero
existe
la
opción,
financieramente hablando, de que lo
hagan. Y como tal, debemos
valorarla.
Usar técnicas como las
opciones
reales
no
es
imprescindible
para
valorar
empresas de internet o empresas
con grandes activos intangibles,
aunque parece un enfoque bastante
adecuado
porque
ayuda
a
descomponer el valor futuro de una
compañía
en
sus
distintos
componentes.
Para
ello
introducimos, cuando hablamos de
tiempo discreto, lo que se
denominan árboles de decisión
(pensemos, por ejemplo, en el
típico árbol binomial: pasa/no
pasa). En tiempo continuo son
habituales
herramientas
de
simulación, por ejemplo, mediante
el método de Montecarlo. O,
incluso,
existen
soluciones
analíticamente cerradas y bastante
sofisticadas, como por ejemplo las
adaptaciones de la fórmula de
Black-Scholes para la valoración
de opciones financieras.
En otras palabras, y pensando
en el caso más sencillo, al crear
dichos árboles de decisión, el
tiempo discreto se va dibujando
nodo a nodo el valor estimado de la
compañía según se asume una u otra
decisión, paso a paso, con un
minucioso análisis del modelo de
negocio (generación de ingresos,
gastos, I+D, deuda, pagos, cobros,
productividades, publicidad y
marketing...).
Es una forma muy eficaz para
analizar y visualizar gráficamente
en qué momento estimamos que una
compañía puede aumentar su valor
«si adopta ciertas decisiones». A
cada camino se le asocia un peso o
probabilidad de que ocurra. Quizás
es reducida la probabilidad de que
Facebook descubra un nuevo
«Viagra» con su modelo de
negocio, pero haberla, puede
haberla y no se debería descartar.
Mediante un árbol sería fácil
introducir esa posibilidad en el
análisis y valorar Facebook «rama
a rama» del árbol, componiendo su
valor a fecha de hoy mediante este
complejo entramado de valores
intrínsecos y temporales.
¿Podríamos
encontrar
el
múltiplo perfecto que valorara una
empresa como Pfizer, o Facebook,
y generar el mismo valor que el
estimado por opciones reales? Esa
posibilidad es francamente difícil.
Podemos observar que Twitter tiene
un valor exorbitantemente mayor
que Facebook al valorarlo por
usuarios, pero ¿y si el valor
temporal de Twitter es aún más alto
que el de Facebook? ¿Cuál puede
ser
la
razón?
Con estas
herramientas se puede profundizar
muchísimo más en el análisis de la
compañía analizada.
Y esto es lo que puede estar
detrás de la decisión de los
fundadores de Snapchat. Todo
parecía indicar que estaban
pensando que la probabilidad de
que su modelo de negocio siguiera
creciendo con fuerza (en usuarios y
en beneficios) era muy elevada, y
creían factible seguir escalando por
las ramas «de arriba» del árbol.
Esto sesgaba al alza su valoración,
pero de manera potencialmente
justificada. No tenemos los datos
precisos de Snapchat, pero sí
conocemos dos cosas importantes:
una, que habían hecho caja y habían
reducido la «ansiedad de vender»
para hacerse ricos (¡ya lo eran!). Y,
dos, creían que su empresa tenía
mucho recorrido. Estaban viendo
nuevos nodos de mayor valor en su
«árbol». Sabían cómo hacerlo
escalar aún más y tenían la caja
suficiente para hacerlo. Creían que
encontrarían la forma de generar
cash flow en el futuro. Entonces,
¿por qué no iban a hacerlo? Era lo
más inteligente por su parte. ¿Y si
salía mal? Si salía mal, el valor de
su rama quizá no serían 3.000
millones, pero seguro que sería una
cantidad sustancialmente importante
ya marcada en su propio árbol de
decisión, y que, una vez ajustada al
riesgo, les había merecido la pena
descartar.
Esta complejidad hace que se
tienda a asumir que adoptar
decisiones de inversión de alto
riesgo es un arte, donde hay mucha
intuición, mucho riesgo y mucho
fracaso: en Europa, 6 de cada 10
euros invertidos en capital riesgo
(lo que los anglosajones llaman
Venture Capital, que está más
orientado a inversiones en nuevas
tecnologías,
innovación)
se
pierden. En cambio, si se aplicasen
de una forma más efectiva y
constructiva metodologías que
construyen y valoran las opciones
de futuro, ese riesgo se podría
«objetivar» y se podrían adoptar
decisiones más fundamentadas que
las basadas en la mera intuición. La
inversión en innovación requiere,
además, innovación en el uso de las
técnicas de análisis y valoración de
la propia inversión.
Ya no se pueden hacer negocios
sin abrazar la volatilidad
A principios de 2013, Softonic
vende por 82,5 millones de euros el
30 por ciento de sus acciones; esto
la coloca en una valoración por
encima de los 275 millones de
euros. Su modelo de negocio, la
publicidad online. Su sueño,
cotizar en el Nasdaq. Hoy, a finales
de 2014, la empresa entra en un
ERE de 200 empleados, la mitad de
la plantilla.
La razón básica que la propia
empresa argumenta es que Google
ha cambiado su algoritmo y ahora
en
las
búsquedas
el
posicionamiento de Softonic ha
empeorado. Aunque también se
esgrimen otras razones, quizá con
más peso, y es que la empresa está
cargada de banners y publicidad
muy intrusiva (altamente castigada
por Google, por un lado, y mucho
más por el usuario). Además, esta
noticia la conocemos a la vez que
se produce una oscilación en bolsa
de eDreams que nos demuestra
cualquier cosa menos robustez en el
modelo de negocio. Estos vaivenes
se producen por la pérdida de
Iberia como cliente, hasta el punto
de ser suspendida de cotización y
con posterior rebote.
Internet tiene un gran problema,
sobre todo para aquellos que no
creen en los riesgos silenciosos y
que tienen ciertos sesgos de
análisis: el problema de internet es
que siempre le ha ido bien, incluso
a pesar de la crisis.com de
principios de siglo, que, sobre
todo, ha sido un reajuste importante
de expectativas. La realidad es que
estamos acostumbrados a que los
usuarios crezcan, a que se puedan
crear multinacionales de cuatro
personas ubicadas en distintas
partes del mundo, a que las
barreras de entrada sean cada vez
menores para hacer negocios en la
red y, sobre todo, a que la
tecnología
permita
reducir
drásticamente los costes fijos
operativos y, con ello, a aspirar
fácilmente
a
un «beneficio
ordinario».
Los «esteroides» para este
modelo parece que siempre pivotan
sobre lo mismo: «la publicidad» o,
de forma indirecta, el número de
usuarios, porque se sobreentiende
que, cuando tienes un gran volumen
de usuarios, «en algún momento»
alguien sabe cómo generar ingresos
con ellos. Esta forma de pensar en
muy de «caja negra», suelen ser
maneras de buscar atajos para
explicar por qué tienen «valor»
compañías con bajos ingresos, pero
con un gran número de usuarios.
Como dicen los deportistas, sin
haber probado la derrota es
imposible valorar la victoria. Así
que vamos a hacer la mayor de las
críticas a los negocios de internet,
aprovechando el caso Softonic, o el
de eDreams, pero también el de
tantas y tantas empresas que se
quedan por el camino y que ni son
conocidas ni están en los titulares
de medios de comunicación. De
hecho, seis de cada diez de estas
empresas desaparecen; además,
«por cada 10.000 buenas ideas de
negocio se crean mil empresas, de
las cuales cien llegan a ser
evaluadas en capital riesgo y tan
sólo dos lograrán salir a bolsa y,
por lo tanto, tener cierto liderazgo».
Estos datos sólo muestran una
cosa, que riesgo, volatilidad e
incertidumbre definen a las
startups de internet (en general,
cualquier negocio nuevo con
competencia rápida y global),
además de un continuo proceso de
destrucción
creativa
(alta
mortalidad, pero también alta
natalidad). Las empresas de internet
deberían poder desenvolverse con
mucha facilidad en estos entornos
tan volátiles y aleatorios, deberían
ser un ejemplo de lo que el gran
Taleb denomina «antifragilidad»,
esto es:
la fragilidad y la antifragilidad se
refieren al beneficio o perjuicio
potencial resultante de la exposición
de algo relacionado con la
volatilidad... ese algo pertenece a la
familia extensa del desorden:
incertidumbre,
variabilidad,
conocimiento
imperfecto
o
incompleto, azar, caos, entropía,
tiempo...
Resulta que la incertidumbre, lo
desconocido y el desorden son
totalmente equivalentes en sus
efectos: los sistemas antifrágiles se
benefician (en cierta medida) de
casi todos ellos y los sistemas
frágiles salen malparados...
Cuanto más tiempo, más sucesos
y más desorden. Pensemos que si
podemos sufrir un perjuicio
limitado y somos antifrágiles a los
errores pequeños, el tiempo acarrea
la clase de errores o errores
inversos
que
nos
acaban
beneficiando.
Se
trata,
simplemente, de lo que nuestras
abuelas llaman experiencias. Lo
frágil se rompe con el tiempo.
¿Cómo se relaciona este
concepto frágil/antifrágil con las
startups? Para esto resulta clave
repasar los dos componentes que
definen el valor de una empresa: el
valor intrínseco y el valor
temporal.
1.
El valor intrínseco son las
cuentas a cobrar, los
dividendos, los cupones de
los bonos a cobrar... Es un
valor determinado «por lo
que ya has hecho», por los
resultados, por la historia.
Este valor intrínseco nos
permite estimar los flujos
de caja (dinero que entra y
sale con motivo del
negocio), basándonos en el
mundo tal y como hoy lo
conocemos.
2.
En cambio, el valor
potencial es la posibilidad
de que esa empresa tenga un
valor futuro que hoy
desconocemos.
Típicamente,
el
valor
temporal lo medimos con
modelos básicos como el de
Gordon-Shapiro mediante el
componente residual en el
descuento de flujos de caja.
Pero esta forma de calcular
el valor temporal tiene que
basarse
en
supuestos
(precios, comportamiento
de
la
competencia,
evolución de las ventas...)
que muchas veces no
aguantan... un asalto con la
realidad. La realidad es
mucho más compleja e
impredecible, y es difícil
enfrentarse a ella con
«atajos»; quizá por ello hay
que pensar también en una
forma más lean (ágil,
flexible) para hacer estas
estimaciones.
Cuando una startup acude a una
ronda
de
financiación,
los
inversores siempre le preguntan por
los flujos de caja. Show me the
money! gritan. Pero ¿dónde está el
dinero en internet si la gran mayoría
de los «negocios» parece que están
anclados en la gratuidad total? La
forma en la que se tiende a
justificar la creación de valor está
en los usuarios. «Usuarios» es la
palabra favorita, pero no podemos
confundir usuario con cliente, ni
con el pagano (que acaba pagando).
La diferencia entre usuario y
cliente es un puente muy
complicado de pasar. Encontrar
quien esté dispuesto a pagar por lo
que ofreces y que ese precio cubra
más que los costes de aportárselo
es un gran reto en los negocios de
internet. Asumir que los usuarios
acabarán siendo clientes... y que
además acabarán dejando cashflow positivo (más ingresos en caja
que salidas) es un supuesto muy
«frágil» en el sentido de Taleb.
Pero este supuesto tan frágil aún se
«exprime más» y se hace más frágil
cuando con gran asiduidad se
valora a estas compañías (con
usuarios pero sin clientes... que
paguen) con ratios que en realidad
son aproximaciones que no
necesariamente tienen que ver con
la viabilidad de un negocio.
Es aquí cuando la estadística
entra en juego. ¿Cuándo nos
podemos fiar de que las tendencias
de crecimiento de usuarios son
estables?¿Cuándo esos usuarios se
van a convertir en algún momento
en el futuro, y por qué, en ingresos?
¿Y cuándo esos ingresos se van a
convertir
en
creación
de
beneficios... (la forma que las
empresas tienen para construir
valor)?
En estadística no hay muchas
distribuciones que se puedan
definir con un solo parámetro
(bueno sí, la distribución de
Poisson, que usamos para estimar
la tasa de quiebra). La misma
distribución «normal» nos da la
pista: no sólo la media sirve para
representar una muestra, también
necesitamos conocer la volatilidad.
Nos gustaría saber cuántos
inversores preguntan por la
«volatilidad» de los ingresos de las
empresas que evalúan, porque la
experiencia en este campo (que ya
empezamos a tener...) nos dice que
son muy poquitos. Y no nos
referimos al tiempo que tardamos
en obtener una media positiva de
ingresos, sino al riesgo de que los
ingresos suban, bajen, vuelvan a
subir..., en definitiva, que sean
¡volátiles!
En yoga hay un principio que
dice que hay que ser «flexibles
como el bambú, nos doblamos pero
no nos rompemos». La volatilidad
es la cualidad que te permite ser
flexible. Y de hecho, cuando los
inversores dicen «invertimos en
equipos o en personas», en realidad
(a veces sin saberlo) están
invirtiendo en capacidades para
que ese equipo pueda ser flexible,
pueda afrontar la volatilidad de los
cambios de su negocio (que son
potencialmente muy importantes y
numerosos) y conviertan a la
startup en lo contrario de «frágil»,
es decir, en «antifrágil». Y es que
hay sistemas capaces de capear los
shocks, y otros muchos que, ante el
más
mínimo
impacto,
no
sobreviven. En internet, para hacer
negocios, o creamos esos sistemas
antishock o las cosas serán
francamente difíciles.
Los sistemas antifrágiles que
define Taleb son precisamente
aquellos que tienen una respuesta
positiva a los incrementos en
volatilidad. Por eso, en el siglo XXI,
para que haya progreso, innovación
y cambios profundos tiene que
haber volatilidad. Siempre la hubo
en la historia de la humanidad y
ahora mucho más, dada la
complejidad creciente de nuestro
mundo. Por este motivo, si quieres
invertir «bien» deberías buscar
empresas que «abrazases» esa
volatilidad,
porque
ambos
componentes del valor de una
empresa se benefician de ello:
•
Respecto al valor
intrínseco, debemos aspirar
a ser «antifrágiles», a tener
respuestas positivas ante la
incertidumbre, a poder
beneficiarnos
de
la
volatilidad. Si mi negocio
se basa solamente en la
media de crecimiento de
usuarios, tengo todas las
papeletas para que al más
mínimo shock se derrumbe.
O soy Facebook y tengo
1.000 millones de usuarios,
por lo que el Teorema
Central del Límite juega a
mi favor, y mi muestra se
convierte en mi población,
o por tener cientos de miles
de usuarios no tengo
estadísticamente
nada
•
asegurado... Por lo tanto,
inventemos algo que nos
asegure «antifragilidad» o
seremos frágiles..., y lo
frágil (con el tiempo) se
acaba rompiendo. Y desde
luego, el modelo de
publicidad únicamente a
través de Google no parece
el blindaje perfecto... Mira
a Softonic.
Respecto al valor potencial,
como en las opciones
financieras, la volatilidad
es mi amiga. La volatilidad
afecta positivamente al
valor
de
mi
opción
financiera, y es clave para
entender el precio de las
mismas, de manera tal que
incluso la famosa fórmula
de Black-Scholes usa la
volatilidad como el input
fundamental
para
comercializar las opciones.
Las opciones se compran y
venden en volatilidad, no en
precio. Recordemos la frase
del gran financiero Aswath
Damodaran: «Si esperas a
que
se
resuelva
la
incertidumbre para valorar
una
empresa,
será
demasiado tarde». Es en la
incertidumbre y en la
volatilidad donde se pueden
lograr
importantes
rentabilidades,
pero
también altos fracasos.
¿Por qué debemos respetar
empresas como Snapchat o Spotify
a pesar de no tener números
negros? Porque tienen un buen
posicionamiento ante la volatilidad.
Son empresas que se benefician del
cambio, que no dependen de un
euro extra por usuario y que buscan
una respuesta positiva de un shock
externo, por el cual apuestan. En el
primer caso, cambiar el mundo de
la mensajería instantánea, y en el
segundo, el cambio de la industria
musical. En octubre de 2014,
cuando Facebook aportó los datos
del tercer trimestre, hablé de
WhatsApp. Llevaba perdidos más
de 232 millones de dólares en los
seis primeros meses de 2014 (casi
4 veces más que en 2013 de
pérdidas), pero sus usuarios
crecían a buen ritmo. El propio
Facebook trata de calmar a sus
accionistas diciendo que WhatsApp
es un «juego a largo plazo». Quizá
debemos preguntarnos: ¿Se ha
vuelto más antifrágil WhatsApp con
la compra de Facebook? Si la
respuesta es afirmativa, entonces sí
que puede tener partido... a largo
plazo.
Créenos, en finanzas hemos
vivido todo esto, y con mucha
intensidad en los últimos años.
Nuestros modelos han quebrado,
los
parámetros
de
nuestras
distribuciones han volado y los
usuarios se han evaporado. A pesar
de ello, sigue habiendo negocio.
Estadísticamente hemos aprendido
grandes lecciones, pero la principal
es: «¡Respetemos la volatilidad y
abracemos la antifragilidad!».
Financieros
del
mundo,
profesionales que trabajan en el
duro mundo de tomar decisiones
complejas
con
información
imperfecta: si quieren sobrevivir
tendrán que inyectarse nuevas
estrategias
para
ser
más
«antifrágiles» y cuidar mucho al
usuario. Vivir en la volatilidad
cuesta mucho dinero: es el peaje de
hacer negocios en internet.
Volvámonos locos, ¡creemos una
agencia nacional de calificación
de ideas!
La creación de un ecosistema
empresarial de un territorio (país,
región o comunidad de vecinos) es
una ensalada compuesta por varios
ingredientes: modelos de negocio,
acceso a financiación, formación de
los emprendedores, networking o
capacidad de conexión con más
gente con ideas, marco jurídico,
fiscal, etc. Con estos ingredientes,
no sería descabellado intentar
verificar experimentalmente qué
sucedería si diéramos una mayor
financiación
libre
a
los
emprendedores.
Mediante
un
ejercicio aleatorizado, que podría
realizar un grupo de bancos
españoles junto con el apoyo de una
«agencia de tasación de ideas»,
podríamos obtener información de
la relación entre la tasa de
mortalidad y la tasa de retorno en
una pequeña muestra de empresas
para así evaluar si una mayor
financiación bancaria sería una
buena idea en nuestro país.
Las empresas innovadoras se
apoyan en una información de
nueva generación, blanda, y que no
es fácil de contrastar, para explicar
la rentabilidad de sus modelos de
negocio; y las entidades financieras
tienen dificultades para valorar esa
información
(cualitativa
y
cuantitativa) y traducirla en la
concesión o no de un crédito. El
experimento sería sencillo de llevar
a cabo. Toda persona que tenga una
idea validada por una agencia de
calificación de ideas entra en el
programa de seguimiento. Acude a
un banco y expone su idea, y la
entidad sigue con su procedimiento
habitual. No obstante, tras la
decisión de la entidad (otorgar o
denegar la financiación), la agencia
de tasación tira una moneda al aire.
Si sale cruz, se sigue con el
procedimiento establecido, pero si
sale cara, el banco ha de otorgar la
financiación solicitada.
¿Qué nos permitiría este
sencillo
experimento?
La
aleatorización entre dos grupos, uno
de empresas que siguen el cauce
habitual y otro de empresas que
obtienen financiación inmediata,
unido al filtro inicial de la agencia
de calificación de ideas —para
evitar el «todo vale»—, permitiría
observar hasta qué punto España
está
bloqueando
talento
y
oportunidades por culpa de una
cultura
de
la
financiación
excesivamente basada en las
garantías
y las
actividades
tradicionales, fáciles de medir.
Muchas empresas innovadoras
mueren incluso antes de nacer por
este problema, y la prueba de fuego
sería la comparación de las tasas
de mortalidad y rentabilidad con
paradigmas como Estados Unidos o
Israel, con una mortalidad del 75
por ciento en las empresas, pero
tasas
de
rentabilidad
que
compensan el fracaso de las que
mueren, generando empleos y
riqueza netos.
La financiación no tendría en
realidad por qué consistir sólo en
deuda: también existe el capital, es
decir, la participación accionarial
en las compañías por parte de
entidades financieras. ¿Qué impide
a los bancos la entrada en el capital
de las empresas emprendedoras?
Esta pregunta esconde quizás el
motivo por el que España es uno de
los
países
donde
menor
financiación
para
pymes
innovadoras existe. En primer
lugar, falta el know-how, es decir,
no
tenemos
experiencia
en
funcionar como una agencia
tasadora de ideas, estamos
demasiado acostumbrados a no
evaluar información blanda. Los
departamentos de riesgos analizan
balances, pero no emplean a
ingenieros, biólogos o químicos en
evaluar la calidad de las ideas o de
los
proyectos.
No
existen
capacidades desarrolladas para
evaluar ideas y proyectos más allá
de capturar «las máximas garantías
posibles para controlar el riesgo».
Pero, en realidad, la principal
restricción para que los bancos
españoles participen de forma más
activa
como
inversores
en
empresas innovadoras es de
carácter
regulatorio:
consume
muchísimo capital para el banco
asumir este riesgo. Se trata de una
restricción autoimpuesta. Y aunque
parte del origen del problema está
en la regulación europea, podemos
afirmar que nosotros mismos nos
estamos poniendo trabas para no
asumir riesgo, cuando detrás de
éste lo que puede (y suele) haber es
rentabilidad.
El impulso no tiene por qué
limitarse a pequeños incentivos
fiscales o regulatorios para las
entidades financiadoras. Demos
créditos fiscales por minusvalías en
las inversiones empresariales,
concedamos una compensación
contra provisión anticíclica por las
inversiones
en
empresas
innovadoras, premiando a los
bancos que arriesguen fuera de los
sectores tradicionales. Porque sólo
con riesgo tendremos rentabilidad,
y con ella crecimiento.
Dejemos de castigar a los
bancos,
porque
estamos
poniéndonos trabas a nosotros
mismos. Facilitemos al menos la
proliferación
de
nuevos
mensajeros:
crowdfunding,
gestoras de capital riesgo o
mercados alternativos bursátiles.
Porque dinero, haberlo, haylo; para
muestra un botón: los bancos han
comenzado a devolver dinero «en
cuanto se lo han dejado» al 1 por
ciento, como habían conseguido del
Banco Central Europeo (BCE) en la
famosa
primera
subasta
extraordinaria LTRO.
El objetivo es el mismo:
intentar bombear oxígeno financiero
a las empresas, y mejor cuanto más
innovadoras. Pero todo esto no
tendrá impacto real si el sistema
financiero español, poco dado a
asumir riesgos en proyectos
innovadores, no empieza a cambiar
su forma de operar. Quizás haya
que darles un empujón.
La vida son opciones, y opciones
nos dan la vida
Queremos ideas, y ¡queremos
valorarlas! El futuro es algo que
hoy no conocemos, y por mucha
tecnología que aportemos al
sistema productivo, lo que hemos
aprendido es que no llegaremos a
ser mundo al estilo Futurama
mientras haya una clase creativa
que
lidera
y
navega
la
incertidumbre inherente al mundo.
Las finanzas nos han servido
como indicador adelantado de un
futuro
donde
sólo
hubiera
información dura, datos y poca
ética. Hemos visto el futuro al puro
estilo del Cuento de Navidad, de
Charles Dickens, y estamos a
tiempo de cambiar. Tenemos que
ser capaces de entender el valor
temporal de nuestras decisiones;
para
ello
hemos
enseñado
conceptos como los árboles de
decisión y la simulación estadística
bien aplicada. De nada nos sirve
pensar que sabemos lo que vendrá,
y sólo quien entienda que la
incertidumbre está con nosotros
para quedarse estará preparado
para tener éxito en los negocios.
Por cierto, tras la famosa
operación frustrada de compra, por
parte de Facebook, de Snapchat
¿sabían que esta última ha firmado
un acuerdo comercial con Square
(líder mundial en pago por móvil)?
Impresionante el conocimiento y el
dominio que los fundadores de esta
empresas tienen de su mapa de
incertidumbre,
y
asimismo,
asombrosa su capacidad para
entender que el valor de nuestra
empresa puede estar ¡en algún nodo
futuro de los que hoy no conocemos
ni su existencia!
Nunca te fíes, nunca, de un
economista que no dude, ni mucho
menos de uno que diga saber cómo
será el futuro, o que la tecnología
destruirá el sector laboral español.
Sencillamente,
cambiará
el
escenario, pero nadie sabe
exactamente cómo.
5
Un economista en busca de
la felicidad
ANDRÉS ALONSO
Todos buscamos la felicidad,
pero
sin
saber
dónde
encontrarla: como los borrachos
que buscan su casa, sabiendo
vagamente que tienen una.
VOLTAIRE
Los economistas también tenemos
nuestro corazoncito. No sólo
pensamos en maximizar en todo
momento los beneficios o en buscar
la forma de recortar gastos para ser
más eficientes. La economía tiene
mucho que ver con la psicología,
con las necesidades de las personas
y en cómo éstas toman decisiones.
Y de esto trata, precisamente, este
capítulo. De cómo cubrir las
necesidades básicas de las
personas y cómo podemos crear
herramientas que nos permitan
adoptar decisiones que mejoren
nuestro bienestar. Así que no te
lleves una idea equivocada: los
economistas
no
sólo
nos
preocupamos del dinero, tenemos
diversos focos de atención y existen
muchas conexiones con otras
disciplinas del pensamiento, como
la filosofía, la biología o la propia
psicología.
Como dice el gran psicólogo
Abraham Maslow en su estudio de
las necesidades humanas:
la pirámide de las necesidades [es]
una jerarquía de las necesidades
humanas en la que la satisfacción
de las necesidades más básicas o
subordinadas da lugar a la
generación sucesiva de necesidades
más altas o superordinadas.
Siguiendo el hilo de este gran
psicólogo humanista, el reto de este
capítulo es mostrar un prisma de
los economistas que no es muy
conocido: cómo los modelos de
teoría económica pueden ayudar a
gestionar mejor tu felicidad, tu
descanso, prolongar esa dieta que
comienzas con la «operación
bikini» o aprender a moderar el
consumo de alcohol.
Por si esto fuera poco, te vamos
a proponer un par de trucos para
aprender a ligar mejor. ¿A que
nunca pensaste que un economista
pudiera siquiera darte alguna pista
sobre
estas
cuestiones
o
necesidades tan básicas de los
seres humanos? Haremos caso a
Maslow y bajaremos a la base de
su pirámide de necesidades para ir
escalándola poco a poco ¡y llegar
al final del capítulo siendo más
felices!
Del mismo modo que las
matemáticas no son una cuestión
única de números, la economía no
es materia exclusiva de dinero. Los
matemáticos saben que la clave de
sus teorías no precisa de números;
de hecho, se pasan varios años en
su carrera sin ver un solo número,
usando letras para abstraerse en
todos
los
razonamientos.
Igualmente, en economía no
tenemos el único fin de tratar el
estudio del dinero, sino que nuestro
campo estriba en abstraernos en el
estudio del impacto de las
decisiones humanas.
Por
supuesto,
¿cómo
cuantificamos el impacto de las
decisiones?
Midiéndolo
en
términos monetarios. ¡El dinero
convierte toda comparación en
homogénea! Pero no es más que
eso: una medida para comprender
las relaciones humanas y sus
decisiones, ¡para lo cual nos
encanta medirlo todo!
¿Cuánto vale una acción? Para
responder esta pregunta nos
preguntamos qué exigiría una
persona para decidir cambiar un
activo que él conoce perfectamente
(dinero en efectivo) por otro cuyo
rendimiento futuro es incierto. Nos
inventamos, por ejemplo, los
modelos de valoración por
descuento de flujos de caja para
conseguir cuantificar esta decisión
humana. De esto hablamos en otro
capítulo con mucho más detalle.
Los economistas también tienen
entre su caja de herramientas
conceptos tan abstractos como la
«utilidad», entendida como una
aproximación a comprender qué
determina nuestro bienestar y cómo
tomamos decisiones con el objetivo
de mejorarlo. Hablamos siempre de
bonos, de tipos de interés, de
inflación o de producto interior
bruto (el famoso PIB). Todo son
medidas de la actividad humana
dentro de la sociedad. Por eso, la
parte más hermosa de la ciencia
económica es conjugar la pasión
por medirlo todo, usando a veces el
sofisticado lenguaje matemático,
con la necesidad casi filosófica de
querer entender al ser humano.
De ahí que la pregunta central
que se hace todo buen economista
sea: ¿qué mueve a las personas?
¿Cómo podemos adentrarnos en ese
mundo tan complejo de las
decisiones
personales?
La
respuesta que oiremos siempre a
todo buen amante de la economía es
que hay un factor, por encima de
muchos, y que debe ser un objetivo
claro de análisis: ¡los incentivos!
Los
incentivos
mueven
montañas; están en todos los
ámbitos de nuestra vida diaria,
desde que despertamos hasta que
nos acostamos. Pongámonos las
gafas de un economista para
comprender bien este fenómeno y,
sobre todo, para analizar qué
impacto tiene en todo lo que nos
rodea.
Hermosa tarea nos queda por
delante, y muy alejada de calcular
los impuestos o el déficit y la deuda
del Estado, ¿verdad?
El descanso
¿Te cuesta levantarte por las
mañanas? ¿Eres de los que
aporrean el despertador cada diez
minutos para pedirle otra prórroga
de sueño? ¿Eres capaz de pasarte
cincuenta minutos haciéndolo y
llegar tarde al trabajo? El descanso
es una necesidad fisiológica;
restringirlo es un coste que tratamos
de
minimizar
al
máximo
¡consumiendo hasta el último
minuto en la cama!
No son los físicos los únicos
que han entendido que el equilibrio
en la naturaleza surge de fuerzas
contrapuestas,
también
los
economistas lo han entendido.
Pensemos en términos de descanso.
Si nos dormimos, tenemos el placer
de disfrutar un poco más en la
cama, pero, desgraciadamente,
también hay otra fuerza que lo
compensa: la consecuencia de ello
es llegar tarde a trabajar, iniciar el
día con cierta carga de estrés y, lo
más probable, tener una sanción o
transmitir
una
imagen
de
«desordenado» con la que no te
quieres identificar.
Y, si esto es así, ¿dónde está el
problema entre las dos fuerzas que
no nos permiten levantarnos de la
cama? La razón es que los humanos
somos
malos
midiendo
las
diferencia del impacto de las
decisiones en el tiempo. El sueño
es algo que tengo ahora mismo,
mientras que la sanción me llegará
más tarde. Valoramos demasiado el
presente en relación con el futuro.
Es difícil sacrificar el disfrute de
«ahora» a cambio de algo que
pasará, o no, en el futuro. La
solución
tiene
que
pasar,
inevitablemente, por equilibrar
ambas fuerzas.
¿Sabes por qué surgen los
emprendedores en el mundo?
Porque son capaces de comprender
bien estas fuerzas, que en realidad
se convierten en necesidades (la
necesidad de autobligarme a ser
más puntual, descansar más y tener
una cierta estabilidad en el medio
plazo, frente a la tiranía de lo
inmediato). Pues bien, ¿cambiarías
tu decisión si cada vez que te
duermes tuvieras que pagar por
ello? Entra una nueva variable en tu
cóctel para decidir, y seguro que
estas fuerzas ya no estarán tan
desigualadas. Pues bien, esto ya
existe, se llama SnuzNLuz. Si
quieres poner remedio a tu
problema de quedarte en la cama
cuando, en realidad, en el fondo de
tu ser sabes que tienes que
levantarte,
el
despertador
SnuzNLuz, cada vez que aprietas el
botón de «retrasar unos minutos»,
se conecta vía wifi a tu banco y
dona 10 euros a la organización que
menos sea de tu agrado.
Con esta solución, nosotros
mismos hemos adelantado la fuerza
que compensaba el extra de sueño.
Ahora
ya
tenemos
una
consecuencia, también inmediata,
por un comportamiento que a priori
(cuando estamos despiertos y
serenos) no nos gusta tener (ir
corriendo todas las mañanas y
transmitir una mala imagen de
nosotros mismos a los demás). Esto
ya está más equilibrado, ¿verdad?
Un minuto de sueño ahora o una
donación de dinero a una
organización que no me gusta, y
ahora mismo también.
¿Eres socio de la SGAE? Tu
donación irá a parar al Partido
Pirata. ¿Has dado tu firma para la
prohibición de las corridas de toros
en Cataluña? Donarás 10 euros a la
Asociación Taurina El Prat. Si eres
un ecologista convencido, tus
donaciones podrían ir a parar a
Repsol o a BP Oil. El aparato
aprovecha
tu
período
de
racionalidad
(cuando
estás
despierto)
para
alinear
los
incentivos a levantarse de una
persona en una fase mucho más
irracional: el sueño.
Puede sonar a broma, pero el
producto existe, y el sistema de
donaciones a organizaciones que te
desagraden especialmente, también
(¡tú eliges!). Está siendo ensayado
con éxito en diversos programas de
compromiso (commitment), como
por ejemplo para perder peso o
dejar de fumar. Inicialmente, en
estos programas se solía contar con
la participación de una tercera
persona que supervisaba el proceso
y donaba el dinero que previamente
se le había dado a una organización
benéfica. El problema era que
muchos
individuos
acababan
desistiendo de su intento de
adelgazar o dejar el tabaco,
alentados por el hecho de que, «al
fin y al cabo, mi dinero se va a una
causa noble». Ese desincentivo ha
desaparecido con este nuevo
sistema; es más, ¡ha aumentado
fuertemente el incentivo a cumplir
lo apostado!
La alimentación
Después de dormir, la siguiente
gran necesidad humana es la
alimentación. Si nos referimos al
mundo más desarrollado, la gran
cuestión sobre la que pivota la
felicidad de muchas personas es la
dieta.
Llega el mes de enero y tocan
los propósitos del nuevo año, que
normalmente pasan por ir al
gimnasio y comenzar una dieta para
recuperar la forma física que hemos
perdido durante los festines
gastronómicos de fin de año. Y qué
decir de la primavera y la
«operación bikini».
¿Cómo
se
plantea
un
economista una dieta? La base de
toda dieta es comer menos y mejor.
Esto
choca
con
nuestras
preferencias de consumo; el instinto
(sobre todo cuando tenemos
hambre) es comer lo que sea, y si
tiene muchas calorías (y grasas),
mejor. Es en esos momentos de gula
donde somos más vulnerables. Así
que el reto es cambiar nuestras
rutinas alimentarias, sobre todo de
una forma «intertemporal», es
decir, aguantar de una forma
sostenible en el tiempo la dieta. La
mejor dieta es una rutina de
alimentación sana, baja en calorías
y que te ayude a mantenerte en un
nivel de peso adecuado.
Reducir el consumo al que nos
animan nuestras preferencias nos
produce lo que los economistas
llamamos
algo
así
como
«desutilidad», que básicamente
significa que prefiero el jamón y la
tortilla de patata a las verduras
hervidas. Si no somos capaces de
cambiar para siempre nuestras
preferencias —es decir, que pase a
gustarme de verdad la verdura
hervida e interiorice que me
ayudará a controlar mi peso y mi
salud (aunque me pueda permitir
algún que otro «extra»)—, nuestra
dieta tiene fecha de caducidad.
¿Cuánto
tardaremos
en
abandonarla? Para responder a esta
pregunta un economista tiende a
pintar unas cuantas curvas y rectas
para comprender bien el problema
al que se enfrenta. Como dice Hal
Varian, uno de los economistas con
más prestigio académico y que
ahora mismo ocupa el cargo de
economista principal en Google, en
su manual de economía,[5] el
concepto de utilidad se remonta a la
época victoriana, donde filósofos y
economistas hablaban de «utilidad»
como un sinónimo de bienestar, y se
asumía que toda persona toma
decisiones en función de esa
utilidad con el objetivo de
maximizarla. Pero no es tan fácil
porque ¿cómo se puede medir la
felicidad de tomar un pincho de
tortilla? ¿En qué unidades se mide
esa felicidad? ¿Esa tortilla aporta
más o menos utilidad que unos
espárragos a la plancha? Como ves,
son preguntas muy interesantes,
pero que complican enormemente la
forma en la que abordamos esta
tipología de cuestiones desde la
economía. Por eso, éste es un
problema clásico al que se han
enfrentado durante décadas y
décadas los economistas, y hay una
gran cantidad de desarrollo teórico
sobre la teoría de la utilidad.
Lo que sostiene la teoría
económica es que detrás de la
utilidad y de las elecciones de las
personas están las preferencias. Y
lo importante no está tanto en el
valor «absoluto» de la utilidad de
un bien (o una cesta de bienes)
como en el grado en que unas
decisiones o unos bienes son más o
menos útiles respecto a otras. No sé
la utilidad que me aporta comer una
chocolatina hoy, pero sí sé que es
mucho mayor que comerme una
zanahoria cruda. Ojo, hay que gente
para todo y puede ocurrir
precisamente lo contrario. Eso es lo
bueno, que las preferencias suelen
ser personales e intransferibles y
«para gustos, colores», es decir,
que son tus preferencias lo que te
mueve a consumir unas cosas y no
otras.
Una de las exigencias que se
suponen a la hora de usar modelos
teóricos es que los individuos son
capaces
de
ordenar
sus
preferencias y con ello las distintas
cestas de bienes (y servicios). Es
decir, cualquiera puede decir si le
generan
más
utilidad
dos
chocolatinas y una botella de agua o
un refresco y un pincho de tortilla.
Si eres capaz de ordenar tus
preferencias, es decir, si sabes más
o menos lo que quieres, o lo que
quieres más, entonces tenemos
mucho camino recorrido para tomar
decisiones como si fueras un
economista.
A partir de ahí, se puede
construir lo que se llama un mapa
de indiferencia. Siempre habrá
combinaciones de bienes y
servicios que te puedan generar
más o menos la misma utilidad.
Sería el caso si dices «me es
indiferente comer un bocadillo de
tortilla y una botella de agua que un
trozo de pizza con un refresco».
Esas indiferencias se suelen
representar en curvas, como las que
se muestran a continuación. Lo que
dicen estas curvas, sin entrar en
más detalles técnicos, es que dadas
dos combinaciones de cestas de
bienes cualesquiera (que hemos
llamado 1 y 2), una persona tendrá
más utilidad cuanta más cantidad de
ambas cestas de bienes posea.
Cuanto más a la derecha se sitúen
las curvas de indiferencia, más
«utilidad» tiene una persona.
Dentro de cada curva de
indiferencia, el nivel de utilidad es
el mismo. Esto significa que a una
persona le es indiferente que le
demos una combinación de cesta de
bienes 1 y 2 como la del punto A
(C1A, C2A) o la del punto B (C1B,
C2B). Lógicamente si le damos más
de ambas cestas de bienes (punto C
en el gráfico), la persona tiene un
mayor nivel de utilidad. Y si le
damos menos de ambas cestas de
bienes (punto D), estará peor,
tendrá menos utilidad.
Según este gráfico, una persona
«siempre quiere más». ¿Saben
aquello de que «las necesidades
son ilimitadas»?, pues bien, algo
así. El problema es que ante
necesidades ilimitadas y recursos
escasos nos tenemos que enfrentar
como
personas
a
muchas
restricciones. Restricciones de
tiempo o de dinero. Por lo tanto,
aquí es donde entran en juego las
fuerzas contrapuestas de las que
hablábamos
antes.
Siempre
querremos
maximizar
nuestra
felicidad, utilidad o llámalo como
más cómodo te resulte, pero —y
este pero es muy importante—
siempre hay una restricción. Ni
tenemos dinero infinito, ni tenemos
tiempo infinito, ni podemos hacer
todo lo que nos planteemos
físicamente, ¿verdad?
¿Cómo se representan las
restricciones? Normalmente, como
una línea que no puedes traspasar.
En el siguiente gráfico, sería la
línea P. Esa línea nos dice que si
consumimos cero de la cesta 2 de
bienes, como máximo podremos
consumir P1 de la cesta de bienes
1. Y, de la misma manera, si
consumimos cero de la cesta 1,
como máximo podremos consumir
P2 de la cesta 2. Y entre ambos
puntos
caben
todas
las
posibilidades del mundo.
¿Cuál es la curva de
indiferencia más elevada —la que
más bienestar genera— dada
nuestra restricción P? En el gráfico
se observa que la curva A no es
óptima, porque siempre podríamos
tener, con el mismo presupuesto,
más cantidad tanto de 1 como de 2.
La curva B es imposible de
alcanzar, no tenemos dinero para
pagar esa cantidad de bienes 1 y 2.
En el gráfico, la curva más elevada
que nos permite cumplir con
nuestro presupuesto es la C. La
persona estaría en equilibrio y
estaría satisfecha —maximiza su
bienestar—, si se colocase en el
punto E, consumiendo E1 y E2.
Con esta rápida inmersión en el
mundo de la teoría de la utilidad ya
podemos seguir hablando de dietas
y de decisiones cotidianas. Para
hablar de dieta podemos pintar una
situación con dos variables:
cantidad de comida y deporte. Una
restricción y unas curvas de
indiferencia.
Hacer dieta es en sí mismo un
sacrificio, al menos mientras la
hacemos. Por lo tanto, aunque nos
gusta comer de todo y en todo
momento, si queremos «sentirnos
sanos y con buena estética»
tenemos que sufrir. Hay que comer
menos y hacer más deporte. Esa
«desutilidad» nos coloca fuera de
nuestro lugar ideal, nuestro
«óptimo». Por eso es muy difícil
mantenerse en un nivel que no es el
que de forma casi «natural»
tendemos a elegir. ¿Cómo se logra
eso?
La dieta tiene un factor clave.
Para desviarnos de nuestro
consumo preferido debemos utilizar
una herramienta que llamamos
autocontrol, el cual depende de
nuestra voluntad. Pero la voluntad
tiene un límite, y si bien se
construye
con
entrenamiento,
también se desgasta o decrece con
su uso excesivo. Al igual que con
los músculos, podemos entrenar y
mejorar mucho, pero si nos
sobrecargamos, al final el músculo
se satura y deja de servirnos para
levantar peso. Lo mismo sucede
con la voluntad: si abusamos de
ella en exceso deja de servirnos
para
ejercer
autocontrol.
Gráficamente,
lo
podríamos
mostrar de la siguiente manera:
Lo espinoso del asunto es que
el entrenamiento de la voluntad
sólo se consigue con tiempo, es
decir, ejerciéndola, y lleva tiempo
y esfuerzo colocarse en un punto
óptimo. Un punto donde tienes una
voluntad «férrea», pero que no te
quema, es decir, que eres capaz de
mantener ese nivel durante un largo
período de tiempo. Cuando no
tenemos muy entrenada la voluntad
de la dieta, estamos pasándonos al
menos
momentáneamente
del
óptimo, y al final nuestra voluntad
nos agota y nos hace desistir, y
¿sabes qué?: abandonamos nuestra
dieta y nos volvemos a los pinchos
de tortilla.
La utilidad de la dieta es muy
alta al inicio, cuando perdemos los
primeros kilos, pero decrece con el
tiempo. Según estamos más en
forma, cada hora de gimnasio nos
rinde cada vez menos. De hecho,
como dicen muchos deportistas de
élite, llega un momento en el que
sólo entrenas para mantener, no
logras mejorar. Por eso, cuanto más
tiempo pasa, nuestra desutilidad de
la dieta crece porque si no
cambiamos nuestras preferencias de
una
forma
estructural
(no
momentánea), cada vez nos cuesta
más usar nuestra voluntad para
tener autocontrol.
El punto de corte de ambas
funciones de utilidad y desutilidad
de la dieta nos indicará el momento
en el que inevitablemente se
producirá el «final de la dieta».
Hasta ahora hemos argumentado
que nuestro autocontrol dependía
exclusivamente de la voluntad, y
que ésta, si no se entrena bien y con
tiempo, tiende a agotarse. Pero un
buen
día,
Dan
Silverman,
economista goloso al que le
encantaba tomar tarta de chocolate,
planteó el problema de una forma
novedosa. Nuestro economista, el
cual tenía un cierto problema de
sobrepeso,
era
plenamente
consciente de que debía hacer
dieta, y de hecho así lo hacía, pero
no cesaba en su empeño de
permitirse una tarta de chocolate
como postre en el almuerzo.
Mantener la dieta le consumía
mucha voluntad, y Dan argumentaba
a su compañero Dan Ariely que
esta estrategia le permitía aguantar
más tiempo desayunando avena y
comiendo filetes de pollo a la
plancha.
La
anécdota
sirvió
de
inspiración para un artículo
científico, en el cual Dan Silverman
se plantea las siguientes preguntas
respecto al problema de la dieta:
¿puede el autocontrol recargarse?
En caso afirmativo, ¿cómo? Ceder
a alguna que otra tentación hace que
el nivel de autocontrol suba, porque
la tentación relaja nuestro músculo
(voluntad). Es decir, si estamos
cansados en el gimnasio, nuestro
rendimiento disminuirá porque los
músculos se cansan, pero si
rebajamos algo la velocidad de la
cinta de correr, podemos luego
levantar más pesas, porque hemos
dado un respiro a los músculos.
Muchos deportistas de alto
rendimiento se permiten un «día
libre de dieta»; ese día pueden
comer todo lo que quieran, sin
remordimientos. Eso les ayuda,
precisamente, a afrontar una nueva
semana de largas sesiones de
entrenamientos y comida de dieta
severa.
Eso sí, la relación que
Silverman planteó entre «acceso a
las tentaciones» y voluntad es
creciente hasta un punto, a partir
del cual comienza a disminuir. Si
comemos una porción de pastel de
chocolate, nuestra voluntad sube
porque reducimos el uso de la
misma (descansamos), pero si nos
relajamos demasiado y comemos
hamburguesa, pizza y pastel, llega
un momento a partir del cual la
voluntad
cae
en
picado.
Gráficamente, la relación sería algo
similar a la de la voluntad, es decir,
así:
Hemos llegado así a la clave
del asunto con un modelo muy
sencillo. Si de vez en cuando
dejamos descansar a nuestra
voluntad, ésta nos durará más
tiempo. En el caso de Silverman, su
mejor manera de dejar descansar la
voluntad era tomando un pastel de
chocolate, lo cual podía chocar a
sus colegas, pero su razonamiento
estaba
en
realidad
bien
fundamentado.
Si
nuestras
preferencias por el consumo no
cambian de manera permanente,
porque
esto
es
realmente
complicado, la única manera de
llegar lejos con la dieta es
descansar de vez en cuando y de
una forma muy controlada.
Por supuesto, la parte artística
del problema es calibrar el nivel de
descanso que dinámicamente te
permite seguir sin dinamitar tu
voluntad. ¿Cuántos días tienes que
descansar entre sesión y sesión de
gimnasio para no agotarte, pero sin
perder la motivación para seguir
yendo? ¿Qué pequeños caprichos
puedes permitirte en la dieta sin
perder la disciplina que marca la
voluntad? Efectivamente, el pastel
de Silverman le hacía adelgazar
más lentamente, pero, a cambio,
llegando más lejos, por lo que se
trata de una estrategia inteligente a
largo plazo. Es como quien empieza
a correr sin haberlo hecho antes;
puede correr un día a gran
velocidad todo lo máximo que su
cuerpo aguante. Pero si se pasa, el
día siguiente será tan duro de
agujetas y recordará tanto el
sufrimiento de la carrera que casi
instintivamente su cabeza le dirá:
¡no vuelvas a correr más! Para ser
un buen corredor, hay que empezar
caminando, después corriendo muy
suave y poco a poco, y con muchas
semanas de trabajo continuo,
empezar a disfrutar de las carreras.
Los atajos suelen ser muy
perjudiciales. No comer nada en
una semana entera no te llevará a
adelgazar, sino a atracarte de todo
tipo de comida cuando tu voluntad
de seguir a dieta ya esté por los
suelos. En definitiva, esto lo
podemos dibujar gráficamente de la
siguiente manera:
Si este modelo no es suficiente
para convencerte para ceder de vez
en cuando a una pequeña tentación,
vaya aquí un breve argumento más,
de nuevo muy económico.
En esta ocasión, la idea surge
en una comida entre los socios de
Sintetia en un conocido restaurante
de hamburguesas en Madrid. En el
momento del postre, nada más
terminar un copioso banquete de
comida americana, uno de los
socios se pide de postre un
delicioso brownie de chocolate con
helado. La ocasión lo merecía, nada
que objetar por lo tanto. Lo
chocante fue cuando, en el momento
del café, pide al camarero que le
traiga sacarina en vez de azúcar.
¿Cómo alguien aparentemente tan
inteligente pide sacarina tras un
postre así? El beneficio marginal
de esa sacarina es tan nimio que,
¿para qué molestarse? La respuesta
del economista fue: «¡Todo suma!».
Efectivamente, cada caloría suma, y
es decisión de cada uno ingerir 200
o 201 calorías. El detalle es:
«Cada caloría suma, pero
algunas te permiten llegar más lejos
con la dieta».
Merece la pena profundizar un
poco en lo que llamaremos la
«teoría de la sacarina». Después de
cometer un exceso, es todavía peor
idea tomar el café con azúcar.
Para comprender esto, vamos a
recurrir a un fenómeno que los
economistas denominan «efecto
riqueza». Este efecto, junto con el
«efecto sustitución», es uno de los
dos grandes motores que mueven
nuestras
decisiones.
¿Cómo
reaccionamos ante la variación en
el precio de un bien? Pensemos en
el caso de una subida del precio de
la gasolina. Por un lado, nuestra
decisión marginal de consumo
varía; puesto que la gasolina se ha
vuelto relativamente más cara que
otros bienes, es posible que
decidamos gastar un poco menos en
gasolina y salir un día más a cenar
o comprarnos esa estúpida camiseta
que tanta gracia nos ha hecho. A
este cambio en el comportamiento
se le denomina «efecto sustitución»,
puesto que estamos sustituyendo un
bien por otro al cambiar su carestía
relativa.
Pero el efecto sustitución no es
lo único que tiene efecto cuando
cambia una condición inicial. En el
caso de la gasolina, si sufrimos una
subida importante del precio pero
la necesitamos de todas formas
para ir a trabajar... ¡pasamos a ser
más pobres de lo que éramos antes!
Es decir, tendremos menos renta
disponible para consumir, por lo
cual el efecto neto de este «efecto
renta» es que consumiremos menos
cantidad de toda nuestra cesta de
consumo. Es decir, todo shock
negativo de renta tendrá como
efecto un consumo menor de toda la
cesta de productos y servicios que
solemos comprar. Lo mismo que
pasaría si, por ejemplo, un mes un
ladrón nos robase la mitad del
sueldo: intentaríamos consumir
menos de todo al ser, durante dicho
mes, más pobres.
¿Y qué tiene que ver el «efecto
renta» con la decisión de tomar
sacarina o azúcar con el café tras
una comilona? Imagina que todos
(los que estamos a dieta) tenemos
una restricción presupuestaria en
forma de las calorías que podemos
tomar
diariamente
(o
semanalmente). Así, cada decisión
de ingesta de calorías ha de ser
tomada
en
función
del
«presupuesto» semanal (o mensual,
o diario...) que nos hayamos
propuesto, aunque éste sólo sea una
aproximación. Pues bien, al igual
que sucedía con el shock negativo
de renta, después de una gran
comilona... ¡somos mucho más
pobres en nuestro presupuesto!
Disponemos de muchas menos
calorías para «gastar» en lo que
queda de semana, por lo que el
coste
de
consumirlas
sube
considerablemente.
Así que, querido lector, si crees
que tras una comilona está más
justificado tomar el café con azúcar
porque «las calorías del azúcar
suponen poco al lado del chuletón
de 500 gramos que acabo de
comer», debes saber que de nuevo
te autoengañas, ya que el hecho de
saltarte la dieta hace aún más
importante tomarse el café con
sacarina, y no menos importante.
Además, tras una comilona no
podremos decir que el consumo de
azúcar evitará una pérdida de
fuerza de voluntad, pues nuestro
apetito está saciado. Si estás a
dieta, ¡no te saltes la sacarina del
café! ¿A qué esperas para dejar de
autoengañarte?
Y hablando de autoengaño,
¿cuántas veces saliste de fiesta y
terminaste bebiendo más de la
cuenta? Es difícil encontrar un
equilibrio, ¿verdad? Por un lado,
cuando nos emborrachamos, al
menos durante un tiempo, parece
que somos más felices. Pero, por
otro lado, momentos más tarde, ese
alcohol
nos
pasa
factura
físicamente, lo cual nos resta
felicidad futura.
Como exponíamos al principio
de este capítulo al hablar del
descanso, las personas queremos
vivir las recompensas, a poder ser
lo antes posible —hoy, ahora— y
retrasar los castigos lo más tarde
posible. Además, las preferencias,
como el dinero, tienen valor
temporal. No es lo mismo una
satisfacción hoy que la misma
dentro de un mes. Las personas, de
hecho,
sabemos
que
sobreponderamos los beneficios
cercanos en relación con beneficios
futuros.
Un
sencillo
experimento
demuestra que normalmente una
persona prefiere jugar a cara o cruz
con un premio de 2 euros hoy que
hacer lo mismo dentro de una
semana por 5 euros. A pesar de que
las probabilidades a priori de ganar
en ambos juegos son las mismas y
de que el pago de la segunda
apuesta es suficientemente superior
como para recompensar por el paso
de cinco días. Y es que,
sencillamente, si un individuo
necesita hoy el dinero y no dentro
de una semana, preferirá apostar
hoy.
Otro ejemplo: no es lo mismo
trabajar hoy siete horas que trabajar
ocho mañana. Retrasar el trabajo
hasta mañana puede provocarnos
una satisfacción que, traducida a
utilidad, hace que descontemos
(infravaloremos) mucho esa hora
extra más. Y en definitiva, hace que
nos recompense retrasar el trabajo,
provocando que la opción escogida
pueda perfectamente ser la de
trabajar ocho horas ¡mañana! De
ahí que el refrán «No dejes para
mañana lo que puedas hacer hoy»,
cueste mucho llevarlo a cabo.
Hay mucha teoría y trabajo
lógico detrás de todos estos
ejemplos. En concreto, estamos
ante ejemplos de lo que los
economistas denominan descuento
hiperbólico de las preferencias.
Lejos de tener un pensamiento
lineal a la hora de ordenar en el
tiempo la jerarquía de nuestras
preferencias, damos un peso
excesivo a todo lo que sucede antes
e infravaloramos el impacto de lo
que nos espera en el futuro.
El descuento temporal de las
preferencias (por el dinero) es
clave en finanzas. Por eso,
podemos aplicar una de las teorías
básicas
de
finanzas
para
manejarnos algo mejor en nuestra
vida diaria a la hora de adoptar
decisiones hoy, y que tienen
impacto mañana. El ejemplo más
ilustrativo quizá sea el de la bebida
alcohólica.
No cabe duda de que alcanzar
un estado de embriaguez tiene
cierta recompensa positiva hoy, en
términos
de
felicidad
por
desinhibición. Sin embargo, el
problema vendrá mañana en
términos de resaca. Al menos
hablando en el corto plazo, porque
desde luego a más largo plazo los
costes sobre nuestra salud serán
muy superiores.
Ésta es la clave: cuando vayas a
beber piensa que estás pidiendo un
préstamo ¡de felicidad!
La
felicidad
que
estás
adelantando viene en forma de
deuda, con intereses pagaderos al
día siguiente. Por eso, ¿cuánta
felicidad futura estás dispuesto a
dejar atrás a cambio de adelantarla
con el alcohol a hoy mismo? No
tenemos más que recurrir a la teoría
de la estructura temporal de los
tipos de interés que usamos los
economistas para hallar las
equivalencias entre dinero presente
y futuro. Hazte esta pregunta:
¿cuántos intereses quieres pagar
mañana a cambio de tener tu
felicidad adelantada a hoy? Si
tienes presente esta cuestión, seguro
que algunas de tus decisiones
cambiarán.
Cuanto más alcohol tomes,
mayor es el tipo de interés de tu
deuda de felicidad. Y en el largo
plazo, cuando la rentabilidad no
supera el coste de la deuda, ya
sabemos perfectamente lo que
ocurre: la quiebra.
Amor
Una de las grandes cuestiones para
toda persona es cómo aprovechar
lo que sabemos sobre las
decisiones humanas para intentar
tener más éxito al ligar. Este truco
nos lo facilita el psicólogo Dan
Ariely.[6]
La mejor forma de comenzar la
historia es mediante el ejemplo de
la suscripción a la revista The
Economist. Leyendo el periódico,
un día Dan se percató de la
siguiente oferta:
1.
Suscripción al acceso
online, 59 dólares.
2.
Suscripción a la versión
impresa, 125 dólares.
3.
Suscripción al acceso
online y a la versión
impresa, 125 dólares.
¿Tú qué elegirías? La pregunta
se planteó a un centenar de alumnos
del MIT, y sus respuestas fueron:
1.
Suscripción al acceso
online, 59 dólares: 16
alumnos.
2.
Suscripción a la versión
impresa, 125 dólares: 0
alumnos.
3.
Suscripción al acceso
online y a la versión
impresa, 125 dólares: 84
alumnos.
La verdad es que a las personas
nos encanta saber que nos llevamos
un beneficio sin riesgo en nuestras
decisiones, y en el caso planteado
está claro que la tercera elección
significa beneficiarnos del acceso
online puesto que nos sale «gratis».
Esto puede explicar que sea la
opción mayoritaria. Sin embargo,
¿no te llama la atención que la
opción más cara sea precisamente
la mayoritariamente elegida por los
estudiantes?
En una vuelta de tuerca al
experimento se eliminó la segunda
opción. A priori, no debería ocurrir
nada puesto que esta opción no
tenía ningún voto. La pregunta
relevante es: ¿quitar la segunda
opción afecta algo al resultado?
Los
resultados
fueron
los
siguientes:
1.
Suscripción al acceso
online, 59 dólares: 68
alumnos.
2.
Suscripción al acceso
online y a la versión
impresa, 125 dólares: 32
alumnos.
¡Impresionante! Eliminando una
alternativa no deseada por nadie,
¡hemos dado la vuelta a la
revelación de preferencias de los
alumnos! El señuelo de la opción
intermedia, no estaba ahí en balde.
Los profesionales de marketing de
la revista The Economist saben
muy bien que los humanos
decidimos en términos relativos.
Somos muy malos valorando las
cosas en términos absolutos. ¿Te
acuerdas cuando hablábamos de
curvas de indiferencia y que
decíamos que nos cuesta mucho
saber cuánta es la utilidad de comer
una onza de chocolate? No sabemos
responder a: ¿es mucho pagar 59
dólares por el acceso online a The
Economist?, pero sí sabemos
responder que al principio el
acceso online más la revista
impresa era una opción más barata
que sólo la revista impresa. Por lo
tanto, nos dejamos llevar por los
términos relativos.
Las comparaciones son innatas en
el ser humano
Vivimos de comparar las cosas, y
cuanto más próximas, mejor
comparamos
(¿recuerdas
las
donaciones inmediatas cuando nos
retrasamos al levantarnos de la
cama?). De hecho, no sabemos lo
que queremos hasta que no lo
vemos en alguien más. Cuando
entramos en una tienda y vemos un
camisa en un estante, no sabemos si
nos gusta, pero cuando vemos que
alguien se la prueba, sabemos que
nos puede interesar, o no. No
sabemos el trabajo que queremos
hasta que un amigo o conocido
consigue un trabajo que nos hace
desear dedicarnos a algo similar.
Lo tenemos delante, pero sin
comparación,
no
podemos
decidirnos.
Lo mejor de esta cuestión es
que esto no sólo resulta irracional,
sino que es previsiblemente
irracional. Sabiendo este concepto
de relatividad, el propio Dan
Ariely se
propuso
realizar
fotografías a estudiantes del MIT.
Consiguió fotos del rostro de 60
estudiantes: 30 hombres y 30
mujeres. Pidió a sus alumnos que
emparejaran por parecidos de
«belleza» a esas personas, los
hombres con los hombres y las
mujeres con las mujeres. Tenemos
así 30 parejas de personas
semejantemente guapas agrupadas.
Las feas estarían juntas, y las
guapas también. En este momento,
Dan entró en su despacho y de cada
pareja de fotos, retocó una de ellas
haciéndola un poco menos bonita.
Torció un poco la nariz, movió una
ceja o hizo algo sutil para que el
rostro perdiera la simetría, en tanto
que supuestamente la belleza física
humana reside en la simetría.
Tendríamos así, por cada par de
fotos, ahora una foto más con una
versión de uno de ellos ligeramente
deformada a modo de señuelo.
Viene ahora la parte más
interesante del experimento, en la
que estos 30 paquetes de tres fotos
se llevaron de nuevo a ser
evaluados por otras personas.
Efectivamente, cada vez que se
enseñaba un grupo de fotos en los
que había una persona «normal»,
una
igual
pero
ligeramente
deformada (señuelo) y otra de
belleza parecida, las personas se
quedaban
con
la
versión
«mejorada» del rostro que tenía
comparación directa con el
señuelo. De hecho, este rostro era
seleccionado
mucho
más
frecuentemente cuando llevaba un
señuelo al lado. Por ejemplo, la
versión del rostro A(simétrico) se
seleccionó muchas más veces
cuando se acompañó del rostro-A
(modificado) que cuando iba solo.
La diferencia era significativa: de
hecho, esto ocurrió el 75 por ciento
de las veces.
De aquí surge la idea: ¿qué
hacer si estás soltero o soltera y
quieres atraer al mayor número de
parejas potenciales? El consejo
sería que llevaras a un amigo o
amiga que tuviera básicamente tus
mismas características físicas
(color de pelo, piel, complexión,
rasgos faciales), pero que resultara
ligeramente menos atractivo/a.
Cuando entres en un bar o en una
reunión de solteros, a las personas
les será difícil evaluarte por tus
rasgos de manera aislada o
absoluta. Sin embargo, si te
comparan con el señuelo (alguien
parecido a ti pero un poco peor),
pueden hacerte parecer más
atractivo/a, en comparación, y
puedes atraer más la atención de
potenciales parejas.
Obviamente, este truco no
determina que consigas ligar con
total seguridad; la capacidad de
conversación y la seguridad en ti
serán claves a la hora de encontrar
pareja. Pero al menos, te asegurarás
de que te presten un poco más de
atención.
Advertencia de Dan Ariely
Ahora que conoces el secreto para
ligar, sospecha cuando alguien
cercano con cierto parecido a ti, y
del mismo sexo, te pida que le
acompañes una noche para salir;
pregúntate si te ha invitado para
disfrutar de tu compañía o
simplemente para hacer de señuelo.
Un Premio Nobel de Economía
por conseguir un matrimonio
estable
Como no todo en la vida de un
economista estriba en ligar, también
tenemos ejemplos de grandes
mentes de la economía que han
reflexionado sobre la mejor manera
de conseguir una pareja ¡estable!
El Premio Nobel de Economía
2012 fue para Alvin Roth y Lloyd
Shapley por su teoría del diseño de
mercados. Hay ocasiones en que el
mercado no asigna eficientemente
los recursos, y un diseño apropiado
puede ayudar a ello. Es el caso del
conocido algoritmo Gale-Shapley,
que Roth aplicó a muchos casos,
como
el
de
emparejar
eficientemente universidades con
alumnos o médicos con hospitales.
Pero un ejemplo más cotidiano es
el caso del emparejamiento de
hombres y mujeres (del cual
usamos
sólo
el
ejemplo
heterosexual por ser más fácil de
ilustrar). Se trata de buscar un
matrimonio estable entre un número
igual de hombres y mujeres.
Pongamos el ejemplo de unas
«citas rápidas» (speed dating). Una
serie de mujeres se sientan en unas
mesas y reciben durante unos tres
minutos las solicitudes de diversos
hombres. Cada hombre se reúne
primero con la mujer que más le
gusta. De este modo, una mujer
puede tener a varios pretendientes
en primera ronda, y en otras, a
ninguno.
En este momento, las mujeres
que han tenido candidatos rechazan
a aquellos que no cumplen con su
mínimo exigible. Y, lo que es más
importante, no toman aún ninguna
decisión definitiva. Se reservan
hasta el final para escoger a su
candidato.
A continuación, los hombres
rechazados avanzan y seleccionan a
la siguiente mujer que más les
gusta. Por supuesto, candidatos
descartados por alguna mujer
llegarán a otras que ya tenían
candidatos anteriormente. Así, las
mujeres vuelven a tener solicitudes,
y vuelven a descartar a los que
ahora no cumplen su «nuevo»
mínimo exigible. Sucederá que
ahora, al haber nuevos candidatos
que habían sido rechazados por
otras mujeres, las mujeres pueden
replantearse
su
decisión
y
posiblemente se quedarán con
alguno de estos hombres nuevos,
descartando alguno de los que antes
habían cumplido el mínimo exigido
y que se habían reservado.
Las mujeres eligen de nuevo
entre los hombres descartados. Y
las mujeres seguirán descartando y
reservándose candidatos en función
del mínimo «que se van
construyendo»
según
reciben
candidatos.
Este proceso se repite hasta que
cada mujer se queda con un solo
candidato. Fíjate en que es muy
posible que el último movimiento
de la cadena cambie las elecciones
de muchas mujeres. Cuando la
mujer «más solicitada» tenga sólo
dos candidatos «válidos», al final
se decantará por uno solo, siendo el
segundo de éstos posiblemente un
hombre con gran valor para otra
mujer, que al ver que queda libre, si
le pide cita, lo puede seleccionar y
cambiar por sus candidatos
anteriores. Así hasta que nadie más
queda libre para solicitar nuevas
citas.
Ésta es la clave del algoritmo
de Roth y Shapley. La idea de no
quedarte con tus candidatos a la
primera, sino de reservar hasta el
final tu elección definitiva. Habrá
una especie de ordenación natural
de los recursos, en la que no
podemos manipular el proceso de
decisión. Por ejemplo, no ganamos
nada eligiendo a una mujer que no
es nuestra primera elección en la
primera ronda.
Pongamos el ejemplo de la
serie de televisión Friends.
Sabemos que el personaje de Ross
Geller está enamorado de Rachel
Green desde siempre. Pues bien, en
un speed dating, Ross no ganaría
nada si no eligiera en la primera
ronda a Rachel, pensando en que
ella le podría descartar. Si Ross
pide una cita primero a Rachel,
pero ella le descarta, Ross siempre
podrá escoger como segunda
alternativa a, por ejemplo, Phoebe.
Pero lo contrario no es posible. Por
lo tanto, la estrategia de revelar
siempre tu preferencia real es
dominante en este juego. Ésa es la
fortaleza de este algoritmo:
reservar y descartar.
En el speed dating estándar
sólo hay, en cambio, una fase,
siendo la elección estática. Una
solución ideal consistiría en que
todos los hombres se reunieran con
todas las mujeres y que, al final,
éstos diesen una lista con los
nombres a los que les gustaría que
el organizador pasara su contacto.
Si hay coincidencia en la elección,
el organizador intercambia los
contactos para que se citen.
Haciendo este juego dinámico, el
algoritmo de Lloyd Shapley y Alvin
Roth nos indicaría el camino hacia
una asignación eficiente y estable.
Obviamente, al final quedarían
mujeres que preferirían casarse con
otros hombres, y viceversa, pero no
habría una elección mejor que fuese
mutuamente preferida por ambas
partes.
El problema que en esencia han
resuelto Roth y Shapley, en lo
relativo al matrimonio estable, es
que evita el comportamiento
oportunista que un genio como John
Nash (también Premio Nobel de
Economía) mostraba en la (ficticia)
escena del bar de la película Una
mente maravillosa, en la que
convencía a sus amigos para
ignorar directamente a la chica más
atractiva. Si la esencia de todo
sistema eficiente es su capacidad
para extraer y agregar información
veraz, los sistemas susceptibles de
ser manipulados no conseguirán
sacar a la luz la realidad sobre la
escasez y las preferencias en un
mercado.
Cubiertas nuestras necesidades,
¿cómo gestionar la felicidad?
Casi todo el mundo conoce a alguna
persona que afirma disfrutar yendo
a trabajar porque ello le sirve para
salir del ajetreo de su vida casera o
familiar, lo cual incluye desde los
niños
hasta
las
posibles
discusiones. Este fenómeno encaja
con el hecho documentado de que
muchos desempleados, incluso
aunque esté compensada su pérdida
de nivel de renta, están más
descontentos
que
cuando
trabajaban. Los recientes estudios
de la economía de la felicidad
cuantifican que el efecto no
vinculado a la renta es más de
cinco veces superior al efecto
vinculado a la renta. Es decir,
nuestro aumento de insatisfacción al
pasar a estar desempleados
proviene de dos vías: la primera es
que somos más pobres, pero la
segunda se deriva del mero hecho
de no acudir a trabajar. Tanto es así
que el propio Paul Krugman ha
utilizado la magnitud de este
fenómeno como argumento para
luchar aún más fuertemente contra
el paro involuntario.
Todo es volátil, ¿y coordinado?
Lo que más afecta a nuestro estado
de ánimo es, en realidad, la
variable principal de la gestión de
carteras moderna y que más
preocupa a los financieros: la
correlación.
Nuestro nivel de felicidad
disminuye
realmente
cuando
sufrimos en varios aspectos de
nuestra vida a la vez: cuando en el
trabajo nos va mal, cuando
discutimos con nuestra pareja y
cuando nuestro amigo nos defrauda.
Es decir, cuando la correlación
entre los activos que determinan
nuestros estados de ánimo es
altamente positiva. En cambio, si
invertimos nuestra felicidad en
activos poco correlacionados (lo
que los psicólogos llaman «tener
parcelas para desconectar», y que
son
independientes),
estamos
aplicando el pilar central de la
teoría de gestión de carteras: la
diversificación como herramienta
de mitigación del riesgo «nosistémico» (en nuestro caso, del
riesgo a ser infeliz por cuestiones
particulares).
Un empleo no demasiado
apasionante pero estable nos puede
ayudar a compensar una mala
jornada en casa. Esto justifica por
qué en ocasiones oímos que las
parejas que trabajan juntas son más
propensas a las discusiones en
familia: la correlación positiva
juega en su contra. Debemos buscar
la gestión de riesgos de nuestros
estados de ánimo, para lo cual es
clave tener en nuestra cartera de
felicidad
activos
no
correlacionados.
La diversificación no es la
única herramienta de la gestión de
carteras aplicable a la felicidad.
Otros curiosos ejemplos serían:
•
La religión, que en el fondo
es lo que se denomina una
cobertura en gestión de
carteras: cuando el resto de
activos cae de valor
(problemas en casa o en el
trabajo), la religión nos
aporta
bienestar.
Esta
correlación negativa es lo
que aporta valor a mi
•
cartera de felicidad.
Flujos de los activos: cada
activo tiene unos flujos
(monetarios en el caso de
activos financieros) que
debemos descontar para
hallar su valor actual. Esto
ayuda a explicar por qué la
gente que se dedica a ver la
televisión después del
trabajo suele ser más infeliz
que los que realizan otras
actividades como, por
ejemplo,
tocar
un
instrumento: la televisión no
genera el flujo de ingresos
descontados
suficiente
como para afectar al valor
actual de nuestra cartera
(estado de ánimo) de
manera significativa. En
cambio,
tocar
un
instrumento exige una mayor
concentración, es decir,
aporta más flujos y afecta
más rápidamente al valor de
nuestra cartera de felicidad.
Rentabilidad y riesgo de gestionar
tu felicidad
Del mismo modo que la correlación
de una cartera se reduce al comprar
bonos alemanes con rentabilidad
negativa, cuando las cosas marchan
mal en la vida personal, tener
trabajo puede aportar (además de
dinero) un sentimiento de utilidad
que aporta, en términos subjetivos,
felicidad. Por eso, aunque el
trabajo en sí mismo no me da
felicidad como actividad aislada, al
igual que para un gestor de carteras
un bono alemán con rentabilidad
negativa es una mala inversión en
términos aislados, al observar su
efecto dentro de toda la cartera de
inversión, el bono alemán reduce la
correlación global del conjunto de
inversiones, ayudando al gestor a
tener una cartera más eficiente en
términos de rentabilidad/riesgo.
Reflexiones para el lector
La teoría económica nos ha
enseñado que podemos permitirnos
una tentación durante nuestra dieta.
De hecho, es estrictamente deseable
hacerlo para prolongar la vida útil
de la misma, pues nos ayudará a
recargar nuestra voluntad, que es la
responsable de ejercitar el
autocontrol.
Esto mismo sirve para todas
aquellas tareas que deseamos hacer,
pero que no se encuentran dentro de
nuestras preferencias personales:
para empezar a ir al gimnasio no lo
hagamos todos los días, para no
romper nuestra voluntad; al estudiar
una oposición, es mejor descansar
un día si ello nos permite prolongar
el autocontrol durante una semana
más; en definitiva... ¡usemos las
tentaciones de manera inteligente!
También sabemos que tiene
sentido tomar sacarina en el café,
aun después de un festín
gastronómico, porque dado nuestro
presupuesto fijo de calorías, las
últimas calorías consumidas son
relativamente más caras que las
anteriores y, por lo tanto, ¡mucho
mejor si las ahorramos!
Sabemos también que saber de
deuda y tipos de interés es
importante para moderarnos en la
bebida. Cada vez que bebemos
estamos pidiendo un préstamo de
felicidad para adelantarla al
instante presente. Pero cada copa es
una cuota más de intereses que
pagaremos mañana en términos de
resaca (y de salud). También
sabemos que no toda la deuda es
mala, sino sólo aquella que no
podemos o sabemos rentabilizar.
Por eso es muy importante que
calcules las copas que serás capaz
de «pagar», y rentabilizar, a la
mañana siguiente. ¡No te cargues de
intereses como un Estado que vende
deuda pública!
Conocemos nuevas estrategias
para ligar, y además podemos
usarlas en nuestro beneficio. Se nos
da mal evaluar alternativas en
términos absolutos, necesitamos
comparar. De hecho, pasamos la
vida haciéndolo. Por lo tanto, un
buen amigo con cierto parecido a
nosotros será de gran ayuda:
realzará nuestro atractivo relativo y
nos facilitará las cosas para buscar
pareja.
Si decides jugarte una cita en un
speed-dating, no hagas caso de
John Nash, ¡revela tus preferencias
y apuesta por quien más te guste,
siempre!
Estos trucos te ayudarán, pero
recuerda: ¡el éxito dependerá ya de
ti mismo, de tu labia y de tu
seguridad!
Por último, debemos recordar
que la diversificación es una
herramienta muy potente para
gestionar los riesgos de nuestra
cartera de felicidad, pero, como
siempre en finanzas, el binomio
rentabilidad/riesgo es inseparable.
Del mismo modo que reduce
nuestro riesgo (cambios en el
estado de ánimo), también reduce
nuestra
rentabilidad potencial
(felicidad máxima). Es decir,
aquellas personas que disfruten de
una vida interior dedicada al
trabajo, al estudio o a la
introspección
se
mantendrán
incorreladas (protegidas) de las
desdichas del mundo exterior, y por
lo tanto nunca verán su corazón
roto, pero a la vez, ¡nunca
conocerán la gloria del amor
verdadero!
6
Los políticos no la saben
meter
ROBERTO ESPINOSA BLANCO
Las mentiras se construyen, las
verdades se descubren.
JORGE WAGENSBERG, en La
rebelión de las formas
Todo el que haya leído Outliers
(Fuera de serie [Outliers], en
castellano) y al poco tiempo haya
tenido un hijo, no habrá podido
resistirse y recordar lo que cuenta
Malcolm Gladwell en el libro
sobre la selección nacional de
jóquey sobre hielo de Canadá.
Gladwell describe, en lo que él
llama «ley de hierro» del jóquey
canadiense, que la distribución de
las fechas de nacimiento de
cualquier grupo de élite de
jugadores de jóquey canadiense
seguirá esta distribución por
trimestre: 40 por ciento - 30 por
ciento - 20 por ciento - 10 por
ciento. [7]
En realidad, esto se ha
observado en muchos otros
deportes y ámbitos, y tiene el
nombre de «efecto de la edad
relativa» (utilizaremos en adelante
sus siglas en inglés, RAE). El RAE
se utiliza para describir la
observación
de
que
en
determinadas actividades existe una
mayor presencia de personas
nacidas en un determinado período
de tiempo. En el caso que describe
Gladwell, el RAE explicaría por
qué el 40 por ciento de los
jugadores de élite en el jóquey
canadiense han nacido en el primer
trimestre del año.
En realidad, Gladwell no fue el
primero en hablar del RAE, pero su
libro llevó este efecto a la cultura
popular. Y como no podía ser de
otra manera, no todo el mundo
estuvo de acuerdo y apareció algún
artículo negando su existencia en el
deporte profesional canadiense.[8]
Pero en general existe mucha
literatura sobre la existencia del
RAE, y es algo mayoritariamente
aceptado como una realidad en el
mundo del deporte.
Por supuesto, también en
España se han hecho estudios sobre
el RAE en el deporte español.
Algunos muy en profundidad y para
un ámbito muy concreto, como el de
José Manuel González Arazmendi
sobre el fútbol guipuzcoano.[9]
También podemos encontrar otro
interesante artículo firmado por
especialistas del Centro de Alto
Rendimiento (CAR) de Sant Cugat,
entre otros, sobre el baloncesto
profesional.[10]
Y si vamos a la blogosfera,
vemos una infinidad de artículos
que hablan del RAE en mayor o
menor profundidad, y casi siempre
aplicado al mundo del fútbol.[11],
[12]
Así que empezamos este
capítulo proponiéndonos el reto de
aportar algo novedoso a un tema ya
bastante trillado. Y lo vamos a
hacer de varias maneras. Primero,
porque esos artículos sobre el
fútbol profesional han manejado
datos de unos pocos cientos de
futbolistas. Nosotros, gracias a
Víctor Solà, de BDFutbol.com,
hemos analizado la fecha de
nacimiento de «TODOS» los
futbolistas de primera división
nacidos en España de «toda» la
historia. Bueno, he exagerado, hay
unos 120 de los que no se sabe la
fecha de nacimiento. Exactamente
hay 6.824 jugadores nacidos en
España que alguna vez jugaron en
primera división (obviamente,
estimado lector, ten en cuenta que
esto es a fecha de redacción de este
capítulo). Tener tantos datos, y
además con tanto histórico, nos va a
ayudar a determinar si el impacto
del RAE ha cambiado con los años.
Y lo siguiente en lo que
queremos ser originales, y que no
vemos que nunca nadie se haya
preguntado, es qué hacen esos
chicos a los que el RAE impacta de
forma negativa. Es decir, si
tomamos como hipótesis (más que
probada si vemos los estudios
existentes) que los niños nacidos a
principio de año tienen más
posibilidades de ser exitosos en el
mundo del fútbol, ¿qué pasa con el
resto?
No es lógico pensar que el
talento necesario para ser futbolista
profesional
se
distribuye
desigualmente en función del mes
de nacimiento. Es decir, es más
lógico
pensar
que
habrá
estadísticamente el mismo talento
distribuido en diciembre que en
enero; sin embargo, la hipótesis (y
la observación) dice que a mismo
talento en enero que en diciembre,
gracias al RAE, los niños de enero
tendrán más probabilidades de ser
exitosos en el deporte profesional.
Entonces, ¿qué pasa con los
niños que nacen en diciembre con
una buena dosis de talento y que
por ser más pequeños que los niños
de su categoría se quedan fuera del
primer equipo por no competir con
las mismas armas?
Déjame primero que intente
explicar de una forma sencilla lo
que es el RAE. Este efecto se
refiere a la ventaja que se tiene en
determinadas actividades por tener
una edad relativa mayor a la de tus
compañeros o competidores. La
palabra
«relativa»
es
muy
importante, porque efectivamente es
relativa a un punto en el tiempo que
se fija de forma arbitraria, por
ejemplo: cuándo los niños pasan de
categoría en función de su
nacimiento.
Voy
a
intentar
explicarlo de una forma más
gráfica. Un equipo de fútbol de
categoría infantil A (cada deporte
tiene las categorías inferiores
organizadas un poco diferentes)
incluye niños que cumplen catorce
años en el año actual. En el
momento en que escribo esto
(temporada 2013-2014), serían los
niños nacidos en el año 2000. Así,
los niños nacidos entre el 1 de
enero y el 31 de diciembre de 2000
son considerados categoría infantil
A. Sin embargo, utilizando un
ejemplo extremo, un niño nacido el
1 de enero de 2000 y un niño
nacido el 31 de diciembre de 2000
jugarán en la misma categoría,
aunque el primero tenga casi un año
más de edad. Así que cuando los
entrenadores miran a sus jugadores
disponibles y ven que algunos niños
están físicamente más desarrollados
debido a esa ventaja de edad
relativa, es muy normal que los
elijan a ellos frente a niños más
pequeños. Este comportamiento
además es acumulativo, ya que pasa
en alevines, infantiles, cadetes...
Así que los jugadores de fútbol que
llegan a ser profesionales habrán
pasado por esa criba durante
muchos años de forma repetitiva y
siempre
con
las
mismas
condiciones. De esta forma,
podemos anticipar que este
comportamiento agregado tiene un
impacto profundo en la distribución
por mes de nacimiento de los
jugadores profesionales.
Dicho esto, y ya que hemos
empezado hablando de fútbol,
vamos a centrarnos primero en este
deporte. Sin embargo, la principal
razón de empezar por ahí es que,
debido a la cultura de nuestro país,
podemos asumir que para una
grandísima mayoría de los niños el
fútbol es la primera elección. Es el
deporte que seguramente primero
practican, y seguramente el primero
en el que les gustaría triunfar.
Además, hemos tenido acceso a la
gran
base
de
datos
de
BDFutbol.com, así que es el lugar
natural para empezar.
Sabemos que este libro no es un
manual de estadística, y no
queremos aburrir con tasas de
regresión o tendencias, ni, en
general, abrumar con datos.
Queremos ser muy visuales, que tú
también saques tus propias
conclusiones,
pero
también
queremos ser lo más rigurosos
posible.
Hago un pequeño paréntesis
para decir que vamos a centrar este
capítulo en el sexo masculino. Por
varios motivos. Primero, porque sin
duda el deporte más practicado en
España es el fútbol masculino. Pero
además de ser el más practicado, es
el más competitivo. La competencia
fuerte empieza muy pronto en el
fútbol, con lo que el RAE debería
ser más pronunciado en este
deporte. Los entrenadores tienen
más niños entre los que elegir al
formar sus plantillas al principio de
la temporada.
En contrapartida, en otros
deportes menos mayoritarios, por
ejemplo
el
voleibol,
los
entrenadores no tendrán tantos
candidatos a principio de cada
temporada, y por lo tanto es más
fácil que niños relativamente más
pequeños terminen compitiendo. De
esta manera, lo normal sería que
niños con el mismo talento, pero
nacidos a finales del año, tuvieron
más posibilidades de llegar a
categorías más altas, y ya cuando
son séniores, con el desarrollo
físico igualado, competir de igual a
igual en función de su talento.
Así que antes de entrar de
verdad en harina, vamos a ver si
esto se sostiene con datos reales e
inmediatos. Vamos a comparar la
selección española que ganó el
Mundial de fútbol de Sudáfrica con
la selección española que ganó el
europeo de Voleibol de 1997.
FÚTBOL
Iker Casillas
20/05/1981
Pepe Reina
31/08/1982
Víctor Valdés
14/01/1982
Joan Capdevila 02/03/1978
Carles Puyol
13/04/1978
Sergio Ramos
30/03/1986
Carlos
Marchena
31/07/1979
Raúl Albiol
04/09/1985
Gerard Piqué
02/02/1987
Álvaro
Arbeloa
17/01/1983
Javi Martínez
02/09/1988
Xavi
Hernàndez
25/01/1980
Andrés Iniesta
11/05/1984
Cesc Fàbregas 04/05/1987
Xabi Alonso
25/11/1981
Sergio
Busquets
16/07/1988
David Silva
08/01/1986
Jesús Navas
21/11/1985
David Villa
03/12/1981
Fernando
Torres
20/03/1984
Fernando
Llorente
26/02/1985
Juan Mata
28/04/1988
VOLEIBOL
Pedro
Rodríguez
28/07/1987
Rafael Pascual 16/03/1970
Ibán Pérez
José
Lobato
13/11/1983
Luis
Manuel
Sevillano
19/02/1977
02/07/1981
Miguel Ángel
24/04/1973
Falasca
José
Javier
22/03/1984
Subiela
Guillermo
Falasca
José
Moltó
24/10/1977
Luis
Julián García-
29/06/1975
Torres
08/11/1980
Enrique de la
11/08/1975
Fuente
Israel
Rodríguez
27/08/1981
Guillermo
Hernán
25/07/1982
Un vistazo rápido, y a pesar de
ser una muestra «muy» pequeña, sí
que parece que se puede intuir lo
que decíamos más arriba sobre que
una mayor competencia debería
traer un mayor impacto del RAE. Si
ponemos estos datos en un formato
gráfico para poder compararlos
mejor, tendríamos esto:
Rápidamente podemos ver, a
pesar de ser muestras muy
pequeñas, unas diferencias muy
claras en cuanto a su distribución.
Si en el fútbol el 40 por ciento de
los campeones del mundo nacieron
en el primer trimestre del año, y
hay tres veces más jugadores
nacidos en ese primer trimestre
frente al último del año, en el
voleibol (y desde luego hay que
insistir en que la muestra es muy
pequeña) la distribución es casi
perfecta. En el primer trimestre
nacieron un 25 por ciento de
campeones de Europa, justo los
mismos que nacieron en el último
trimestre.
Debido al tamaño tan reducido
de la muestra, no podemos tomar
estos resultados más que como un
ejercicio de calentamiento para
reforzar la idea de que comenzar
por el fútbol masculino es
seguramente el mejor sitio para
empezar a ver el impacto del RAE.
Una de las primeras preguntas
que nos hicimos al plantearnos este
capítulo fue si los nacimientos están
en general distribuidos de forma
equitativa por meses, haciendo
poco más que aleatoria la fecha de
nacimiento, o si, por el contrario,
están influenciados por la época del
año, y por lo tanto hay diferencias
sustanciales mes a mes en el
número
de
nacimientos.
Curiosamente, es algo que no
hemos visto reflejado en muchos
estudios sobre el RAE, pero a
nosotros nos parece importante
primero saber si hay diferencias en
los nacimientos por mes para luego
poder desestacionalizar los datos.
Siguiendo con el ejemplo
anterior del equipo de infantil A,
imaginemos que nacen muchos más
niños en el mes de enero que en
diciembre. En ese caso sería lógico
pensar que habría más futbolistas
profesionales nacidos en el mes de
enero que en diciembre, pero no
por el potencial efecto del RAE,
sino simplemente porque hay más
jugadores nacidos en enero.
Así que nos hemos ido al
Instituto Nacional de Estadística
(INE) a ver cómo nacen los niños
en España. No hemos podido
conseguir los datos sólo para los
nacimientos de varones, por lo que
vamos a asumir que el sexo no
impacta, el mes de nacimiento.
Después de empezar a trabajar con
los números, y por razones sobre
las que te daré más detalles luego,
hemos definido dos períodos de
tiempo sobre los que hacer el
análisis, que también nos van a
servir para comparar. Uno desde
1956 hasta 1974, y otro desde 1980
hasta 1995.
En esas dos series, hemos
sumado todos los nacimientos por
meses para todo el período. Para
eliminar el efecto del número de
días de cada mes, hemos dividido
el total de nacimientos para cada
mes de toda la serie por el número
de días de cada mes (28,25 en el
caso de febrero para eliminar el
efecto del año bisiesto). Y ese
número lo hemos comparado con el
resultado de dividir el total de
nacimientos por 365,25 días. Es
decir, comparamos el número de
nacimientos medio por día para
cada mes del año con el número de
nacimientos medio por día. De esta
manera, éste sería el gráfico con los
nacimientos completos para la serie
de 1956 a 1974:
En el gráfico siguiente se ve
bastante claro que, aunque no hay
diferencias enormes, éstas sí son
importantes y, por lo tanto, a tener
en cuenta. Vemos, por ejemplo, que
entre el mes relativamente con más
nacimientos para el período, abril,
y el que menos, noviembre, hay 7
puntos de diferencia. De esta
manera, para eliminar el efecto
tanto del número de días de cada
mes como de la diferencia de
nacimientos entre los meses
utilizaremos este coeficiente para
desestacionalizar los datos que
vamos a ir viendo.
Ésta es la misma información
para la otra serie de años en la que
nos vamos a centrar, desde 1980
hasta 1995.
Otra vez, no hay diferencias
enormes, pero sí relevantes: casi 8
puntos de diferencia entre mayo y
diciembre. Muy curioso es ver
cómo agosto es un mes raro
comparado con los dos que tiene al
lado. Uno podría pensar que de
forma artificial se producen
nacimientos en septiembre que de
otra forma se producirían en agosto
(¿las
vacaciones
de
los
ginecólogos, quizá?), pero no es el
objeto de este capítulo, así que
dejaremos que cada uno saque sus
conclusiones.
Después de situar ya un poco la
conversación
y
tener
los
coeficientes para desestacionalizar
los datos con los que vamos a
trabajar,
vamos
a
saltar
directamente al mundo del fútbol y
a los datos que tenemos. Como te
contaba al principio, después de
hablar con bastante gente del
«mundillo», tuvimos la suerte de
dar con Víctor Solà y su
BDFutbol.com, que amablemente
nos cedió los datos para realizar
este estudio. Nada más y nada
menos que la fecha de nacimiento
de casi 7.000 jugadores de fútbol.
Concretamente, 6.824 jugadores de
fútbol nacidos en España que
alguna vez jugaron en Primera
División. Además también nos
aportó los datos de cuáles llegaron
a la selección, y la misma
información para las selecciones
sub-19, sub-20 y sub-21. La
información se remonta hasta
jugadores nacidos en el siglo XIX.
Obviamente, no se puede pensar
que el impacto del RAE ha sido
igual durante toda la historia.
Empezando porque a mayor
competitividad en las categorías
inferiores, mayor debería ser el
impacto del RAE, y sin duda son
completamente incomparables las
condiciones de la Liga y el fútbol
base en los años treinta con las
actuales.
Asimismo,
en
la
población
de
futbolistas
profesionales tuvo que tener sin
duda un impacto importante una
situación histórica como la Guerra
Civil. Por eso desde el primer
momento pensamos que, pese a su
interés, teníamos que desechar los
datos anteriores a la Guerra Civil,
así como los de ésta y de los años
siguientes, por los terribles efectos
que tuvo en la pirámide poblacional
española durante décadas. Por eso,
de momento pusimos el corte en los
años cincuenta.
Después, uno tiene ya años para
recordar
un
acontecimiento
tremendamente interesante desde el
punto de vista de este estudio que
ocurrió en los años ochenta, y del
que curiosamente no hemos
encontrado constancia en ningún
sitio. Yo recordaba que cuando era
pequeño la fecha de cambio de año
para las categorías en el fútbol era
en algún momento del verano. Lo
recuerdo porque nací a finales de
junio, y era siempre de los
pequeños del equipo. La verdad es
que nadie nos lo ha podido
confirmar. Hemos hablado con
varias federaciones regionales, y al
final, entre lo que recordaban unos
y otros, estamos casi seguros de
que la fecha se cambió en 1980, un
cambio que se hizo por mandato de
la UEFA para homogeneizar las
categorías inferiores en Europa. Lo
que estaba claro es que en 1980 se
pasó a utilizar el año natural para
definir las categorías, pero nadie
nos terminó de confirmar qué fecha
era el anterior «1 de enero».
Escuchamos diferentes versiones,
pero después de jugar un poco con
los números, estamos seguros de
que la anterior fecha de corte era el
1 de agosto, y esto también lo verás
claramente tú cuando empecemos a
entrar en detalles.
Si nadie se acordaba de la
fecha exacta, nadie pudo tampoco
decirnos cómo se hizo el cambio.
Yo, que nací antes de 1980,
recuerdo que no me afectó hasta
juvenil, o incluso regional, por lo
que
éste
fue
seguramente
progresivo.
Esto complicaba el análisis de
datos. Después de jugar un poco
con los datos, vimos que,
efectivamente, a partir de 1980
éstos eran muy claros, por lo que
tomamos el 1 de enero de 1980
hasta la actualidad como una de las
series. Tomando esos años como
referencia, tenemos unos 1.100
jugadores como muestra, lo cual no
está nada mal.
Y hacia atrás, decidimos dejar
unos años antes de 1980, en los que
los datos no eran muy claros,
seguramente influenciados por ese
período de transición. Así que
tomamos 1974 como punto final de
la segunda serie. Empezamos a
trabajar sobre ello, pero también
veíamos algo raro, quizá todavía
los efectos de la Guerra Civil y la
posguerra, o quizás algún cambio
anterior en la normativa antes de
1980. El caso es que sobre ese
posible
cambio
no
hemos
encontrado a nadie que sepa de él,
así que después de jugar un poco
con los números decidimos que esta
serie sería desde 1956 hasta 1974.
Más de 1.500 jugadores, lo cual
también es una buena muestra.
En realidad, aunque ese cambio
en la fecha de corte complique un
poco el análisis, es una verdadera
suerte porque nos permite hacer
comparaciones independientemente
del mes de nacimiento. Si el RAE
existe, y es tan potente como
parece,
de
alguna
forma
deberíamos ver que el mes de
agosto de la serie 1956-1974
debería comportarse como el mes
de enero de la serie 1980actualidad. Vamos a empezar a
trabajar sobre la serie más actual.
Recapitulando, suponemos que en
ese período de tiempo la
competitividad ha aumentado en el
fútbol base español, lo cual debería
«realzar» el impacto del RAE, y
por lo tanto deberíamos ver un
fuerte impacto en la distribución de
los jugadores profesionales por
mes de nacimiento, de manera que
tendríamos que ver un porcentaje
significativamente superior de
jugadores nacidos en los primeros
meses del año frente a los nacidos a
finales de año.
Déjame que te recuerde que
para todos los cálculos y gráficos
que vienen a partir de ahora, vamos
a utilizar los datos de nacimientos
que
vimos
antes
para
desestacionalizarlos. Y lo recuerdo
ahora para no repetirlo en cada uno
de ellos.
Bueno, pues vamos a ver ese
primer gráfico con los jugadores de
fútbol profesionales nacidos en
España desde el 1 de enero de
1980 hasta la actualidad (31-121995). Te recuerdo que, para este
período, los años de las categorías
deportivas coinciden con los años
naturales.
A simple vista ya se ve el
impacto del RAE. No nos haría
falta ni la línea de tendencia (que
haremos siempre lineal para
simplificar) para ver lo marcado
del efecto. Tenemos un 37 por
ciento de los jugadores nacidos en
el primer trimestre del año, frente a
un escasísimo 14 por ciento de
nacidos en el último trimestre. Hay
casi tres veces más de jugadores
nacidos en el primer trimestre
frente a los nacidos en el último.
Vamos a compararlo ahora con
la otra serie, la que va desde el 1
de enero de 1956 hasta el 31 de
diciembre de 1974. La teoría nos
dice que agosto debería ser el mes
con mayor número de jugadores, y
el trimestre que va de agosto a
octubre el que más jugadores
tendría, y comparándolo con la otra
serie, deberíamos ver un impacto
RAE menos marcado porque
suponemos que en esa época habría
menos competitividad en categorías
inferiores. Vamos a ver qué dice el
gráfico.
De momento vemos que las
hipótesis se cumplen. El mes de
agosto es, efectivamente, el mes en
que más jugadores nacieron durante
ese período, frente al mes de enero,
que, como hemos visto, fue el
mayor para la otra serie.
Así que de alguna forma, y para
entendernos, agosto era el enero de
la actualidad. Vamos a colocar el
mes de agosto al principio del
gráfico para verlo mejor.
El impacto del RAE es también
claro en esta serie, y se vuelve a
ver muy bien incluso sin la línea de
tendencia, pero como ya habíamos
anticipado, es menor que en la serie
más actual. El «primer» trimestre
del año representa un poco más del
30 por ciento del total, frente a un
21 por ciento del «último»
trimestre. En este caso, «sólo» hay
un 50 por ciento de jugadores más
nacidos en el trimestre «agostooctubre» frente al trimestre «eneromarzo». Parece entonces claro que,
efectivamente, la competitividad en
las categorías inferiores ha crecido
con los años, y por lo tanto el
impacto del RAE es mucho mayor
en la actualidad.
Otra hipótesis que podemos
formular según lo que hemos visto
hasta ahora es que el impacto del
RAE se va difuminando con el paso
de los años de los jugadores, y al
revés, que será mayor en edades
más tempranas.
De nuevo, la excelente base de
datos que tenemos nos permite ver
si la hipótesis se cumple o no. Y es
que también tenemos los datos de
los jugadores que alguna vez
jugaron en la selección nacional
sub-19,
sub-20
o
sub-21.
Concretamente,
tenemos
214
jugadores nacidos en España entre
el 1 de enero de 1980 y el 31 de
diciembre de 1995 que llegaron a
jugar alguna vez en esas
selecciones.
Otra vez se aprecia a simple
vista; impresionante, ¿verdad? Más
de un 44 por ciento de los
jugadores nacidos entre 1980 y
1995 lo hicieron en el primer
trimestre del año, frente a sólo un
10 por ciento nacidos entre los
meses de octubre y diciembre. Casi
cuatro veces y media la cantidad de
jugadores del primer trimestre
frente al último trimestre del año.
Llegado a este punto, creo que
podemos sacar unas conclusiones
bastante claras sobre el RAE en el
mundo del fútbol profesional
español, y para eso vamos a utilizar
este gráfico:
Así que como principales
conclusiones sobre el RAE,
podríamos decir lo siguiente:
— Existe, y además tiene un
impacto importante. Hay
casi tres veces más
jugadores nacidos en enero
que en diciembre para los
nacidos entre 1980 y 1995.
—
A más competitividad,
mayor es el impacto del
RAE. Y asumiendo que hay
más competitividad ahora
que hace más de cuarenta
años, vemos como la
diferencia entre los nacidos
entre agosto (primer mes
para la serie 1956-1974) y
julio, aún importante, es
menor que para enerodiciembre para la serie
1980-1995.
— El efecto se va mitigando
con el paso del tiempo. Es
decir, es más importante en
las edades más tempranas.
Antes de pasar a otros ámbitos,
vamos a mirar a otros dos
profesionales del mundo del fútbol,
árbitros y entrenadores. ¿Tendrá el
RAE también un impacto en la
distribución de los meses de
nacimiento en esos dos colectivos?
Empecemos
por
los
entrenadores. Es lógico pensar que
sí lo tendrá. Muchos de ellos han
sido jugadores profesionales, por
lo que tienen el sesgo que ya hemos
visto, aunque al ser mayores, el
efecto también habrá tenido que
disiparse. Como no hay suficientes
entrenadores jóvenes que hayan
entrenado en primera, segunda y
segunda B (volvemos a tirar de la
base de datos de BDFutbol.com),
nos centraremos en el período
1956-1974.
Efectivamente, se cumple lo que
habíamos previsto. Se aprecia el
impacto RAE, pero más suave. Hay
un 29 por ciento de entrenadores
nacidos en el «primer» trimestre
del año, frente a un 22 por ciento en
el último, lo que nos da que es
«sólo» un 31 por ciento más.
¿Y qué pasa con los árbitros?
¿Deciden los niños más pequeños
dedicarse a arbitrar mientras los
mayores juegan al fútbol? Para este
análisis hemos vuelto a tirar de
BDFutbol.com, pero también del
Directorio del Comité Vasco de
Árbitros 12-13. Hay que tener en
cuenta que las muestras empiezan a
ser más pequeñas, sobre todo para
el período 1956-1974, para el que
sólo tenemos 116 árbitros.
Pero atención, de repente
vemos ya una diferencia. Tenemos
una representación por trimestres
muy parecida, y aunque hay una
pequeña tendencia «a la baja», es
totalmente descartable por la
muestra tan pequeña que tenemos.
Pero sí, creo que podemos decir
que el impacto del RAE en los
árbitros nacidos entre 1956 y 1974
es despreciable. ¿Y para el período
1980-1995? Para este período
tenemos más datos, en concreto
176.
Otra vez la muestra es pequeña
para tener datos 100 por ciento
concluyentes, pero ojo, es la
primera vez que vemos que el
último trimestre del año es mayor
que el primero. Concretamente, un
26 por ciento de los árbitros
nacidos entre 1980 y 1995 nacieron
entre octubre y diciembre, frente a
un 23 por ciento que lo hicieron
entre enero y marzo. Es decir, un 12
por ciento más.
Teniendo en cuenta que es para
un período de tiempo en el que
hemos dicho que existe más
competitividad, creo que no es
difícil imaginarse a ese niño
«pequeño» al que no eligen en el
equipo de fútbol, pero que aun así
le encanta el fútbol y decide entrar
por la «puerta de atrás», a través
del arbitraje.
Sin duda, no es mi objetivo
asustar a ningún padre con un hijo
nacido en diciembre y con sueños
de que éste sea el próximo Pelé; de
hecho, el objetivo de este capítulo
(como de todo el libro) es invitar al
lector a mirar la realidad que nos
rodea de una forma distinta y amena
y a que intente descubrir en ella el
impacto de hechos que a priori no
son relevantes.
Por eso, ahora me pongo un
poco serio al hablar del impacto
del RAE en el rendimiento escolar.
Éste es un campo en el que hay
estudios serios que confirman
consistentemente la existencia del
RAE.
Sin embargo, y ya que se
publicó recientemente el último
Informe PISA, concretamente el del
año 2012 con datos para los niños
nacidos en 1996, vamos a ver qué
encontramos.
El Informe del Programa
Internacional para la Evaluación
de Estudiantes (más conocido
como Informe PISA) «se basa en el
análisis del rendimiento de
estudiantes a partir de unos
exámenes que se realizan cada tres
años en varios países con el fin de
determinar
la
valoración
internacional de los alumnos».[13]
Hemos trabajado con los datos
públicos del Informe PISA 2012,
de
nuevo
centrándonos
exclusivamente en niños varones
nacidos en España. Concretamente,
hemos analizado el número de
niños nacidos por mes que
responden que han repetido algún
curso en primaria o en secundaria.
En
este
caso,
desestacionalizamos con los datos
de
nacimiento
del
INE
exclusivamente para 1996, que
curiosamente, es un año bisiesto. Y
por cierto, ojo de nuevo al mes de
agosto. ¿No nacen niños en agosto,
o es que no trabaja ningún
ginecólogo en España en agosto?
Quizás objeto de análisis para el
futuro.
Miramos primero qué niños
responden que han repetido en
alguna ocasión un curso en primaria
o secundaria. Nos salen algo más
de 4.000 niños, y ésta es su
distribución por meses.
Asusta un poco, ¿no? El 27 por
ciento de ellos han nacido en el
último trimestre del año, frente a un
22 por ciento que lo han hecho en el
primero. Así que podemos decir
que los niños que no jugaban en el
primer equipo del colegio, no se
dedicaban a estudiar más. Más bien
al contrario. De hecho, sería justo
decir que este efecto debería ser
más acusado si nos fijamos sólo en
los que han repetido en Primaria.
Éste es el gráfico.
Efectivamente, la tendencia es
muchísimo más acusada. En este
caso tenemos un 31 por ciento de
repetidores nacidos en el último
trimestre, frente a un 19 por ciento
nacidos en el primero.
Como ya hemos dicho, el
impacto del RAE se suaviza con el
paso de los años, y como vemos, no
se limita a las actividades físicas.
Es fácil también imaginar que un
niño nacido el 31 de diciembre, y
por tanto un año menor que uno
nacido el 1 de enero, tendrá más
dificultades
en
pasar
las
evaluaciones estándar en los
diferentes cursos del colegio
simplemente
porque
es
relativamente más pequeño.
Viendo
esto,
decidimos
explorar si estos resultados tenían
un impacto importante más
adelante, en la universidad. Por
eso, nos pusimos como objetivo ver
si el impacto del RAE en los
primeros años de educación se
arrastraba y si se veía en los
estudios
universitarios
más
exigentes. Hemos tenido la enorme
suerte de que la EUIT Aeronáutica
de Madrid nos ha permitido
gentilmente
acceder
a
la
información. Hemos tenido acceso
a la fecha de nacimiento de casi
1.300 alumnos (varones) de la
escuela desde 1980. Y antes de que
nadie se escandalice, «todos» los
datos que hemos manejado han sido
anonimizados; sólo hemos tenido
acceso a la fecha de nacimiento.
Pues bien, por un lado podríamos
pensar que el sesgo que el RAE
introduce en los primeros años de
educación impactará fuertemente a
los alumnos que acceden a la EUIT,
que suele tener una de las notas de
acceso más altas de España, y por
lo tanto veremos un peso importante
de alumnos nacidos en el primer
trimestre del año. O, al contrario,
podríamos pensar que los niños que
no han estado entrenando duro por
estar en los primeros equipos de
fútbol han tenido más tiempo para
estudiar y sacar mejores notas, y
por lo tanto podríamos ver una
mayor presencia de alumnos
nacidos a finales de año o bien una
suma de todas estas cosas, con lo
que, como también hemos visto, el
impacto del RAE tendería a
desaparecer con el paso de los
años.
Pues aunque hay un 12 por
ciento más de alumnos que nacen en
el primer trimestre del año, parece
que el impacto del RAE se ha
suavizado mucho.
Uno de los objetivos que nos
pusimos cuando empezamos a
pensar en este capítulo era el de ver
si éramos capaces de encontrar una
actividad en la que hubiera una
presencia significativamente mayor
de nacidos a finales de año. Es
decir, la actividad a la que se
dedican mayoritariamente los niños
que no son elegidos para los
equipos A de fútbol. Y, por
supuesto, la primera que nos vino a
la cabeza fueron los videojuegos.
¿Qué puede hacer un niño al que no
eligen para los mejores equipos de
fútbol pero que aun así tiene una
habilidad por encima de la media?
Pues
hacerse
jugador
de
videojuegos profesional.
Así que hablamos con la Liga
de Videojuegos Profesional (LVP),
una de las ligas más importantes en
el ámbito español y europeo, y muy
amablemente nos cedieron la fecha
de nacimiento de los mejores
jugadores de sus diferentes ligas.
Para mantener la consistencia, y
teniendo en cuenta que todos ellos
son muy jóvenes, nos fijamos sólo
en los nacidos entre 1980 y 1995, y
acabamos con casi 1.000 jugadores,
lo cual no está mal. Así que, ¿se
dedicarán esos niños relegados al
banquillo de los equipos de fútbol a
jugar de forma profesional a los
videojuegos?
Pues parece que no. Sí que es
verdad que el mes de diciembre es
el mayor, pero hay una distribución
muy similar por trimestres. Lo cual
de todas formas nos dice una cosa
muy interesante: no existe impacto
RAE
entre
los
jugadores
profesionales de videojuegos, es
decir, es un sistema mucho más
justo con los niños que el de los
deportes offline, si me lo permites.
Recuerdo que de muy pequeño
(quizás en 6.° o 7.° de EGB) quise
montar con otros niños en el
colegio un club de videojuegos (una
de las principales discusiones que
tuvimos fue si para Spectrum o
Comodore). La idea era que por
una suscripción compraríamos
juegos
que
luego
estarían
disponibles para los socios. Fíjate,
hace treinta años estaba poniendo
las bases de la economía
colaborativa. Pues bien, ese
recuerdo me llevó a otra pregunta:
esos niños con más tiempo porque
no entrenaban con los mejores
equipos, ¿utilizaron ese tiempo para
emprender o al menos para
desarrollar
sus
aptitudes
emprendedoras?
Para esto, nos dirigimos a AJE
Madrid, y de nuevo muy
amablemente nos pasaron las fechas
de nacimiento de sus asociados.
Aquí sí que tenemos datos para los
dos períodos (1956-1974 y 19801995), pero las muestras son
menores (unos 250 datos por serie).
Empecemos con la serie 1956-
1974, y ya directamente la
colocamos por «año» según la
Federación de Fútbol de aquella
época.
Bueno, no es que sea muy
exagerado, pero aun teniendo en
cuenta la muestra tan pequeña,
podemos ver que el «último»
trimestre del año es un 7 por ciento
mayor que el primero.
Dato, por cierto, que se repite
si miramos la serie de 1980 a 1995,
donde volvemos a ver un 7 por
ciento más en el último trimestre
(real) del año. Esto es muy
interesante; obviamente, no vemos
un peso tan grande como en el
mundo del fútbol, pero sí podemos,
casi queremos, ver que en una
proporción mayor los niños de
finales de año, a los que
«rechazan» en los equipos de
fútbol, se dedican a emprender.
Esto nos llevó a pensar: además
de emprender, ¿se dedicarán, por
ejemplo, al arte? Es decir, ya que
en el colegio no los elegían para
jugar, ¿decidieron apuntarse al
grupo de teatro del colegio?
Por eso nos fuimos a la Unión
de Actores, que de nuevo muy
amablemente nos proporcionó los
datos para intentar averiguarlo. De
hecho, aquí volvemos a tener una
muestra importante: casi 1.000
actores nacidos entre 1980 y 1995,
y más de 2.700 para los años 19561974. Empezando por estos
últimos, y colocándolos en el «año
futbolero»:
No vemos nada, la verdad. Si
acaso, sorprende el enorme peso de
enero. Aunque tenemos que
reconocer que, mirando uno a uno
los datos, pensamos que muchos
actores mienten sobre su edad, al
menos sobre su fecha de
nacimiento, ya que hay un número
exagerado de actores que dicen que
su fecha de nacimiento es el día 1
de enero. ¿Y qué pasa con los
nacidos entre 1980 y 1995?
Pues nos encontramos algo
parecido, y la verdad es que nos
sorprende. Encontramos que hay un
24 por ciento más de actores
nacidos en el primer trimestre del
año, por lo que se podría decir que
aquí también existe el RAE, y no en
el sentido que habíamos esperado a
priori. También es verdad que
vemos un número especialmente
alto (no tanto como en la otra serie)
de nacimientos declarados el 1 de
enero, lo que sin duda desvirtúa los
datos. Lo cierto es que no nos
esperábamos encontrar esto, y la
única explicación que se nos ocurre
es que a la hora de anunciar
castings, sobre todo para niños, se
establezca como condición el haber
nacido en un determinado año, y al
final los productores y directores
tiendan a elegir a los niños
relativamente más mayores. Sin
embargo, no conocemos tanto este
mundillo como para aventurarnos
con más teorías, pero desde luego
los datos nos han sorprendido.
¿Y a qué otras actividades se
podrían dedicar esos «niños
pequeños»? ¿En qué actividad no
tiene tanta importancia el tamaño
físico y pueden realizar los niños
desde pequeños, y sobre todo, de la
que podamos disponer de datos de
nacimiento? ¡El ajedrez! Así que
nos pusimos manos a la obra y
conseguimos que de forma muy
amable los administradores de
Chess-DB nos permitieran acceder
a las fechas de nacimiento de los
jugadores españoles de su base de
datos.
Las muestras no están mal, 200
para la serie 1980-1995 y más de
700 para la serie 1956-1974, ya
que sólo recogen los datos de los
jugadores de ajedrez con mayor
ELO del país. Vamos a empezar con
la serie 1980-1995 en este caso.
La verdad es que aunque en el
ajedrez el tamaño relativo físico no
tiene
ninguna
importancia,
obviamente la madurez intelectual
relativa sí la tiene. Y como ya
vimos en el caso de PISA, existe
también un impacto RAE muy
acusado relacionado con la
capacidad intelectual, la «edad
mental» relativa si me lo permites.
Pero lo cierto es que no me
esperaba que fuera tan marcado. El
número de jugadores de ajedrez
nacidos en el primer trimestre del
año es más de dos veces el de los
nacidos en el último. Un 31 por
ciento frente a un 14 por ciento.
Pero,
curiosamente,
los
números se dan un poco la vuelta
para la serie que va desde 1956
hasta 1974. Aunque más que decir
que se dan la vuelta, deberíamos
decir que se equilibran. Y es que es
normal pensar que en un deporte
como el ajedrez, en el que las
carreras de los jugadores son
mucho más largas que en deportes
físicos, a largo plazo el mes de
nacimiento es irrelevante. Quedaría
por ver si, en un futuro, el impacto
tan grande que hemos visto del
RAE en los ajedrecistas más
jóvenes termina por desaparecer
totalmente. Quizás una idea para la
reedición de este libro en treinta
años...
Y nos vamos acercando al final
sin ser capaces de encontrar a qué
se dedican los «niños pequeños».
Intenté recordar qué hacían los
niños menos populares en el
colegio
porque
no
eran
especialmente buenos en el fútbol o
el baloncesto. ¿Qué hacían además
de ser promotores de clubes de
intercambio
de
videojuegos?
Enseguida lo recordé: ¡eran los
delegados de curso!
¿Y a qué se han podido dedicar
después los delegados de curso?
¿Cómo evoluciona un delegado de
curso en el ámbito profesional?
Pues curiosamente la respuesta
volvía a estar en mi colegio, y es
que el delegado de curso durante
muchos años en mi clase terminó
siendo alcalde... ¡Así que políticos!
Y seguramente sabrás que no
somos un país muy transparente en
cuanto a la información pública. No
se me ocurría cómo encontrar
información sobre la fecha de
nacimiento de nuestros políticos. La
que había estaba muy diseminada, y
resultaba muy difícil conseguirla en
un formato que nos permitiera
trabajar. Finalmente, me dirigí a lo
que podría ser la primera división
de la política, nuestro Congreso.
Uno podría pensar que el Congreso
debería de tener la fecha de
nacimiento de todos los diputados
de la historia. Pues no, tienen
algunas; de hecho, tienen algunas en
la web, pero por algún motivo que
se me escapa, no las tienen en un
solo fichero, y me invitaron a que
yo recogiera a mano todos los datos
que había en la web... Sin
comentarios.
Entonces me dirigí al Senado.
Siguiendo
con
la
metáfora
futbolística, la verdad es que no
sabría qué división es, pero en todo
caso es una información muy
interesante. Y ahí sí, de forma muy
amable me hicieron llegar el listado
con las fechas de nacimiento de
todos los senadores de la historia.
¿Veremos el efecto del RAE
representado en los delegados de
clase convertidos en senadores?
La verdad es que incluso la
banda entre 1956 y 1974 es una
banda muy «joven» para nuestros
senadores. De los 1.800 senadores
en la base de datos, no son ni 500
los que nacieron entre 1956 y 1974.
Así se distribuyen cuando los
ponemos en el «año futbolero»:
Ya hemos visto que el RAE
tiende a desaparecer con los años,
pero a pesar de eso, aquí tenemos
que hay casi un 21 por ciento más
de senadores que han nacido en el
«último» trimestre
del
año
comparado con los tres «primeros»
meses. Es decir, los niños
relativamente más pequeños en la
época en la que el corte de las
categorías de fútbol se hacía el 1 de
agosto, los nacidos en julio, están
proporcionalmente
más
representados en el Senado.
Quiero imaginarme a esos
delegados de clase a los que nadie
quería en su equipo de fútbol
evolucionando hasta ser senadores
para explicar este gráfico y poder
decir que los senadores (y por
ende, nuestros políticos) no la
saben meter (la pelota claro), pero
seguramente es pedir demasiado a
los números, aunque escribo esto
con una cierta sonrisa de malicia.
Nunca ha sido el objetivo de
este capítulo el hacer un estudio en
detalle y riguroso del RAE. Y, por
lo tanto, no es nuestra intención
proponer o hablar de las diferentes
ideas para mitigar un poco su
efecto, que, como en el caso de los
estudios, puede tener sin duda
aspectos muy negativos. Los
profesionales de esto abogan por
agrupar a los niños por tramos más
pequeños, o incluso en el mundo
del deporte, establecer cuotas o
sistemas de handicap similares al
golf.
Sin embargo, como padre de
niños aún muy pequeños, si hay una
cosa con la que me quedo después
de haber escrito esto es que en la
base
del
RAE
están
la
competitividad, las notas, las
puntuaciones, las clasificaciones...
Y me gustaría que este humilde
capítulo de este libro nos hiciera
reflexionar sobre las exigencias que
ponemos a nuestros pequeños desde
demasiado pronto. Hemos visto
que, a largo plazo, el mes de
nacimiento es irrelevante. Pero a mí
me preocupa el efecto que puede
tener en mis hijos el que hagamos
del mes de nacimiento algo
relevante cuando ellos están en
plena formación, y cuando la fecha
de nacimiento es una constante
sobre la que no tenemos influencia.
7
El análisis de datos, la
profesión más sexy del siglo
XXI
JAVIER GARCÍA Y ANTONIO ÁLVAREZ
PINILLA
Duda de los datos hasta que los
datos no dejen lugar a dudas.
HENRI P OINCARÉ, polímata
(matemático, físico, científico
teórico y filósofo de la ciencia)
Ya en el año 2009 Hal Varian,
economista jefe de Google y uno de
los grandes microeconomistas
vivos, afirmaba en una fascinante
entrevista en el The Wall Street
Journal que el «trabajo sexy» de
los diez años siguientes sería la
estadística. A los tres años, en
2012, la reputada revista Harvard
Business Review confirmaba las
palabras de Varian, sentenciando
que ser «científico de datos» era el
trabajo más sexy del siglo XXI.[14]
Desde las declaraciones de
Varian, el interés por todo lo
relacionado con la estadística ha
ido aumentando, tanto a escala
individual
(«¿Cómo
puedo
formarme para trabajar como data
scientist?») como en el ámbito
social, en la medida en que lo que
se conoce como el Big Data —es
decir, la disponibilidad de grandes
cantidades de datos— promete ser
la siguiente gran revolución
productiva.
No obstante, y a pesar del
enorme entusiasmo que nos genera
este apasionante tema, nos gustaría
dar una visión mucho más apegada
a la realidad y, como es el espíritu
de este libro, poner énfasis en todos
los aspectos que nos hagan dudar
como método para hacernos pensar
desde otros prismas. El objetivo de
este capítulo es, precisamente,
adentrarnos en el mundo de los
datos, poner ejemplos y dar
motivos de por qué son algo así
como el «petróleo del siglo XXI».
También creemos que aún nos
queda mucho para que los datos y
todo lo que podemos hacer con
ellos lideren en el corto plazo una
verdadera revolución industrial, y,
sobre todo, pretendemos aportar
algunas ideas para reflexionar
respecto a qué tenemos que hacer
como sociedad para aprovechar al
máximo esta ola de riqueza que
viene.
Análisis versus experiencia
En muchas ocasiones, la toma de
decisiones importantes se basa en
la experiencia o en la intuición más
que en el análisis. Éste es el tema
central que trata Ian Ayres, profesor
de la Universidad de Yale, en un
magnífico libro, Super Crunchers,
en el que recoge un buen número de
casos en los que el análisis de
datos se abre camino en campos
donde su presencia era muy
reducida. Por ejemplo, el libro
comienza con la historia de un
economista de la Universidad de
Princeton, Orley Ashenfelter, que,
llevado por su afición al vino, se
lanzó a predecir la calidad que
tendrían ciertos vinos de Borgoña
en el mercado. Sus predicciones
empezaron a superar a las de
conocidos catadores que sólo
basaban sus valoraciones en la
experiencia acumulada por los
muchos años a sus espaldas. Lo
más sorprendente del caso es que
Aschenfelter
realizaba
sus
predicciones antes de que el vino
saliera al mercado, ya que se
basaban en una sencilla ecuación
que tenía en cuenta, entre otras
cosas, las condiciones climáticas
de la zona donde se producía el
vino.
Éste es uno de los muchos
ejemplos que Ayres comenta en su
obra, con el objetivo de destacar el
papel clave que puede desempeñar
el análisis de datos en casi todos
los sectores de actividad. Ayres es
bastante convincente sobre la
importancia de las decisiones
basadas en datos (data-driven
decision
making)
escogiendo
ejemplos en el deporte, la
medicina, la educación o el
marketing. En un principio, el libro
iba a denominarse «El fin de la
intuición», aunque en última
instancia decidió cambiarlo debido
a los resultados de un ensayo
realizado en Google, en el que los
internautas mostraron una mayor
preferencia por «Super Crunchers».
Otro de los casos donde se
enfrenta el análisis con la
experiencia es el del deporte. Hay
un caso bastante conocido, el del
equipo de béisbol de los Oakland
Athletics, que empezó a utilizar el
análisis en un mundo en el que
había dominado la experiencia.
Esta interesante historia ha sido
llevada al cine con la película
Moneyball: Rompiendo las reglas,
basada en la historia real de Billy
Beane (Brad Pitt), que, como dice
la propia sinopsis de la película, es
«una prometedora estrella del
béisbol que, incitado por el fracaso
de no haber demostrado en el
campo todo lo que se esperaba de
él, enfocó toda su naturaleza
competitiva hacia el área de la
dirección de equipos. Al comienzo
de la temporada 2002, Billy se
enfrenta a una situación deprimente:
su modesto equipo, los Oakland
Athletics, ha perdido, una vez más,
a sus mejores jugadores a manos de
los clubes grandes, y encima tiene
que reconstruirlo con sólo un tercio
del presupuesto».
Ante este comienzo se puede
pensar: ¿estamos otra vez ante la
típica película de renegados con un
gran líder que les hace triunfar y
escribir la historia? ¿Estamos ante
una peli de motivación, trabajo
duro y valentía? En cierta forma, sí;
es una película que usa a
renegados,
profesionales
del
béisbol que no parece que sirvan
para mucho, y que los coloca en una
posición de liderazgo y de respeto
nunca antes logrado por el equipo.
Pero la esencia de la película para
unos economistas obsesionados con
la estrategia empresarial y los datos
como nosotros no es ésa.
Moneyball tiene otros ingredientes
que la hacen real y fabulosa para
ser considerada una referencia en
las escuelas de: estadística;
negociación y comunicación, y
estrategia y management. ¿Por qué?
Trataremos de explicarnos sin
desvelar muchos detalles para no
aguar la fiesta a quien no la haya
visto.
Pensemos en un deporte (y se
puede sustituir deporte por empresa
o industria) de gran tradición, que
apasiona a mucha gente, donde hay
filias y fobias acerca de los
jugadores. Hay fans, audiencia y
seguidores, y todo tiene mucho de
misterio y de pasión (emoción). De
la misma forma, hay equipos con
mucho dinero y otros relativamente
pobres. Fichar «a los mejores» es
el sueño de los equipos, pero
también son los que «más dinero
cuestan». Hasta aquí no hay
novedad: a más demanda, mayor
precio. Ahora bien, ¿obtiene
siempre el equipo con más dinero
los mejores jugadores? ¿Cómo se
define «mejor»?
Si sumásemos los sueldos de
los jugadores que componían el
equipo de la Roja que ganó el
Mundial de Fútbol de 2010 en
Sudáfrica, ¿sería el equipo más
caro de Europa o del mundo? La
respuesta es «no». ¿Tener más
dinero no implica poder comprar
más talento y, con ello, crear el
mejor equipo y ganar? La respuesta,
obviamente, es no; puedes comprar
talento y «no» ganar. Pero para
justificarla
solemos
utilizar
argumentos del tipo «el fútbol es
así», «es cuestión de suerte», «una
mala tarde la tiene cualquiera»,
porque no basta con los mejores,
sino que éstos tienen que funcionar
bien como equipo y canalizar su
talento hacia los buenos resultados.
Y, efectivamente, éstas son
grandes razones para explicar por
qué el mejor equipo de béisbol,
fútbol o baloncesto o lo que
queramos no es necesariamente el
mejor pagado. Hay muchos factores
humanos, impredecibles y difíciles
de explicar, que influyen en los
resultados de un equipo deportivo
(repetimos, se puede poner aquí la
palabra «empresa»). Basta que una
noche haya dormido mal para que
ese portero sea un coladero o tal
bateador no dé ni una.
Por eso es muy típico, en este
contexto, encontrarte con voces que
te dicen «ésta es la forma de hacer
las cosas aquí» o, mejor, «la-única-
forma-de-hacer-las-cosas». ¿Cuál
era la única forma de hacer las
cosas hace unas décadas en el
béisbol? Moneyball relata dicha
época, centrándose en el papel de
los «ojeadores». Gente experta que
ha visto miles de partidos y de
jugadores, que sabe quién es bueno
y quién malo por su intuición, por
su olfato. ¿Necesitan medir algo?
«¿Para qué? Se sabe por la
experiencia», suele ser la respuesta
típica. Los grandes jugadores tienen
liderazgo, destacan en el campo de
juego como si fueran pepitas de
oro. Todo el mundo confía en ellos,
los adoran, a lo cual se añaden el
buen dominio de la técnica y otra
serie de factores que los ojeadores
perciben. Estos líderes son el
ingrediente indispensable en el
millonario mercado de fichajes.
En cambio, si no tienes dinero
para pagar a once estrellas para un
equipo de fútbol, ¿qué haces? Éste
es el caso del gerente del equipo al
que da vida Brad Pitt, el cual, casi
por casualidad, encuentra a un friki
de libro, un apasionado del béisbol
y obsesionado con medir hasta el
último detalle de cada jugador. Ha
estudiado en una de las mejores
universidades americanas y trabaja
en un equipo recopilando datos,
aunque nadie le presta demasiada
atención.
Pero Brad Pitt entabla cierta
relación con él y lo ficha. ¿Se
puede hacer un equipo «perfecto»
con el dinero que tenemos
simulándolo por ordenador? Si
mides los indicadores adecuados,
posiblemente sí. Buscas puesto por
puesto qué necesitas, las funciones
que tienen que cumplir, y tratas de
comprender cuáles son los factores
que te llevan a ganar partidos.
Después buscas esas características
en la base de datos donde tienes
estudiados a muchos jugadores
(¡cuantos más, mejor!), y en función
de esos elementos podrás elegir.
¿Dónde está la gracia? ¿Por qué
los datos pueden ayudar tanto o más
que un ojeador? Los ojeadores son
personas, tienen prejuicios, gustos,
y la intuición como única guía
puede fallar, por ejemplo pagando
un precio demasiado elevado por
algún jugador cuyas funciones
podían ser replicadas por otros de
menor coste. De hecho, lo que el
chico demostraba con sus datos es
que había jugadores que nadie los
quería porque estéticamente no eran
adecuados (una forma «rara» de
lanzar, por ejemplo), pero que, en
cambio, cumplían perfectamente sus
funciones (lanzar muy bien, incluso
mejor que ciertas «estrellas»). Si
no tienes presupuesto, la clave es
encontrar y fichar a estos
«renegados», jugadores que, por
diversas razones, no cumplían con
los criterios de los ojeadores pero
que, en realidad, tenían buenos
datos y, por lo tanto, podrían ser
adecuados para el objetivo: ganar
partidos. Su precio de mercado
(fijado por los ojeadores de los
club, que determinaban quién era
deseado y caro o no deseado y
barato) eran relativamente bajos, y
sería factible crear un nuevo equipo
que, sobre el papel, podría tener
buenos resultados.
Resulta muy interesante ver
cómo se desarrolla la película bajo
esta idea, en la que el resto de la
profesión considera unos locos
tanto a la persona obsesionada por
los datos como al gerente que le
hace caso. Resulta curioso, pero es
algo que suele repetirse: a los
primeros que rompen las reglas se
les suele tachar de locos. Cuando
en toda la industria (el béisbol, en
este caso) nadie mide, tener una
estrategia que implique medir y
mejorar puede romper las reglas de
juego y crear diferencias muy
notables. Y esto fue lo que ocurrió.
Ahora, cambiemos de canal y
veamos un poco de otra película,
también sobre la polémica entre
análisis y experiencia en el béisbol.
Se trata de Golpe de efecto, con el
viejo, gruñón y genial Clint
Eastwood. A Clint le traen sin
cuidado los ordenadores, las bases
de datos y todos esos cacharros
tecnológicos para tomar decisiones
sobre qué jugador tiene o no
talento. Dos
películas, dos
extremos, dos formas de ver las
cosas. Merece la pena verlas
simultáneamente y quedarse con la
mezcla de los puntos de vista que
transmiten sobre la gestión
cuantitativa de datos versus la
gestión discrecional humana.
La época que refleja Moneyball
es el mundo donde los ojeadores
eran los amos, de miles de tipos
que miran y observan, que se fijan
casi en las mismas cosas. Existe un
público
entregado,
unos
comentaristas
—periodistas—
especializados y que influyen en la
opinión del público y de los
propios ojeadores. En este
mercado, unas pocas estrellas se
llevan los contratos millonarios y
todos los clubes compiten por unos
escasos jugadores. En ese mundo,
surge una forma de diferenciarse,
medir. Cuantificar resultados y no
fijarse tanto en las personas. ¿Qué
queremos comprar, jugadores o
resultados? Si queremos resultados,
midamos ciertas variables que nos
aseguren ganar partidos. Tras una
recopilación de datos y análisis de
diversas variables, el ranking de
mejores jugadores «para la
máquina» no necesariamente es
igual a los mejores jugadores «para
los ojeadores y periodistas».
Si
eliges
las
variables
adecuadas, es decir, qué medir; si
tienes buenos datos y un modelo
adecuado, y además tu competencia
no hace lo que tú estás planteando,
surge un mar de oportunidades.
Puedes detectar antes que nadie el
talento y puedes hacerte con
jugadores «anónimos» con gran
potencial que te permiten dos
cosas: 1) ayudar a tu equipo a
obtener mejores resultados, y 2)
hacer inversiones muy rentables,
porque, si efectivamente un fichaje
es un talento, con el tiempo se lo
disputarán y podrás obtener un gran
precio. Y ésa es la esencia de
Moneyball.
En un mundo sin análisis de
datos, de pura intuición y gran
atención mediática existe una alta
probabilidad de pasar por alto el
talento potencial de los jugadores.
Y eso en sí mismo es una veta para
innovar y crecer como club. Billy
Beane rompió las reglas del juego
introduciendo una nueva forma de
hacer las cosas.
Y es ahí donde se conectan las
dos películas. ¿Qué pasa cuando no
hay un ojeador sin una base de
datos y sin ordenadores? ¿Qué
ocurre cuando todos tienen
prácticamente los mismos datos y
contratan a las mismas empresas
para que se los suministren? Golpe
de efecto te enseña que es muy
difícil sobrevivir en un mercado
con una innovación fácil de copiar
por tu competencia. El primero en
aplicar ordenadores y crear bases
de datos genera una ventaja —a
veces muy grande— frente a sus
rivales..., hasta que éstos se hacen
con las mismas bases de datos y los
mismos programas de ordenadores
(incluso
mejorándolos).
Las
ventajas iniciales se van limando y
los clubes «cada vez se parecen
más».
Por lo tanto, mal negocio si
pretendes diferenciarte por tener un
software, una nave, una máquina o
un centro logístico. Si funciona
pero es fácil de copiar, tu
competencia acabará por contratar
a las mismas empresas que te
vendieron esas «singularidades» o
te analizará con bisturí hasta lograr
neutralizar esa innovación. Se
necesita algo más.
Moneyball se basa en una
historia real que transcurre en
2001. Golpe de efecto muestra algo
que
está
ocurriendo
hoy.
Negociaciones
muy
profesionalizadas, elevado dominio
de todos los datos de todos los
jugadores de béisbol de todas las
ligas... y por todos los clubes. Y es
aquí donde se muestra a un Clint
Eastwood y a un puñado de viejos
más
que
siguen
yendo
metódicamente a los partidos de las
ligas menores para detectar
«potenciales estrellas». Son los
«raros» y los «clásicos» en un
mercado donde casi todo son
«ojeadores de despacho». Sin pisar
un campo de béisbol, pueden
decidir qué contratar y qué no.
El dilema ocurre cuando la base
de datos dice una cosa y el «viejo
gruñón» otra. Los datos frente a la
experiencia.
Una
experiencia
basada en el meticuloso análisis de
detalles
muy
difíciles
de
cuantificar, como el sonido de la
bola cuando se lanza o golpea, o
cómo coge el bate un jugador o
cómo coloca su cintura. ¿Cómo
medir eso? Hay un margen entre el
dato y la medición del verdadero
potencial. Ese margen se nutre de
un intangible muy difícil de medir,
que requiere de personas altamente
capacitadas para estimarlo. Por
eso, hoy en día, algunas de las
modernas técnicas de análisis de
datos incorporan la experiencia de
los agentes bajo la denominación
de «conocimiento experto».
Lo interesante de ambas
películas es que aumentan el foco
de la atención en dos extremos de
los cuales podemos extraer ideas
interesantes, y que nos permiten
centrar el debate que queremos
abrir en este capítulo: ¿cuál es la
importancia real del análisis de
datos y qué hay que hacer para
sacarle el máximo potencial? Aquí,
por lo tanto, están las ideas tras la
salida del cine de estos dos
economistas:
1.
¿Con medir es suficiente?
La respuesta es no. Había
que hacer funcionar el
equipo de Brad Pitt elegido
según los datos (que
maximiza unas funciones
respecto a un presupuesto
máximo). Canalizar su
talento hacia un objetivo
concreto, que es ganar y
hacer bien el trabajo. Y eso
no es fácil. Por varios
motivos: los que habían
sido
«elegidos»
eran
renegados, gente en la que
nadie creía, y darles
confianza y motivación no
es fácil. Éste es un área en
la que hay que trabajar.
2. No sólo hay que medir y
tener datos, hay que generar
conocimiento sobre ellos e
interiorizarlos.
En
Moneyball, los jugadores
sólo empezaron a ver su
potencial
cuando
les
explicaban sus números,
cuando les hacían ver cómo
mejoraban cuando hacían
ciertas cosas y qué era lo
que les hacía tener malos
resultados. Cuando lo ves,
lo experimentas, mides y
conoces
tu
evolución,
empiezas a canalizar el
talento que tienes dentro. Y
eso
se
hace
con
comunicación
y
comunicación..., y más
comunicación después... a
partir de buenos datos.
3. Medir no es igual a tener
buenos datos. Es tan
importante, si no más, saber
qué tienes que medir que el
acto de medir. Tendemos a
destinar mucha más energía
y recursos para tener el
mejor programa informático
(tecnología), que pueda
medirlo todo, que a saber
qué queremos y para qué lo
queremos medir. Y esto
suele traer consecuencias
(económicas) serias.
4. Obtener datos donde no los
había es un gran paso, pero
sólo es eso, un paso. Uno de
los fallos de muchas
empresas —que cotejamos
en nuestra vida profesional
— es que desconocen la
mayoría de sus métricas. En
la mayoría de las ocasiones
se producen estas dos
situaciones: o medimos
mucho, pero medimos mal,
o no medimos, y no
sabemos qué hacemos y con
qué impacto. Ahora bien,
medir como única estrategia
es algo que dura poco
tiempo. De hecho, en
Moneyball se explica cómo
Billy Beane rompió las
reglas e hizo historia. Pero
también se muestra cómo
rápidamente todo el sector
pasó a tratar de hacer lo
mismo. En el momento en
que añades la potencia
económica de los líderes a
la nueva tecnología (es
decir, cuando adoptan las
innovaciones
de
los
pequeños) puede ocurrir, de
hecho ocurrió, que sus
posibilidades mejoren y las
brechas
entre
equipos
aumenten.
5.
Grandes decisiones bien
fundamentadas con datos no
necesariamente tienen por
qué ser las mejores o las
que más éxito generen. La
realidad es que no todo lo
importante para decidir se
puede medir.
6.
La experiencia y el alto
entrenamiento
generan
capacidades
muy
desarrolladas que crean una
especie de «olfato», una
intuición rica en detalles
muy valiosa para decidir.
Como se afirma en el libro
de Miguel Illescas Jaque
mate, este entrenamiento es
precisamente una de las
fortalezas de los maestros
del ajedrez.
7. Las diferencias duraderas
se logran gracias a lo que
no se puede copiar y
alimentar día a día. Y eso
suele estar vinculado con lo
que hacen las personas,
cómo aprenden y cómo
aplican sus conocimientos.
Normalmente,
esto
va
mucho más allá de un
sueldo. Requiere de otros
componentes cada vez más
importantes,
como
motivación,
pasión,
esfuerzo,
foco
y
especialización y capacidad
continuada de aprendizaje.
Nada de esto se resuelve tan
sólo con un programa
informático y unas bases de
datos o unas hojas de Excel.
La tecnología es un gran
vehículo para lograr metas cada vez
más complejas e importantes. Pero
la productividad de una tecnología
y sus posibilidades no es algo que
esté dado, se tiene que expandir con
el desarrollo de las diversas
capacidades humanas. Centrémonos
ahí, cultivemos valores, formación,
propósitos y una motivación para
progresar y mejorar... Después
habrá una tecnología que te ayudará
a conseguirlo o a hacerte la vida
más fácil... Y si no la hay, ¡se
inventa! Estas reflexiones se
abordan con mucho más detalle en
otro capítulo de este libro, escrito
por Xavier Marcet y Javier García.
En definitiva, para centrar el
debate sobre la potencia del
análisis de datos hay que empezar
por la cautela, que luego
relajaremos
con
ejemplos
realmente atractivos. Esa cautela
reside en que es muy difícil
diferenciarse en un mercado
mediante algo que puede ser
copiado con rapidez por los
competidores, como es el uso de
una técnica, una máquina o un
sistema logístico. La diferencia
dura el tiempo necesario hasta que
te pueden copiar. En el caso del
béisbol,
incluso
emergieron
empresas de consultoría, programas
de software y expertos que
permitían tener acceso a esas
técnicas novedosas de forma rápida
y, cada vez, a menor precio.
Por lo tanto, la lección es que
ciertas cosas, cuando las haces el
primero, te permiten crear grandes
diferencias respecto a los demás,
pero esas diferencias no serán
eternas. Algunas empresas no
aceptan esta circunstancia y piensan
que por el hecho de haber creado
diferencias en el pasado éstas van a
durar toda la vida. Para crear de
forma continua una diferencia se
necesita ser muy adaptable, tener
una gran orientación hacia el
cambio y una experimentación
constante en la frontera todavía no
explorada por otros. De la misma
manera, otra gran lección es que
una vez que estas novedades ya
están en el mercado, no puedes
dejar de implementarlas o, al
menos, sacarles el mismo provecho
que tu competencia. No te hará
mejor, pero, al menos, no te sacará
del mercado. Recolectar datos
donde nadie lo había hecho, pensar
en cómo usarlos, ayudar a tu
intuición a tomar decisiones,
romper las normas del juego
cuando nadie se atreve a ello y
luchar ante todo aquel que te dice
«esto nunca se hizo así» son
elementos
necesarios
para
reinventar nuestras empresas y
modelos de negocio.
Iker Casillas resumía en una
entrevista en El País la clave del
éxito de España tras ganar el
Mundial: «Somos como un Tetris,
todas las piezas encajan». Medir te
ayuda a detectar qué piezas son las
mejores. Hacer que todas encajen
para lograr un objetivo ya es fruto
de la maestría, el liderazgo y la
motivación, motivo por el cual
hablamos en detalle en otro
capítulo sobre estas cuestiones.
Las nuevas técnicas de análisis
Una de las razones por las que el
análisis de datos ha crecido en
popularidad se debe al desarrollo
en los últimos años de un buen
número de técnicas que han dotado
a la ciencia del análisis de datos de
unas capacidades enormes. Éste no
es el lugar para hablar en
profundidad de estas técnicas, pero
creemos conveniente dar unas
pinceladas de lo que está
sucediendo.
Un ejemplo de estas nuevas
técnicas son los denominados
algoritmos bioinspirados. Estos
algoritmos se basan en observar
algún fenómeno en la naturaleza que
tenga alguna propiedad interesante
desde el punto de vista matemático,
como el ejemplo de la swarm
optimization,
que
podríamos
traducir
libremente
como
«optimización de colonias». Una de
las técnicas más conocidas de este
tipo son los algoritmos de
hormigas. Esto suena bastante
extraño, porque la mayoría de la
gente desconoce que las hormigas
tienen
un
comportamiento
optimizador,
minimizando
la
distancia recorrida hasta la comida.
Las hormigas segregan unas
hormonas, las feromonas, que
tienen una intensidad mayor cuando
una hormiga ha encontrado comida
y regresa con ella al hormiguero.
Cuando una hormiga que está
buscando comida detecta una de
estas feromonas, intenta seguir el
rastro dejado por esa hormiga. Al
final, lo que sucede es que todas las
hormigas van a recoger alimento
siguiendo la misma ruta, y por eso
solemos ver esas hileras de
hormigas entre el hormiguero y una
fuente de comida. Pues bien, estos
algoritmos
de
hormigas,
desarrollados por el investigador
italiano Marco Dorigo, son muy
precisos para resolver problemas
complejos de optimización. Por
este motivo, cada vez son más
empleados, por ejemplo, para
trazar rutas logísticas complicadas.
Otro grupo de algoritmos que
pertenece a la familia de
bioinspirados son los algoritmos
genéticos. En este caso, el proceso
de la naturaleza que se intenta
imitar es el de la evolución de las
especies, en el sentido darwiniano
de la supervivencia de los mejores.
La idea que se pretende recoger en
el algoritmo es la de que las
especies
evolucionan
hacia
individuos con características
«mejores». ¿Por qué es deseable
imitar
matemáticamente
esa
evolución? El motivo, aunque es en
cierto modo un poco técnico, es lo
suficientemente importante como
para intentar resumirlo. Cuando
resolvemos un problema de
optimización, buscamos determinar
el valor objetivo de una o más
variables sobre las que podamos
actuar para obtener el valor
máximo o mínimo de otra variable
de interés. Un ejemplo sería la
búsqueda de la frecuencia óptima
de autobuses para maximizar el
número de pasajeros a transportar o
la dosis de pienso que permite
producir el litro de leche al mínimo
coste posible. El problema radica
en que en la mayor parte de las
funciones a optimizar existe más de
un óptimo. Si pensamos en términos
de máximos, habría más de un
máximo. Es como si buscásemos la
máxima altura en una cordillera de
montañas. Hay muchos picos, pero
sólo uno de ellos es el más alto,
que es el que buscamos. El
problema aparece porque la
inmensa mayoría de los algoritmos
que intentan localizar el máximo
global (el pico más alto) se paran
en el primer pico (máximo local)
que encuentran. Sin embargo, los
algoritmos modernos, como los
algoritmos
bioinspirados, son
capaces de encontrar el máximo
global, que es el que en realidad
nos interesa.
Podemos computar con palabras
Una de las ventajas de las nuevas
técnicas de análisis de datos es que
es posible usar palabras (lenguaje
natural)
dentro
de
algunos
algoritmos. Así, por ejemplo,
términos como «lejos» o «sabroso»
pueden emplearse sin necesidad de
ser transcritos a una escala
numérica, que es lo que se solía
hacer hasta el momento (y todavía
se hace). Estos avances tienen su
antecedente
en
un
artículo
publicado en 1965 por Lotfi Zadeh
en el que desarrollaba su teoría de
conjuntos difusos. La idea de Zadeh
es que hay grandes categorías de
elementos que no pueden ser
definidos con precisión. Por
ejemplo, mientras que el conjunto
de países europeos que tienen costa
marítima es un conjunto nítido
(crisp), si tenemos una cesta de
manzanas y pedimos a varias
personas que separen las manzanas
«grandes» nos encontraremos con
que seleccionan grupos distintos.
Eso es debido a que el término
«grande» es difuso (o borroso,
como se suele decir a veces).
Esta aportación de Zadeh ha
dado lugar al desarrollo de la
lógica difusa (fuzzy logic), una
disciplina que está a medio camino
entre las matemáticas y la
inteligencia artificial y que tiene
muchísimas aplicaciones en el
ámbito industrial. Un ejemplo que
nos ayudará a entender mejor la
relevancia del concepto tiene que
ver con la forma en que las
lavadoras
modernas
deciden
cambiar el agua. Si preguntamos a
una persona cómo cree que una
lavadora decide cuándo cambiar el
agua, probablemente nos conteste
que lo hace cada cierto tiempo
(fijado en función del programa
elegido).
Sin embargo,
las
lavadoras modernas cambian el
agua cuando piensan que el agua
está «sucia». ¿Cómo puede ser?
Decidir si algo está sucio es algo
en lo que a los humanos nos cuesta
ponernos de acuerdo, por lo que
parece casi imposible que una
máquina lo pueda hacer. Sin
embargo, no es tan difícil. Con un
sensor que mida la turbidez y un
algoritmo de lógica difusa que
permita introducir la noción de
«sucio», las máquinas toman esa
complicada decisión sin ningún
problema.
Un caso similar es el del
análisis de textos (text mining), en
el que algunas empresas como
Google han basado una buena parte
de su éxito. Las posibilidades que
tiene este campo son enormes.
Veámoslo con un ejemplo que raya
la ciencia ficción. Epagogix es una
empresa británica que ofrece sus
servicios a empresas del sector
cinematográfico para analizar la
rentabilidad de una película en
función del guion. Lo que hace esta
empresa es utilizar un algoritmo
(una red neuronal moderna) que le
permite predecir los ingresos por
taquilla de una película a partir de
las características del guion.
Cuando los directivos de la
empresa presentaron sus servicios a
un
importante
estudio
cinematográfico, éste les dio para
analizar los guiones de varias
películas que ya habían sido
producidas y cuyos ingresos se
conocían. Los resultados de las
predicciones de Epagogix fueron
bastante
buenos.
Lo
más
sorprendente e interesante de la
tecnología de Epagogix es que
analiza el guion sin saber quiénes
van a ser el director o los actores
protagonistas. Éste es un buen
ejemplo de un fenómeno que está
cobrando dimensiones importantes:
la capacidad del análisis de datos
para crear nuevos negocios.
El poderoso Google y el Big Data
Google Flu Trends, el aclamado
algoritmo de Google especializado
en detectar los brotes de gripe por
todo el mundo, ha fallado este año
estrepitosamente. La iniciativa
había echado a andar hace cinco
años, cuando investigadores de
Google y del Centro para el Control
y Prevención de Enfermedades
unieron sus fuerzas en un artículo
finalmente publicado en la revista
Nature.
El artículo mostraba cómo una
agregación de las búsquedas de los
usuarios acerca de la gripe o de sus
síntomas era capaz de predecir en
tiempo real los brotes de dicha
enfermedad con mayor rapidez y
precisión que el propio centro
público de control de la misma.
Google
Flu
Trends
había
funcionado a la perfección durante
un tiempo, pero este último
invierno la herramienta pronosticó
un grave brote de gripe que nunca
se llegó a dar. Los datos públicos
recopilados muestran que la pasada
gripe ha sido más bien leve,
poniendo
en
entredicho
la
fiabilidad del algoritmo.
¿Qué puede haber fallado en el
método de Google? Es pronto para
saber qué ha fallado. ¿Hubo una
alerta injustificada entre la
población? ¿Ha cometido el
algoritmo un error en su
extrapolación? Independientemente
de las respuestas, el incidente ha
servido para añadir leña al debate
sobre la fiabilidad y los límites del
Big Data. Repasemos las posibles
causas del error, según han sido
apuntadas por expertos y otros
opinadores.
Una de las supuestas promesas
del nuevo campo del análisis de
datos es la posibilidad de realizar
«predicciones sin teoría», es decir,
ser capaces de predecir fenómenos
sin invertir tiempo en comprender
los mismos teorizando sobre ellos.
Esta posibilidad resulta altamente
atractiva para las empresas, que
podrían así ahorrar numerosos
recursos en el análisis de diversos
fenómenos.
En
primer
lugar,
las
predicciones libres de teoría no
representan ninguna novedad. Sin ir
más lejos, en farmacología se
desconoce el proceso por el cual
funcionan numerosos principios
activos, lo cual no impide que se
aprueben
y
utilicen
como
medicamentos eficaces. En general,
los métodos experimentales, tanto
en medicina como en campos tan
dispares como los negocios, son
esencialmente libres de teoría. Si
una medida provoca un efecto
deseado y los efectos secundarios
son asumibles, ¿para qué es
necesario conocer exactamente su
mecanismo?
En segundo lugar, durante los
últimos años se ha desarrollado
rápidamente una disciplina que
combina informática y estadística,
conocida como machine learning
(«aprendizaje automático»), cuyo
propósito fundamental es la
predicción. Los métodos de
machine learning se basan a
menudo en la validación fuera de
muestra, es decir, en probar la
calidad de los modelos a partir de
su capacidad para predecir
fenómenos que todavía no ha
analizado. Y, sobre todo, es
esencialmente «libre de teoría».
Entre los mayores logros
recientes de dichos métodos se
encuentran el reconocimiento facial
de Facebook o el reconocimiento
de voz de Google. En el desarrollo
de dichos métodos hay poca o
ninguna teoría sobre qué rasgos
hacen que una cara o una palabra
sea reconocible. Sólo hay métodos
estadísticos generales aplicados
sobre volúmenes ingentes de datos,
y los resultados han resultado ser
espectaculares.
Las críticas menos acertadas
son aquellas que culpan a algún
algoritmo
de
olvidar
que
«correlación
no
implica
causalidad». La crítica es a menudo
infundada y no es aplicable al
problema de Google Flu Trends. El
problema de la diferencia entre
correlación y causalidad puede
darse cuando un investigador ha de
analizar los motivos explicativos
de un fenómeno, es decir, una
pregunta cuya formulación clásica
es: «¿Es X la causante de Y?».
Tanto el
machine
learning
(estadística
con
enfoque
computacional orientado a la
predicción) como la econometría
(estadística
orientada
a
la
comprensión
de
fenómenos
económicos) han desarrollado
diversos métodos para solucionar
el problema de la causalidad. El
más sencillo de todos es el diseño
experimental clásico, en el que los
individuos
son
asignados
aleatoriamente a varios grupos, que
serán tratados de distinta manera
conforme a lo que el investigador
desea estudiar. En este caso, la
aleatoriedad en la asignación
garantiza la causalidad en las
diferencias
observadas
entre
grupos.
No obstante, el algoritmo de
Google no busca establecer
relaciones de causalidad, sino que
pretende agregar y localizar
geográficamente
información
relevante sobre un fenómeno con
mayor rapidez que las alternativas
existentes. La crítica de la
diferencia entre correlación y
causalidad equivaldría a asumir
que Google pretende responder a la
pregunta: «¿son las búsquedas en
Google las causantes de los brotes
de epidemia?». Absurdo.
Un problema que sí puede
llegar a producirse entre los
analistas de datos es asumir que
uno tiene tantas observaciones que
prácticamente equivalen al conjunto
de la población. La inferencia es la
rama de la estadística que analiza
la relación entre una muestra y la
población de su conjunto. Por
ejemplo, si queremos saber la edad
media de la población española,
podemos hacer dos cosas. Por un
lado, podemos tomar una muestra,
calcular su edad media y suponer
que la edad media de la muestra es
igual a la poblacional. ¿Qué podría
hacer que nos equivocáramos al
extrapolar dicho valor muestral al
poblacional?
En primer lugar, podemos sufrir
un error de muestreo. Es decir, la
muestra estaba compuesta por unas
ciertas personas... Pero esas
personas podrían haber sido otras
con mayor o menor edad. Y éste es
el problema que mejor evita el Big
Data, ya que, con tamaños
muestrales tan grandes, el error de
muestreo
se
reduce
considerablemente. Al fin y al
cabo, hemos tenido en cuenta la
edad de todos los españoles.
Ahora bien, lo anterior no
impide que pueda surgir un último
problema más difícil de detectar:
los sesgos de autoselección. Por
muy grande que sea nuestra
muestra, puede haber un mecanismo
perverso que haga que los datos
que
tomemos
no
sean
representativos
de
nuestra
población. Así, resulta bastante
probable que la mayor parte de las
búsquedas sobre enfermedades o
epidemias las realicen grupos de
individuos con unas características
concretas,
aunque
estas
características
podrían
haber
cambiado a lo largo del tiempo.
¿De verdad pensamos que la
gripe depende de las búsquedas que
hacemos en Google? Tener más
datos es una condición necesaria,
pero no suficiente, para mejorar la
calidad del trabajo que podemos
hacer con ellos.
Otro ejemplo en el que se
recordó fuertemente la limitación
del Big Data (o mejor, del abuso de
extrapolación de Google Flu
Trends) fue un estudio de la
Universidad de Princeton, que
afirmaba que basándose en la caída
en la frecuencia de búsquedas en
Google, Facebook perdería un 80
por ciento de sus usuarios para
2015-2017. Dicho estudio fue
contestado
de
manera
brillantemente irónica por el mismo
equipo de data scientists de
Facebook, que mostró que usando
el mismo procedimiento de
extrapolación (correlación no es
causalidad) podríamos concluir que
Princeton perdería la mitad de sus
alumnos para el año 2018, y que
incluso el mundo se quedaría sin
aire en el año 2060. ¿De verdad
creemos que es así? Los mismos
investigadores
de
Facebook
confirmaron que se trataba de un
absurdo. Provocativa demostración,
pero, con certeza, ilustrativa.
La solución del enigma
necesitará, a buen seguro, de una
ardua investigación, pero la buena
noticia es que el error de este año
servirá para afinar mucho mejor las
predicciones de años posteriores.
Al fin y al cabo, no hay nada mejor
que un error en un modelo para
mejorar su capacidad predictiva, ya
que constituye una fuente nueva de
información respecto a la que
Google ya manejaba. La única
forma de mejorar un modelo
predictivo consiste en tener más
datos y una mejor calibración del
motor de agregación de la
información. Más datos sin mejor
agregación de los mismos no sirve
de nada. Y viceversa, por eso es
importante a veces fallar, para
calibrar mejor en el futuro. Por
cierto, una reflexión al hilo del
asunto «¿hay datos más allá de
Google?»: ¿Qué pasará si un día
Google «se cae»?
Entonces, ¿el Big Data será o no
una revolución?
Para contestar a esta pregunta hay
que seguir ahondando en algunas de
las claves de lo que consideramos
Big Data. Por un lado, no hay nada
fundamentalmente novedoso en él.
De hecho, dicha denominación no
es más que un gancho comercial
para denominar a la estadística que
siempre hemos conocido. Ello no
quiere decir que durante las últimas
dos décadas no se hayan producido
avances en las técnicas estadísticas
y en cómo los expertos enfocan los
problemas, pero el cambio ha sido
y será, como casi siempre, gradual.
Es decir, la revolución no será
mucho más rápida que la que ya
estamos viviendo..., ¡lo cual no
quiere decir que no sea importante!
Quizás
el
aspecto
más
novedoso del nuevo paradigma se
encuentre en el volumen de la
materia prima de todo análisis: los
datos. Aquí sí que estamos
presenciando en cierto modo una
revolución por el crecimiento de la
magnitud de información que el ser
humano es capaz de generar y
almacenar. En 2010 se generaron
unos 800 exabytes de nueva
información. Para poner dicha cifra
en perspectiva, desde el inicio de
los tiempos hasta 2005 el ser
humano había almacenado unos 5
exabytes, cantidad que hoy se
genera cada dos días. Y, en este
aspecto, desde el más acérrimo fan
de Hayek hasta el más recalcitrante
comunista están de acuerdo en el
valor de la información: los
primeros argumentan que el sistema
de precios es la institución
espontánea más importante que ha
creado el hombre, pues permite
agregar información dispersa sin
necesidad de una intención
explícita; los segundos pretenden
optimizar una función de utilidad
individual para dar «a cada cual
según su necesidad». ¿Dónde está
entonces el problema con el Big
Data?
1. Primer problema: nuestra
capacidad de modelización es muy
reducida
Una característica distintiva del Big
Data es que se refiere generalmente
a la posibilidad de modelizar y
predecir ciertos comportamientos
del ser humano. La nueva
información que cada día se genera
no son nuevos datos relativos a
observaciones astronómicas o
reacciones químicas, sino el rastro
que deja en la red la acción
humana, el cual puede ser
fácilmente recolectado para su
posterior análisis. Pero las novelas
de Asimov y el cine de Hollywood
se han encargado de transmitir una
idea excesivamente optimista de
nuestra
capacidad
real
de
modelización
de
fenómenos
sociales o conductuales complejos.
Una cosa es un experimento de
laboratorio
con
cincuenta
estudiantes
de
una
misma
universidad, del cual se puede
extraer un patrón medio de
comportamiento generando grupos
de forma aleatoria, y otra muy
distinta es que los investigadores
puedan, a partir de información de
la vida real, generar un modelo
estructural de comportamiento que
permita predecir la reacción de
ciudadanos
o
clientes
a
determinadas medidas.
La capacidad de modelización a
partir de bases de datos masivas,
por prometedora que sea, es por
ahora sólo una quimera para el 99
por ciento del tejido productivo.
Salvo algunas grandes compañías,
el resto ha de conformarse con
aprender incrementalmente.
Allí donde una empresa o
gobierno
pueda
generar
experimentos, asignando clientes o
ciudadanos
aleatoriamente
a
distintos grupos, podrá tener una
cierta certeza del efecto de una
medida concreta. Por ejemplo, una
cadena de supermercados puede
experimentar con la respuesta del
consumidor a cambios en los
precios
de
algún
producto
seleccionando aleatoriamente la
mitad de los supermercados de una
ciudad y aplicando en ellos una
rebaja. La selección aleatoria
garantiza en este caso que el
cambio de comportamiento se debe
exclusivamente al efecto de la
medida.
Pero este tipo de experimentos
ya son fáciles de realizar desde
hace décadas. Lo distintivo del Big
Data es la recolección de datos de
comportamiento y el problema aquí
estriba en que las personas actúan
por motivos muy complejos y en
que ninguna «asignación a un grupo
u otro» es aleatoria. ¿Está extraída
de la misma muestra la gente que
compra el pan en El Corte Inglés y
la que lo compra en un
supermercado Día? Aquí es donde
nuestra capacidad de modelización
se topa con un muro de
indescriptible complejidad, en el
que un tratamiento ingenuo de la
realidad
puede
llevar
a
conclusiones
tremendamente
erróneas.
Piensa en el clásico ejemplo de
la mayor longevidad de los
bebedores de vino sobre los de
cerveza. La interpretación ingenua
lleva a concluir que el vino
aumenta la longevidad (o que la
cerveza la acorta), pero bastan unos
segundos para darse cuenta de que
el comprador medio de vino es muy
distinto del comprador de cerveza,
y que su renta y hábitos de salud
también difieren mucho. Si un
ejemplo tan sencillo puede llevar a
conclusiones erróneas, ¿qué no
sucederá con fenómenos complejos
en los que actúan simultáneamente
varios factores?
Imagina una enorme base de
datos de impagos crediticios con
información sobre renta, historial
crediticio, localización, patrimonio,
formación, sexo, etc. Arrojar todas
las variables a un modelo múltiple
para
intentar
predecir
la
probabilidad de un futuro impago
devolverá medias condicionales,
pero no habrá abordado la cuestión
clave de todo análisis basado en
datos no experimentales: la
«endogeneidad», esto es, el hecho
de que la causalidad corre en
varios sentidos y que las variables
explicativas dependen unas de
otras. Sólo un modelo estructural
explícito puede resolver este
problema, pero ¿cuánta gente hay en
el mundo capaz de plantearlo y
contrastarlo? No pierdas tiempo
buscando: realmente muy poca, y
ellos mismos te dirán que aún
tienen un amplio camino por
recorrer.
En la medida en que los datos
estén
obtenidos
de
comportamientos
reales,
la
complejidad del proceso será un
muro difícil de franquear. Así, la
capacidad de modelización a partir
de bases de datos masivas, por
prometedora que sea, es por ahora
también una quimera para el 99 por
ciento del tejido productivo. Salvo
algunas grandes compañías —sólo
Google o Facebook saben qué uso
pueden estar haciendo con toda la
información que recolectan—, el
resto ha de conformarse con
aprender gradualmente, aunque sí
podrán beneficiarse
de
los
incrementos de productividad que,
por ejemplo, Google les pueda
aportar.
2. Segundo problema: el Big Data
sólo es complementario con un
tipo de capital humano muy
específico
La intuición de este problema es
sencilla: así como la revolución del
motor de explosión fue posible por
su
complementariedad
con
cualquier tipo de trabajo —hasta el
trabajador menos formado es
mucho más productivo cavando una
zanja con un martillo neumático—,
los datos sólo se complementan
bien con una combinación de
habilidades terriblemente escasa en
la sociedad. Un «trabajador de los
datos» necesita combinar tres tipos
de conocimientos:
a.
Estadística pura y dura.
Modelos
lineales,
generalizados,
máxima
verosimilitud, contraste de
hipótesis,
inferencia,
machine learning... Casi
todo el mundo puede
aprender las matemáticas
necesarias, pero lo cierto es
que, a día de hoy, menos del
1 por ciento de la población
tiene
el
conocimiento
suficiente para comprender
un modelo estadístico y sus
implicaciones.
b.
Habilidades
computacionales. Trabajar
con datos masivos requiere,
en
primer
lugar,
la
capacidad para manejarlos,
e implementar modelos y
algoritmos requiere soltura
al menos en un lenguaje.
Los paquetes estadísticos
clásicos
parecen estar
perdiendo fuelle ante el
empuje de herramientas
open-source como R o
Python, en las cuales la
propia
comunidad
implementa en cuestión de
días
cualquier
nueva
funcionalidad. La buena
noticia es que nunca fue tan
fácil aprender a programar
gracias a la explosión de
los cursos online.
c. Profundo conocimiento del
tema a tratar. Este problema
es, en esencia, el mismo al
que con anterioridad nos
referimos con el término
«endogeneidad»,
y
es
precisamente el mismo
motivo por el que las suites
de business intelligence
(BI)
—esos
paquetes
informáticos
que
compran/venden
las
empresas con el objetivo de
abordar
el
análisis
inteligente de datos (así lo
llaman también en modo
sexy)— han dado mucho
menos de lo que prometían.
Rara vez un modelo o un
algoritmo puede garantizar
predicciones fiables sin un
conocimiento profundo del
tema, es decir, sin un marco
teórico sobre el que
plantear el mismo. No
existe una caja negra a la
que podamos arrojar una
tonelada de datos y de la
cual saldrá un patrón de
comportamiento
fiable.
Además, las habilidades de
modelización
suelen
adquirirse en el mundo
académico, y allí donde el
trasvase entre la academia y
la empresa es fluido —
siendo
el
ejemplo
paradigmático
el
conglomerado
Silicon
Valley + Stanford + Caltech
— los resultados son
maravillosos. Pero allí
donde la universidad vive
en un mundo paralelo y
alejado de la excelencia,
los resultados son nulos.
La
conjunción de
estas
habilidades es hoy, y más en
España, muy escasa (en nuestro
caso habría que añadir las
dificultades con el inglés). ¿Quién
se beneficiará entonces de las
nuevas posibilidades que traen los
datos? ¿En qué medida esta nueva
oportunidad puede dar a luz a un
nuevo paradigma económico? Estas
reflexiones nos llevan a las dos
conclusiones que cierran este
capítulo.
Conclusión para España 1:
Como anunciaba Hal Varian, el Big
Data será muy provechoso para los
trabajadores que reúnan las
capacidades necesarias, pero no
necesariamente para el resto.
Cuando una nueva materia prima
(datos) sólo es complementaria con
un tipo escaso de habilidades, son
los dueños de dichas habilidades
los que se quedan la mayor parte
del premio. Para que un país como
España
aprovechase
las
oportunidades de este nuevo
mundo, habría de conseguir mejoras
radicales y generalizadas en la
formación
en
matemáticas,
programación e inglés; de momento,
España sigue en el vagón de cola
de la educación en la OCDE.
Conclusión para España 2: Para
que los avances del Big Data
penetren de forma generalizada en
la empresa, habrá de sortearse un
problema fundamental: ¿quién será
en cada empresa el encargado de
decidir qué decisiones se pueden
dejar a un modelo y cuáles no? Un
modelo estadístico es algo muy
opaco para el que no tiene la
formación necesaria. En la anterior
revolución, cualquier persona
podía apreciar la facilidad con la
que
un
martillo
neumático
perforaba el asfalto, cuantificar la
ganancia de productividad y
comprar la nueva maquinaria. El
ejecutivo moderno, sin embargo, ha
de decidir si confiar en los
resultados de un modelo que
probablemente no comprenda a la
hora de tomar una decisión.
Se está produciendo un nuevo
cambio de paradigma, pero el
cambio
difícilmente
será
revolucionario, sino gradual, y
explicaremos
por
qué. Los
principales
beneficios
se
producirán a nivel individual, y las
ganancias las disfrutarán quienes
tengan la formación necesaria para
manejarse con soltura en este nuevo
campo y las empresas que logren
atraer a trabajadores y ejecutivos
con dichas capacidades. Sin
embargo, España se encuentra de
nuevo en una posición atrasada
para encajar dicho cambio de
paradigma. Mientras que en Estonia
la programación ya ha pasado a
formar parte del currículo de
primaria y otros países lo están
considerando, nuestro sistema
educativo sigue sumido en una
profunda crisis que los dirigentes
han preferido ignorar durante largos
años. Ésta ha de ser, desde luego, la
piedra angular de la modernización
de España; de lo contrario,
perderemos un nuevo tren, esta vez
el del universo de información que
nos trae el Big Data.
Introduciendo el análisis de datos
en las empresas
El análisis de datos puede ser una
de las principales herramientas
competitivas para las empresas en
el presente siglo. La tecnología
seguirá avanzando, pero se está
volviendo cada vez más una
commodity que se adquiere over
the counter en el mercado. Uno de
los gurús del análisis de datos, Tom
Davenport,
sostiene
en
un
interesante libro, Competing on
Analytics, que la competitividad de
las
empresas
dependerá
fundamentalmente de su capacidad
para analizar la información,
especialmente la interna.
Sin embargo, a día de hoy son
muy pocas las empresas que tienen
un departamento específico de
análisis de datos. ¿Por qué? Una de
las principales razones es que suele
haber una falta de posicionamiento
en la alta dirección de las empresas
sobre este tema. La solución más
fácil es encargar a algún
departamento existente en la
empresa (como control de gestión)
que asuma algunas de las funciones
más importantes en esta área.
Otra posibilidad es ir dotando
de capacidades analíticas a las
áreas de negocio más proclives a
usar el análisis de datos (marketing
es el ejemplo más habitual). Sin
embargo, ambas soluciones se nos
antojan incompletas. El análisis de
datos debe estar presente en todos
los ámbitos de la empresa. La
predicción de variables para
elaborar el
presupuesto, la
optimización de la logística, el
análisis
de
los
clientes
(probabilidad de abandono, la
segmentación...) son decisiones
clave para la empresa que deberían
estar apoyadas en el análisis
exhaustivo de toda la información
existente en la empresa. Esto pasa
primero por disponer de una buena
organización de los datos (un
datawarehouse), así como una
estructura de reporting que permita
recuperar la información más
relevante con facilidad.
Estas dos primeras patas del
análisis de datos están más o menos
bien resueltas en muchas empresas,
pero lo que falta es la capa
analítica que permita dar respuesta
a todas las preguntas de tipo
analítico que existen en ellas: ¿cuál
debe ser la estructura de precios?,
¿por qué me abandonan los
clientes?, ¿hay tipos de clientes que
deba atender de forma separada?,
¿cuál será el volumen de ventas el
año que viene?..., y así podríamos
seguir haciéndonos preguntas muy
relevantes.
Parece conveniente que toda la
estructura analítica descanse sobre
una misma persona. Por eso en
muchas empresas está apareciendo
la figura del chief analytical
officer (CAO), un puesto distinto
del CIO (chief information
officer), sobre el que recae la
responsabilidad de que todas las
tareas analíticas se realicen
adecuadamente.
Este tipo de profesionales no
abunda ciertamente en el mercado.
Los expertos en data science no
salen por el momento de ninguna
titulación específica. A pesar de
que constantemente se nos recuerda
que en un futuro cercano habrá una
gran demanda de estos expertos,
por el momento las universidades
no han creado grados que generen
profesionales con las habilidades
demandadas. Sólo recientemente
han empezado a aparecer algunos
programas de máster que intentan
llenar este vacío.
8
Neurociencia y trampas de
pobreza
PAULA LÓPEZ PEÑA
La gente es irracional, tanto si
vive en países desarrollados
como si vive en países en
desarrollo, pero la gente es
irracional en formas que
podemos intentar y conseguir
entender. Y los incentivos
funcionan,
simplemente
tenemos que entender la
manera en que lo hacen.
ESTHER DUFLO, profesora del MIT
y codirectora del Laboratorio de
Acción contra la Pobreza Abdul
Lateef Jameel (J-PAL)
En las últimas décadas, la
importancia relativa de las
cualidades innatas y adquiridas
(naturaleza versus crianza) ha
liderado el debate sobre el origen
de las diferencias en características
individuales. En general, la idea de
que tanto la genética como el
entorno social interactúan en la
formación de nuestras habilidades
verbales y matemáticas, o en
nuestra propensión a la agresividad
o a la competitividad, ha sido
ampliamente aceptada por la
comunidad científica. Sin embargo,
existe cierta controversia en torno a
la influencia de la biología y la
socialización en la propensión de
algunos grupos poblacionales a
verse atrapados en un estado de
exclusión económica y social.
Son muchas las personas que
nacen y viven en un estado de
pobreza que parece imposible de
superar. Su descendencia suele
enfrentarse a la misma situación. A
pesar de la alta prevalencia, y de la
gravedad que alcanza la pobreza en
muchas zonas del mundo, aún no
comprendemos
totalmente
los
mecanismos por los que ésta surge
y se perpetúa. En los últimos años,
dos hipótesis relacionadas y no
excluyentes entre sí han recibido
mucha atención en la literatura
médica, psicológica y económica.
La primera plantea que vivir en un
entorno de pobreza y exclusión de
servicios e infraestructuras crea un
«estado mental de escasez» y altera
distintas funciones cognitivas,
dando lugar, por ejemplo, a
inconsistencias
entre
las
preferencias inmediatas y la
persecución de objetivos a largo
plazo. El segundo mecanismo
postula que las dificultades
económicas hacen a los pobres más
propensos a manifestar síntomas de
estrés
crónico,
ansiedad
y
depresión. Estas
condiciones,
incluso a niveles moderados, han
sido a su vez asociadas con
deterioros en el funcionamiento
cognitivo, una menor productividad
laboral y elevadas tasas de
absentismo.
También
están
vinculadas a una presión sanguínea
elevada
y
trastornos
cardiovasculares,
diabetes,
obesidad y respuestas inmunes e
inflamatorias alteradas. Por lo
tanto, estar expuesto a un entorno de
escasez no sólo crea desigualdades
en salud directamente sino también,
y parcialmente a través de éstas, en
el nivel de rendimiento intelectual.
Como resultado, algunas de las
decisiones que adoptamos no
siempre son adecuadas, y esto nos
impide realizar nuestro potencial
socioeconómico a lo largo de la
vida.
Excede el propósito de este
capítulo el contribuir al debate de
si algunos individuos presentan
déficits innatos que explican que
sus niveles de salud o sus ingresos
a largo plazo sean inferiores.
Tampoco pretende refutar el
argumento de que algunas de las
diferencias
individuales
en
habilidades y comportamientos
tienen una base biológica. El
propósito es mostrar que existe
evidencia cada vez más sólida de
que cualquier individuo que se
encuentre expuesto a ciertos
factores
ambientales,
independientemente de su genoma,
presenta una probabilidad mayor de
experimentar estados físicos y
psicológicos
negativos
que
aumentan su propensión a adoptar
patrones
de
pensamiento
y
comportamiento que reducen su
bienestar y potencial económico a
largo plazo.
La pobreza en el mundo. Unos
trazos
A pesar del progreso realizado en
las últimas décadas, actualmente
más de 1.000 millones de personas
en el mundo sobreviven con menos
de 1,25 dólares al día (Informe
anual 2014 del Banco Mundial).
Este nivel de consumo mínimo ha
sido ampliamente aceptado como
indicador de pobreza extrema y
resulta útil como una primera
aproximación al nivel de privación
material en el que viven sumidos
millones de personas. Sin embargo,
cualquier límite inferior enmascara
grandes diferencias en el coste de
vida
en distintos
contextos
geográficos. En el este de Europa y
Asia central, debido a la dureza de
las condiciones climáticas, el coste
mínimo de subsistencia es mayor e
incluye calefacción, ropa y
vivienda adecuada. En esta región,
el umbral de pobreza se ha situado
en 5 dólares por día; el nivel de
pobreza extrema es de 2,5 dólares,
y resulta casi imposible sobrevivir
con 1,25. En América Latina, los
niveles de consumo que definen el
estatus de pobreza y pobreza
extrema son de 4 y 2,50 dólares al
día.
Además de las dificultades para
alimentarse correctamente, los
pobres deben hacer frente a diario a
una multitud de problemas debido a
que las infraestructuras a las que
tienen acceso resultan insuficientes
o están defectuosas. En África
subsahariana, dos de cada tres
personas no tienen acceso a la
electricidad. En Asia oriental y en
el Pacífico, este problema afecta a
130 millones de personas, y 600
millones carecen de acceso a
instalaciones sanitarias. El rápido
proceso de urbanización hace estas
necesidades aún más apremiantes.
La vida en las barriadas expone a
sus habitantes a altos niveles de
polución y degradación ambiental,
crimen y violencia. En América
Latina y el Caribe, donde el
porcentaje de población que vive
en condiciones de extrema pobreza
se redujo a la mitad entre 2003 y
2012, la inseguridad ciudadana
sigue amenazando a miles de
personas cada día. En Oriente
Próximo y el norte de África miles
de personas han emigrado debido a
algún conflicto armado y la región
sigue siendo la más deficitaria en
agua. En Asia meridional unos 200
millones de personas viven en
barriadas marginales y 500
millones tienen un acceso muy
limitado a la electricidad. Por
ejemplo, sólo el 40 por ciento de la
población en Bangladesh está
conectada a la red eléctrica. Ello
obliga a millones de habitantes
rurales a interrumpir la mayoría de
sus actividades al ponerse el sol.
Ser
pobre
no
implica
necesariamente ni se limita a pasar
hambre, tal y como explican Abhijit
Banerjee y Esther Duflo en su libro
Poor economics. Ser pobre es estar
excluido de bienes y servicios
necesarios por el hecho de
pertenecer a un cierto estrato
económico o demográfico; no tener
acceso a recursos y servicios
públicos
básicos,
como
saneamiento, recogida de basuras o
electricidad, o a un sistema
educativo formal y vocacional de
calidad.
Un estado mental y cognitivo de
escasez
Vivir en un entorno de escasez
material reduce nuestro coeficiente
intelectual y determina en gran
medida a qué estímulos prestamos
atención y cómo respondemos ante
ellos. El cerebro humano está
diseñado para adaptarse al entorno
y sobrevivir. Como respuesta a las
necesidades
y
condiciones
ambientales, se crean nuevas
conexiones neuronales (sinapsis)
que nos permiten desarrollar
habilidades
y
mejorar
las
existentes. Esta capacidad de
adaptación y aprendizaje constante
se conoce como neuroplasticidad y
es un descubrimiento relativamente
reciente. Hasta hace dos décadas,
se pensaba que sólo los cerebros de
niños
y
adolescentes
eran
maleables y que esta cualidad
desaparecía al entrar en la edad
adulta.
Las nuevas tecnologías de
neuroimagen
han
permitido
comprobar que la estructura
anatómica y funcional del cerebro
puede cambiar a lo largo de los
años en respuesta a lesiones
ocasionadas por traumatismos
craneales o a su ejercicio
continuado. En el primer caso, el
cerebro es capaz de reconstruirse y
generar nuevas sinapsis neuronales
para reemplazar aquellas que
fueron dañadas y no funcionan
correctamente. En relación con el
segundo, uno de los primeros
estudios sobre los efectos de
ejercitar la atención investigó las
diferencias entre el cerebro de
monjes budistas experimentados,
que
llevaban muchos
años
practicando meditación, con el de
aquellos que, por ser principiantes,
llevaban menos horas de práctica.
Las imágenes revelaron que el
cerebro de unos y otros se
comportaba de manera diferente
durante un ejercicio que requería
dirigir la atención hacia un objeto y
mantenerla durante un tiempo. Las
regiones implicadas en el control y
mantenimiento del foco de atención
se activaron en ambos grupos, pero
la intensidad fue menor entre
aquellos que acumulaban en
promedio más de 44.000 horas de
meditación. Ello sugiere que, al
igual que sucede con las
capacidades físicas, la habilidad
para controlar y mantener la
atención puede ser entrenada, y que
el esfuerzo que requiere realizar
tareas que necesitan concentración
se reduce con la práctica.
A pesar de esta asombrosa
capacidad adaptativa, algunos de
nuestros recursos cognitivos, como
la memoria o la atención, son
limitados en un momento dado del
tiempo. Por lo tanto, al intentar
atender distintas demandas del
entorno al mismo tiempo, éstas
compiten entre sí por nuestro
«ancho de banda» mental. Cuando
las preocupaciones financieras y
familiares impregnan nuestra vida
cotidiana, y satisfacer nuestras
necesidades básicas se convierte en
un desafío constante, tendemos a
centrar nuestra atención en los
problemas más urgentes y a
sacrificar
otros
igualmente
importantes, pero que no requieren
solución inmediata (por ejemplo,
vacunar a los hijos). Por lo tanto,
debido a que nuestra atención y
amplitud mental son limitadas,
aquellos con más dificultades para
cubrir sus necesidades inmediatas
son más propensos a no realizar
inversiones que garantizarían su
bienestar y el de los suyos a largo
plazo, no porque no sepan que son
importantes, sino porque su cerebro
está dedicado casi en exclusiva a
resolver las necesidades más
acuciantes.
Un número cada vez mayor de
rigurosos estudios (que cuentan con
un grupo de control y un tamaño de
muestra adecuados al tipo de
resultado que se pretende medir)
indica que las preocupaciones
constantes que surgen de la
incapacidad
de
satisfacer
necesidades
básicas
reducen
nuestro funcionamiento cognitivo y
control atencional. Un equipo de
economistas y psicólogos realizó
una
serie
de
experimentos
complementarios para demostrar
que las preocupaciones financieras
reducen el coeficiente intelectual de
los pobres, pero no el de los ricos.
Uno de ellos fue realizado en un
centro comercial de Nueva Jersey.
El
equipo
seleccionó
aleatoriamente a un grupo de
compradores y les planteó cuatro
problemas económicos del tipo:
«Tu coche no funciona bien y
repararlo costaría X dólares. Si
tuvieras que elegir entre pagar la
reparación en efectivo, tomar
dinero prestado o probar suerte e
ignorar el problema, ¿qué harías?».
El experimento manipulaba el coste
de la avería para generar variación
en la magnitud del problema
afrontado
por
distintos
consumidores. A continuación,
todos ellos se sometieron a un test
de inteligencia y a un ejercicio de
control cognitivo que tenía como
objetivo medir su capacidad para
dirigir pensamientos y acciones
hacia la consecución de un objetivo
preestablecido. Tanto el coeficiente
intelectual
como el
control
cognitivo de aquellos cuyos
ingresos efectivos (medidos como
el ingreso total del hogar ajustado
por el número de miembros)
estaban por debajo del promedio se
reducían de manera significativa
cuando la avería era muy costosa,
pero no si no lo era. Este efecto no
se observó entre compradores
ricos, al margen de cuan elevado
fuese el coste de resolver el
problema.
Otro de los experimentos fue
realizado con un grupo de
agricultores en la India. En lugar de
inducir un estado de preocupación
financiera de manera artificial para
después medir el rendimiento
intelectual de los participantes, las
pruebas de inteligencia y control
cognitivo fueron realizadas justo
antes y justo después de la época de
recolección, el momento del año en
que
la
pobreza
de
estos
trabajadores y la incertidumbre
sobre sus ingresos futuros se
acentúan. Tal y como habían
anticipado,
los
agricultores
obtuvieron peores resultados en las
pruebas realizadas antes de la
recogida de la cosecha, y esto fue
atribuido al nivel de intensidad de
la pobreza al que se enfrentaban en
ese momento. Para descartar que
los efectos observados se debieran
a una menor ingesta de calorías, el
equipo realizó un seguimiento de
los patrones de consumo de los
hogares.
Los
resultados
se
mantuvieron después de incluir esta
variable en el análisis.
Un estudio afín realizado con
personas de bajos ingresos en
Rajastán (India) demostró que la
pobreza también afecta a la
capacidad
de
controlar
el
comportamiento propio. Para ello,
se dividió la muestra en cuatro
grupos: a uno de ellos se le pidió
que imaginasen que estaban en una
tienda que tenía sólo tres productos,
y que podían elegir uno de ellos sin
coste alguno. En otro de los grupos,
sus participantes podían escoger
dos bienes, también sin coste
alguno. A los otros dos grupos se
les asignaba aleatoriamente uno o
dos bienes, y éstos fueron
asignados de tal manera que la
distribución de los tipos de bienes
fuese similar en los grupos que
podían elegir y en los que no. Las
opciones eran medio litro de aceite
para cocinar, que si bien no es muy
caro proporciona una gratificación
inmediata debido a su sabor y su
rápida energía; una lata metálica
para conservar comida, que podría
ser usada durante un período de
tiempo más largo y, por lo tanto,
equivaldría a un bien de inversión,
y un fardo de cuerda sintética, que a
pesar de su utilidad reporta una
satisfacción inmediata inferior a los
otros dos. Por lo tanto, este
experimento
recreaba
cuatro
escenarios: ser pobre y tener que
elegir, ser rico y tener que elegir, o
ser pobre o rico pero no tener que
elegir. Una vez determinada la
suerte de cada participante, se les
sometió a dos pruebas de control
cognitivo. En una de ellas debían
apretar dos agarraderas el mayor
tiempo posible. Existe evidencia de
que éste es un buen indicador de la
capacidad de dirigir y mantener la
atención durante la realización de
una actividad. La otra era un test de
tipo Stroop, cuyo objetivo es medir
el tiempo de reacción en una tarea
predeterminada. Ser asignado a la
condición de pobreza (recibir sólo
un bien) no afectó a los resultados.
Sin embargo, los participantes que
podían recibir un solo bien y
además debían elegir cómo gastarlo
obtuvieron peores resultados en
ambas pruebas que los otros
grupos. El estudio concluyó que es
la interacción de la pobreza y la
necesidad de tomar decisiones en
un entorno de escasez lo que
realmente reduce la habilidad
cognitiva de las personas, y no su
condición de pobreza per se.
Esta línea argumental se ha
usado para explicar que aquellos
que
atraviesan
dificultades
económicas se comporten de
maneras que les perjudican.
Banerjee y Duflo argumentan que
las personas con pocos recursos
frecuentemente se gastan una parte
no desdeñable de éstos en alcohol,
tabaco o apuestas. También se
observan mayores tasas de
abandono y fracaso escolar en
poblaciones con bajos ingresos, lo
cual se ha usado para justificar la
existencia de programas de
transferencias condicionadas (CCT,
por sus siglas en inglés). A través
de éstos, los gobiernos otorgan a
los hogares una cantidad de dinero,
en efectivo o especie, con la
condición de que satisfagan ciertos
requisitos, como por ejemplo que
sus hijos asistan al colegio al
menos el 80 por ciento de los días
o que se registren cada año al
inicio del curso escolar. Los
detractores de los CCT discuten la
necesidad de supeditar la ayuda y
argumentan que los hogares
conocen su situación mejor que
nadie y que si los pobres
dispusiesen de más recursos
tomarían buenas decisiones y se
gastarían la ayuda de la mejor
manera posible.
La capacidad de evaluar
correctamente los beneficios y
costes asociados a nuestras
decisiones en distintos momentos
del tiempo, y de posponer
recompensas inmediatas con el fin
de obtener un beneficio mayor en el
futuro, es una de las más
importantes para alcanzar un buen
estatus socioeconómico a largo
plazo. Cuando una persona prefiere
sistemáticamente una recompensa
inmediata frente a otra que se
materializará en el futuro, pero
cuyo valor actual supera el de la
primera, se dice que presenta una
tasa de descuento alta o que
descuenta mucho el futuro. Esta
habilidad nos permite ahorrar y
realizar inversiones, como por
ejemplo completar el nivel de
estudios
necesario
para
desempeñar una carrera profesional
determinada.
Un
estudio
longitudinal realizado en Suecia
que siguió la evolución de un grupo
de niños desde los trece años
durante cinco décadas demostró
que
aquellos
que
preferían
posponer una ganancia cuando su
valor actual superaba al de una
recompensa inmediata, tenían un
nivel de ingresos mayor en la edad
adulta. A los veintisiete años, los
niños que presentaban una tasa de
descuento baja ganaban un 6,7 por
ciento más de dinero que sus
compañeros. A los treinta y siete,
esta brecha ascendía al 7,4 por
ciento y a los cuarenta y siete
alcanzaba el 11 por ciento. El nivel
de estudios alcanzado por los que
descontaban menos el valor
presente del futuro también fue
mayor, lo cual explica en gran
medida estos resultados.
Con frecuencia, las personas
con ingresos bajos tienden a
preferir soluciones rápidas y a
adoptar
comportamientos
que
generan algún tipo de gratificación
inmediata pero que, con el tiempo,
resultan contraproducentes. Por
ejemplo, los pobres tienden a
endeudarse más que los ricos en
proporción a sus ingresos, y lo
hacen incluso a tasas de interés muy
altas. También tienden a abandonar
los estudios antes de completar la
educación secundaria, lo cual
reduce sus perspectivas de
encontrar un buen empleo. Hasta
hace poco se desconocía si era el
hecho de vivir en un entorno de
privación material lo que causaba
esta tendencia o si era algún otro
aspecto de sus circunstancias.
Con el fin de comprender mejor
la causa subyacente, un experimento
de laboratorio reciente asignó a sus
participantes una dotación inicial
de dinero más o menos generosa,
creando así artificialmente un grupo
de pobres y otro de ricos. Todos se
sometieron a una prueba que
requería realizar algún tipo de
esfuerzo a cambio de conseguir una
cantidad de dinero adicional.
Seguidamente,
todos
ellos
recibieron un «shock» positivo o
negativo en su nivel de riqueza (su
saldo aumentaba o disminuía
aleatoriamente) y se les planteó una
serie de preguntas para medir su
tasa de descuento. El estudio reveló
que recibir un shock negativo en el
nivel de ingresos aumentaba
significativamente la tasa de
descuento de los participantes, es
decir, los predisponía a elegir
recompensas inmediatas incluso si
tenían la opción de elegir otras más
rentables, pero que se harían
esperar. En cambio, recibir un
shock positivo sólo reducía
moderadamente
esta
predisposición.
La
evidencia
también parecía sugerir que la
condición de ser rico o pobre no
determinaba
las
preferencias
temporales por sí mismas. En
cambio,
las
reducciones
inesperadas en los niveles de
ingresos sí las afectan, y la
evidencia empírica nos dice que los
pobres tienden a experimentar estos
cambios con frecuencia. Este
estudio es consistente con la teoría
de que el entorno de una persona
tiene una influencia directa en sus
preferencias.
Otro estudio basado en cinco
experimentos de laboratorio sugirió
que la escasez de recursos, sea ésta
de tiempo o dinero, nos empuja a
prestar más atención a tareas
urgentes y desatender aquellas que,
aun siendo importantes, no son
apremiantes. En cada experimento,
los individuos participaban en
juegos de preguntas y respuestas
que
permitían
obtener
una
recompensa por cada acierto. Cada
participante disponía de una
dotación inicial de tiempo y dinero
(cuya magnitud determinaba su
estatus de pobreza) que podía
administrar de forma estratégica
para lograr un mayor número de
aciertos. Los participantes que
recibían menos tiempo o dinero
presentaban un nivel de fatiga
mental mayor y tomaban peores
decisiones, lo cual les hacía acertar
menos y ganar menos dinero. Para
comprobar si esto se debía a un
menor nivel de esfuerzo, éste se
midió específicamente. Resultó que
los pobres se esforzaban más,
dedicando más tiempo a pensar
cada pregunta, aun sabiendo que
esto les dejaba con menos recursos
para responder a otras que podrían
contestar con facilidad. A la vista
de estos resultados, los autores
concluyeron que los pobres se
endeudan más (toman prestado más
tiempo y dinero) para resolver
problemas inmediatos, y esto les
deja en una situación más difícil
para afrontar la misma necesidad en
el futuro. En una de las variantes de
este estudio, se proporcionaba a los
participantes información sobre qué
preguntas y tareas serían planteadas
a continuación, permitiéndoles de
esta manera reajustar su estrategia.
Sin embargo, sólo los participantes
ricos hicieron uso de ella y
lograron aumentar su número de
aciertos, lo cual es consistente con
la hipótesis de que los pobres
debían de
estar
demasiado
concentrados intentando resolver la
tarea que les ocupaba en cada
momento para asegurar la pequeña
cantidad de dinero asociada a ella,
en lugar de optimizar su estrategia y
maximizar la cantidad total de
dinero recibida.
En conjunto, la evidencia
disponible sugiere que la escasez
de recursos tiene un impacto
negativo en algunas funciones
mentales, como la capacidad de
dirigir y mantener la atención para
alcanzar un fin determinado,
percibir información relevante para
la toma de decisiones o
concentrarse para resolver tareas
de distintos grados de complejidad.
Además, los últimos avances en
neurociencia
han
permitido
investigar procesos psicológicos y
neurobiológicos complementarios,
que han contribuido a explicar esta
relación causal entre escasez y
funcionamiento cognitivo.
Un número creciente de
estudios se ha centrado en analizar
las causas y efectos del estrés, la
ansiedad y los estados depresivos
en las personas. Todas ellas
respuestas biológicas normales que
determinan en gran medida qué
información percibimos y cómo la
interpretamos. Asimismo, influye
de manera directa en nuestra
motivación
intrínseca
para
perseguir objetivos a largo plazo,
nuestra
persistencia
en
la
realización de tareas o nuestra
tendencia a adoptar actitudes
prosociales (cooperativas), entre
muchas otras. Por este motivo,
entender qué determina unas y
otras, y cómo podemos moldearlas,
puede resultar clave para diseñar
intervenciones que mejoren nuestra
calidad de vida en el futuro.
Pobreza y salud mental
La percepción de que los pobres
son más felices y que el dinero no
compra la felicidad ya no viene
respaldada por la evidencia
empírica. En los últimos años, la
medición de los niveles de
felicidad y satisfacción con la vida
se ha incorporado a muchas
encuestas nacionales de salud y
condiciones de vida, y nos ha
permitido comprender mejor qué
relación guardan estos indicadores
con los de bienestar económico.
Los niveles de insatisfacción e
infelicidad son sistemáticamente
más altos entre aquellos que no
alcanzan a cubrir sus necesidades
nutricionales, de educación, salud y
vivienda. Incluso por encima de ese
umbral básico, los niveles de
felicidad siguen creciendo, aunque
a tasa decreciente, con el nivel de
ingresos dentro del mismo país.
Esta relación también viene
respaldada por algunos estudios de
corte transversal que comparan
distintos países. En cambio, la tasa
de crecimiento del PIB no
necesariamente
repercute
positivamente en estos indicadores.
La frecuencia y la persistencia
con que las personas pobres deben
buscar soluciones para satisfacer
sus necesidades básicas las hacen
más propensas a experimentar
estrés, ansiedad y emociones
negativas como la tristeza o la ira.
Todo ello tiene un impacto negativo
en el desarrollo de las actividades
cotidianas de aquellos que padecen
dicha situación, pues les hacen más
proclives al agotamiento físico y
mental y merman su rendimiento
intelectual, de manera que su nivel
de esfuerzo tiende a reducirse. Esta
dinámica da lugar a algunas
trampas
de
pobreza.
Con
frecuencia, los síntomas del estrés,
la ansiedad y la depresión se
superponen. Sin embargo, éstos no
se consideran enfermedades per se,
si no que se definen en función de
cuadros sintomáticos que tienden a
solaparse y aparecer al mismo
tiempo.
La ansiedad genera sesgos
cognitivos que hacen a los
individuos más propensos a
percibir estímulos neutros o
inciertos como posibles amenazas.
Esto puede generar una respuesta
biológica por parte del organismo
que interfiere con el empleo óptimo
de las capacidades de razonamiento
y atención y con la memoria
operativa. Las personas que sufren
niveles altos de ansiedad presentan
un nivel de actividad menor en la
región cerebral conocida como
corteza prefrontal. Se cree que esto
se debe a que perciben un mayor
número de demandas y amenazas
del entorno y a que éstas compiten
por recursos atencionales. Como
resultado, la rapidez con la que se
pueden identificar objetos y
objetivos se reduce. Este efecto es
congruente con la dificultad para
concentrarse y realizar tareas
cotidianas que dicen sufrir aquellos
que son diagnosticados con
trastornos de ansiedad, y también
con su propensión a preocuparse
excesivamente
y a
sentirse
constantemente
afligidos
por
pensamientos intrusivos.
La relación entre estrés y
funcionamiento cognitivo tiene
forma de U invertida. Pequeñas
dosis de estrés pueden tener efectos
procognitivos y facilitar el
aprendizaje a corto plazo. Sin
embargo, cuando la intensidad o la
duración
de
nuestras
preocupaciones son excesivas y
sentimos que los problemas se
acumulan y nos desbordan, sus
efectos
son
indudablemente
negativos. Éstos suelen dar lugar a
déficits en nuestra percepción
espacial y en la memoria operativa
disponible en cada momento (la que
nos permite recordar un número de
teléfono después de diez minutos) y
a un bajo control atencional. Tanto
el estrés crónico como el de tipo
postraumático aumentan el riesgo
de padecer depresión, al estar
ambas condiciones estrechamente
relacionadas con los niveles de
cortisol, una hormona que afecta al
nivel de glucemia y desencadena
cambios neuronales estructurales
que afectan a la memoria. También
se ha demostrado que el cortisol, en
concentraciones elevadas, debilita
la respuesta inmune y eleva la
presión sanguínea. Se cree que esto
explica que las personas con
depresión
tengan
infecciones
frecuentes o que aquellos que
sufren de estrés crónico tengan un
riesgo
mayor
de
padecer
enfermedades cardiovasculares.
En
la
sección
anterior
hablábamos de cómo ricos y pobres
tienden a diferir en su habilidad
para sopesar beneficios y costes
que tienen efecto en momentos del
tiempo distintos. El estrés puede
contribuir a explicar el origen de
los procesos cognitivos que están
detrás de esta brecha. Durante
períodos prolongados de estrés, se
eleva la producción de cortisol, la
hormona a la que se atribuyen
muchos de los efectos perniciosos
del estrés crónico sobre la salud y
varios tipos de habilidades
cognitivas, como la capacidad de
razonamiento lógico o la memoria.
Recientemente,
un
equipo
multidisciplinar de investigadores
llevó a cabo un experimento en el
que
administraron
a
los
participantes una dosis de 10
miligramos de hidrocortisona, para
después someterlos a un ejercicio
de elecciones intertemporales. La
tarea consistía en elegir varias
veces su opción preferida de entre
un conjunto de recompensas que
podían
ser
pequeñas
y
materializables de inmediato o bien
grandes pero realizables a largo
plazo. Todos los participantes
sabían
que
recibirían
dos
inyecciones, y que sólo una de ellas
contendría hidrocortisona (la otra
era un placebo). A algunos se les
suministró la hormona en la primera
dosis, 195 minutos antes de
someterse a la prueba, y a otros en
la segunda, 15 minutos antes de la
prueba. Un tercer grupo recibió
placebo en las dos inyecciones. Los
resultados mostraron que aquellos
que recibieron la hidrocortisona 15
minutos antes de elegir el tipo de
recompensa prefirieron recibir
cantidades pequeñas de dinero de
manera inmediata. Esta tendencia
no se apreció entre aquellos que
recibieron la hormona 195 minutos
antes de realizar la prueba, lo cual
sugiere que el estrés agudo puede
aumentar de manera provisional la
tasa de descuento temporal, pero
este efecto se desvanece en el
tiempo.
Otros estudios también han
usado la administración de
hidrocortisona para investigar si el
estrés podía interferir igualmente en
otros tipos de preferencias, además
de las intertemporales. En uno de
ellos se suministró a los
participantes una dosis diaria
(durante ocho días) y se les sometió
a una tarea para medir su aversión
al riesgo. Ésta consistía en darles a
elegir entre una serie de loterías
que ofrecían ganancias pequeñas
pero relativamente seguras o bien
ganancias de mayor cuantía pero
más arriesgadas. Un ejemplo sería:
«Si pudieras apostar a una lotería
con la que ganarías 100 libras con
una probabilidad del 50 por ciento,
o a otra con la que ganarías 1.000
libras con una probabilidad del 5
por ciento, ¿cuál preferirías?». El
beneficio esperado de ambas es el
mismo (50 libras), pero una
persona aversa al riesgo elegiría la
primera porque la probabilidad de
que se materializase alguna
ganancia es mayor. El equipo de
investigadores
analizó
cómo
cambiaban sus elecciones a lo largo
de este período, y resultó que,
después de varios días de
aplicación, aquellos que recibían
hidrocortisona
mostraban
un
aumento significativo en su
aversión al riesgo. Curiosamente,
en
otros
experimentos
que
intentaron inducir un estado físico
de estrés en los participantes
(haciéndoles sumergir las dos
manos en un caldero de agua helada
durante el mayor tiempo posible y
dándoles a elegir distintas loterías
a continuación), no se apreció
efecto alguno en la aversión al
riesgo de los mismos.
Siguiendo en esta línea, otros
estudios han empleado técnicas de
estimulación emocional, como la
proyección de vídeos con imágenes
violentas (por ejemplo, un joven
siendo torturado brutalmente), para
mostrar
que
las
emociones
negativas, como el miedo, también
aumentan la aversión al riesgo. La
manipulación
audiovisual
de
emociones
ha
sido
usada,
asimismo, para inducir un estado de
tristeza, y ésta parece aumentar la
tasa de descuento de los
participantes. En este último caso,
la relación se mantiene al inducir el
estado de ánimo opuesto: fomentar
emociones
positivas
en
el
laboratorio predispone a los
participantes a elegir loterías que
generan un beneficio mayor, aunque
tardío.
Recientemente, un experimento
natural realizado en Kenia midió
los niveles de estrés percibidos y
biológicos (con muestras de saliva
como aproximación al nivel de
cortisol sistémico) durante años en
un grupo de agricultores, utilizando
la variabilidad en los niveles de
lluvia como fuente de variación en
el nivel de ingresos. Sus resultados
mostraron que, en años en que
llovía poco, los niveles de cortisol
de los agricultores aumentaban,
pero este efecto no era apreciable
en otro de tipo de trabajadores.
Finalmente, en uno de los
primeros estudios experimentales
sobre los efectos de recibir un
crédito en efectivo, Haskin Fernald
y otros autores analizaron el
cambio en los síntomas de estrés en
una muestra de personas con bajos
ingresos a las que previamente se
les había denegado un préstamo. En
general, los hombres que recibieron
el crédito mostraron menos
síntomas de depresión, pero sus
niveles de estrés eran más altos.
Esto se atribuyó a la preocupación
de tener que devolver el préstamo a
una tasa de interés elevada (ésta
ascendía al 200 por ciento).
Tomada
conjuntamente,
la
evidencia generada por estos
estudios indica que la relación
observada entre la gravedad de la
pobreza de una persona y sus
niveles de estrés, ansiedad,
depresión
y
procesamiento
cognitivo es de tipo causal.
Posibles intervenciones
Partiendo de la evidencia que
sugiere que vernos privados de
recursos y servicios básicos afecta
a nuestra capacidad para realizar
tareas y tomar decisiones de
manera eficaz, existen tres tipos de
políticas públicas que podrían
romper este círculo. Estos enfoques
no tienen por qué ser excluyentes.
Es más, es razonable pensar que
funcionarían mejor combinados.
La primera es intentar reducir
directamente la gravedad de la
pobreza,
creando
servicios
públicos gratuitos o de bajo coste,
o programas de apoyo al ingreso.
Dentro de esta categoría, los
programas que han obtenido
mejores resultados han sido
aquellos
con
un
enfoque
multidimensional,
como
los
conocidos
programas
de
transferencias
condicionadas
(CCT). Éstos conceden al jefe de
hogar transferencias en efectivo,
supeditadas al cumplimiento de
ciertos requisitos, como registrar a
todos los niños en edad escolar y
asegurar que asisten a clase al
menos el 80 por ciento de los días,
o bien aplicar las vacunas
adecuadas a su edad. Se han hecho
muchas evaluaciones de impacto
para estudiar el efecto de este tipo
de programas. Sin embargo, en
pocas ocasiones se han medido los
niveles de salud mental o habilidad
cognitiva de sus beneficiarios, y
por ello su efectividad de cara a
mejorar estos indicadores sigue
siendo desconocida.
Una excepción ha sido la
evaluación
de
impacto
de
GiveDirectly, en Kenia. Este
programa seleccionó una muestra
aleatoria de quinientos hogares y
les otorgó algún tipo de
transferencia incondicionada (es
decir, una cantidad variable de
dinero que no tiene por qué ser
gastada de una forma concreta o en
partidas
de
consumo
preestablecidas). Las había de
varios tipos, de manera que algunos
beneficiarios
recibían
una
transferencia única de 287 dólares
y
otros
recibían
nueve
transferencias
mensuales
que
sumadas alcanzaban este mismo
importe. En los dos grupos, los
hogares invirtieron los nuevos
recursos en bienes de consumo o de
inversión, más duraderos en el
tiempo. En promedio, su consumo
mensual aumentó y se gastaron más
dinero en alimentación, medicinas,
educación, vivienda y eventos
sociales (bodas, funerales...). Sin
embargo, la distribución del gasto
difirió entre los que recibieron el
pago único y los que recibieron
pagos periódicos.
Los receptores del pago único
destinaron una proporción mayor de
recursos a mejorar la calidad de su
vivienda (por ejemplo, algunos
compraron techos metálicos) y a
invertir en activos que reportarían
ingresos adicionales a largo plazo,
como cabezas de ganado o negocios
no relacionados con la agricultura.
Como consecuencia, con el paso
del tiempo su nivel de ingresos
aumentó. Por el contrario, los
receptores
de
las
nueve
transferencias mensuales dedicaron
un porcentaje mayor de recursos a
adquirir productos alimentarios y,
de hecho, el índice de seguridad
alimentaria (medido por el número
de días en la última semana que
algún miembro del hogar se fue a la
cama con hambre) mostró una
mejoría mayor en este grupo con
respecto a los beneficiarios del
pago único. Este grupo de hogares
«se comió» una porción mayor de
la ayuda y sus ingresos no
aumentaron con el paso del tiempo
desde que empezaron a recibir las
transferencias. De nuevo, estos
resultados confirman que el tipo y
la cantidad de medios económicos
de que disponemos influyen en
cómo gastamos nuestros recursos, y
esto repercute en nuestro bienestar
posterior.
La segunda opción sería diseñar
programas que traten directamente
los síntomas psicológicos y
somáticos que suele acarrear la
pobreza. Algunos países como el
Reino Unido o Australia han
incluido la nueva generación de
terapias psicológicas como parte de
la atención en centros de salud, con
resultados excelentes. Dentro de
éstas, la
terapia
cognitivoconductual (conocida como CBT,
por sus siglas en inglés) ha sido una
de las más estudiadas. Numerosos
metaanálisis han demostrado su
efectividad para reducir los niveles
de ansiedad y los síntomas de
depresión en la población general,
es decir, excluyendo los casos de
gravedad que requieren medicación
inmediata. A diferencia del
psicoanálisis tradicional o la
terapia interpersonal, la CBT tiene
como
objetivo
modificar
comportamientos y patrones de
pensamiento
negativos
—que
mantienen la sensación de ansiedad
— y depresión mediante ejercicios
estandarizados. Algunos consisten
en enseñar al paciente a
descomponer problemas complejos
en varios pequeños, de manera que
resultan mucho más fáciles de
solucionar y el tiempo total que la
persona pasa preocupada se reduce.
Otros consisten en ayudar a la
persona a evaluar la probabilidad
de que un suceso determinado
ocurra
y
de
que
genere
consecuencias negativas. Estos
últimos van complementados con
técnicas
de
resolución
de
problemas (incluidas pautas para
llevar a cabo una tormenta de ideas
efectiva) y ejercicios de relajación
física
(relajación
muscular
progresiva) y de control atencional
(meditación). La eficacia de este
conjunto de técnicas ha sido
ampliamente documentada y, por
ello, la CBT se considera un
modelo de referencia en el
tratamiento de trastornos mentales
comunes, como el trastorno de
pánico o de ansiedad generalizada
y la depresión.
Las evaluaciones del impacto
de
intervenciones
diseñadas
expresamente para mejorar la salud
mental en países de bajos ingresos
son muy escasas. Una excepción ha
sido un experimento aleatorio
realizado en Uganda, que demostró
que asistir a un curso de terapia
interpersonal
mejora
las
habilidades para realizar y terminar
actividades económicas rutinarias.
Sin embargo, el estudio se centró en
una
muestra
de
personas
deprimidas, y no existe evidencia
de cómo mejorar estos resultados
en
una
población
cuyo
funcionamiento diario y salud
pueden verse comprometidos por
niveles de ansiedad y depresión de
menor
intensidad
que
los
conducentes a un cuadro clínico
grave.
Disponer
de
dicha
información permitiría elegir una
mejor
combinación
de
intervenciones, de manera que
aquellas que pretenden aliviar las
causas del estrés y sus efectos (por
ejemplo, aquellas que dan dinero en
efectivo a los hogares) sean un buen
complemento de las que intentan
reducir los efectos de la depresión.
Una
alternativa
a
las
intervenciones para reducir niveles
de ansiedad y depresión sería
intentar mejorar los niveles de
felicidad directamente. Existe
evidencia procedente del campo de
la neurociencia que indica que
mayores niveles de bienestar
autopercibido están asociados a
mejoras en las habilidades
cognitivas
y los
resultados
económicos, y que este efecto se
debe al impacto de las emociones
positivas. Éstas estimulan las rutas
neuronales por las que fluye la
dopamina (un neurotransmisor
implicado en los sentimientos de
motivación, placer y recompensa,
que nos ayuda a realizar esfuerzos
para lograr un fin) de una región del
cerebro a otra, y mejoran la
memoria y la atención.
Un estudio afín empleó
estímulos auditivos y visuales
(videoclips
«felices»
y
emocionalmente neutros, a modo de
placebo) para recrear situaciones
de la vida real que pueden afectar a
nuestro estado de ánimo. Los
resultados sirvieron para explicar
que las personas que perciben
mayores niveles de felicidad tienen
una productividad mayor. Estos
resultados confluyen con la teoría
de que el nivel de bienestar en un
momento
dado
del
tiempo
contribuye a la realización del
potencial de las personas, incluido
el económico.
Finalmente,
la
tercera
alternativa
sería
crear
intervenciones que modifiquen los
comportamientos contraproducentes
asociados a la pobreza. Algunos
ejemplos han sido el envío de
recordatorios de pago al teléfono
móvil, que evitan que los pobres se
olviden de pagar a tiempo y tengan
que hacer frente a tasas de interés
más altas y penalizaciones.
También se ha extendido el enviar
mensajes de texto que recuerdan
que al día siguiente se tiene una cita
médica. El sistema nacional de
salud británico ya lo hace. Estas
intervenciones son cada vez más
frecuentes y sus efectos son en
general
muy
positivos,
complementando el de otras
intervenciones que suponen un
coste mayor, como la provisión de
servicios de salud mental.
Una nota final sobre factores de
riesgo y grupos vulnerables
A
la
hora
de
diseñar
intervenciones, es preciso tener en
cuenta que el entorno físico
inmediato en que vive una persona
es un factor de riesgo importante.
Las poblaciones urbanas son más
proclives a padecer de manera
desproporcionada los efectos de
una mala salud mental y pérdida de
productividad. Florian Lederbogen
y
colaboradores
concluyeron
recientemente, a partir de evidencia
metaanalítica, que los habitantes de
zonas urbanas presentaban un
riesgo un 20 por ciento mayor de
sufrir trastornos de ansiedad y un
40 por ciento mayor de padecer
trastornos de depresión. Estas
diferencias se han atribuido a la
mayor exposición a factores
ambientales que generan molestias
diarias y estrés psicosocial, dado
que la vida en las urbes se
caracteriza por ritmos de vida
acelerados, altos niveles de estrés y
un número inferior de horas de
sueño y de no muy alta calidad.
La vida en las ciudades
favorece la atención extrínseca, que
permite explorar un gran número de
objetos y características del
entorno, a expensas del control
ejecutivo y del atencional, que son
esenciales para la realización de
las actividades que nos ocupan en
el presente. Estas tendencias
generales de la población urbana se
acentúan en el caso de los
habitantes de barrios en situación
de exclusión económica y social. El
hacinamiento y el grado de
contaminación
del
entorno
inmediato, así como los elevados
niveles
de
violencia
y
desintegración del tejido social,
han sido citados con frecuencia
como factores de riesgo añadido,
característicos de los asentamientos
informales urbanos.
El problema va en aumento: la
pobreza se está urbanizando cada
vez más.
Se
estima
que
aproximadamente cinco millones de
personas se desplazan cada año de
zonas rurales a urbanas en países en
desarrollo (Informe anual 2014 del
Banco Mundial). Esta cifra incluye
a miles de habitantes pobres que se
trasladan a las ciudades con la
esperanza de encontrar un trabajo
que les permita vivir mejor y que
acaban
instalándose
en
conglomerados urbanos marginales,
conocidos
comúnmente
como
barrios de chabolas o favelas.
Estos asentamientos presentan
grandes disfuncionalidades en el
acceso a servicios públicos básicos
y un nivel de salubridad muy bajo,
tanto dentro de las viviendas como
en el espacio público. Con
frecuencia, la basura y los
excrementos se acumulan en las
calles, y el sistema de saneamiento
tiende a ser muy deficitario. El
hacinamiento, así como los
elevados niveles de absentismo,
fracaso escolar y desempleo,
también son característicos de estos
barrios marginales. Ello suele
acarrear problemas de inseguridad.
Todo esto aumenta la frecuencia
con que los pobladores de estos
barrios
encaran
problemas,
haciéndoles más propensos a sufrir
estrés crónico.
Finalmente, y aunque el
propósito de este capítulo se aleja
del de analizar la influencia de la
genética en la propensión de
distintos individuos a verse
atrapados en una espiral de pobreza
económica y mala salud, resulta
difícil cerrar el tema sin hacer
alusión a la interacción de estatus y
género. Las mujeres son el doble de
propensas a ser diagnosticadas con
depresión y ansiedad y a
experimentar preocupaciones y
pensamientos
intrusivos
persistentes. Esto ha sido atribuido
a una mayor predisposición
biológica y a una mayor carga de
responsabilidades familiares y
domésticas (fenómeno conocido
como «el doble turno»). Además,
en muchos países en desarrollo
existen actitudes negativas hacia la
participación de las mujeres en
trabajos remunerados fuera del
hogar y sin supervisión familiar, y
se espera que asuman la mayor
parte de las tareas domésticas y de
cuidado de adultos mayores y
niños. Incluso en países como
Estados Unidos, a pesar de los
avances, los niveles de bienestar y
felicidad de las mujeres han
disminuido en las últimas décadas,
y su convergencia en resultados
económicos se ha estancado. No
obstante, no se dispone aún de
estudios rigurosos que demuestren
que aliviar la carga familiar vaya a
resultar una intervención efectiva
para avanzar hacia la igualdad
económica
mujeres.
entre
hombres
y
Algunas ideas para concluir
Las personas que viven en un
ambiente de exclusión económica y
social tienden a comportarse de
manera que perpetúan su situación.
Ahora bien, esta conducta no se
debe, al menos en exclusiva, a las
características innatas de los
pobres. Todos somos susceptibles
de tomar decisiones que repercuten
negativamente en nuestro bienestar
a largo plazo, y esta tendencia se
acentúa cuando algún recurso
necesario no está disponible en
cantidad suficiente. La escasez
afecta directamente a cómo nuestro
cerebro percibe las oportunidades
que se nos presentan y determina
nuestra capacidad para realizar de
manera eficiente tareas en distintos
momentos del tiempo.
Los últimos avances en
economía del comportamiento y
neurociencia indican que algunos
de los patrones conductuales que se
observan
frecuentemente
en
personas pobres, y a los que se
atribuye la persistencia de su
pobreza, se deben en gran medida a
las condiciones de vida que
encaran en su día a día. Su
habilidad
para
evaluar
correctamente alternativas que
conllevan beneficios y costes
distintos en momentos diferentes
del tiempo es limitada, y tienden a
tomar decisiones que comportan
gratificaciones inmediatas. De
manera similar, tienden a preferir
ganancias pequeñas pero seguras
frente a otras que presentan un
beneficio potencial mucho mayor,
pero incierto. Estas preferencias
tienen un gran impacto en su toma
de decisiones, y éstas explican en
gran medida que obtengan peores
resultados económicos y de salud a
largo plazo.
Además,
las
tasas
de
prevalencia de estrés, ansiedad y
depresión son mucho más altas en
poblaciones pobres que en la
sociedad en general. Los nuevos
estudios sobre la influencia de los
estados emocionales y físicos en
nuestra toma de decisiones
constituyen una fuente de valiosa
información para comprender las
causas de estas tendencias y buscar
soluciones. La evidencia disponible
indica que la escasez económica
hace a las personas más propensas
a
experimentar
emociones
negativas. Todas estas respuestas
biológicas pueden dar lugar a
problemas de salud graves, y
existen evidencias que sugieren que
interfieren en su rendimiento
cognitivo. Éste, a su vez, repercute
negativamente en la calidad de su
trabajo y en sus decisiones
económicas, pudiendo dar origen a
una trampa de pobreza. Ahora bien,
la mayoría de estos estudios están
basados en experimentos de
laboratorio, y es necesario validar
la información usando estudios en
la población general y en la
práctica clínica para poder afirmar
que los programas de reducción de
pobreza deben incluir componentes
específicos de reducción del estrés
o de afecto negativo.
Hasta
el
momento,
las
intervenciones que han mostrado
ser más efectivas para mejorar
tanto indicadores de bienestar
económico como de salud (física y
mental) han sido las que integran
componentes dirigidos a aliviar
directamente el nivel de privación
material combinados con pequeñas
acciones destinadas a evitar que
estos recursos no se utilicen
adecuadamente. La incorporación
de programas de salud mental a la
oferta de servicios públicos
también se presenta como un
elemento muy prometedor. En
países como el Reino Unido, la
integración
de
una
nueva
generación de terapias psicológicas
en el sistema público de salud ha
producido resultados satisfactorios.
El desafío de los nuevos
estudios en las áreas de economía
del comportamiento, medicina y
neurociencia es validar o refutar
estas hipótesis de trabajo y ayudar
a comprender mejor la eficacia de
distintos tipos de intervenciones
para mejorar la manera en que se
concede ayuda al desarrollo y así
seguir avanzando en nuestro
objetivo de erradicar la pobreza.
9
¿Es España un país para
jóvenes? Repensando la
emigración
JUAN MARTÍNEZ ÁLVAREZ
En tiempos de cambio, quienes
estén abiertos al aprendizaje se
adueñarán del futuro, mientras
que aquellos que creen saberlo
todo estarán bien equipados
para un mundo que ya no
existe.
ERIC HOFFER, escritor
estadounidense
Me pareció oportuno titular el
capítulo con una pregunta que
suscitase una primera reflexión
sobre el problema del desempleo
juvenil y su vinculación con la
emigración. La pregunta es clara y
directa: ¿es España un país para
jóvenes? Los primeros que
deberían responder esta pregunta
son los mismos jóvenes. Si les
hacemos esta pregunta a ellos, la
respuesta parece ser claramente que
no. Al menos eso es lo que se
deduce de un estudio que ha
realizado recientemente el Instituto
para
la
Sociedad
y
las
Comunicaciones de Vodafone en
seis países de Europa. Para
confeccionar este estudio, se ha
llevado a cabo una macroencuesta
de más de 6.000 entrevistas a
jóvenes de entre dieciocho y treinta
años. Es muy simbólico que los
jóvenes españoles sean los que
menos confían en su país para
encontrar un trabajo. Algunos
resultados específicos de la
encuesta son muy meridianos: siete
de cada diez jóvenes piensan que
tendrán una vida peor que la de la
generación de sus padres; tres de
cada cuatro consideran que hay
mejores perspectivas laborales en
el extranjero, y seis de cada diez
jóvenes están preparándose para
emigrar fuera del país en busca de
trabajo.
Como decía Gustave Flaubert,
«No hay verdad, sólo hay
percepción». Y, ¿de qué es
sintomática la percepción que
expresan los jóvenes españoles?
Pues de una verdad muy amarga. La
verdad de una tasa de desempleo
juvenil que supera el 50 por ciento.
Esto se traduce en que una cuarta
parte de los menores de veinticinco
años que están desempleados en la
zona euro son españoles. Por otro
lado, están los «ninis», casi 1,7
millones de jóvenes españoles de
un total de 7,6 millones que, según
los datos de Eurostat, ni estudian ni
tienen empleo. Y entre los jóvenes
que sí tienen empleo, la situación
tampoco es muy buena. Un estudio
del Instituto de la Juventud dice que
el 61,4 por ciento de los contratos a
trabajadores
de
quince
a
veinticuatro años son temporales.
Además, ha nacido un nuevo
fenómeno
salarial:
el
«seiscientoseurismo».
Este
fenómeno se extiende por todos los
tramos de la población activa, pero
afecta principalmente a los jóvenes:
el 86 por ciento de los menores de
dieciocho años, el 74,7 por ciento
de los jóvenes entre dieciocho y
veinticinco años y el 38 por ciento
de los jóvenes de veintiséis a
treinta y cinco años cobran menos
de 700 euros. El panorama es
devastador.
Como respuesta a esta realidad,
durante la crisis se han creado
asociaciones juveniles como «No
nos vamos, nos echan», que es una
iniciativa para denunciar la
situación de emigración forzosa que
sufre la juventud y que refleja el
malestar de muchos jóvenes
españoles que se ven abocados a la
emigración como solución laboral.
La opción de emigrar ha tomado
fuerza como única alternativa para
muchos jóvenes, sobre todo para
aquellos
con
educación
universitaria y conocimiento de
idiomas. El desempleo entre la
población de jóvenes titulados en
España triplica la media de los
países de la Organización para la
Cooperación y el Desarrollo
Económicos (OCDE), y la realidad
es que todos encontramos en
nuestro entorno de amigos o
conocidos el siguiente perfil
profesional: joven español con
educación universitaria y nivel
medio en idiomas, que busca
trabajo en el extranjero porque,
según dicen, «en España está
imposible». Con un nivel de
desempleo juvenil por las nubes y
con la economía en tasas muy
tímidas de generación neta de
empleo, muchos de estos jóvenes
han concluido que su única salida
laboral es irse al extranjero. En
este capítulo queremos dar nuestra
visión particular sobre esta
situación.
Para intentar ofrecer un enfoque
distinto sobre la situación actual de
los jóvenes titulados en el mercado
laboral y la emigración como
posible salida, voy a combinar
algunas reflexiones personales
como emigrante con algunas otras
como economista. Mi experiencia
personal me permite hablar de este
tema en primera persona porque yo
mismo soy emigrante e hijo de
emigrante. En mi opinión, el
conflicto que actualmente se
observa con la mayoría de los
jóvenes que se plantea salir de
España es la causa por la que se
deciden a hacerlo. Mientras que
antes de la crisis la emigración
juvenil
era
mayoritariamente
voluntaria y motivada por el deseo
de progreso profesional, hoy en día
la gran mayoría de los jóvenes que
piensan en emigrar al extranjero lo
hacen ante la falta de oportunidades
en España. A continuación, vamos a
analizar de una forma un tanto
peculiar este nuevo fenómeno de
emigración laboral, pero también
vamos a hacer algunas reflexiones
sobre temas relacionados, tales
como la necesidad de adaptarse a
la nueva realidad laboral mundial,
el gran valor que en el mundo
laboral tienen algunas habilidades
que nadie nos enseña o los atajos a
la meritocracia para acceder o
ascender en el mercado laboral (los
«enchufados y pelotas»).
La nueva emigración laboral
poscrisis
El nuevo emigrante laboral tiene un
perfil distinto del del emigrante
tradicional.
Mientras
que
históricamente
España
había
exportado trabajadores con baja
cualificación, en la actualidad, y
por primera vez, la emigración se
está dando de forma generalizada
en colectivos con formación
superior. La gran diferencia se
encuentra en que hace tiempo la
emigración de jóvenes titulados se
concentraba en estudiantes que iban
a hacer un posgrado al extranjero,
mientras que actualmente la
principal motivación del emigrante
medio no es continuar su formación,
sino encontrar trabajo. En la
actualidad, ninguna profesión se
encuentra a salvo de la necesidad
de emigrar. Sin embargo, resulta
curioso que todos los perfiles de
emigración que socialmente son
percibidos como exitosos tengan un
rasgo en común: afirman no estar
dispuestos a trabajar «en lo que
sea».
Parece
que
estamos
dispuestos a desplazarnos de país,
pero no tanto a cambiar el sector
profesional en el que trabajamos.
Esta situación tiene como origen un
problema claro en el mercado
laboral español: la altísima tasa de
paro convive también con una alta
tasa de vacantes, es decir, hay un
problema de emparejamiento entre
desempleados y vacantes.
Este problema supone una
cierta incógnita desde el punto de
vista la economía laboral, ya que lo
normal es que los países tengan una
de las dos tasas alta, pero no
ambas. España es el único país del
sur de Europa que desde el inicio
de la crisis ha visto incrementar
simultáneamente la tasa de vacantes
disponibles y la tasa de paro. A
pesar de la enorme bolsa de
parados, las empresas declaran
tener dificultades para cubrir
ciertas
plazas. La
aparente
abundancia de puestos laborales no
cubiertos parece tener difícil encaje
con la realidad de la emigración
laboral, ya que aquellos que
emigran a buen seguro tienen
disponibilidad total para comenzar
o continuar su vida laboral en
España. Entonces, ¿por qué emigran
si existen vacantes dentro de
España? ¿Acaso las condiciones
salariales son tan inferiores que
prefieren abandonar su tierra natal
en busca de una oportunidad mejor?
Parte de la clave a esta aparente
contradicción puede encontrarse en
las dos grandes dimensiones de
decisión a las que se enfrenta quien
busca trabajo: la flexibilidad
geográfica para desplazarse y la
flexibilidad
profesional
para
cambiar de sector laboral.
El siguiente diagrama de
cuadrantes clasifica a los tipos de
emigrantes en función de las
preferencias que éstos manifiestan
basándose en dichas dimensiones:
la flexibilidad geográfica para
moverse
y
la
flexibilidad
profesional para cambiar de sector.
En el cuadrante superior izquierdo
se encuentran las personas que
disponen de mucha flexibilidad
geográfica, pero poca flexibilidad
profesional. Es decir, están
dispuestas a cambiar de país, pero
no están dispuestas a cambiar de
sector. Aquí situamos los casos de
los que llamamos «nuevos jóvenes
emigrantes», que afirman no estar
dispuestos a trabajar en lo que sea.
En cambio, en el cuadrante inferior
derecho
se
encuentran
los
individuos con mucha flexibilidad
profesional pero poca flexibilidad
geográfica. Personas que están
dispuestas a trabajar «en lo que
sea», pero no a desplazarse de su
lugar de residencia. Titulados (o no
titulados) que prefieren trabajar en
cualquier ocupación o incluso
permanecer en el paro antes que
emigrar. Aquí se incluyen, por
ejemplo,
los
casos
de
sobrecualificación, en los que las
personas acceden a hacer un trabajo
que está por debajo de su nivel
profesional.
Una pregunta que subyace en
este análisis es si existe una mayor
valoración social de la flexibilidad
geográfica sobre la flexibilidad
profesional. En nuestra sociedad, el
valor relativo que se otorga a la
flexibilidad geográfica parece ser
mayor al de la flexibilidad
profesional, que se considera uno
de los aspectos menos aprobados
públicamente. Nuestra sociedad
percibe como poco deseable
aceptar trabajos «por debajo del
nivel de cualificación» o en
sectores donde la persona requiera
disponer de menor educación o
experiencia para trabajar. Sin
embargo, desde un punto de vista
económico, la rigidez tanto
profesional
como
geográfica
contribuye por igual a agudizar el
problema del emparejamiento de
vacantes con parados. Los motivos
para explicar este problema son
múltiples, aunque en el fondo
siempre subyacen fricciones en el
mercado laboral que no permiten
emparejar adecuadamente vacantes
con candidatos en búsqueda de
empleo. A veces, el problema de
emparejamiento es involuntario,
como en el caso de la formación
específica necesaria para un
determinado puesto de trabajo. Por
ejemplo, trabajadores del sector de
la construcción o la minería
difícilmente pueden recolocarse en
otros sectores que no sean
industriales. Pero a veces también
hay casos en los que el problema de
emparejamiento es voluntario. Por
ejemplo, el fenómeno de los nuevos
emigrantes que no aceptan trabajar
en puestos de trabajo que no
coincidan con su perfil profesional.
Por lo tanto, la rigidez del mercado
laboral también se debe en parte a
las preferencias de nuestra fuerza
laboral.
En este sentido, puede resultar
paradójica la experiencia de
personas que emigran con la
expectativa de conseguir empleos
en sus sectores profesionales, pero
acaban aceptando empezar por
otros puestos no relacionados con
su profesión, cosa que en España
difícilmente
aceptarían.
Estas
personas realizan un «cambio de
cuadrante» en el extranjero sin
haber pasado por esa senda en
España. La pregunta es: ¿qué nos
dice este tipo de comportamiento?
Dos cosas. La primera es que en el
extranjero no existe la presión
social negativa de aceptar un
trabajo por debajo de las
cualificaciones, y sí existe la
presión de tener que obtener
ingresos
para
poder
seguir
buscando el empleo deseado. La
segunda es que, en el extranjero, el
emigrante mantiene una expectativa
clara de poder acceder al empleo
deseado (y de ahí el sacrificio),
mientras que en España esa
expectativa no existe.
En términos generales, lo que
observamos es que la mayoría de
los trabajadores sienten un legítimo
derecho de desarrollar su carrera
profesional en el campo en el que
han decidido educarse y son muy
reacios a trabajar en ocupaciones
distintas. Esto significa poca
flexibilidad profesional. Si España
quiere contrarrestar esta «rigidez
natural» del mercado laboral, es
necesaria una cierta planificación
para coordinar la formación con el
modelo productivo, es decir,
incentivar la formación de las
personas
en
los
sectores
económicos que están demandando
más empleo. Respecto a la
flexibilidad geográfica, también es
necesario aceptar que el paradigma
laboral mundial ha cambiado y que
necesitamos formar capital humano
listo para competir globalmente en
igualdad de condiciones con el
resto de los países. La primera de
mis reflexiones va dirigida a dar
unas pinceladas sobre lo que está
pasando actualmente en el mundo y
cómo deberíamos pensar en el
empleo hacia el futuro.
Primera reflexión: Los años
noventa ya no existen, y no
podemos seguir intentando vivir
en ellos
Después de los años noventa,
hemos entrado en una época de
profundos cambios tecnológicos,
económicos y sociales, que podría
ser comparable a otras grandes
revoluciones de la historia.
Probablemente dentro de unos años,
cuando
exista
una
mejor
perspectiva histórica, se catalogue
a esta transición de milenio como la
tercera revolución industrial. A la
cabeza de este cambio está el
fenómeno de la globalización, con
internet como uno de sus
estandartes más visibles. La
globalización está en una fase
incipiente y aún le queda mucho
recorrido.
Una
de
sus
consecuencias más palpables es el
proceso de «reequilibrio» del
orden económico mundial. Las
economías emergentes ganan peso
en el conjunto de la economía
mundial. Por ejemplo, los países
BRIC (Brasil, Rusia, India, China)
cada vez tienen más relevancia
económica. Para hacernos una idea,
entre 2000 y 2008 la mitad del
crecimiento económico mundial
provino de estos cuatro países.
Pero ¿qué sabemos de los BRIC?
Mi impresión personal es que,
en
general,
tenemos
un
conocimiento limitado. Hagamos
una
pequeña
apuesta
para
comprobarlo: 10 euros por los
nombres de 10 empresas chinas de
las 207 que están entre las 2.000
más importantes del mundo, según
la clasificación anual que Forbes
hace de las compañías públicas
más grandes y poderosas del
mundo. Una pista, las tres primeras
de la lista son bancos chinos
(ICBC,
Banco
Chino
de
Construcción y Banco Agrícola de
China). Entre estas 2.000 empresas,
un total de 314 provienen de los
BRIC (25 brasileñas, 28 rusas, 54
indias y 207 chinas), que han ido
ganando enteros desde que se
comenzó a hacer esta clasificación
en 2004. Siguiendo este índice,
vemos que no sólo los BRIC se
están abriendo paso en el contexto
internacional, sino también otras
economías latinoamericanas y
asiáticas. Corea del Sur tiene 61
empresas en la lista, cifra que está
por encima de las 52 que tiene
Alemania o de las 27 que tiene
España. La realidad económica y
empresarial del mundo está
cambiando. Y hemos de entender
que este acontecimiento no es
pasajero, sino una tendencia estable
de cara al futuro.
La consultora internacional
PricewaterhouseCoopers
ha
realizado
un
informe
con
proyecciones
económicas
mundiales para el año 2050. Si nos
fijamos en las diez economías más
grandes por su nivel de PIB
nominal, nos encontramos con
China (1), India (2), Brasil (4),
Rusia (6), México (7) e Indonesia
(10). Si ampliamos la lista hasta las
veinte primeras, vemos a Turquía
(12), Corea del Sur (17), Vietnam
(18) o Arabia Saudí (19). En estas
proyecciones también queda de
manifiesto que Europa representará
cada vez una porción menor en el
conjunto de la economía mundial.
Sólo agrupando los 27 países
miembros de la Unión Europea
podría compararse con las tres
economías dominantes (China,
Estados Unidos e India). Me
sorprende que estas proyecciones
no parezcan inquietar lo más
mínimo en la Unión Europa, que
tengo la impresión de que mientras
trata de salir de la crisis está
sumida en luchas internas por el
control político y económico.
Nadie está planteando cuál debería
ser la estrategia de inserción de la
Unión Europa en el nuevo contexto
global. ¿Cómo queremos competir?
Esta cuestión debería ser el
asunto fundamental a resolver,
porque hay consecuencias de la
globalización que se adivinan
fácilmente. Una de ellas será un
lento proceso de deslocalización
industrial desde los países más
desarrollados hacia los países en
vías
de
desarrollo.
La
globalización ha traído un gran
incremento de los intercambios
comerciales, una mejora de las
comunicaciones físicas y virtuales y
la libertad para el movimiento de
capitales. Esto permite que las
empresas sitúen sus líneas de
producción en países donde la
mano de obra es mucho más barata,
al tiempo que sus productos llegan
a sus mercados de destino a un
coste menor. Igual que en su día
sufrimos
una
transformación
económica cuando se abandonó la
agricultura
como
principal
actividad económica y la población
se fue a las ciudades en busca de
trabajo, ahora hay que empezar a
prepararse para tener una economía
cada vez menos industrializada y
con más servicios. Sobrevivirá la
industria que genere valor añadido.
La innovación es una de las claves
para producir productos nuevos o
de una mayor calidad que permitan
a las empresas ser viables con
costes de producción mucho más
altos.
¿Cuál es el problema cuando
digo que hay que abandonar la
mentalidad de los años noventa?
Los paradigmas previos a la
globalización ya no se sustentan.
Hay que afrontar que las
condiciones de esa época es muy
probable que no vuelvan. El mundo
ha cambiado enormemente en los
últimos
veinte
años;
el
razonamiento de que estudiar una
licenciatura te daría acceso a un
trabajo estable y bien pagado de
nueve a cinco en la empresa del
pueblo o sus cercanías, y que eso a
su vez te permitiría comprar una
vivienda con una hipoteca a quince
años, fue la realidad de nuestros
padres y abuelos. Pero ya no es la
nuestra.
Nadie
discute
que
querríamos otra realidad, pero es
en ésta en la que nos está tocando
vivir. El gran problema de fondo es
que esta nueva situación supone una
gran conmoción para muchas
generaciones de jóvenes. Hemos
crecido con el modelo de nuestros
padres como referencia y con unos
objetivos y aspiraciones vitales que
ahora
vemos
violentamente
truncados.
La
globalización
(ayudada por la crisis) se ha
llevado aquel modelo de un
plumazo, y nadie nos ha explicado
este cambio de paradigma, ni nos
han preparado para estar listos ante
la nueva realidad.
¿Y qué pueden hacer los
jóvenes? Es comprensible que la
primera reacción sea la indignación
y la resistencia al cambio. Pero
cuanto antes interioricemos el
funcionamiento del mundo actual,
más fácil nos será adaptarnos a él.
Un consejo muy valioso que uno de
mis mentores me dio cuando llegué
a Estados Unidos fue que, antes de
abordar cualquier decisión de
carrera profesional, primero era
fundamental que observase e
interpretase el entorno. En este
sentido, la globalización también ha
supuesto un gran cambio en la
forma de trabajar. Por eso quisiera
dar algunas claves del entorno
laboral,
particularmente
con
relación a por dónde están yendo
las tendencias en materia de
contrataciones y búsqueda de
perfiles profesionales. Entender y
adaptarse a estos cambios en el
mercado laboral es clave para
mejorar la empleabilidad de los
jóvenes, ya sea en España o en el
extranjero.
Como
decía
el
presidente estadounidense Franklin
D. Roosevelt: «No siempre
podemos construir el futuro para
nuestros jóvenes, pero sí podemos
construir a nuestros jóvenes para el
futuro». Esta gran frase me lleva
directo a mi siguiente reflexión.
Segunda reflexión: El valor de lo
que nadie nos explica
Que el árbol de la crisis no nos
impida ver el bosque de la
globalización. La crisis ha puesto
las cosas extremadamente difíciles
a muchos jóvenes, pero el
acontecimiento de fondo que
tenemos que tener en mente es la
globalización. El mundo es hoy un
lugar mucho más interconectado y,
ciertamente,
mucho
más
competitivo que hace tan sólo unas
décadas. Cuando voy al campus de
mi universidad, veo que hay un alto
porcentaje de estudiantes asiáticos
que vienen a Johns Hopkins para
obtener formación en Estados
Unidos. He tenido la misma
impresión en una visita reciente que
hice a la Universidad de
Newcastle, en Inglaterra. Cuando
he trabajado con países como
Colombia, México o Brasil, me he
encontrado
en
instituciones
públicas con mandos de nivel
medio que tenían estudios de
posgrado en universidades como
Harvard o la London School of
Economics. Éstos son algunos
ejemplos para ilustrar que no sólo
los
ciudadanos
de
países
occidentales tienen acceso a
formación universitaria de calidad
y que hoy en día la competencia
laboral está globalizada.
Como leía recientemente en el
Informe sobre la calidad del
empleo joven, becarios y prácticas
que elaboró el Consejo de la
Juventud de España, «la formación
por sí misma ya no garantiza un
lugar en el mundo del trabajo,
simplemente sirve como primera
condición de ingreso en el
mercado». Esto me recuerda a
cuando en clase de matemáticas me
explicaban
las
condiciones
necesarias y las condiciones
suficientes. En este caso podríamos
decir que la formación es hoy en
día una condición necesaria pero no
suficiente para acceder al mercado
laboral. Se necesita más que
educación. En esta línea, la
Organización Internacional del
Trabajo (OIT) señala que, para la
inserción laboral, cada día son más
importantes las llamadas soft skills,
como, por ejemplo, conocer
idiomas, saber hablar y exponer
adecuadamente en público, o bien
habilidades de negociación e
interrelación laboral. Este conjunto
de destrezas son fundamentales
para muchos puestos de trabajo,
más incluso que los conocimientos
puramente técnicos. El problema es
que nuestro sistema educativo no se
preocupa por desarrollar estas
habilidades hoy consideradas cada
vez más imprescindibles, lo cual de
alguna manera supone un déficit
competitivo.
En mi experiencia personal,
superar este déficit competitivo
supuso algunos esfuerzos. Recuerdo
con
mucha
claridad
dos
experiencias relacionadas con este
tema. La primera fue el año que
estuve en Glasgow con la beca
Erasmus. En la asignatura de
Estructura Económica, el principal
componente para determinar la nota
era la realización de una
presentación al resto de la clase
sobre un tema de investigación.
Supuso un gran reto para mí
viniendo de un modelo educativo
de clases magistrales donde el
alumno tiene un rol muy pasivo. De
hecho, fue la primera presentación
en público que hice en mi vida, y
encima fue en inglés. Aún recuerdo
el mal trago. La segunda
experiencia fue cuando empecé a
trabajar en prácticas en un fondo de
inversiones. Seguía el «código
laboral español»: esperar a que
alguien me dijese lo que tenía que
hacer, obedecer esas órdenes al pie
de letra y centrarme en hacer un
buen trabajo técnico para que mis
supervisores se dieran cuenta de mi
buen trabajo. Es decir, que mi
trabajo hablase por sí solo. A mi
lado, otro joven analista acababa
de llegar también al fondo;
llamémosle el «pequeño Nicolás».
Su enfoque era completamente
distinto. Hacía muy poco trabajo
técnico, pero intervenía en las
reuniones, se pasaba el día tomando
cafés con los supervisores y
organizaba
eventos
para
relacionarse con compañeros y
jefes. ¿Cuál de los dos crees que
consiguió renovar su contrato más
rápido? Efectivamente, fue Nicolás.
La moraleja es que no sólo lo
técnico es importante, sino que la
inteligencia social y emocional
también es fundamental en el
desarrollo
de
una
carrera
profesional exitosa.
Otro ejemplo más interesante
que me gustaría utilizar para
explicar
la
importancia
de
completar la educación teórica con
habilidades sociales es la nueva
filosofía de selección de personal
de la empresa Google. El gigante
de la tecnología tiene una política
de contratación revolucionaria que
está siendo ampliamente comentada
en el mundo de los recursos
humanos. Google se ha pasado años
analizando quién tiene éxito dentro
de su compañía, lo que ha hecho
que se aleje de métodos clásicos de
selección por «credenciales», como
las notas promedio de las
titulaciones y los test de
inteligencia. Para Google, ser
exitoso en la universidad no
siempre es síntoma de ser capaz de
hacer bien un trabajo, ya que la
universidad puede ser un «ambiente
artificial» y condicionar la forma
de pensar. Google está interesado
en la habilidad cognitiva para
aprender sobre la marcha y poder
integrar pedazos de información
diversa y desestructurada. Para
ello,
utiliza
entrevistas
de
comportamiento en las que, por
ejemplo, en vez de preguntar
cuántas pelotas de tenis entran en
una cancha de tenis, te puede
preguntar cómo has reaccionado en
el pasado ante un problema
concreto al que te has enfrentado.
En definitiva, están más interesados
en qué piensas y cómo te comportas
a la hora de resolver problemas que
en tus credenciales y títulos
académicos.
Es por eso por lo que en la
época en la que vivimos el éxito
profesional depende, en gran
medida,
de
un
ejercicio
fundamental:
la
introspección
personal. Para poder diseñar un
plan coherente sobre nuestra
carrera profesional, tenemos que
ser conscientes y honestos sobre
cuáles son nuestras capacidades y
habilidades, cuáles son nuestras
motivaciones y cuál es nuestro
estilo de comportamiento y
reacciones
ante
determinadas
situaciones en el trabajo. Por
ejemplo, un perfil de persona que
Laszo Bock, gerente de recursos
humanos de Google, dice que no
contratan es aquel que cae en «la
trampa de la atribución del error».
Un comportamiento que estoy
seguro que todos hemos visto
millones de veces en nuestros
trabajos. Si algo sale bien es
porque soy un genio, pero si algo
sale mal es porque alguien ha
metido la pata, porque las
condiciones del mercado han
cambiado,
porque
no
tenía
suficiente personal, etc. La
autocrítica y el espíritu de mejora
constante son esenciales. También
tenemos que ser sinceros en el
análisis de los límites contextuales
y personales. Es decir, los factores
externos que limitan nuestras
opciones, y las áreas en las que
tenemos potencial para mejorar.
Creo que el futuro de nuestro
trabajo depende de nosotros
mismos más de lo que creemos. En
este nuevo escenario donde el
empleo es más escaso y la
competencia es cada vez mayor, la
única seguridad en el empleo que
tendremos será la que nosotros
mismos generemos cultivando
nuestra propia «empleabilidad».
Cultivar la empleabilidad puede
darse de muchas formas. En mi
caso personal sentí que, después de
varios años en el mismo trabajo,
necesitaba
una
actualización
profesional, y a los treinta y un
años decidí abandonar un trabajo
excepcionalmente pagado para
volver a estudiar. Fue un gran
riesgo, pero desde mi punto de
vista era más arriesgado seguir
haciendo lo mismo y devaluarme
profesionalmente. La pregunta que
me hice fue: si todos tenemos una
licenciatura en una universidad
pública de similar calidad, ¿cuál es
el valor de esa licenciatura? En
términos económicos, cuando un
bien se masifica pierde valor.
Cuando pierdes valor te conviertes
en un producto indiferenciado al
que no le queda más alternativa que
competir en precio. Cultivar la
empleabilidad
significa
diferenciarse. Cada uno es su
propia marca y tiene que intentar
añadirse valor continuamente. Pero
¿quién
valora
nuestra
empleabilidad? En mi siguiente
reflexión me gustaría hablar de la
meritocracia y de la red de
contactos profesionales.
Tercera reflexión: Sobre
enchufados y pelotas
La última reflexión es sobre el
sistema de valoración de perfiles
profesionales en el mercado
laboral. ¿Qué hay que hacer para
acceder a un nuevo puesto de
trabajo? Hay que hacer méritos, hay
que hacer contactos, o una
combinación
de
ambos.
Normalmente tendemos a pensar
que sólo es importante hacer
méritos y no le damos importancia
a hacer contactos. Los jóvenes
tienen que entender que el
networking es tanto o más
importante que sus méritos. Por eso
he querido centrar el título de la
sección en dos figuras muy
mentadas por todos en nuestros
ambientes
laborales:
el
«enchufado» y el «pelota». Si nos
paramos a pensar qué tienen en
común estas dos figuras, el hilo
conductor parece ser la prioridad
que ambos dan a la red de contactos
laborales sobre el resto de las
cosas. Por un lado, el enchufado es
la persona que hace valer su red de
contactos para conseguir un trabajo
o un ascenso, y por otro, el pelota
es el que intenta ampliar y mejorar
su red de contactos con rangos
profesionales superiores para que
esto le sirva como medio de
progreso profesional. ¿De dónde
surge nuestra animadversión por
estas figuras? La principal razón es
que, en la base de nuestra estructura
lógica de valores, suponemos que
funcionamos
en un sistema
exclusivamente meritocrático. En
teoría, tanto el enchufado como el
pelota atentan contra las reglas de
juego acordadas por la sociedad y
tratan de usar otros mecanismos
distintos
a
los
socialmente
aceptados para avanzar en su
carrera.
La siguiente pregunta que se
origina es: ¿estamos realmente en
un sistema meritocrático? Para
hablar de este tema, vamos a hacer
un pequeño viaje hasta Boston para
conocer el trabajo de un genio de
nuestro tiempo, César Hidalgo,
director de macroconexiones en el
MediaLab del Instituto Tecnológico
de Massachusetts (MIT). En uno de
sus artículos publicados en la
revista científica Nature, César
investiga la premisa prevalente de
que
los
mercados
son
meritocráticos. La investigación se
centra en explorar si los mercados
se comportan siempre de forma
meritocrática
cuando
estos
mercados son estructurados como
redes. El valor de la producción de
un agente en el mercado está
relacionado directamente con su
talento
(como
medida
de
meritocracia). Si tenemos un mayor
grado
de
talento,
nuestra
producción tiene más valor en el
mercado. Y si el mercado está
conectado
completamente
y
podemos vender nuestra producción
a cualquier agente dentro de la red,
el sistema funciona como una
meritocracia perfecta. Pero si
asumimos que el mercado no está
conectado completamente, y un
agente tiene que pasar por varios
puntos de la red (agentes que
intermedian y se quedan con un
porcentaje) para poder vender la
producción, entonces el mercado no
funciona totalmente como una
meritocracia.
En
este
sentido,
César
diferencia dos tipos de sistemas:
meritocrático y topocrático. Es
decir, un sistema en el que la
distribución de los pagos está
determinada principalmente por la
capacidad de un agente para
producir contenidos de calidad o
bien un sistema en el que los
beneficios de un agente están
determinados principalmente por su
posición dentro de la red. Uno de
los aspectos más interesantes en el
análisis es la determinación de
cuándo un sistema pasa de ser
topocrático a meritocrático en
función de la conectividad de sus
agentes. Según sus cálculos, para
una población como la de Estados
Unidos, de 300 millones de
personas, una persona necesitaría
tener 17.000 conexiones para que el
sistema
fuera
meritocrático.
Inversamente, si en este contexto
tomamos una persona que tiene 150
conexiones, la red tendría que ser
de hasta 22.000 personas como
máximo para que ésta fuese
meritocrática. En esencia, lo que
este modelo ilustra es que si en
general los agentes tienen un
número de conexiones pequeño y
limitado en comparación con el
número de puntos que existe en la
red, el sistema tenderá a ser más
topocrático que meritocrático.
Así, si como sugiere Hidalgo
los mercados no siempre son
meritocráticos y nuestro grado de
conectividad dentro del sistema es
crucial, parecería ser que los
enchufados y los pelotas están en lo
cierto al conceder un gran valor a
la red de contactos profesionales.
Sin embargo, están totalmente
equivocados en la forma de crear,
cuidar y extender una red de
contactos. Para ilustrar la causa de
su error, vamos a viajar ahora hasta
San Francisco porque me gustaría
presentarte a una persona: Adam
Rifkin. Si tomamos como referencia
la lista Fortune de las 640 personas
más poderosas e influyentes del
mundo (los 500 gerentes generales
más importantes, los 50 más
inteligentes en sector tecnológico,
los 40 más influyentes de menos de
40 años y las 50 mujeres más
poderosas) y la cruzamos con la
base de datos de usuarios de
LinkedIn.com, vemos que Rifkin es
la persona que más conexiones
tiene con esta lista de personas.
Más incluso que Michael Dell,
fundador de la compañía Dell, o
Jeff Weiner, el mismísimo director
general de LinkedIn. ¿Cuál es su
secreto? Según cuenta Rifkin, su
secreto es crear una red de
contactos transparente, honesta y
desinteresada.
Y aquí es donde se equivocan
los pelotas (y los enchufados), ya
que basan sus redes de contactos en
la reciprocidad, es decir, en hacer
algo por sus superiores con la clara
intención de recibir algo a cambio.
Ésta es una vieja regla que existe en
la humanidad desde tiempos
inmemoriales, pero como dice el
profesor Adam Grant, de la escuela
de negocios de Wharton en la
Universidad de Pennsylvania, la
reciprocidad tan explícita en los
ambientes laborales tiene dos
inconvenientes. El primero es que
los receptores pueden sentirse
manipulados, creando la sensación
de una transacción impersonal más
que de una relación sincera. La
segunda es que si sólo te centras en
las relaciones con tus supervisores,
estás limitando el tamaño de tu red
porque sólo te estás centrando en lo
que
consideras
posibles
«oportunidades de negocio». En
definitiva, con este enfoque
estaríamos reduciendo tanto la
calidad como la cantidad de nuestra
red de contactos. Por el contrario,
Rifkin dice que ha construido su red
a base de ayudar a los demás de
buena fe, lo que le ha permitido no
sólo tener una buena y sólida
reputación, sino también cultivar
una red más amplia, más duradera
en el tiempo, y que está más
dispuesta a ayudarlo en cualquier
momento. Hasta aquí llega la
tercera reflexión. Tiempo de pasar
al cierre del capítulo.
En el futuro hay cal y arena
Como hemos explicado al principio
del capítulo, la situación laboral
para
los
jóvenes
titulados
españoles no es buena. Si
analizamos los datos de Eurostat y
el Servicio Público de Empleo
Estatal (SEPE), vemos que España
está entre los países de la Unión
Europea que más titulados produce
(anualmente
se
gradúan en
universidades españolas cerca de
220.000 estudiantes), pero se
encuentra entre los países que
menos empleo de alta cualificación
demanda. A consecuencia del
desfase entre oferta y demanda de
trabajo,
España
lidera
las
estadísticas de sobrecualificación
laboral de la zona euro. Uno de
cada tres titulados universitarios
españoles está empleado en un
trabajo por debajo de su
cualificación. Por otro lado, según
investigaciones de la Universidad
Carlos III, los jóvenes titulados
españoles necesitan de media más
de cinco años de empleos
temporales y experiencias de
desempleo para acceder a su
primer empleo indefinido, y el
número
medio
de
empleos
temporales necesarios antes de esta
transición al empleo indefinido
asciende a más de siete. La buena
noticia es que en los próximos
años, con la salida de la crisis, la
situación del desempleo juvenil se
aliviará un poco e irá mejorando
progresivamente. Aunque no habrá
milagros.
Y me aventuro a decir que no
habrá milagros en parte por la falta
de proactividad de los agentes
sociales, principalmente gobiernos
y sindicatos. El grandísimo
economista John K. Galbraith
hablaba
de
«las
mayorías
satisfechas» en las sociedades
capitalistas
occidentales.
Los
jóvenes no formamos parte de estas
mayorías, que son las que sustentan
electoralmente tanto a gobiernos
como a sindicatos. Con una
población española que está
envejeciendo, los gobiernos tienden
a dar prioridad a otros colectivos,
como los jubilados, con lo que
creen que capturan más votos. Lo
mismo sucede con los sindicatos.
El perfil típico del trabajador
afiliado a los sindicatos (y por lo
tanto votante) es el de un asalariado
con contrato indefinido, de un nivel
educativo medio-bajo, de avanzada
edad, con mayor antigüedad y que
trabaja en empresas de gran
tamaño. Por lo tanto, el desempleo
juvenil no supone un problema
prioritario para el núcleo del
electorado
de
gobiernos
y
sindicatos. La mejora económica
hará que el desempleo vaya
descendiendo, pero los salarios
bajos, la temporalidad o la
sobrecualificación son fenómenos
que requieren políticas públicas de
reforma del mercado laboral. Y no
deberíamos depositar nuestras
esperanzas
en
algo
que
históricamente no hemos sido
capaces de hacer. En España las
cosas se hacen por inercia, descarte
o impulsos. No suele haber
estrategias
coordinadas
y
consensuadas a largo plazo.
En este contexto nacional e
internacional
tan complicado,
debemos tomar la iniciativa para
buscar respuestas, y no depender
exclusivamente de que alguien
venga a solucionar nuestros
problemas. También quiero señalar
que aunque haya menos empleo
asalariado tradicional, todavía hay
y habrá muchas oportunidades
laborales, y por esta razón hay que
adaptarse al nuevo entorno
cultivando constantemente nuestra
empleabilidad y nuestras redes de
contactos. En momentos difíciles es
fundamental tener una noción de lo
que se quiere hacer y cómo se ha de
actuar para conseguirlo. El sentido
que más tienen que agudizar los
jóvenes españoles es el de la
planificación
estratégica.
Por
ejemplo, a los jóvenes que están
pensando qué estudiar, les diría que
den un vistazo al nuevo mapa de
empleo
del
Ministerio
de
Educación, en el que pueden ver las
licenciaturas con más y con menos
salida laboral. A los jóvenes que
tienen un empleo indefinido, les
diría que no se duerman en los
laureles
e
intenten
seguir
mejorando. En España, somos de
los países que menos tiempo
dedicamos a la formación y el
aprendizaje a lo largo de la vida
laboral y no podemos darnos el lujo
de quedarnos desactualizados. A
los jóvenes que tienen un trabajo
temporal o un trabajo para el que
están sobrecualificados les diría
que aguanten y persistan. Que
recuerden que siempre es más fácil
encontrar un nuevo empleo cuando
ya tienes uno. A los jóvenes que
están desempleados les diría que lo
peor es la parálisis. A ese colectivo
de jóvenes con poca cualificación
que se sumó al boom de la
construcción les diría que aún están
a tiempo. Esta crisis es una
oportunidad de volver al sistema
educativo para aprender un nuevo
oficio y reorientar su carrera
profesional.
Y a los jóvenes desempleados
de mayor cualificación que están
barajando irse al extranjero les
diría que en su caso es todavía más
importante
la
planificación
estratégica, porque desde fuera
resulta muy difícil valorar la
realidad del mercado laboral de
otros países. Al analizar las
experiencias de los que habíamos
denominado «nuevos emigrantes»,
se observa que las barreras de
entrada y adaptación a los
mercados laborales extranjeros
hacen que algunos de ellos cambien
de estrategia y acepten comenzar en
trabajos
de
bajo
salario,
temporales, o para los que están
sobrecualificados. Mi visión es que
emigrar es difícil y tiene costes
emocionales muy altos. Es muy
duro tener que dejar atrás familia,
amigos
y
costumbres.
Mi
perspectiva es que para irte a miles
de kilómetros a hacer un trabajo
que no supone un claro paso
adelante en tu carrera profesional,
es mejor quedarte cerca de los
tuyos. No digo que sólo se deba
emigrar con trabajo asegurado, sino
que es mucho más efectivo cuando
estudiamos el país de destino,
hacemos contactos locales para
conocer mejor la realidad y
llevamos un plan trazado con lo que
queremos hacer. Mi otro consejo es
que mires a Latinoamérica porque
es sin duda nuestra aliada natural.
Un continente con más población
que la Unión Europea, que está
creciendo económicamente, que
necesita mano de obra cualificada
en muchos sectores económicos y
que, además, habla nuestra lengua.
Y para concluir, digo a todos los
jóvenes españoles que si tienen una
buena idea y la convicción de que
puede funcionar, no duden en
lanzarse a la aventura de crear una
empresa o una cooperativa. La
globalización trae retos, pero
también oportunidades. El mundo
es un lugar cada vez más complejo,
con muchos problemas por
resolver, y por ende con más
oportunidades
para
ideas
innovadoras.
Hasta aquí llega el pequeño
viaje que hemos hecho para revisar
algunas de las claves del
desempleo juvenil y la emigración
laboral. Pero no puedo hacerlo sin
recordar, por último, una cita del
escritor irlandés James Joyce: «Soy
hoy lo que decidí ayer. Seré
mañana lo que decida hoy».
10
Innovación: todo lo que se
pueda hacer mal, se hará
mal
XAVIER FERRÀS Y JAVIER GARCÍA
Cuatro principios a tener en
cuenta: Lo contrario es también
frecuente. No basta mover para
renovar. No basta renovar para
mejorar. No hay nada que sea
absolutamente empeorable.
ANTONIO MACHADO
Comencemos con una anécdota que
nos pasó a uno de nosotros. Ocurrió
en una reunión con un «selecto»
grupo de empresas punteras en I+D
(investigación y desarrollo) y
tecnología. Un directivo, a punto de
jubilarse, que representaba a una
potente multinacional nos dio una
gran lección. Fue justo en el
momento en que un joven consultor,
también de otra gran firma, nos
decía que España tenía un serio
problema porque sus empresas no
invertían en I+D. Antes de pasar al
siguiente punto, el hombre levantó
la mano y cortó de lleno al joven,
diciéndole:
«Siempre decís lo mismo, que
las empresas no invierten en
innovación.
Pero
nunca
os
preguntáis por qué, ni mucho menos
habláis de lo que hay que hacer
para que esto ocurra. Tendéis a
pensar que la solución es más
dinero y cambios sutiles en las
convocatorias públicas, pero no
funciona. No mejoramos en
nuestros resultados. En cambio, me
gustaría compartir con vosotros una
reflexión en voz alta [en ese
momento era el centro de atención
de los más de treinta directivos que
había en la sala]:
»Cuando acudo a la consulta de
un doctor, me habla de los nuevos
estudios, observo que maneja
libros, revistas científicas, y que
los domina con soltura. Si tengo un
problema legal, observo que
nuestros
abogados
están
constantemente leyendo, y dominan
las novedades y sus implicaciones,
estudiando
los
cambios
y
perfeccionando su conocimiento.
Nuestros ingenieros, repartidos por
el mundo, estudian con sumo detalle
cada problema con el que se
enfrentan consultando estudios.
Muchos de ellos están a la
vanguardia y tienen un amplio
conocimiento de lo que se publica
en las revistas científicas.
»Pero ¿y los empresarios?
Cuando me reúno con algún
empresario, y lo hago a menudo, no
encuentro ningún libro en su
despacho, y alguno hasta se
vanagloria de ello. Tenemos
empresarios muy poco formados,
con muy poca motivación para estar
al día, por saber lo que pasa en el
mundo, por cultivar y destinar
fuerzas a mejorar lo que saben y
para aprender constantemente.
»Ahí está el problema, y esos
empresarios
mandan
mucho,
deciden muchas cosas, y no
premian ese esfuerzo por saber,
conocer y mejorar. Y sin eso no hay
innovación. No habrá innovación
sin estrategia y sin entrenamiento».
Aquel directivo trató un tema
clave: ¿por qué España es un
desastre en innovación o al menos
siempre y en todos los informes
internacionales salimos tan mal en
la foto? ¿Por qué cuando la mayoría
de los países salen de la crisis con
sistemas de innovación y educación
fortalecidos y renovados, en
España la inversión en I+D
languidece, cae año tras año, y se
sitúa sólo al nivel de un país
emergente (la que tenía China hace
una década) y casi a una tercera
parte de lo que recomienda la
Unión Europea? ¿Por qué si
disponemos de una muy elevada
masa crítica universitaria y de
investigación, no nos comemos una
rosca en la economía del
conocimiento? ¿Por qué sólo surgen
empresas innovadoras en sectores
no tecnológicos? Tratemos de
adentrarnos en este tipo de
preguntas para ver si somos
capaces de abordar algunas de las
cuestiones que planteaba aquel
directivo con mucha experiencia a
sus espaldas.
Y es que ni planificándolo ex
profeso hubiéramos conseguido tan
malos resultados. No importa que
los países que quieren liderar el
futuro tengan la innovación como
prioridad estratégica. No importa
que el mundo asista a una corriente
de reconcentración (reshoring) de
actividades
productivas,
atrayéndolas a sus países de origen
y situándolas junto a renovados
centros de I+D. No importa que
Estados Unidos invierta en I+D
(público y privado) 23 veces más
que España, que China lo haga 12
veces Japón 8, Alemania 4, Corea
del Sur 3 y Francia y Reino Unido
entre 2 y 3 veces más. No importa
que nos situemos a prácticamente la
mitad de la intensidad tecnológica
europea (1,24 por ciento I+D sobre
PIB frente al 2 por ciento europeo),
o a una tercera parte de los
objetivos de la Unión Europea (3
por ciento), cuando es un hecho que
la capacidad de competir de las
empresas y la productividad de las
naciones dependerá de su capital
tecnológico.
No importa, tampoco, que
nuestros
políticos
intenten
convencernos
de
que
sólo
«ganamos
competitividad»
si
perdemos calidad de vida. Esto
siempre es un mito: compiten las
empresas, no los países (aunque los
países deben crear las condiciones
de entorno para hacer emerger y
propulsar
empresas
líderes
globales). Son las empresas en un
contexto y con unas instituciones,
con unos incentivos determinados,
las que toman las decisiones de
inversión,
entre
ellas
en
innovación. El modelo económico
de España resultante tras la crisis
se parece más al de Marruecos que
al de Alemania. Pretendemos que
nuestras empresas y la economía
española ganen competitividad
vendiendo más barato, expulsando
del mercado de trabajo a cinco
millones de personas, reduciendo
los salarios a niveles del tercer
mundo, precarizando la sociedad,
invitando a millones de jóvenes a
hacer las maletas y buscarse la vida
en otros lugares, exterminando las
clases medias y poniendo, incluso,
en peligro la democracia. Pese a
todo ello, la innovación sigue sin
importar.
Tras cinco años de importante
crisis en España, un amplio grupo
de asociaciones e instituciones
científicas de carácter nacional e
internacional hacía llegar al
presidente del gobierno una «Carta
abierta por la ciencia en España»
respaldada también a título
individual por más de 26.000
científicos de ochenta países.
Apoyaban la carta seis premios
Nobel, numerosos premios Príncipe
de Asturias, premios Nacionales de
Investigación y académicos de
reales academias españolas e
internacionales.
El
consenso
emergente es claro: España no es
un país para científicos. Los brotes
sembrados durante las dos últimas
décadas pueden ser erradicados por
la falta de recursos y la
incertidumbre
que
asola
el
panorama
español.
Los
investigadores jóvenes, ya de por sí
acostumbrados a la movilidad
internacional,
pueden
acabar
abandonando masivamente el país
ante la falta de perspectivas que la
coyuntura española presenta.
La
investigación
y
la
innovación constituyen para la
teoría económica moderna el
núcleo del crecimiento a largo
plazo. En los países desarrollados,
con la mujer ya plenamente
incorporada al mercado de trabajo,
las ganancias de productividad y de
bienestar se producen sólo cuando
la innovación altera los procesos
productivos
para
conseguir
producir más con menos recursos.
Este proceso de descubrimiento
abre
nuevas
oportunidades
productivas en las denominadas
«actividades basadas en el
conocimiento». Pero, tras años de
tímidos aumentos, la crisis ha
puesto freno a la inversión en I+D.
A pesar de que la percepción del
ciudadano y el discurso político
coinciden en la importancia de la
I+D como motor de progreso, los
recursos no se materializan y cada
año se acumulan nuevos descensos
de los fondos públicos a través del
recorte de subvenciones, de becas o
de financiación de centros de
investigación. Además, el volumen
total de inversión privada es
también menor: mientras que la
empresa media europea invierte
unos 318 euros en I+D por
habitante, dicha inversión sólo
alcanza en España los 160 euros.
No obstante, la convicción
generalizada de que la I+D es la
senda inexcusable del progreso ha
convivido en España con la
percepción de que los esfuerzos en
este conjunto de actividades no han
dado todos los frutos que se podría
esperar, lo cual explicaría la
relativa pasividad de la ciudadanía
ante los recortes en esta área. La
mejoría producida durante las
últimas décadas no consiguió evitar
la formación de la burbuja
inmobiliaria
ni
ha
logrado
consolidar
ningún
clúster
tecnológico relevante en España.
Así, según las estimaciones del
prestigioso observatorio ABACO,
el PIB generado en «actividades
basadas en el conocimiento» se
mantenía en España muy por detrás
de la del resto de países
desarrollados. Concretamente, sólo
el 27,7 por ciento del PIB español
está compuesto por dicho tipo de
actividades, frente al 38 por ciento
en Francia, el 43,4 por ciento en
Italia o el liderazgo indiscutible de
Estados Unidos, con el 59,5 por
ciento.
¿Cuáles son los mecanismos de
inversión en I+D que conducen a un
aprovechamiento de la inversión
por parte de la economía real?
Producir conocimiento es complejo
y costoso, y la rentabilización de
dicha inversión, como explica la
geografía económica mundial,
requiere de una alta concentración
de inversiones, talento y capacidad
empresarial. Pero las disparidades
en España son muy amplias. Siete
de cada diez euros invertidos por
las empresas I+D se concentran en
cuatro
comunidades:
Madrid,
Cataluña, País Vasco y Navarra.
Salvo en el caso de País Vasco y
Madrid, dichas inversiones son
mucho menores que en el resto de
los países de la Unión Europa.
Parte del problema se encuentra en
que la innovación depende, en gran
medida, de la excelencia de los
centros de educación superior. Y,
según el Academic Ranking of
World Universities (conocido como
«Ranking de Shanghái»), no hay
ninguna universidad española entre
las doscientas mejores del mundo.
¿Qué ha fallado en España?
¿Podrán las actividades basadas en
el
conocimiento
liderar
la
recuperación en medio de una
coyuntura tan desfavorable para la
I+D?
No podemos caer en el mito de
que si no se innova en España es
porque no existen empresas
innovadoras. ¡Qué mala suerte!
Como podrás observar con
ejemplos muy claros y cotidianos
en el siguiente capítulo, esto no es
necesariamente así. Y es que existe
un
hecho
incontestable:
la
capacidad innovadora de un país no
depende sólo de sus empresas. Los
designios del mercado no tienen
por qué estar alineados con la
competitividad nacional a largo
plazo. El mercado es inteligente,
por eso opta por máximos retornos
en mínimo tiempo, si es necesario
asignando recursos a sectores
especulativos,
como
la
construcción.
La capacidad innovadora de un
país depende de las políticas de
innovación que se establezcan para
desarrollar sectores competitivos
de alta tecnología. Y ello se hace
mediante el impulso público a la
I+D y mediante programas de
financiación de alto riesgo a
proyectos
de
muy
elevada
tecnología. Así lo han hecho los
países líderes: Israel, Finlandia,
Corea
del
Sur,
Singapur,
Dinamarca, Alemania o, más
recientemente, China (que ya ha
superado a Estados Unidos en
número de patentes registradas
cada año). Así lo hacen los líderes.
Y así no lo estamos haciendo en
España.
La innovación es un juego payper-view
Entre 2008 y 2011 el número de
empresas innovadoras se redujo en
España en un 43 por ciento,
mientras
que
aquellas
que
declaraban actividades de I+D
cayeron en un 36 por ciento.
Exportamos y quizás empezamos a
salir de la crisis, pero la famosa
«devaluación interna» no ha sido
más que un formidable ejercicio de
destrucción de valor: se reducen
precios, se reducen márgenes, se
reducen salarios, se reduce
plantilla y, con ello, volvemos a
situarnos en la cola de los países en
vías de desarrollo. El incipiente
sistema de ciencia-tecnología e
innovación se está desintegrando. Y
mientras, en los países de nuestro
entorno, se aplican recortes pero se
mantienen intactas las partidas de
educación, ciencia e innovación,
las que han de garantizar el
porvenir. Se recortan gastos, pero
se protegen las inversiones de
futuro.
El
cambio
de
modelo
productivo, si se produce, vendrá
por la base: serán las pymes y las
startups las que liderarán los
cambios disruptivos. La historia de
la industria demuestra que no son
las grandes empresas las que
encabezan los cambios de modelo,
sino las jóvenes y emergentes
empresas, que son las que generan
los cambios rompedores. La
monarquía jamás liderará una
revolución. Y más en España,
donde las empresas del IBEX son
mayoritariamente de sectores de
servicios
financieros,
constructoras,
energía
o
distribución.
Sectores
poco
tecnológicos y regulados o muy
dependientes de la Administración
(en general, poco abiertos a la
competencia internacional y poco
proclives a crear cadenas de valor
industriales en el territorio).
En tan sólo ocho páginas,
Michael Mandel, responsable del
área de economía del Progressive
Policy Institute (PPI), think tank de
referencia internacional, abrió un
debate apasionante. Si queremos
transformar la sociedad y abordar
los grandes problemas a los que
nos enfrentamos en ámbitos tan
complejos como la sanidad, la
energía, la tecnología o el
calentamiento global, es decir, para
seguir
generando
progreso
económico a través de la
innovación, ¿qué tipo de empresas
serán el motor? ¿Las de tamaño
grande o las de tamaño pequeño?
El impacto mediático de esta
sencilla idea, tras su difusión en
The Economist y Slate, ha sido
enorme. La primera tesis de Mandel
es «lo grande ha vuelto; lo grande
es inteligente». Según sus ideas,
Schumpeter sigue vivo: los
procesos de destrucción creativa se
aceleran con la globalización y
premian a las empresas grandes. Su
posición se podría resumir en tres
puntos:
1.
Un primer repaso a la
geografía
económica
mundial muestra que las
fronteras
están
«desapareciendo»:
el
mundo es cada vez más un
mercado único y la
actividad se concentra en
grandes «agujeros negros» o
«nodos»
de
actividad
económica —las ciudades,
conectadas en red entre sí
—. Los nodos de dicha red
son tupidos ecosistemas
empresariales liderados por
grandes corporaciones que,
a su vez, «arrastran» a una
multitud
de
pequeñas
empresas y startups y beben
de ellas, refuerzan su
liderazgo y canalizan la
innovación
hacia
la
sociedad.
2.
¿Qué sería Apple sin el
ejército de desarrolladores
que, repartidos por el
mundo, alimentan cada día
las aplicaciones para el
iPhone o el iPad? ¿Sería
posible Google o incluso
Gore-Tex? La inteligencia
colectiva es un potente
combustible
para
transformar
talento
en
innovación, pero dicha
combustión
suele
producirse dentro del motor
de una gran empresa que
aprovecha su tamaño para
afianzar su liderazgo.
3. Dado que el mundo es ya un
único mercado con el
talento disperso a lo largo y
a lo ancho del planeta, el
tamaño de los líderes
empresariales es vital para
aprovechar
toda
la
inteligencia colectiva. El
número de centros de I+D+i
de multinacionales que
cooperan con agentes y
universidades locales nunca
ha sido tan grande. Es el
paradigma
de
la
«innovación
abierta»:
innovación
consorciada,
clusterizada,
con
apalancamiento mutuo de
capacidades. Y el correcto
aprovechamiento
del
potencial
eleva
los
requerimientos financieros,
de infraestructuras y de
personal
altamente
cualificado
que
pueda
gestionar todo el proceso.
En contrapartida, ha ido
cobrando fuerza una corriente de
pensamiento que defiende el poder
de lo pequeño. The Economist
explicaba en «Los grandes pueden,
los pequeños lo hacen» que la
innovación no es sólo cuestión de
dinero, sino también de talento y de
capacidad para transformar una
idea en una organización sostenible
en el tiempo. La natalidad
empresarial sería, como opina una
empresa de capital riesgo en el
citado artículo, básica para crear la
nueva savia de la innovación:
No queremos que quien ha hecho
dinero en los años noventa decida
dónde invertir el dinero hoy. En
general, estos emprendedores no
son capaces de mantenerse en la
frontera
todo
el
tiempo.
Necesitamos socios que pongan su
dinero para que nos den la
oportunidad de encontrar al
Microsoft de mañana.
Las grandes empresas corren el
riesgo
de
convertirse
en
conglomerados burocráticos que
inhiben la creatividad y la
capacidad de reinventarse. De
hecho, Mandel hace hincapié en los
trabajos de investigación que ponen
de manifiesto la menor frecuencia
de innovaciones radicales en la
gran empresa respecto de la
pequeña. Las nuevas ideas que
rompen «las reglas del juego»
suelen darse en empresas con
estructuras
más
flexibles
y
adaptables, en empresas que
empiezan y apuestan (arriesgan) por
crear algo nuevo. Y, si en las
grandes
corporaciones
las
innovaciones suelen ser de proceso
(hacer lo mismo, a menor coste, lo
cual puede incluso destruir puestos
de trabajo) o de producto (sustituir
una gama antigua por una nueva, lo
cual es un juego económico de
suma cero), son las pequeñas
startups
los
vehículos
organizativos de la innovación de
ruptura, la que puede generar
nuevas industrias e inducir
crecimiento económico real.
Y es que no podemos olvidar
que Apple es hoy una gran empresa,
pero nació como un proyecto de
dos personas en un garaje en 1975,
y también Google y otras muchas
multinacionales de primer nivel. La
mayor parte de las empresas de la
lista Fortune 500 no estaban ahí
hace veinticinco años: la mecánica
evolutiva
de
los
sistemas
empresariales es imprescindible
para generar las innovaciones que
mejoran nuestra calidad de vida. El
tamaño actual de cada empresa es
el reflejo de su éxito innovador
durante el proceso de nacimiento y
crecimiento. Hay lugares donde las
ideas fluyen y el talento se
concentra
y
trabaja
para
transformar las ideas en productos
acabados. El éxito ocurre cuando
ese ecosistema se completa con
oportunidades
financieras
y
científico-tecnológicas.
Los datos parecen indicar que
la clave no está en el número de
empresas que se creen, ni tan
siquiera en el número de empresas
grandes que tengamos en nuestra
economía, sino en las posibilidades
que tienen las buenas ideas y los
buenos modelos de negocio de
florecer y progresar en la
economía. Mandel cita un dato
crucial: el 1 por ciento de las
empresas crea el 50 por ciento del
empleo. La propia Nesta, una
agencia británica de máximo
prestigio en ámbitos como la
innovación, tiene informes en la
misma dirección; sus estimaciones
apuntan a que el 6 por ciento de las
empresas en el Reino Unido han
sido las responsables de crear el 56
por ciento del nuevo empleo
durante los últimos ocho años.
Estas empresas, denominadas de
«alto
crecimiento»,
no
necesariamente empiezan por «bio»
o «nano», ni son importantes
startups
tecnológicas.
Son
empresas que nacen con modelos
claros de negocio y capacidad para
introducir, de forma escalable,
soluciones en el mercado.
La propia Nesta va más allá:
«Un 62 por ciento de las startups
que se crean en el Reino Unido no
alcanzan los diez años de
existencia. Un 10 por ciento de las
que sobreviven no logran tener más
de diez empleados, y sólo un 5 por
ciento crecen en empleo y se
mantienen en el tiempo». Por lo
tanto, «la clave no es sólo la
cantidad de empresas que se crean,
sino también su calidad».
La conclusión de Mandel es que
prestamos demasiada atención al
hecho mismo de la creación
empresarial —buscando la forma
de generar autoempleo, buscando
«emprendedores» por todos los
sitios— y, en cambio, descuidamos
el ecosistema necesario para que
puedan
desarrollarse
y
aprovecharse las oportunidades del
mercado global.
Con todo, el debate «pequeño
versus grande» tiene muchas
aristas. Las grandes empresas
necesitan a las pequeñas y precisan
de plataformas a través de las
cuales el talento les permita seguir
innovando sin involucrarse en
riesgos excesivos. Pero, según las
nuevas teorías del management —
con Gary Hamel a la cabeza y tal y
como también explicamos en otro
capítulo de este libro—, las
grandes empresas tienen serios
problemas
organizativos
para
seguir siendo flexibles y creativas y
para lanzar innovaciones radicales.
Nos encontramos en una época
en la que un gran número de
sectores —concretamente, aquellos
que producen servicios no rivales
en el consumo, como la música, el
cine, la prensa, el diseño— se están
transformando por completo, y sus
grandes estructuras, sus sistemas
competitivos internos y sus altos
costes estructurales los asfixian
hasta el punto de que pierden
aquello que les ha hecho «grandes».
En este contexto global, un
problema que tiene España es que
las pymes o las startups no pueden
tomar el relevo. No pueden innovar.
No pueden porque no existen
instrumentos
financieros
específicos.
La
innovación
comporta riesgo, incertidumbre y
experimentación. Y, por ello, jamás
la banca comercial (ni en sus
mejores tiempos) la financiará; se
necesitan nuevas lógicas, algunas
de las cuales las trabajamos en este
libro también.
En los países que actúan con
inteligencia estratégica y se
orientan a la generación de valor y
empleo de calidad, existen
organismos
específicos
de
financiación del riesgo, como la
agencia Tekes en Finlandia o
MATIMOP en Israel. En Estados
Unidos esta función la cubren las
compras públicas sofisticadas: la
política industrial en ese país es
una formidable combinación de
demanda temprana por parte de la
Administración —la NASA, sola,
tiene un presupuesto igual a la
totalidad de la I+D española—,
flexibilidad laboral y acceso rápido
a mercados financieros.
¿Por qué la pyme no innova más
en España? (Al menos no lo hace
desde
el
punto
de
vista
tecnológico...). La explicación es
sencilla. Imaginemos el siguiente
juego: tenemos en una urna 99 bolas
blancas y una roja. Para extraer una
bola, una empresa debe pagar
100.000 euros. Si saca la bola roja,
encontrará un suculento mercado de
100 millones de euros y con él
generará mil puestos de trabajo.
¿Jugarías? El juego, en el largo
plazo, es rentable, pues el coste de
extraer todas las bolas es de 100 ×
100.000 euros = 10 millones de
euros. El premio, 100 millones de
euros.
¡Juega! ¡Pon los primeros
100.000 euros! Ohhh..., ¡vaya! Bola
blanca. Ningún problema, las
probabilidades de que salga la roja
ahora son mayores. Has reducido la
incertidumbre. Estás avanzando en
tu I+D. ¡Vuelve a jugar! ¿No
dispones de los próximos 100.000
euros? Pídeselos a tus parientes y
amigos (fools friends and family).
¡Bola blanca! Ohhhh... Pero no te
preocupes, has vuelto a reducir la
incertidumbre. Estás más cerca de
la solución. Te quedan menos bolas
para encontrar el mercado. ¿No
tienes los siguientes 100.000 euros?
Ve al banco... ¿Cómo, que no te los
prestan? Claro... Te piden avales y
garantías por el doble. ¿Y la
Administración? ¿Te ofrece un
cursillo sobre emprendimiento? ¿Te
dice que tienes que innovar con
recursos propios? ¿No tienes
recursos para continuar?
Se acabó el juego. España no
innova porque la innovación tiene
una base probabilística. Para
innovar de verdad, para introducir
innovaciones de ruptura en el
mercado, hay que superar barreras
de incertidumbre. Desde la
investigación hasta la aplicación
práctica y el desarrollo de un
mercado hay un proceso de
experimentación que, en términos
agregados (de competitividadpaís), es rentable y genera
ocupación de alta calidad. Pero ni
las empresas ni los emprendedores
pueden permitirse el esfuerzo
individual, y la banca comercial
exige garantizar cada repetición,
una a una (no ve el conjunto). Hoy,
nadie ve el conjunto. Ése es un
trabajo de estrategia de país. Es
misión de los Estados asegurar esa
financiación.
La innovación es un negocio
pay-per-view. Avanzar en el
proceso que lleva al mercado exige
pagar a cada paso (investigación,
prueba de concepto, maquetas,
prototipos, escalado industrial...)
para reducir la incertidumbre del
siguiente. Y es algo que no puede
dejarse sólo al albur del tejido
industrial,
pequeño
y
muy
debilitado hoy. Es cierto que el
gran premio es para la empresa que
se lleva la bola roja (100 millones
de euros). Pero también es cierto
que
ese
premio
genera
«externalidades
económicas»
(empleo
de
calidad),
responsabilidad
de
la
Administración. Invertir en I+D
(especialmente industrial, que está
correlacionado
con
la
productividad económica del país y
tiene efecto multiplicador) es
generar externalidades positivas,
necesarias para crecer. Por ello, no
se debe recortar en ciencia ni en
investigación industrial. Como nos
decía en Sintetia un antiguo
ingeniero de la Agencia Espacial
Europea, Tim Harper:
Toda nuestra historia económica ha
estado basada en la innovación
tecnológica, algo que países como
China
o
Estados
Unidos
comprenden bien. El problema de
España es que es fácil hacer
recortes cuyos efectos no se
sentirán hasta dentro de muchas
elecciones. Recortar la financiación
científica ahora tendrá poco efecto
inmediato, pero has de preguntarte
por qué otros países no lo hacen.
Es el equivalente de vender una de
las cuatro ruedas de tu coche para
comprar gasolina.
Juan Grafeno en Innolandia, o
por qué no se innova en España
Juan Grafeno era un joven
sobradamente
preparado.
Doctorado en una prestigiosa
universidad
de
Innolandia,
basándose en su preparación
técnica, había descubierto una
clarísima oportunidad de negocio.
Según sus cálculos, su proyecto
originaría rápidamente varios miles
de puestos de trabajo de calidad y,
por sus características, su idea
generaría fuertes barreras de
entrada a la competencia y
elevados márgenes durante bastante
tiempo.
No obstante, existía un grave
inconveniente: había un problema
tecnológico no resuelto. Para hallar
la solución, Juan Grafeno se
adentró en el frondoso Bosque de la
Investigación, donde le habían
dicho que podría encontrar
soluciones a todos los problemas
de la humanidad.
Después de unas cuantas horas
de búsqueda sin referencias, se
topó con un mago. Juan Grafeno le
explicó cuál era su problema. El
mago le llevó a una cueva repleta
de pócimas que lo resolverían. Juan
Grafeno saltaba de alegría. Pero el
mago le dijo:
Muchas de estas pócimas pueden
dar solución a tus necesidades. Una
de cada cinco contiene los
ingredientes que necesitas. Pero
existe un problema: cada sorbo
cuesta un millón de sextercios.
Juan Grafeno no disponía de
dicha cantidad. Contento, de todos
modos, fue a la Banca de los
Préstamos. Había visto un anuncio
donde se manifestaba que cualquier
proyecto tendría financiación en
dicha entidad. Especialmente, los
de innovación, palabra que estaba
de moda en Innolandia. Un
hombrecillo con manguitos y gafas
de miope lo recibió y le dijo:
«Efectivamente, yo puedo dejarte el
millón de sextercios que necesitas.
Pero debes devolvérmelo en diez
años. Si dejas de pagar una sola
cuota mensual, tu casa, la de tus
padres, la de tus abuelos y la de tus
hijos, será mía». Consternado, Juan
Grafeno volvió a su casa... Si el
proyecto
funcionaba,
podría
devolver
el
préstamo
holgadamente, pero el mago de la
Investigación le había dicho que las
pócimas sólo funcionaban en uno de
cada cinco casos... Evidentemente,
no podía arriesgarse a pedir el
préstamo, pues con un 80 por ciento
de probabilidades iba a perder su
patrimonio, el de sus padres y el de
sus abuelos. Tenía que renunciar a
su sueño y a la posibilidad de crear
miles de puestos de trabajo.
Empleos que sus paisanos aldeanos
necesitaban desesperadamente.
De camino a casa, decidió
pararse en la Selva de las
Instituciones. También había visto
numerosos anuncios colgados en las
paredes de las casas de Innolandia,
en los que se decía que en dicha
Selva se prestaba apoyo a
proyectos innovadores que crearan
puestos de trabajo. Inmediatamente,
al entrar, se vio asaltado por todo
tipo de seres extraños: adivinos,
curanderos, payasos, elfos, enanos,
orcos, trovadores, feriantes, poetas,
burócratas y titiriteros que,
amablemente en algunos casos y de
forma agobiante en otros, le
ofrecían todo tipo de servicios de
entretenimiento y asesoramiento.
Pero Juan Grafeno lo tenía claro.
No necesitaba consejos: necesitaba
el millón de sextercios o su
proyecto jamás arrancaría. No
necesitaba más seres burocráticos
ni exóticos, necesitaba recursos.
Huyó rápidamente de la Selva.
Tampoco le ayudó el Consejo
de Ancianos Inversores, que
huyeron despavoridos
cuando
supieron que la pócima sólo
funcionaría en uno de cada cinco
casos. Uno de ellos le confesó que
sólo prestaban sextercios a
proyectos de comercio de naranjas
y verduras con otros reinos. Los
proyectos de alquimistas y extrañas
tecnologías los escuchaban, se
divertían opinando y exigiendo al
pobre emprendedor que presentara
números de retornos financieros
hasta el día del juicio final. Pero no
entendían de tecnologías, sólo de
frutas y verduras, y jamás soltaban
un sextercio.
Finalmente,
recordó
la
existencia de un lugar singular: la
Fuente de la Innovación. Alguien le
había dicho que allí se producían
extraños fenómenos paranormales
de
soporte
a
proyectos
innovadores. Se acercó a dicha
fuente, donde una bella hechicera le
hizo una propuesta: «Aquí tienes el
millón de sextercios que necesitas.
Mi misión es crear riqueza y
bienestar, y por ello te voy a
ayudar. Si tu idea fracasa, no me los
tendrás que devolver. Pero te
pondré una sola condición: si la
pócima que bebas en el Bosque de
la Investigación funciona, entonces
deberás retornarme el 1 por ciento
mensual de los ingresos que te
genere, hasta completar el triple de
la deuda que contraes».
Con el millón de sextercios,
Juan Grafeno bebió la pócima del
Bosque de la Investigación.
Afortunadamente, funcionó. Juan
Grafeno montó su empresa,
devolvió el 1 por ciento que le
pidió la bella hechicera y creó mil
puestos de trabajo.
Y colorín colorado, este cuento
se ha acabado... En España existen
bosques de la investigación, orcos,
titiriteros y burócratas, consejos de
ancianos inversores, pero no existe
la Fuente de la Innovación.
Moralejas
•
•
La innovación es un
fenómeno
probabilístico.
Existe un riesgo asociado a
la naturaleza del proyecto
tecnológico y un grado de
incertidumbre derivado de
la probabilidad de que la
tecnología no funcione.
El mercado financia
•
•
actividades de I+D de
forma subóptima: menos de
lo que sería económica y
socialmente
deseable.
Generar puestos de trabajo
es deseable para un país.
Esa responsabilidad no se
puede dejar únicamente en
manos del mercado.
La banca comercial jamás
financiará la innovación. La
innovación es riesgo. La
banca no financia el
riesgo..., sobregarantiza los
préstamos.
Para que la innovación se
dispare a nivel de país, se
•
precisan
«recursos
e
instrumentos
financieros
específicos». Los servicios
de
asesoramiento
son
insuficientes. No por más
asesorar un business plan,
éste se va a ejecutar si no
existen
los
recursos
financieros adecuados.
La disposición de recursos
públicos para la innovación
no tiene por qué generar
déficit: se puede jugar en
base
probabilística,
compartiendo riesgo en
caso de fracaso, pero
exigiendo
retornos
sustanciales (superiores al
mercado) en caso de éxito.
Es cuestión de diseñar
instrumentos
financieros
adecuados a la realidad
innovadora.
Cuando el PowerPoint no es
suficiente para financiar la
innovación
Pero estamos en un libro que invita
a dudar, ¿verdad? Pues bien, no
todo es un problema de «chequera»;
nuestro cuento explica una realidad,
pero posiblemente no toda la
realidad. El problema es que los
anuncios, el uso y abuso de la
palabra
innovación,
emprendedores,
internacionalización... rozan el
punto donde algunos de estos
conceptos pierden hasta el sentido.
Para
emprender
con
ideas
realmente
innovadoras
y
financiarlas tampoco es suficiente
con tener esa idea y creer que el
dinero tendría que llegar de
cualquier lugar, de forma abundante
y barata. Se precisa más, mucho
más.
Pensemos en la siguiente
situación. Dos viejos amigos se
encuentran en un gran evento
destinado a emprendedores, un
lugar donde reina la ilusión, y
tienen la siguiente conversación:
—¿Cómo estás? Cuéntame, ¿de
qué va tu proyecto?
—Pues
quiero
vender
bolígrafos.
—¿Bolígrafos? ¿No crees que
tienes una dura competencia?
—Bueno, mis bolígrafos son
especiales, tienen un capuchón de
diseño que los hace diferentes.
—¿Y en qué se basa esa
diferencia?
—En personalizar el bolígrafo
y convertirlo en «tu» bolígrafo.
—¿Sí? ¿Cuál es la necesidad
que estás cubriendo con ese
bolígrafo?
—¿Necesidad?
Me
confundes..., en España se venden
más de 300 millones de euros de
bolígrafos, ¿sabes lo que es eso?
Me bastaría con copar el 0,1 por
ciento para hacer algo grande.
—Ya, interesante, ¿y cómo
sabes que es factible alcanzar esa
cuota de mercado?
—Me pones en un aprieto..., es
un porcentaje muy pequeño, ¿por
qué no? ¡Mi idea es genial!
—¿Y qué necesitas invertir para
hacer esos bolígrafos?
—Bueno, pues unos 200.000
euros.
—¿Cuánto pones tú?
—Mis padres me dejaron los
3.000 euros para crear una
sociedad y algo de dinero para
alquilar una pequeña nave en un
vivero de empresas. Además, como
soy autónomo, he recibido una
ayuda de mi comunidad autónoma,
¡y no está nada mal!
—¿Y el resto?
—¡Para eso estoy aquí! He
venido con una presentación en la
que llevo meses trabajando, con
todos los datos de venta de
bolígrafos,
su
distribución
geográfica, presupuestos de la
maquinaria que necesito y algunos
diseños personalizados que podría
poner en bolígrafos de prueba.
—Pero, ¿esperas conseguir una
financiación de 200.000 euros con
un PowerPoint?
—Claro, ¡la idea es brillante!
¡Basta con copar un pequeño
mercado y lo tengo! ¡Es muy
rentable, nadie se negará! Además,
todo el mundo a quien se lo cuento
está entusiasmado. ¡No puede salir
mal!
—A eso se le llama poner
pasión. ¿Y tienes un precio para tu
bolígrafo personalizado?
—Sí, he hecho algunos
números. He bajado de internet un
archivo de Excel para hacer planes
de negocio, ¡200 eurazos me ha
costado!, y lo tengo muy bien
montado, llevo más de 150 horas
trabajando en él. Según mis costes,
tendría que vender mi bolígrafo por
unos 60 euros la unidad.
—¡Ostras! Pero si estamos en
crisis...
—Ya, pero de la crisis se sale
con ideas ¡WOW!, como la mía,
porque las posibilidades de
personalización de los bolis son
increíbles.
—Pero ¿y por qué gastar 60
euros cuando me puedo comprar
una caja de 40 bics?
—La diferencia está en el
diseño. Es el activo fundamental de
todo negocio. Llevo tiempo
estudiando diseño y creo que es la
clave para poder justificar el
precio y hacerlo rentable. Mira qué
posibilidades más alucinantes
pongo como ejemplo en el
PowerPoint...
—Ummm, tienes razón, son
chulos. ¿Me estaré oxidando o no
comprendo bien lo que propones?
—¡Disfruta del evento! Me han
dicho que viene un tipo fantástico
que cobra más de 15.000 euros por
sesión y del que aprenderemos
mucho. ¡Verás como al final
comprenderás mi modelo de
negocio de los bolis!
En esta figurada situación,
nuestro emprendedor tenía una idea,
un PowerPoint y muchas ganas y
entusiasmo. Pero ¿es suficiente con
esto para lograr financiación?
Como
decíamos,
ahora
emprender e innovar son vocablos
de moda. Pero para lograrlo hacen
falta muchas cosas más que una
idea. ¿Hay una burbuja de
financiación a los emprendedores y
sus ideas innovadoras o es una
burbuja de «palabra»? ¿Existen las
mismas posibilidades para lograr
financiación en todas las etapas de
una empresa? ¿Cuáles son las
claves para lograr financiación?
Seamos humildes: nadie tiene las
claves mágicas ni recetas que
ayuden a lanzar al estrellato
cualquier idea innovadora. Una vez
más, queremos aportar nuestro
granito de experiencia por si puede
ayudar a toda aquella persona que
se encuentre en alguna de las fases
que vamos a describir a
continuación.
Y es que, efectivamente,
emprender es un proceso, y no
todas las fases son iguales ni se
enfrentan a los mismos problemas
y, por lo tanto, no se pueden usar
las
mismas
estrategias
de
financiación.
Tampoco
las
posibilidades de financiación son
iguales. A todos nos gustan las
historias como la del fundador de
Instagram, que con una buena idea y
sólo un PowerPoint consiguió
250.000 dólares de capital riesgo,
inversión que se multiplicó 312
veces al vender su empresa a
Facebook. Pero como se decía en
un artículo de TechCrunch, «por
cada Instagram hay miles de casos
de fracaso».
No estamos ante una burbuja
financiera de capital que fluye
hacia los emprendedores ni hacia la
innovación, siquiera, de empresas
consolidadas. Eso ya ha pasado en
internet y sigue haciéndolo, pero de
forma
muy
selectiva,
no
generalizada. Las empresas de
capital riesgo están cada vez más
especializadas,
disponen
de
profesionales
altamente
cualificados y, sobre todo, han
experimentado en carne propia lo
que supone jugar al casino con
modelos de negocio que no se
comprendían muy bien. Así que,
emprendedor/a, si tienes una idea,
necesitarás muchos instrumentos en
tu caja de herramientas para poder
construir sobre ellos y poder
escalar en el mercado.
Para profundizar en estas ideas,
hemos
decidido colocar
al
emprendedor de los bolígrafos ante
tres situaciones distintas y mostrar
así las diferentes etapas y sus
peculiaridades.
1. Cuando lo que tienes no es una
empresa, sino un experimento
Por mucho que hayamos trabajado
en el plan de negocio, por muchas
conferencias, másters, reuniones y
PowerPoints que acumulemos, si no
tenemos algo tangible con clientes,
no tenemos una empresa, sino más
bien un experimento.
Éste es un error demasiado
extendido. El emprendedor de los
bolígrafos del episodio anterior,
con su PowerPoint y ni un solo
bolígrafo de prueba, no tenía una
empresa. Da igual que hayas ido al
notario e ingresado 3.000 euros
para crear una sociedad limitada:
no tienes una empresa. Y evaluar un
experimento es tremendamente
complejo. Y, además, se trata de
una de las fases de mayor riesgo
con las que te vas a encontrar como
emprendedor, pero también como
inversor.
Bolis con capuchón de diseño.
Una idea, una hoja de cálculo con
proyecciones de clientes, un
mercado potencial, una idea sobre
cómo
distribuir,
un
precio
aproximado, algo de la inversión
que consideras necesaria. Una
buena comunicación. Éstas suelen
ser las herramientas en esta fase del
experimento. Si acudes a una
entidad financiera con estas ideas,
la respuesta será, y en la mayoría
de los casos, la misma: no hay
financiación para ti. O no la hay si
no tienes bienes que hipotecar
(garantizar), o bienes de tus padres,
o garantes de todo tipo. O
transfieres ese riesgo a tu entorno
más cercano o no hay financiación.
La idea, el PowerPoint y el Excel
no sirven para mucho.
Cuando tratamos con una
entidad bancaria «tradicional»,
existe casi una imposibilidad
manifiesta de evaluar el riesgo de
una idea emprendedora, y más si
eres joven o con poca experiencia a
tus espaldas o no dispones de un
capital inicial para invertir (si lo
tuvieras, lo más probable es que no
acudieras a pedir ese préstamo). La
financiación a una startup por el
sistema
«clásico»
es
tremendamente compleja.
La solución para salir de esta
fase es, como tal experimento,
lograr la financiación mínima que te
permita experimentar, lo que
identificábamos como la Fuente de
la Innovación. Hay que invertir en
el diseño de los bolígrafos y buscar
la manera de poder obtener un set
de prototipos que puedas enseñar,
con las peculiaridades (al menos
aproximadas) que reflejen tu idea
lo más fielmente posible. Necesitas
salir a la calle, estar con tus
potenciales clientes, enseñarles lo
que tienes, preguntarles, valorar su
experiencia, evaluar con lupa sus
reacciones, lo que gusta, lo que no.
Haz pruebas con los precios. Busca
soluciones. Busca cómo distribuir,
visita fábricas, visita a potenciales
aliados, vete a los lugares donde se
compraría tu producto, observa
quién compra, qué hace cuando
compra...,
sumérgete
en
la
competencia (hazte fan, estúdiala y
busca qué se les está pasando por
alto), conviértete en el profesional
más experto del mundo de los
bolígrafos.
Hazte
preguntas:
¿destacan sólo por el diseño de los
capuchones? ¿Y qué pasa con los
complementos?
¿Qué
otras
prestaciones tienen? ¿Cómo lo
eligen? ¿Con qué propósito? ¿Qué
necesidad cubren? Puede que la
idea sea realmente revolucionaria y
que no haya nada parecido —
advertencia: seamos humildes, que
esto ocurra es extremadamente
difícil, asegúrate bien—. En ese
caso, investiga bien algo que
siempre hay: la necesidad.
Tras este testeo de aprendizaje
profundo, de preguntarte y de
convencerte con datos de que hay
un hilo por donde tirar, en ese
momento, como emprendedor,
puedes abrir alguna puerta a capital
«semilla». Inversores a quienes
gusta el alto riesgo, pero que lo
reducen apostando por muchos
pequeños proyectos diversificados.
Inversores que apuestan por ideas.
Pero esas ideas hay que saber
defenderlas bien, contestar a
preguntas clave y mostrar un
camino que es francamente duro. Y
esto posiblemente te permitirá
empezar: en ese momento estás
abriendo las puertas a tener algo
que realmente se pueda llamar
empresa.
2. Subiendo por la escalera de la
empresa
Asumamos que hemos logrado
pasar del PowerPoint al mercado.
Tenemos algo de capital y ahora
comienza la actividad. Lo habitual
es pensar que se trata de una línea
recta marcada por algo que solemos
llamar plan de negocio y con el que
hemos convencido a nuestros
amigos, familiares y, aunque no al
del banco, sí a un inversor semilla.
Pero esa línea recta es imaginaria,
ficticia y raramente se puede seguir.
Es más, muchas de las empresas de
éxito que conocemos hoy en día lo
son gracias a que no han seguido
sus planes de negocio iniciales.
Ésta es la conclusión de un
reputado estudio en la MIT Sloan
Management Review, donde se
muestra cómo empresas como
Twitter, Google o muchas otras que
están hoy en la lista Fortune, lo
están gracias a que han tomado una
«opción B» respecto a sus planes
de negocio iniciales. Les sirvió
para «levantar capital», pero no hay
plan de negocio que soporte un
contacto con el cliente. ¿Por qué?
Veamos algunas ideas.
Pasar del experimento a que un
cliente pague una cantidad en euros
es un proceso complejo. Tener una
empresa requiere emitir facturas,
firmar contratos, dotarse de una
estructura de personal, de gestión,
de comunicación, de diseño;
muchas variables imposibles de
controlar a priori y, sobre todo, de
predecir.
¿Qué
pasa
si
tras
el
experimento resulta que el coste de
producir un diseño y colocarlo en
el mercado no es algo tan «fácil»
como se preveía? ¿Y si el que en
nuestras
encuestas
con
los
prototipos decía que pagaría 60
euros no lo hace en el momento de
la verdad? ¿Y si un proveedor te
exige exclusividad y quedas
«preso» con sus contratos, o te
encuentras con que lo que te decía
no se plasma en las cláusulas? ¿Y si
diseñar un nuevo bolígrafo implica
un riesgo importante porque no eres
capaz de anticipar si funcionará o
no y te juegas el dinero de tu
inversor? Cuando empiezas a
enfrentarte a esta «locura del día a
día»,
vas
tomando
muchas
pequeñas decisiones, empiezas a
usar tu ingenio y tu olfato hasta
encontrar una salida, como el agua
cuando llueve. Y, en ese momento,
vas desviándote más y más. Estás
en una frontera difícil, y es ahí
donde mayor es el riesgo.
¿Funciona o no funciona? ¿Ceñirse
al plan establecido o abrir nuevos
caminos?
Ahí es donde te vas a poner a
prueba
como
emprendedor.
Decisiones rápidas, inteligentes o
no. Aprender de los errores, tomar
nuevos caminos. Dotarse de
equipos o personas a las que les
apasione, como tú, el proceso. La
clave en estos momentos es tener
unos buenos cimientos de partida.
Esos cimientos ante todo tienen que
ver con el propósito (además de
con las capacidades, que ya se
suponen, de lo contrario no
llegarías ni siquiera a esta fase).
Ese propósito tiene que ser fuerte,
tiene que permitir aunar esfuerzo
creativo y talento a tu lado para
buscar esos caminos por los que
surcar la realidad.
Si pasas esa etapa, si hay
facturas, hay contratos, costes,
caminos o trazos por los que
caminar con cierta seguridad, ya
empiezas a vislumbrar nuevas
oportunidades. En ese momento, en
que fluye la actividad y tienes clara
la redefinición del negocio, es muy
probable que necesites nueva
financiación. Ahí los bancos ya
empiezan a comprender tu lenguaje,
siempre que vean números —y los
típicos
trimestres
del
IVA
liquidados son una señal de que
esto funciona—. Depende de los
importes y del grado de seguridad
que puedan medir —importante lo
de medir, en balance, en
patrimonio, en impuestos sobre la
renta de los socios—, el banco
puede entrar ya a financiar ciertas
operaciones: circulante o, incluso,
para inversiones a largo plazo.
En esta fase es fundamental
saber ordenar muy bien la
información y explicar el modelo
de negocio, es decir, cómo generas
ingresos, para qué necesitas la
deuda, cómo la devolverás y cómo
de factible es la empresa que estás
planteando. Se acabó la época de ir
al banco con unas cuantas garantías
hipotecarias. Ahora, además, hay
que ir con garantías estratégicas
para limitar todos los riesgos que
verán en tu negocio, que serán
todos...
Pero
tienes
que
convencerlos de lo contrario.
3. Cuando sales del pueblo a la
aldea global
La gran mayoría de las empresas
suelen quedarse en la fase anterior.
Pero también hay ideas brillantes
que nacen de experimentos que
funcionan, a los que se les enchufa
la estrategia y el talento adecuados
para crecer. Ese filtro es muy
pequeñito..., y difícil. Pero es el
caldo de cultivo para que surja el
nuevo Instagram... ¿Cómo le iría a
nuestro chico de los bolígrafos en
este caso? Imaginemos, ya que
podemos...
Tras atar buenos contratos con
fabricantes de bolígrafos a los que
se aplican diseños (protegidos y
rompedores); tras labrarse un hueco
entre la gente apasionada del
mundo de los bolígrafos —que los
hay, como todo en el mundo long
tail—; tras empatizar muy bien con
el cliente; tras saber qué funciona y
qué no, y observar que no sólo es el
diseño (como un estampado), sino
que hay ingeniería de fabricación,
materiales, una forma, una tipología
de tinta, distintos usos..., nuestro
ficticio emprendedor de bolígrafos
es un caso de éxito en internet. Y se
le ha ocurrido una idea: utilizar el
talento creativo de los usuarios, de
los diseñadores «anónimos» que
hay por el mundo. Aquellos que son
apasionados de los bolígrafos y de
todo lo que les rodea. ¿Y si nos
envían sus diseños y hacemos que
el público los vote? ¿Y si
fabricamos los más votados? Es
una manera de: uno, ahorrarse
costes de diseño; dos, aprovechar
el talento globalmente distribuido y
testear los gustos y fabricar con
menor riesgo. Este modelo funciona
en el mundo de las camisetas con
threadless.com.
Lograr financiación para este
gran paso global tiene también sus
retos. No dejas de experimentar y
arriesgar. En esta fase, es clave
demostrar la capacidad de generar
«caja», de gestionar todas y cada
una de las piezas del puzle —
finanzas, logística, fabricación,
diseño—, y controlar de forma
excelente toda la cadena de valor:
desde proveedores hasta la
distribución (por todo tipo de
canales).
Una vez más se necesita un
profundo plan de negocio, un
equipo muy sólido y mostrar una
magnífica capacidad de visión de
futuro —con todos los detalles muy
cuidados y establecidos— para
escalar la montaña del mercado. Es
momento de preguntas, siempre las
preguntas: ¿qué pasará cuando
vendamos 100 millones de euros?
¿Cómo se organizará la plantilla?
¿Cómo se atiende al mercado
alemán? ¿Son los gustos de los
franceses iguales que los de los
italianos? ¿Quién fabrica qué, a qué
precio, y cómo se coloca en
cualquier lugar del mundo de forma
automatizada y eficiente? Es el
momento de la liga de los grandes
(o medios) inversores, de los que
conocen de forma muy precisa el
mercado al que te diriges, si es o no
viable lo que se plantea, de los que
reconocen las debilidades y buscan
la manera de lograr altas
rentabilidades haciendo rico al
emprendedor y a todo su equipo
principal.
A este nivel global son muy
pocas las empresas que llegan, y
mantenerse es un proceso muy
complejo que requiere de un
tremendo esfuerzo, tesón y, sobre
todo, capacidad para resolver las
miles de pequeñas decisiones que
con el tiempo todo emprendedor se
va encontrando hasta llegar a esa
cumbre. Mucho talento, mucha
formación, mucha capacidad de
aprendizaje, mucha resistencia,
mucha habilidad para pensar rápido
y tomar decisiones —y mucho
pensamiento en inglés, que en
España no es baladí—. Y, además,
capacidad
para
transmitir
entusiasmo y lograr que personas
de primera trabajen con otras
también de primera.
La financiación para innovar
desde las empresas jóvenes es ante
todo un proceso de confianza y de
ir reduciendo los riesgos inherentes
a cada una de las fases por las que
se va pasando. Y la fase
experimental es la más arriesgada.
Por último, una idea, la
financiación no lo es todo y no
debería serlo. Si te cae dinero del
cielo, no será fácil que pases de la
fase experimental a la global. No
hay atajos. Lograr posicionarse en
un mercado es un proceso que nace
con ideas que mutan, se prueban, se
testean, se modifican, y unas
convencen y otras se descartan; se
resuelven las incertidumbres, se
asumen riesgos, se camina en el
alambre; uno se cae y uno se
levanta. Tener financiación holgada
no ayuda necesariamente a lograr
ese éxito. El éxito se genera cuando
alguien llamado cliente paga por lo
que le ofreces y obtienes un valor
añadido por ello (renta y
beneficios...) y, sobre todo, cuando
esto ocurre miles o millones de
veces... Grandes inyecciones de
dinero que no tenían claro cómo se
generaba ese valor añadido
acabaron en la papelera de
reciclaje.
Así que si te encuentras en un
macroevento con tu PowerPoint, no
creas que has llegado a la cumbre.
¡Ni siquiera te has puesto la
mochila! Todavía tienes todo el
camino por andar.
Un país de pizzas o de
microprocesadores
Como vemos, hay mucho trabajo
por hacer tanto en la parte de las
empresas (las innovadoras) como
es la de las instituciones y
entidades
privadas
para
la
financiación de este tipo de
iniciativas. Por todo ello, para
construir un país innovador,
necesitamos una Fuente de la
Innovación y empresas y personas
con capacidades suficientes para
lograr que las ideas excelentes se
conviertan en empresas excelentes.
La razón de ser de la
Administración Pública es proveer
de servicios al ciudadano y crear
efectos económicos que el mercado
por sí solo no generaría. La
Administración Pública opera
«fuera del mercado», no dentro del
mismo,
impulsando
aquellos
proyectos o generando aquellos
servicios que, por su baja
perspectiva de rentabilidad a corto
plazo, no son interesantes para la
inversión privada, aunque sí lo
pueden ser en el medio plazo para
la competitividad nacional o el
bienestar de los ciudadanos.
Según el reciente superventas
El Estado emprendedor, de la
profesora
italiana
Mariana
Mazzucato, incluso en Estados
Unidos, teórico paradigma del
liberalismo económico, el Estado
tiene una fuerte intervención en la
economía, impulsando proyectos de
innovación y de ruptura. Es cierto
que Steve Jobs fue el gran genio
creativo de nuestra época, fundador
de Apple y artífice de productos
rupturistas como el iPhone. Pero
incluso el iPhone, según Mazzucato,
se sustenta en doce tecnologías
clave (desde las comunicaciones
móviles hasta internet, pasando por
los microprocesadores y las
pantallas táctiles) que han sido
financiadas íntegramente por el
gobierno estadounidense. Jobs
surfeaba sobre la ola de tecnología
que su gobierno ponía a sus pies.
En España tenemos también
nuestros propios ejemplos. En
noviembre de 1996 Telepizza
empezó a cotizar en el IBEX, el
índice bursátil selectivo español.
Los accionistas que pagaron 0,7
euros por acción las podían vender
dos años después a 9,92,
obteniendo una plusvalía del 1.300
por ciento. Telepizza era el
paradigma de un gran modelo de
negocio innovador: pizzas calientes
entregadas en casa en veinte
minutos. Algo inaudito en 1996. Un
modelo de negocio fácilmente
interpretable por el mercado, con
un producto comprensible por parte
del consumidor, y con necesidades
financieras escalables. El tipo de
empresa innovadora que el
mercado
genera
y financia
espontáneamente. La prueba es que
en nuestro entorno se crean
continuamente grandes empresas
innovadoras,
porque
existen
grandes emprendedores y talento
empresarial
suficiente:
Zara,
Mango, Desigual, Privalia, Tous o
Imaginarium
son
ejemplos
similares.
Para
que
dichos
fenómenos empresariales emerjan,
sólo son necesarios empresarios
tenaces, un entorno de seguridad
jurídica y reglas de juego de
libertad económica, comunes en
todas las economías desarrolladas.
La innovación próxima al mercado
la genera el mismo mercado en
cualquier parte del mundo donde
exista iniciativa empresarial y un
contexto económico y jurídico
estable.
Sin embargo, el surgimiento de
empresas de alta tecnología sigue
otra dinámica. Debemos desarrollar
políticas específicas si deseamos
que emerja una empresa como Intel,
Microsoft, Hewlett-Packard o
Google en un país como España. La
aparición sistemática de este tipo
de compañías requiere de otros
escenarios.
En primer lugar, precisa de un
entorno empapado en conocimiento,
de un clúster tecnológico: un
monstruo de los semiconductores,
como Intel, necesita ingenieros y
científicos permeables con la
estructura productiva. Necesita
manufacturing y ciencia trabajando
de forma concurrente. Precisa una
base científica consolidada durante
años que permita que algún joven
emprendedor surgido de la ciencia
ose explicar al mercado qué es un
microprocesador. Y el mercado no
lo va a entender. ¿Cómo explicar
qué
demonios
es
un
microprocesador cuando nadie lo
ha visto antes, cuando el mercado
no lo demanda y cuando no existen
aplicaciones claras al mismo?
¿Cómo describir el color rojo a un
ciego? «Un dispositivo de silicio
programable y multiuso». ¿Quién
financiaría un Intel en su año cero?
El mercado entiende perfectamente
qué es una pizza, pero no entiende
qué es un microprocesador. Por
eso, nadie va a financiar un
proyecto basado en una tecnología
de ruptura en sus fases más
primigenias.
Cuando el mercado no existe,
cuando hay que crearlo, las
estimaciones de retorno económico
son
inciertas.
Aunque
esa
tecnología pueda dar lugar a
productos rompedores e incluso a
nuevas industrias. Por eso se
precisan
políticas
públicas
dedicadas,
específicas,
contundentes, de consolidación de
la base científica y de soporte
obsesivo a los emprendedores de
base tecnológica en sus fases más
embrionarias. Por eso en España no
emergen
grandes
empresas
tecnológicas, aunque sí lo hacen
grandes modelos de negocio
innovadores. El mercado filtra y
rechaza los proyectos de más
riesgo, aunque sean los más
interesantes para la competitividad
nacional. Por eso se precisa la
intervención de los Estados. El
primer
comprador
de
microprocesadores de Intel fue la
Administración estadounidense, que
actuó como lead user o cliente
lanzadera.
¿Dónde quieres que trabaje tu
hijo, en una cadena de pizzerías o
en un centro de diseño de
procesadores? ¿Queremos un país
de pizzas o un país de
microprocesadores? Los países
capaces de vencer este fallo del
mercado y de generar sectores de
alta tecnología son países con
índices
de
desempleo
espectacularmente más bajos, con
empresas que generan mayores
márgenes, pagan mejores salarios y
permiten rápidas reinversiones en
nuevos proyectos de crecimiento.
En I+D, sólo nos queda una opción:
seguir avanzando más, con mayor
fuerza y decisión. Nuestros
competidores internacionales lo
están haciendo sin vacilar. Y no dar
ni un paso atrás en lo que ya se ha
conseguido. De ello depende la
salud competitiva de nuestro país y
el futuro de nuestros hijos.
Necesitamos situar la I+D en el
centro de las políticas económicas.
Necesitamos una sociedad civil
conjurada
para
proteger
e
incrementar las inversiones en I+D,
públicas, privadas y mixtas. Tras el
gran esfuerzo de los últimos años,
un euro público marginal destinado
a I+D consorciada entre empresas y
centros de conocimiento va
directamente a la creación de
empleo de calidad. Salir de la
crisis ajustando costes y salarios es
un espejismo, la antesala del
próximo desastre. El talento huye
de las organizaciones baratas.
Ganaremos
el
futuro
con
innovación, tecnología y ciencia. La
innovación nos diferenciará, nos
hará atractivos y nos hará crecer en
los mercados. La tecnología nos
fortalecerá, creando barreras de
entrada a la competencia. Y la
ciencia nos hará imbatibles.
Sin embargo, la nueva ola de
políticas de austeridad ha invertido
la lógica de las políticas de
innovación. Aquellos que deben
correr más riesgo (operando fuera
de la lógica del mercado), las
Administraciones Públicas, en un
erróneo arrebato pedagógico y
ejemplarizante, desean ser los
organismos más rentables del
mundo. Por ello optan por financiar
proyectos sin riesgo tecnológico,
muy cercanos al mercado. Por ello,
en España nadie va a financiar el
Intel del futuro, y, en cambio,
estamos dispuestos a aportar fondos
para cadenas de pizzerías o para la
construcción de bonitos complejos
hoteleros junto al mar.
España necesita de un nuevo
metabolismo social para innovar
Pero no traslademos el 100 por
ciento de la responsabilidad a la
Administración. Una vez más
tratemos de aportar nuevos puntos
de vista. Te vamos a contar un caso
real. Boston, verano, justo en mitad
de la crisis. Uno de nuestros
mejores amigos está realizando una
estancia de trabajo en una
multinacional
aeronáutica
de
referencia mundial. En su segundo
día en la ciudad, tras asistir a
varias reuniones, decide irse al
hotel y toma un taxi. El conductor
sabía perfectamente a qué se
dedicaba la empresa donde había
recogido a su cliente, y nuestro
protagonista no daba crédito
cuando
éste
entabló
una
conversación acerca de aeronáutica
e ingeniería con argumentos
fundados sobre física y diseño de
motores.
El «taxista de día», que no
alcanzaba los cuarenta años,
estudiaba por las noches una
especialización
técnica
de
aeronáutica. En una ciudad como
Boston, sede de uno de los mayores
clústeres mundiales de ingeniería
aeronáutica, cada día podía
conversar con sus clientes sobre los
temas que le apasionaban. Los
ingenieros utilizan el taxi, discuten
con quien esté dispuesto a ello,
divulgan sus actividades y motivan
incluso a quienes están fuera de su
mundo profesional. Y en aquel taxi,
en aquella tarde de verano, nuestro
amigo aprendió una lección que iba
contra sus ideas preconcebidas:
cuando el entorno es propicio, la
divulgación y la pasión por la
aeronáutica pueden tener cabida en
absolutamente cualquier lugar.
Esta historia sería sólo
anecdótica si no fuera porque no
sólo se topó con taxistas expertos
en ingeniería, sino que también
encontró una gran apertura hacia las
ideas (a las nuevas ideas) y
amplios
conocimientos
en
profesionales que trabajaban en su
hotel o en conversaciones en los
pubs durante su tiempo de ocio. La
primera pregunta que nos asalta es:
«¿Cómo es posible que el
conocimiento esté tan enraizado en
la sociedad?». Tras contarme sus
impresiones, nuestro amigo logró
resumir todo aquello en una frase:
«Parecía que la innovación se
pudiese masticar; estaba en el
ambiente y la compartían todos los
ciudadanos». Y en España tenemos
que trabajar, como sociedad, para
poder masticar también este
ambiente de progreso. Pero eso no
es fácil ni inmediato, y exige un
cambio en nuestro metabolismo
social.
Para ello es importante traer a
colación conceptos como la
«innovación social». Suena bien,
pero ¿en qué consiste? La pregunta
es pertinente, porque el concepto
aún está en proceso de definición y
acotación, y sobre todo porque aún
se trabaja en la construcción de
indicadores
que
permitan
aproximarse a su medición. Un
trabajo preliminar de Javier
Echevarría explica muy bien su
importancia y la necesidad de
incorporarla a la fuente de la que
emanan todas las estadísticas de la
innovación en el mundo, «El
manual de Oslo»:[15]
... los diversos tipos de innovación
pueden distinguirse en función de
los diversos valores que tienden a
satisfacer:
económicos,
empresariales,
tecnológicos
y
científicos, pero también sociales,
ecológicos, culturales, jurídicos,
etc. La distinción de diversos tipos
de valores ofrece un marco
conceptual para analizar los
diversos procesos de innovación,
estén orientados o no al mercado y
las empresas. Incrementar la
productividad o la competitividad
puede ser muy relevante para una
empresa.
Los
procesos
de
innovación empresarial incrementan
dichos valores. Ahora bien, el
bienestar, la calidad de vida, la
atención
sanitaria,
el
nivel
educativo o la eficiencia de los
servicios públicos no son menos
relevantes para las personas. Las
innovaciones orientadas al mercado
generan riqueza económica, en
principio
para
la
empresa
innovadora, en algunos casos
también para un país.
De la misma manera, pero en
relación con valores de otra índole,
las
innovaciones
sociales
incrementan la riqueza social
(cultural, artística, educativa, etc.)
de la ciudadanía, y en su caso del
país, si dichas mejoras afectan a
amplias capas de la población.
[...] Los valores sociales y
culturales no se reducen a los
económicos, aunque unos y otros
estén interrelacionados [...].
[...] En último término, la
innovación social se refiere a la
calidad de vida, que también aporta
ventajas competitivas entre unas
sociedades y otras en el presente
contexto de globalización.
Lo que más atractivo resulta de
este nuevo concepto es que permite
ampliar el foco de análisis respecto
a lo que se tiende a asociar con
innovación. ¿Por qué unas ciudades
son más innovadoras que otras?
¿Por qué ciertos países son capaces
de repensarse y estar a la
vanguardia constante en cambios
sociales y económicos? Si nos
atenemos a los indicadores
habituales, las empresas más
innovadoras son las que más dinero
destinan o más personal dedican a
la innovación o las que más
patentes logran registrar. Algo
similar ocurre en los territorios.
¿Cuál es el país más innovador?
Según
los
indicadores
tradicionales, el que más gasta en
I+D o más universidades o patentes
tiene por empresa. Todo ello son
aproximaciones de la realidad, es
decir, indicadores fáciles de
obtener que contienen una cierta
información respecto al fenómeno
abstracto que pretendemos medir.
La realidad, por supuesto, es
infinitamente más compleja, así
como también la complejidad de la
sociedad va en aumento, y también
la forma en que compiten las
empresas. Las telecomunicaciones
han transformado cómo nos
relacionamos y cómo moldeamos
nuevas formas de hacer las cosas.
Las empresas hoy han de abrirse a
sus clientes, proveedores y, en
general, al resto de agentes para
crear..., y ésa es precisamente la
forma en que emerge la innovación
abierta. Los ciudadanos tienen
mayor poder y nuevos canales para
explorar sus talentos y transformar
la sociedad. Todo esto se escapa a
los
indicadores
tradicionales,
aunque resulta determinante a la
hora de explicar qué hace que unos
territorios sean más dinámicos,
innovadores y socialmente más
avanzados que otros.
El mismo gasto en I+D,
volumen en infraestructuras y
presupuestos en educación o
sanidad pueden generar resultados
complemente distintos en dos
territorios. Las sociedades con más
probabilidad
de
engendrar
innovación y transformar su calidad
de vida son aquellas abiertas al
comercio, a la competencia
empresarial, a la inmigración, la
diversidad, en definitiva, las
sociedades propensas a la apertura
y al intercambio. Para aunar estas
características son importantes
altos niveles de educación,
sistemas eficaces de protección de
los derechos individuales y de la
propiedad. En este contexto, la
innovación
social
sería
el
combustible
necesario
para
transformar la calidad de vida y el
sistema productivo de un territorio.
Hay diversas
líneas
de
investigación
económica
íntimamente relacionadas con estas
ideas. En primer lugar, es
importante destacar los trabajos de
Andrés Rodríguez-Pose, profesor
de Geografía Económica en la
London School of Economics, en
los que trata de construir y de medir
lo que él ha denominado los «filtros
sociales», los cuales tratan de
capturar información sobre la
tipología de la sociedad en cada
territorio e incorporarla como
variable adicional en estudios
regionales.
Rodríguez-Pose
constata
un
hecho
antes
mencionado: dos regiones con las
mismas dotaciones de factores
pueden tener resultados distintos en
renta y en el nivel de innovación.
¿Por qué? Su respuesta está en que
hay sociedades que filtran, hasta
evitar su entrada, las nuevas ideas.
Tienden a bloquear lo diferente, lo
plural y lo abierto, mientras que
otras hacen exactamente lo
contrario. Y las regiones con un
tejido social más abierto y
proactivo a los cambios tienen una
renta per cápita mayor.
En segundo lugar, otra línea de
investigación consolidada intenta
explicar por qué la actividad se
concentra en ciertos territorios —
por ejemplo, en algunas ciudades—
y no en otros. Una referencia
española de prestigio internacional
es Diego Puga. La esencia de dicha
investigación dice que empresas y
personas se concentran por motivos
de productividad. Somos más
productivos si estamos cerca que si
nos dispersamos y aislamos, y a la
hora de realizar actividades
creativas, el grado de contacto y la
proximidad
son
aún
más
importantes por la posibilidad de
interaccionar con individuos con
los mismos intereses.
Este fenómeno crea círculos
virtuosos en determinados enclaves
geográficos a partir de ecosistemas
de
personas
con
talento.
Lógicamente, dicho talento tiene en
estos lugares altos niveles de
empleabilidad y, además, dispone
de un entramado social y cultural
que lo enriquece aún más. Y así es
como se gestan las ciudades
dinámicas donde todo sucede. Tanto
es así que un interesantísimo
estudio de McKinsey estima que
«en la actualidad, el 60 por ciento
del PIB se genera en 60 grandes
ciudades del mundo». Dicho
fenómeno tiende además a crecer
conforme los países emergentes
tienen un papel más importante.
En definitiva, cuando trazamos
objetivos
para
mejorar
la
innovación de nuestra región o país,
a menudo nos constreñimos
diseñando actuaciones para mejorar
indicadores parciales y, en
ocasiones, insuficientes para lograr
el objetivo (generar riqueza y
calidad de vida). La innovación
tiene más dimensiones, y la social
es la más básica e importante de
todas, y, en cambio, posiblemente
sea la más descuidada por lo difícil
que es de medir y de potenciar. Y
es que se precisa generar las
condiciones adecuadas para que
metabolice socialmente y con ello
crear una sociedad más abierta
hacia el nuevo conocimiento, el
riesgo y el cambio. Cómo fomentar
la innovación social es y será un
gran campo de investigación y de
trabajo, pero para empezar hay que
dejar de fomentar el inmovilismo.
El complejo de Adán: volver a
empezar cada cuatro años
Todos los caminos nos llevan a una
misma idea: la construcción de un
país innovador es un proyecto a
largo plazo. Un proyecto en el que
las decisiones se deben conservar
en el tiempo. Los resultados de
innovación surgen únicamente tras
años de creación de conocimiento y
de lenta absorción de ese
conocimiento por la comunidad
empresarial y por los ciudadanos.
Para que un país sea competitivo en
innovación debe generar una serie
de habilidades y desarrollar un
conjunto de agentes (centros de
investigación,
empresas
tecnológicas,
emprendedores,
fondos de capital riesgo, etc.) que
necesitan tiempo y estabilidad para
consolidarse.
Por
un
extraño
efecto
paranormal,
los
responsables
políticos de los programas de
innovación suelen padecer el
complejo de Adán: «Yo soy el
primero». No había vida antes que
yo, y mucho menos vida inteligente.
En un país hiperdiagnosticado por
sesudos consultores y donde la
mayor parte de las políticas de
innovación han consistido en
organizar bonitas jornadas de
debate, cuando se inicia un nuevo
ciclo político resulta que nadie ha
hecho diagnosis de la situación
previa. Ningún académico o
especialista ha pensado en qué
programas tienen o no éxito. Nadie
ha evaluado los resultados del
pasado. Jamás se ha debatido el
enfoque necesario de las políticas.
Adán llega para empezar de cero,
de nuevo, por enésima vez. Y
empieza con las diagnosis.
En cierta ocasión, un director
general hablaba con su asistente.
Ambos acababan de tomar posesión
de su cargo. La conversación, más
o menos, fue como sigue:
—Oye, Pepe, ¿a ti cuál te
parece que es el sector más
importante de la economía?
—Ni idea... Ummm, pero yo
trabajé muchos años en un servicio
de paquetería. Oye, esto de la
logística es la leche. Parece fácil,
¿no? Pues no te imaginas la de
tecnología que hay detrás. Los
paquetes van que se las pelan.
—Sí, es verdad, y esto lo sabe
poca gente.
—Además, España está en un
lugar que es como una especie de
cruce de caminos. Y sobra espacio.
Aquí podrían ubicarse muchos
almacenes logísticos.
—Pero ¿no es esto lo que
decían los de antes? No podemos
hacer lo mismo que ellos, hay que
oponerse a todo (y desmontarlo, si
es posible).
—No, no, no... Los otros
«apostaron»
por
el
sector
aeroespacial. Una burrada. España
nunca enviará cohetes a Marte.
Créeme, la logística tiene futuro.
—¡Claro! ¡Tienes razón! ¡Ya
está! Lo pongo en la lista de
sectores estratégicos que me ha
pedido el ministro esta mañana...
Y al día siguiente, el ministro,
en solemne rueda de prensa,
declaraba la logística «sector
estratégico» de la economía y
presentaba una serie de medidas de
refuerzo. Exactamente lo mismo que
hizo el anterior ministro con el
sector espacial, o su antecesor con
la biotecnología. Ante él, como
inevitables extras en una película
cómica (¿una comedia o una
farsa?), los mismos representantes
de la sociedad civil (cámaras de
comercio,
asociaciones
empresariales, sindicatos) que
habían aplaudido con la misma cara
metálica las decisiones del anterior
ministro, y del anterior al anterior,
haciéndose la misma foto ante las
mismas escaleras cada cuatro años.
Con ello se repite un ciclo trágico,
si no fuera ridículo: desmontar lo
que ha montado el gobierno
precedente, y empezar de nuevo,
otra vez, lanzando el conocimiento
y la experiencia del pasado a la
basura. La suma de «n» vectores
aleatorios tiene, como vemos,
resultado nulo.
La riqueza surge de la
innovación, no de la investigación
Pero algún día alguien se creyó una
parte del discurso. Y empezó a
dotar presupuestos públicos para
I+D. De nuevo la ortodoxia
neoclásica entró en juego. El
paradigma que se escogió fue el de
dedicar recursos a proyectos
«puros», cuanto más alejados del
mercado, mejor. Nada que pueda
sonar a producto comercializable.
Si hay que poner dinero en esto de
la innovación, lo ponemos aguas
arriba. En un nuevo arrebato de
pureza ortodoxa, se pensó que
cualquier proyecto que tuviera
interés empresarial debía ser
financiado
por
la
empresa
interesada. Parece obvio, ¿no?
Excepto en un punto: bajo esta
aproximación, todo el esfuerzo
público destinado a construir un
país innovador, se asigna a...
¡proyectos sin ningún interés
empresarial!
Efectivamente, el modelo de
innovación
español
se
ha
construido sobre la investigación.
El esfuerzo público en I+D en
España es de unos 6.200 millones
de euros. Cerca de 120.000
investigadores
públicos
están
pagados
con
esa
cantidad.
¿Investigando qué? Lo que cada uno
quiere... Aunque parezca mentira,
es así. No se han creado focos
estratégicos
en
tecnologías
habilitadoras de la industria
(nuevos materiales, tecnologías de
la
información,
manufactura
avanzada,
nanotecnología,
biotecnología...). No se han
priorizado campos aplicados de
investigación, ni se ha incentivado
especialmente la investigación en
consorcio con la industria (como sí
se ha hecho en otros entornos, como
Alemania, los países nórdicos o,
especialmente, en Corea del Sur o
Japón). La investigación no apoya a
la industria, «existe» en paralelo.
Así,
podemos
encontrar
investigadores analizando el estrés
de los peces, la disposición
geométrica de las telarañas o la
vida íntima de santa Teresa de
Jesús.
No sólo destinamos una parte
irrisoria de nuestro PIB (el 1,24
por ciento) a I+D. Además, parte de
esta cantidad (aproximadamente la
mitad) se destina a proyectos que
no tienen ninguna relación con la
capacidad de competir del tejido
productivo del país. Sin embargo,
la
sociedad
cree
(equivocadamente) que invertir en
ciencia
automáticamente
nos
llevará a ser un país próspero. No
es cierto. Jamás, en ningún sistema
sano de innovación, ha ocurrido
que
el
conocimiento
fluya
espontáneamente desde las paredes
universitarias y de los centros de
investigación hasta las empresas de
las cercanías, las insufle de
sapiencia y las haga especialmente
competitivas. Eso sólo pasa si se
potencia
especialmente
el
«conocimiento útil» (campos de
interés industrial) y si las políticas
científicas se completan con
instrumentos
financieros
para
absorber
rápidamente
el
conocimiento
generado.
La
competitividad de un país no
depende de la cantidad de
conocimiento que genera, sino de la
tipología de ese conocimiento y de
la velocidad con que fluye y es
absorbido por la industria.
En definitiva, rompamos otro
mito: la investigación no genera
riqueza. La genera la innovación.
Políticas de investigación no
acompañadas de sólidas políticas
de innovación conducen a un
camino económicamente estéril.
España ha hecho un cierto esfuerzo
en ciencia. Cuando se han creado
los incentivos oportunos, nuestros
investigadores han empezado a
publicar a un cierto nivel
internacional. Pero no se han
creado los incentivos para que
investiguen con la industria y para
la industria. Con la honrosa
excepción del Centro para el
Desarrollo Tecnológico e Industrial
(CDTI),
organismo
que
ha
desempeñado un papel crítico en
nuestro sistema de I+D, la política
científica no ha ido acompañada de
política tecnológica. Y mucho
menos de política industrial.
El nuevo contrato social finlandés
Imaginemos un proyecto de
investigación sobre, pongamos,
nuevos materiales. Imaginemos que
ese proyecto lo desarrollan
científicos
en
plantilla
en
universidades o centros de
investigación públicos. El proyecto
finalizará en una publicación, si
puede ser internacional, y (a
posteriori) si es preciso, se
intentará buscar alguna aplicación
en el mercado (se intentarán
«transferir» los resultados de la
investigación). Este proyecto forma
parte de las actividades deseables,
de la esfera de proyectos «puros»
(por desarrollarse en entornos
públicos) que el conventional
wisdom, la ortodoxia económica y
la opinión publicada interpretan
como
necesarios
para
la
competitividad de un país, y para
los cuales se reclaman mayores
presupuestos
públicos:
un
investigador en un laboratorio
universitario intenta descubrir
nuevas propiedades de un material.
Ese proyecto, en general,
acabará
en
un
«papel».
Imaginemos, sin embargo, que
exactamente el mismo proyecto se
desarrollara en el seno de una
pyme. En el seno de una de esas
empresas pequeñas y deprimidas
que en los últimos años, a causa de
la
crisis,
han
recortado
drásticamente sus estructuras y
presupuestos
de
I+D.
¡Ah!
¡Entonces ese proyecto tiene interés
empresarial! En este caso, el
conventional
wisdom
y
la
ortodoxia económica imperante
dictaminan que debe ser financiado
por la empresa. Todo soporte
público
es
retirado.
Las
probabilidades
de
hallar
financiación por parte del sistema
púbico
de
I+D
son
exponencialmente inferiores cuando
ese proyecto se ubica en el mundo
económico real. La financiación
pública es aversa a todo lo que
suene a producto tangible y
comercializable. Paradójica e
incomprensiblemente, los recursos
públicos son centrifugados a
actividades alejadas de la empresa;
los proyectos son incubados y
desarrollados fuera de ella, y luego,
en todo caso, sus resultados,
«transferidos».
Hace unos años, uno de
nosotros asistió a una conferencia
de la asociación empresarial
FemCat. En ella se exponían las
conclusiones de un viaje que un
grupo de empresarios catalanes
había hecho a Finlandia, país
tomado
como
modelo
de
innovación
y
competitividad.
Todavía
conservamos
las
diapositivas. En su diagnosis, se
detectaba que existía un déficit de
inversión pública en I+D en
Cataluña de 969 millones de euros.
Y un déficit de inversión privada de
2.630 millones de euros. Para un
tamaño empresarial, PIB y
población similar a Cataluña, ¿qué
pasaba en Finlandia para que las
inversiones empresariales en I+D
prácticamente doblaran a las de
Cataluña?
La explicación la encontré en la
web de Tekes, la agencia de
desarrollo industrial y tecnológico
finlandesa. En ese momento, Tekes
inyectaba a la economía finlandesa
600 millones de euros públicos en
la financiación de proyectos
industriales de muy alta tecnología
según la fórmula matching fund
(por cada euro público se exigían
fondos privados en proporción 1 a
3 o 1 a 4). La economía finlandesa
estaba propulsada por un increíble
flujo de fondos destinados al
desarrollo de tecnología industrial.
Esos 600 millones de euros
públicos, multiplicados por 4 a
través del mercado, generaban los
más de 2.000 millones de inversión
en exceso en I+D que detectó
FemCat. Además, según la propia
asociación, «invierten en proyectos
de riesgo. Fracasa el 30 por ciento
de ellos, y dicen que la tasa de
fracaso es baja». Obvio... Si los
proyectos fueran seguros, debería
financiarlos el mercado, no una
agencia pública de desarrollo. Los
proyectos financiados por Tekes
siguen (todavía hoy, y desde hace
treinta años) la lógica de: a) muy
alto nivel de reto tecnológico; b)
impacto en la economía; c) efecto
multiplicador por coinversión
privada; d) fórmula consorciada
con universidades y centros de
investigación para crear relaciones
de confianza entre ellos, y e)
creación de empleo.
Según Jean-Jacques Rousseau,
filósofo ilustrado, para vivir en
sociedad, los seres humanos
acuerdan un contrato social
implícito que les otorga ciertos
derechos y obligaciones, a cambio
de que el Estado les garantice un
marco legal que les permita ejercer
esos derechos. El Estado es la
entidad creada para hacer cumplir
ese contrato. Rousseau vivió en el
siglo XVIII, y, desde entonces, se ha
producido en las sociedades un
cambio fundamental. Fue Peter
Drucker, padre del management
moderno, quien nos hizo notar ese
cambio: desde el siglo XX, el agente
fundamental
de
desarrollo
económico (y, en parte, social) es
la empresa. Lo abordamos en
profundidad en otro capítulo de este
libro.
Lo importante es que vivimos,
trabajamos e interaccionamos en el
seno de organizaciones. El siglo XX
fue el primer «siglo de las
organizaciones». En el siglo XVIII,
la vida de los seres humanos no
discurría en entornos organizativos.
Hoy sí, vivimos en entornos
organizativos,
que,
además,
compiten globalmente. Y un nuevo
agente ha irrumpido en escena: la
empresa como mecanismo de
creación de valor económico y
social. Finlandia ha actualizado su
contrato social (antes hablamos de
Boston como ciudad y su
metabolismo) y ha incorporado a
este nuevo agente. La nueva
propuesta de valor finlandesa es
taxativa:
«Empresa,
no
te
preocupes de la investigación y
desarrollo. Dado que es una
actividad de alta incertidumbre, te
ayuda a pagarla el Estado. A
cambio, te exigiré que crezcas y
crees empleo». Efectivamente, un
flujo económico de 600 millones
anuales
para
investigación
industrial en una economía como la
finlandesa significa, virtualmente,
que el Estado finlandés se hace
cargo de la práctica totalidad de la
investigación en sus pequeñas y
medianas empresas.
Sabemos que la crisis europea,
y especialmente en el sur de
Europa, no es (sólo) una crisis de
«exceso de gasto», sino de «defecto
de gasto» en algunos ámbitos
específicos. No es una crisis que se
resuelva (sólo) mediante la
«contención» extrema del gasto
público,
sino
mediante
el
«incremento»
de
inversiones
estratégicas en I+D y educación,
entre otras cosas. Esperemos que el
nuevo contrato social se extienda,
como en Finlandia, a los países del
sur de Europa.
En definitiva, ¿por qué no
avanzamos hacia la economía del
conocimiento?
Continuamente se celebran foros
donde se sigue hablando de los
problemas que tenemos para
avanzar
hacia
la
deseada
«economía del conocimiento». El
día de la marmota. Cansino debate.
Hace quince años las discusiones
eran las mismas. En muchos casos,
con los mismos protagonistas. A
estas alturas, la diagnosis está
clara. Toca dejar de hablar y actuar.
No avanzamos hacia la economía
del conocimiento por lo siguiente:
1.
Porque la economía del
conocimiento precisa un
sólido sustrato industrial.
Durante
años
se
ha
despreciado la actividad
industrial
y
se
ha
considerado que la mejor
política industrial era la que
no existía. Al fin y al cabo,
los
mercados
eran
inteligentes. Por ello, su
asignación de recursos
maximizaba el retorno en el
corto plazo y se centraba en
sectores
especulativos
(finanzas,
construcción).
Además, hemos vivido en
un espejismo (y lo seguimos
haciendo). Hay una nueva
fiebre puntocom. Miles de
chavales jóvenes intentan
montar su negociete por
internet (de nuevo, quince
años después, se repite el
error). Ventas online, que
no generan valor agregado,
webs de intermediación de
servicios
o
similares.
Mientras el mundo se
reindustrializa,
nosotros
asistimos complacientes a
una tímida salida de la
crisis con un modelo
competitivo de bajo coste,
adornado
por
algunos
espejismos
de
emprendimiento.
Y,
si
preguntamos
a
los
empresarios
más
representativos de nuestro
tejido económico, nos dirán
que «no es necesario que la
Administración haga nada».
Al fin y al cabo, los mejores
empresarios de estos lares
(creadores
de
grandes
negocios de construcción,
inversión, distribución o
servicios)
jamás
han
necesitado
políticas
industriales, precisamente
porque no son de sectores
industriales.
2. Porque el esfuerzo público
en
investigación
e
innovación sigue orientado
íntegramente
al
sector
público.
De
forma
aplastante, los programas de
soporte a la I+D se orientan
a
financiar
proyectos
públicos de I+D en
universidades y centros de
investigación, que siguen
desarrollando actividades
de investigación alejadas de
las
necesidades
industriales. Con la crisis,
el gap se ha incrementado:
la ciencia persigue la
excelencia,
y
para
conseguirla no puede contar
con una industria debilitada,
a la que inexorablemente
deja atrás. Los vasos cada
vez
son
menos
comunicantes.
¿Y
si
cambiáramos el mix? ¿Y si,
sin renunciar a la excelencia
y a la evaluación en
rigurosa clave científica, se
priorizaran proyectos en los
que existiera coinversión —
y, por lo tanto, interés—
empresarial?
Organismos que en su
momento tuvieron roles
determinantes, como el ya
citado CDTI, optan cada
vez más por conceder
créditos reembolsables en
lugar de ayudas directas. Y
si volvemos a preguntar a
nuestros
representantes
empresariales, nos volverán
a decir lo mismo: nada de
ayudas.
Como
mucho,
créditos. Muy bien, pues
sólo las empresas más
solventes, aquellas que, de
hecho, no necesitan los
recursos, serán las que se
beneficiarán. Sólo aquellas
con
patrimonio
para
garantizar los retornos. Para
proyectos, además, seguros
(pues los créditos se deben
retornar, obviamente). Es
decir, los pocos organismos
públicos que soportan la
investigación
industrial
asumen menos riesgo que la
banca comercial y se
dedican a
apoyar
a
empresas que no necesitan
esos recursos en proyectos
sin incertidumbre. Mientras,
el grueso de los recursos
públicos disponibles va a
proyectos
públicos
de
investigación no orientada
que
jamás
crearán
ocupación. La industria, la
pyme,
la
verdadera
investigación industrial y la
innovación
de
ruptura
quedan al margen de este
diabólico juego. Un juego,
por lo demás, inepto e
ineficaz.
3.
Porque el sistema de
incentivos académico no
contempla los proyectos
industriales.
Se
sigue
generando conocimiento, sí.
Pese a los recortes y a las
fatigas que la universidad
ha sufrido en los últimos
años. Pero el gran incentivo
que puede hacer culminar
con éxito una carrera
académica, llegando a una
cátedra, es la publicación
(algunas tan esotéricas
como podamos imaginar).
No la contribución a la
creación de empleo de
calidad. Si un investigador
debe optar entre profundizar
en un campo de la ciencia
hiperespecializado
y
emergente,
con
poca
competencia
académica,
donde las posibilidades de
publicar sean superiores, o
en otros donde el impacto o
el beneficio en el entorno
sea superior pero que estén
saturados de publicaciones,
optará por el primero.
Además, no nos engañemos,
siempre es más cómodo
investigar
de
puertas
adentro
que
hacerlo
buscando
resultados
tangibles y medibles en
consorcio con agentes del
entorno real. ¿Es éste el
sistema deseable?
4. Porque existe la creencia de
que todos los buenos
proyectos
encontrarán
financiación en el mercado.
Falso. ¿Qué son los
«buenos» proyectos? El
mercado
optará
por
proyectos
de
máximo
retorno en el corto plazo.
Cientos
de
proyectos
disruptivos están huyendo
hacia
ecosistemas
innovadores más generosos,
desesperados por la falta de
recursos financieros. Las
decisiones del mercado no
tienen por qué estar
correlacionadas con la
competitividad nacional en
el largo plazo, ni con la
construcción de un sólido
sistema
nacional
de
innovación, ni con el
desarrollo de una industria
basada en conocimiento.
Parece que no aprendemos.
Si dejamos al mercado solo,
volveremos al auge de la
construcción y de los
productos
financieros
especulativos. ¡Ah, sí! Y, en
todo caso, siempre podemos
decir al joven emprendedor
que no encuentra quien le
escuche (especialmente si
su proyecto es de base
científica) que «su mercado
es el mundo». Es decir,
«que se vaya». Que busque
inversores en Boston, Tel
Aviv o Seúl... Big thinking.
Gran solución. Con una
salvedad: el problema de
empleo lo tenemos aquí, no
en Boston, ni en Tel Aviv, ni
en Seúl.
5.
Porque existe exceso de
«opinática» y visión a corto
plazo. En innovación, todo
el mundo opina y muy poca
gente realmente sabe. Se
opina que lo que se debe
hacer es, precisamente, no
hacer nada (y así nos va).
Se opina que lo necesario
es
asesorar
a
emprendedores. Se opina
que la Administración debe
actuar como consultora
especializada (suplantando
al mercado de consultoras).
Notorios
empresarios
afirman
que
la
Administración debe apoyar
nuevos modelos de negocio,
jamás
desarrollo
tecnológico.
Los
empresarios más educados
dicen al sistema político
que «no necesitan nada,
sólo que se eliminen trabas
burocráticas».
¡Por
supuesto!
Una
Administración flexible y
rápida
es
un factor
higiénico, mínimo, exigible
como punto de partida. Pero
¿cuál es la estrategia
industrial e innovadora del
país? ¿Una Administración
que no ponga pegas? ¿Eso
es estrategia? Y cuando se
habla de estrategia, se opina
que hay que «apostar» por
un sector u otro. (¿Esto va
de «apuestas»? ¿Todo al
rojo?). Se opina sobre
investigación orientada o no
orientada, sobre centros
tecnológicos sectoriales o
territoriales. Se opina en
todas
direcciones.
Se
multiplican los foros sobre
la necesidad de aproximar
industria y academia, las
conferencias
sobre
mecanismos de salida de la
crisis, los bootcamps para
emprendedores... Se opina,
reopina y vuelve a opinar en
cada legislatura. Y el
resultado es que infinitos
políticos se suceden en
cargos
absolutamente
críticos
para
la
competitividad
nacional,
esenciales para la creación
real de ocupación, opinando
y cambiando de opinión en
un ciclo lamentable que se
perpetúa en el tiempo.
6. Porque siempre nos queda
el recurso de Europa. Al
fin, cuando realmente la
innovación continúa en el
centro de
todos
los
discursos
y
opiniones
económicas y políticas,
cuando sigue siendo el
concepto de moda para salir
de la crisis y sigue estando
en la cola real de todos los
presupuestos, siempre nos
queda una salida: Europa.
Señores de la pyme que
desean
iniciar
alguna
actividad investigadora y no
tienen recursos financieros,
váyanse a Europa. Busquen
un consorcio europeo,
piérdanse en el mar de
convocatorias y en el
océano burocrático de
Bruselas,
lleguen
a
acuerdos con una serie de
socios exóticos, preparen
una memoria repleta de
palabras clave que deseen
oír los officers de la Unión
Europea, y prueben suerte...
Igual triunfan, tienen éxito y
hasta
crean
empleo.
Pensábamos
que
las
prioridades estratégicas se
abordaban con recursos
propios, que los países
competitivos debían tener
fondos de investigación
industrial, pero no. Seguro
que con recursos europeos
(no con los de aquí) algún
día llegaremos a ser alguien
en
la
economía
internacional, y la pesadilla
del paro sólo será un
amargo y lejano recuerdo.
11
Microinnovación a la vuelta
de la esquina
JUAN SOBEJANO
Cuando
el oponente
se
expande, yo me contraigo.
Cuando él se contrae, yo me
expando. Y cuando hay una
oportunidad, yo no golpeo; el
golpe se da por sí mismo.
BRUCE LEE
Piensa en cualquier empresa que se
te pase por la cabeza. Sólo te
vamos a pedir un requisito, que
tenga unos diez o quince años de
antigüedad. Ahora imagina que le
preguntamos a su propietario si
hace eso que algunos llaman I+D+i.
Supón que esta persona dice que
no, que no sabe exactamente qué es
eso. Sí sabe que sale en los
periódicos, en las tertulias de la
radio y que parece el remedio a
todos los problemas de nuestra
economía. Pero reconoce que no
sabe qué es y, por lo tanto, que no
lo hace, al menos conscientemente.
En este contexto, ¿te creerías las
palabras del empresario/a? Si la
respuesta es afirmativa, te invito a
pensar en la siguiente cuestión:
¿crees que esa empresa, que ha
sobrevivido diez o quince años en
una economía de mercado, lo ha
hecho haciendo siempre las mismas
cosas, de la misma manera,
vendiendo a los mismos clientes y
sin hacer cambios desde que abrió
su negocio? Parece sensato pensar
que esto no es así. Y esto no es así
porque, como dejó escrito Jack
Welch, «si el ritmo de cambio de
una empresa es inferior al de su
entorno, el final de la empresa está
a la vista..., sólo cabe saber cuándo
será ese final».
Esa empresa que tienes en la
cabeza ha tenido que competir con
otras por sus clientes, ha tenido que
averiguar qué cosas no hace bien y
cambiarlas, ha tenido que prestar a
sus clientes una mayor variedad de
productos (o servicios), ha tenido
que ofrecer más calidad o ha
buscado fórmulas para reducir sus
costes. Porque si no lo hubiera
hecho, después de quince años,
habría desaparecido del mercado.
Cierto es que ha podido hacerlo de
forma consciente y planificada, o
inconsciente e improvisada, lo cual
implica una notable diferencia.
Pero quizá convengas conmigo en
que algo ha tenido que hacer.
Porque si ha hecho cosas
diferentes, de forma diferente y
buscando ahorro de costes para
sobrevivir en el mercado, entonces
su vida empresarial la ha
determinado su capacidad para
innovar. Ese algo que ha hecho; por
lo tanto, es innovar. Porque innovar
es transformar en dinero las ideas
que permitan conseguir esa
capacidad de supervivencia y
crecimiento empresarial.
Quizá sea ésta una definición
demasiado light de lo que implica
innovar. Pero puede que sea
necesario bajar de nivel cuando
hablamos de innovación. Muchas
empresas, cuando menos, muestran
un gran respeto e, incluso, temor
hacia términos como la I+D+i.
Existen aún clichés establecidos
del siguiente tipo: innovar es
cuestión de las grandes empresas, o
de aquellas que tienen laboratorios
y/o departamentos dedicados a la
investigación, o de aquellas cuya
actividad empieza por «bio» o por
«nano». Ese miedo escénico existe
y es palpable en el trabajo diario
con la dirección de las empresas,
incluso con aquellas que pueden
facturar más de 100 millones de
euros.
De la misma manera, con este
sencillo ejemplo, posiblemente
pueda dar a entender que, en
realidad, no existe un problema de
innovación en las empresas —cosa
que no es verdad, como hemos
visto en el capítulo anterior— o
que sólo se trata de una cuestión de
medición entre quienes gestionan su
innovación y quienes no lo hacen.
En cambio, es importante matizar
esta posible derivada a la que
puede conducir el razonamiento
anterior. En materia de innovación,
como en otras muchas facetas
empresariales, el grado es lo que
marca la diferencia, a veces
insalvable, entre las empresas.
¿Y cuáles son los factores que
pueden explicar esta diferencia?
La respuesta hay que buscarla
en la estrategia. Dinamizar la
innovación en las empresas
requiere, ante todo, dinamizar la
forma en que éstas se gestionan, en
cómo se conciben y visionan los
negocios y, sobre todo, en cómo se
crean el clima y los instrumentos
adecuados para que se incuben y se
ejecuten las ideas hasta llevarlas al
mercado.
En el libro Gestión en tiempos
de crisis (Deusto), Juan Fernández
Aceytuno pone de relieve uno de
los grandes problemas que tiene la
empresa española: su escasa
capacidad y disciplina para
involucrarse en planteamientos
estratégicos. La gestión estratégica
en una organización, si se toma en
serio, ayuda a crear un clima donde
las personas que trabajan en ella (y
su entorno, esto es, las que no
trabajan pero están relacionadas
directa o indirectamente con la
misma) crean, discuten, moldean y
se convierten en motores de ideas
para el cambio y el progreso. Una
reflexión estratégica ayuda a tomar
conciencia de la necesidad de una
buena evaluación del entorno de la
organización: legal, ambiental,
nuevos desafíos sociales, etc. Una
reflexión
estratégica
es
un
instrumento para analizar el/los
mercado/s en los que la empresa
vende sus productos o servicios. Y
con ello, para evaluar a la
competencia, sus estrategias, su
diferenciación. Descubrir qué hace
que unos clientes estén dispuestos a
pagar por lo que se les ofrece
mientras que otros no. Averiguar
qué demandan los potenciales
clientes y cómo llegar a conseguir
que nos compren. Una reflexión
estratégica obliga a tomarnos en
serio todos los procesos de la
empresa: compras, distribución,
logística,
negociación
con
proveedores, consumos de energía
y un largo etcétera. Una reflexión
estratégica obliga a mirar más allá
del día a día, a usar la imaginación
y la creatividad, a trazar caminos a
seguir y buscar los socios
tecnológicos o comerciales que
permitan lograrlo. Y todo ello
fuerza a calcular y estimar bien los
recursos financieros disponibles,
las necesidades y cómo cubrirlas.
Todo esto no se puede hacer tan
sólo desde la «cúspide» directiva.
Los cambios, para que sean
profundos y continuos, implican el
liderazgo de involucrar a toda una
organización. Y de esto se habla en
profundidad en el siguiente
capítulo. Si esos cambios se
convierten en una guía (plan)
estratégica que «toda» persona de
la compañía hace suya, entonces
será más fácil su ejecución. Surgirá
la necesidad de medirse, de
cambiar,
de
moldearse,
de
adaptarse, de potenciar el flujo por
el que llegan los canales de las
ideas.
Y si existe esta reflexión
estratégica, entonces se iniciará, sin
más, un proceso de innovación. Un
proceso que es complejo, que
implica riesgos (aunque el mayor es
no involucrarse en él), que requiere
también del trabajo y la sintonía de
toda la organización. Lo más
probable es que esta innovación
fuerce a crear un departamento que
sirva de catalizador y coordinador
del proceso, pero su valor se
apreciará precisamente cuando se
convierta en el corazón de la
empresa que bombea ideas y
propuestas para mejorar los
resultados (tanto en ingresos como
en costes).
Parece, por lo tanto, que cuando
marcamos un rumbo y lo diseñamos
con todas nuestras herramientas y
talento, se va tejiendo una
organización inteligente, donde la
estrategia es un arma poderosa y la
innovación es su munición para
cambiar y crecer.
Actualmente estamos ante un
contexto económico y empresarial
realmente complicado. España
tiene sus propias peculiaridades,
que pueden lastrar aún más la
capacidad de recuperación, debido
a
la
gran
especialización
productiva en sectores como la
construcción.
El
crecimiento
económico de la primera década
del siglo y la facilidad de acceso al
crédito por parte de las empresas
han «adormecido» las necesidades
de afrontar procesos de reflexión
estratégica en las empresas y, por
lo tanto, de innovación.
Pero, en este contexto, hay
esperanza. Y el objetivo de este
capítulo es ponerlo de manifiesto.
Precisamente lo que sigue son
ejemplos de empresas comunes, de
esas que tenemos a la vuelta de la
esquina en cualquiera de nuestras
ciudades. Se trata de explicar que
la innovación es posible, que hay
historias realmente relevantes en
este camino de transformación de
nuestra realidad. Necesitamos más
y mejores historias, esto es un
trabajo
de
constancia,
de
capacidades y de creer que es
posible, tal y como mostramos a
continuación.
La historia de Rafael del Rosal y
sus Patatas San Nicasio
Cuando Rafael del Rosal partió de
Sant Andreu de la Barca,
Barcelona, y con toda la familia a
cuestas, en dirección a Priego de
Córdoba, en el otro extremo de la
península Ibérica, iba, como
vulgarmente se dice, con una mano
detrás y otra delante. Siempre había
querido dejar su puesto en el
almacén donde trabajaba e iniciar
su propio negocio. Era uno de esos
locos que creen de verdad todas
esas historias del emprendedor que
triunfa, del hombre hecho a sí
mismo que construye un imperio
gracias a su tesón, visión e
iniciativa. Esas cosas. Lo que no
sabía Rafael era que el foco de la
linterna nunca alumbra a los que
fracasan, a esos que dejan sus
sueños por el camino. Rafael nunca
había visto esas sombras..., por
suerte para él.
Por eso se instaló en Priego de
Córdoba, con la familia a cuestas, y
puso una churrería ambulante. Su
propio negocio. Su primer negocio.
Un pedazo de churrería ambulante.
Por algo se empieza, pensó. Lo
malo es que ni por eso podía
empezar: no sabía hacer churros. La
masa no salía; los churros se
pasaban o se quedaban crudos; el
aceite no estaba a la temperatura
adecuada... Y sin embargo, sacó la
churrería adelante. Practicando en
casa, probando, cambiando un
aceite de peor calidad por uno de
Priego de Córdoba, donde se hacen
los mejores del mundo. Tirando
kilos y kilos de masa hasta
encontrar la mezcla adecuada. Al
final Rafael abrió su churrería.
No era gran cosa, sólo una
churrería ambulante que colocaba
frente al mercado, pero era suya. Y
empezó a vender. Y vendía bien.
Los clientes compraban sus
churros, y mucho. Pero Rafael no se
paró ahí. Se dio cuenta de que
muchas personas compraban los
churros para llevárselos, y que
llegaban a casa gomosos, blandos.
«Ésos no son mis churros —pensó
Rafael—. Lo que el cliente se come
no es el churro que le he vendido».
Y decidió ponerle alguna solución.
Rafael tenía muy claro que la
clave está en el producto y que el
producto más humilde puede ser
grande si se cuida. Así que empezó
a hacer pruebas en su casa hasta
que ideó una bolsa agujereada que
permitía airear el churro para que
no se generara condensación en la
bolsa y el producto que él había
vendido a sus clientes siguiera
siendo de calidad.
Además, Rafael tenía clara otra
cosa: al cliente le tienes que dar lo
que necesita, no lo que tú quieres
que necesite. Y se dio cuenta de que
por las tardes, y cuando llegaba el
calor, la venta de churros bajaba.
Esto le generaba recursos ociosos y
una nueva oportunidad de probar
cosas nuevas. Así que pensó en otro
producto para esos momentos en
que los churros no eran una buena
opción de venta. Y pensó en las
patatas.
«Tengo el mejor aceite del
mundo, unas patatas también
magníficas y medios para hacerlo.
A freír patatas». Además, dio la
casualidad de que una amiga
experta en temas de nutrición,
Marisol Guisasola, le recomendó
que utilizara sal rosa del Himalaya,
«en mi caso de Pakistán, del valle
del Penhag», como dice Rafael. Y
las patatas gustaron.
Y gustaron tanto que Rafael
pensó en venderlas más allá de la
churrería. Alquiló un almacén, que
se le fue quedando pequeño. Con el
tiempo, los cooperativistas de
Almazaras de la Subbética le
alquilaron una nave (2011), y
cuando Rafael comprendió que
tenía que dar el salto, puesto que
necesitaba triplicar la producción,
se construyó su propia fábrica
(2013). Hoy Patatas San Nicasio
vende a más de quince países, sigue
en expansión y ha ganado infinidad
de premios en congresos y ferias
internacionales de alimentación; es
un producto apreciado por los
mejores gourmets del mundo y
Rafael...
Rafael llega a la fábrica a las
cinco de la mañana y se va entrada
la noche; si tiene que freír patatas,
las fríe; de hecho, cuando lo visité
estaba con su mandil y una
redecilla en la cabeza sacando
patatas del aceite. Y no creas que
ha vendido la churrería ambulante.
La regenta su mujer, y él la ayuda
los fines de semana. «Juan —me
dijo con una sonrisa en la boca—,
con las deudas que tengo ahora, es
lo que nos da de comer». Y se le
notaba feliz y orgulloso.
La historia de Rafael del Rosal
es la de aquellas personas que se
lanzan a hacer las cosas que hacen
todos..., pero de distinta manera.
No son visionarios, ni soñadores.
En realidad suele ser gente muy
realista, con los pies muy pegados
al suelo y conscientes de que el
éxito está en la transpiración más
que en la genialidad. No son gente
que tenga tiempo para la
innovación, pero innova, y ahí está
lo verdaderamente relevante. Ellos
nos enseñan que la innovación no
es cosa de grandes empresas o
multinacionales,
que
no
es
necesario disponer de presupuestos
millonarios o de un grupo de
expertos científicos que nos diga
cómo hemos de mejorar.
En realidad, este tipo de
personas apuesta por un tipo de
innovación
que
en
las
universidades no sería reconocida
como tal, y que incluso ellos
mismos jamás identificarían con
innovación: la microinnovación.
La microinnovación se puede
definir como la introducción de una
mejora low-cost en alguna parte de
la cadena de valor que da al
producto o servicio una cierta
ventaja competitiva, pero que no
supone un cambio relevante en el
mercado. No es innovación
disruptiva porque no supone ningún
salto de mejora en el producto,
servicio, empresa o mercado.
Tampoco es innovación incremental
pura porque no llega a suponer una
ventaja especialmente relevante
para la empresa. Si analizamos los
cambios que se generan en el
producto o servicio, éstos pueden
ser aparentemente nimios, pero al
final generan un posicionamiento
muy interesante para el producto en
el mercado.
En realidad se puede decir que
Rafael
introdujo
pequeñas
microinnovaciones en su cadena de
valor: un aceite de primer nivel,
que no se suele utilizar de manera
habitual;
patatas
compradas
directamente a los agricultores y no
tratadas ni procesadas; un freír
lento y a temperatura más
controlada; sal rosa del Himalaya,
no utilizada hasta entonces y más
suave, y una bolsa especial,
exclusivamente preparada para
mantener el producto en las mismas
condiciones en que se embolsó.
Rafael no inventó nada nuevo;
posiblemente su innovación esté en
unir todos esos elementos y
utilizarlos a la vez.
La historia de Steve Ells, el
fundador de Chipotle
Tal vez sea lo mismo que hizo
Steve Ells, el fundador de Chipotle,
una cadena de restaurantes de
comida mexicana. Steve también
tiene una historia interesante. Es
algo habitual en todas estas
empresas: sus innovaciones tienen
un poderoso fundamento detrás. Un
fundamento que a veces es ético o
meramente vivencial, pero que
sostienen y justifican las decisiones
tomadas. Por eso se puede decir
que casi no podemos hablar de
innovación cuando analizamos su
éxito. En ocasiones no parten de
reflexiones profundas y enfocadas a
unos resultados concretos, sino que
son el resultado de una biografía y
de un modo de entender los
productos y empresas.
Ells abrió su primer restaurante
Chipotle en 1993 en Denver,
Colorado. En realidad era otro
restaurante de comida mexicana
más, no distinto aparentemente de
los demás, tal vez algo más
pretencioso, pero ahí quedaba todo.
Ells tenía claro que debía cuidar la
calidad, que ésta era una de las
claves de su posible éxito. Y ese
éxito vino. La comida gustaba, el
producto era bueno y la estrategia
de marketing y comercialización
era acertada. En pocos años abrió
varios restaurantes más. Hasta aquí
nada raro.
Pero en una ocasión leyó un
artículo de la revista The Art of
Eating: «The Lost Taste of Pork»,
[16] en el que el autor explicaba el
método industrial de cría y
sacrificio del cerdo y cómo estaban
apareciendo otros métodos menos
dolorosos y más amables para con
los cerdos. Como Chipotle/Ells
dice en su web: «La mejor forma de
tratar a los animales con dignidad y
respeto es permitiéndoles exhibir
sus tendencias naturales. En el
proceso de selección de nuestros
proveedores de carne, trabajamos
arduamente
para
encontrar
granjeros y agricultores que hagan
las cosas bien».
Ells comenzó a cambiar de
proveedores, en principio para los
cerdos, pero luego también para la
carne de vacuno e incluso para las
verduras y hortalizas. Chipotle
introdujo el concepto de «alimentos
con integridad», con el que aunó el
elemento ético y sus procesos y
selección de proveedores. Además,
el concepto está basado en tres
pilares: los animales, que como he
dicho tratan como animales, sin
falsas ni forzadas asimilaciones a
categorías humanas, pero con el
respeto que implica el que sean
seres vivos; las personas, centrando
el valor de Chipotle como tal en su
componente humano y tratando,
siempre que sea posible, de
trabajar
con
ganaderos
y
agricultores locales, potenciando
así los alimentos de kilómetro cero,
y el medio ambiente, haciendo de
su cuidado un objetivo de la propia
empresa, más allá de un mero
mensaje de marketing.
Las empresas de este tipo no
serían creíbles sin un marcado
compromiso con la transparencia,
por lo que Chipotle ofrece en su
web información de sus procesos y
del resultado de los mismos,
además de la manera como
solucionan los posibles problemas
medioambientales que puedes
generar.
Como en el caso de las Patatas
San Nicasio de Rafael del Rosal,
los restaurantes Chipotle de Steve
Ells no son en sí un modelo de
innovación
disruptiva,
posiblemente
ni
siquiera
incremental, pero sí son una manera
distinta de hacer las cosas, una
manera y unos modos que los
posiciona firmemente en el
mercado y que permite que sean
capaces de crear una fuerte imagen
de marca, uno de los principales
efectos de la microinnovación.
Una imagen de marca que va
unida a una historia, como ya he
comentado. La historia aparece
como un vehículo interesantísimo
para
transmitir
valores
y
referencias particulares de la
propia
empresa.
Permite
diferenciar nuestra empresa de
otras. Varias empresas pueden
parecer iguales, pero ninguna tiene
la misma historia, y si esa historia
no es sólo una herramienta de
marketing, sino que forma parte de
nuestra esencia, de nuestra «alma»,
estamos recorriendo el camino de
la
diferenciación,
de
la
exclusividad. Y si además podemos
construir un relato integrador, en el
que se identifiquen tanto los
clientes como el equipo e incluso
los
proveedores,
estamos
levantando una barrera que nos hará
únicos a los ojos del mercado.
El
enfoque
de
la
microinnovación permite, además,
comprender la importancia del
conocimiento muy segmentado, de
trabajar desde el propio mercado y
enfocando los estudios comerciales
desde una perspectiva muy de
guerrilla o de acupuntura del
conocimiento. La microinnovación
nace desde la persona, desde el ser
humano, que analiza y conoce sus
necesidades
y
problemas,
descubriendo qué es para él lo
importante.
La historia de Iván Marcos
Peláez y Trendtrotters
Iván Marcos Peláez, cuando
terminó su carrera universitaria, y
ante la necesidad de preparar su
proyecto de fin de carrera, dijo:
«Yo lo que de verdad quiero es
recorrer el mundo». Nació así el
proyecto Trendtrotters con el
objetivo de hacer estudios de
mercado a
pie
de
calle,
relacionándose y comportándose
como un consumidor más en los
mercados que se querían estudiar.
De este modo, Iván viajaba y
Orbea, por ejemplo, le pedía un
estudio del uso de las bicicletas en
la India para comprobar si era un
mercado interesante. Y ahí estaba
Iván, paseando por la India y
observando a sus habitantes para
conocer cómo, por qué, cuándo y
dónde utilizaban las bicicletas en su
día a día. O, por ejemplo, una
empresa de lácteos le pedía que
analizara el consumo de yogures en
Estados Unidos, e Iván visitaba los
supermercados de Dallas para
analizar, desde el mismo nivel que
el consumidor final, en realidad
siendo él un consumidor final,
cómo el mercado estadounidense
estaba consumiendo el yogur.
Lo que hacía Iván era construir
la primera piedra de la innovación,
pero desde lo más concreto, desde
la singularidad. El concepto de
microinnovación tiene muy en
cuenta, siempre, dos elementos
clave: da mucho valor a «lo
pequeño», lo concreto, como fuente
desde la que emana todo el proceso
de innovación, y tiene muy en
cuenta la dimensión humana de la
innovación, tanto en cuanto a su
origen como en cuanto a su fin y
objetivo.
El modelo Trendtrotters no era
sólo una forma de cazar tendencias,
eran verdaderos estudios de
mercado de guerrilla, acupuntura de
la información muy centrada en el
ser humano y que por eso resultaba
vital y de gran importancia para las
empresas que lo contrataban. Al
trabajar lo concreto, Trendtrotters
logra profundizar en la información
evitando generalizaciones que
pueden no ser relevantes y que,
desde luego, impiden en muchos
casos ofrecer una propuesta de
valor adecuada a las necesidades
del mercado, precisamente por esa
generalización que busca más
mercados abundantes (cantidad)
que relevantes (calidad).
Hamdi Ulukaya y su iniciativa
Chobani
Esa humanización de la innovación
también se observa en empresas
como Chobani. Creada por Hamdi
Ulukaya, Chobani se dedica a la
fabricación de yogures y compite
con los grandes del sector en
Estados
Unidos
y
Canadá,
fundamentalmente
Yoplait
y
Danone. Chobani fue considerada
una de las cincuenta empresas más
innovadoras del mundo en 2012, al
igual que Chipotle. Y es curioso,
porque
Chobani
no
es
especialmente
innovadora
en
tecnología, lo es en volver a
procesos más artesanales, en ir
contra las corrientes del mercado y
apostar por la personalización y
humanización del producto. Como
dice Ulukaya, su éxito está en no
conocer la manera habitual de hacer
los negocios.
El valor de la artesanía en el siglo
XXI
Trabajar con un enfoque artesano es
hoy en día, y sobre todo en
determinadas
industrias,
una
verdadera innovación. El artesano
es humano; parte de la asunción de
que no existe la perfección, pero al
mismo tiempo ése es su objetivo.
La microinnovación entiende que
no es perfecta, pero que sí es
humana y absolutamente válida, que
aporta un valor diferencial y único
a las personas.
La artesanía representa en este
tipo de empresas la verdadera
innovación; es su diferenciación
más clara respecto de grandes
multinacionales, que posiblemente
tengan mayor capacidad de
comercialización y de aplicar la
tecnología a sus procesos. Dice el
sociólogo Richard Sennet que «no
hay arte sin artesanía. La idea de
una pintura no es una pintura». Y si
la parte técnica, que no tecnológica,
es clave para materializar esas
posibles ideas en forma de
productos o servicios, centrarse en
una diferencia trabajando desde una
perspectiva más artesana los
procesos puede generar una
diferencia de posicionamiento
relevante en el mercado.
También
Ferran
Adrià
comprende
que
técnica
e
innovación van unidas, porque no
hay
materialización
de
la
innovación sin una
técnica
adecuada detrás que la sostenga. Y
aunque
Adrià
introduce
la
tecnología en las cocinas, nunca
olvida el valor del trabajo manual,
artesano, que ejemplifica como en
ningún otro lugar la unión entre una
técnica concebida desde una visión
artesana y una tecnología puesta a
su servicio para conseguir los
resultados adecuados.
En
DoVase[17]
integran
perfectamente la tecnología con la
artesanía. Utilizando una app
gratuita puedes diseñar muy
fácilmente un jarrón a tu gusto.
Desde la misma app puedes mandar
ese diseño a un artesano alfarero
que creará ese mismo jarrón
diseñado por ti. El resultado es una
pieza única que parte de una
comunicación directa entre el
cliente y el artesano sin perder esa
parte
de
personalización y
exclusividad que tiene el trabajo
artesano, pero valiéndose de la
tecnología para aumentar el
mercado y llegar a segmentos a los
que antes era imposible acceder.
En los casos mencionados no
hay innovación tecnológica, y
cuando la hay, ésta es de baja
intensidad y siempre puesta al
servicio de la artesanía y el manejo
que de la misma hace el ser
humano. Es éste el que da sentido a
la tecnología. Tecnología y
artesanía no se excluyen, sino que
se integran en un modelo en el que
la segunda marca el camino a seguir
y la tecnología se convierte en una
herramienta a su servicio.
En algunos casos existe una
búsqueda de impacto social, que no
sólo se considera un elemento
importante, sino que forma parte
del modelo de negocio de la
empresa. Los beneficios esperados
ya no son sólo monetarios, sino que
se busca un modelo que genere un
beneficio «hacia el exterior», hacia
la sociedad. Y todo envuelto en un
relato absolutamente relevante.
Al igual que Chipotle, Chobani
incluye en su propuesta de valor un
marcado componente social y ético.
Su mensaje es muy potente porque
no sólo incluye ese elemento
humano en sus procesos, sino que
dicho mensaje forma parte del
origen de esos procesos, con un
claro
compromiso
con
la
sostenibilidad ambiental y el
retorno social de parte de los
beneficios. La humanización de la
empresa es total, uniendo objetivos,
origen, procesos y una historia que
articula todos esos componentes.
La historia, el storytelling,
representa una magnífica manera de
transmitir el valor y los valores de
estas empresas, como ya he dicho.
Lo vemos en San Nicasio, Chipotle,
Trendtrotters y Chobani. En todos
estos casos, los valores de las
empresas están unidos a nombres
propios, fundadores que tienen una
historia que contar y que gracias a
esa historia llenan de sentido sus
proyectos.
La microinnovación nace desde
el propio ser humano, desde que
éste comprende que la empresa no
es nada sin ese componente
diferencial que es la persona, llena
de defectos, y por eso diferente y
única. Una persona, un ser humano
que ha de ser puesto en un espacio
y vivir un tiempo para que todo
adquiera sentido. Las empresas no
nacen de la nada, son fruto de la
voluntad de las personas, y esa
voluntad es una fuente básica de
innovación.
La historia de Krikos
Krikos nace cuando Víctor deja su
trabajo y quiere dar la vuelta al
mundo. En Argentina quiso comprar
quicos, ese maíz tostado que se
vende en bolsitas como snack. No
encontró porque no había, por lo
que Víctor decidió montar una
empresa para producir y vender
quicos por toda Argentina. Hoy
Krikos se vende por todo el mundo.
Posiblemente lo más relevante
de Krikos esté en su lenguaje
desenfadado, directo, joven, y en la
introducción del juego en su
comunicación. Las bolsas de
Krikos son alargadas y con dos
ojos grabados en las mismas, de
modo que permite que los clientes
manden sus fotos con los ojos de
las bolsas en su cara. El juego y el
buen humor son permanentes en el
mensaje. La utilización del humor
es, pues, un elemento clave en la
comunicación e impregna al
producto de un mensaje que
alimenta su marca. Cuando compras
Krikos, compras algo desenfadado,
casual, fácil de llevar y de
consumir, algo inofensivo y amable.
Con todo esto se consigue un
mensaje no convencional, que no
parece que busque directamente la
venta y que ofrece, además, la
oportunidad
de
crear
una
comunidad de usuarios y clientes de
la marca. La creación de
comunidades representa también
una oportunidad muy interesante
para mejorar nuestra posición en el
mercado. Y no estoy hablando sólo
de comunidades desarticuladas y
desordenadas de clientes, sino
incluso de comunidades o grupos
de usuarios con un espacio en el
que relacionarse. Había una cadena
hotelera que creó una plataforma
para que sus clientes se
relacionaran y éstos a su vez con la
cadena. No era raro que apareciera
alguna queja o duda de algún
cliente y que otros le resolvieran
esa duda o queja sin necesidad de
que la dirección o el administrador
actuaran. Esto crea fidelidad.
Ziferblat y el marketing lateral
En ocasiones las innovaciones, o
microinnovaciones, ponen el foco
en un único elemento del modelo de
negocio, dándole una vuelta a la
manera tradicional en que las
empresas crean y gestionan los
modelos de negocio propios de un
sector. Ziferblat es una cadena de
cafeterías de origen ruso que ya ha
abierto su primer café en Londres.
La peculiaridad de esta cafetería es
que no te cobra por lo que bebes,
sino por el tiempo que estás en ella.
Con una decoración más
cercana a una casa convencional
que a una cafetería, y un modelo de
ingresos distinto, Ziferblat busca
resolver una de las debilidades de
los establecimientos hosteleros, la
necesidad de una alta rotación de
las mesas. Con su modelo de
negocio eso ya no es un problema
para Ziferblat, pues da igual que
una mesa rote con nuevos clientes o
no, mientras tenga clientes siempre
estará produciendo ingresos.
En este caso tampoco ha habido
tecnología de por medio, ni
innovación disruptiva y difícil de
copiar, pero Ziferblat ha sido capaz
de introducir un modelo de negocio
que, sin movilizar grandes recursos,
soluciona alguno de los problemas
que tienen los cafés tradicionales.
Porque en ocasiones basta con
centrarse en ese problema en
concreto para encontrar una
solución innovadora, y una de las
técnicas más interesantes para este
fin puede ser la del marketing
lateral, que bien puede haber sido
utilizada por Ziferblat.
El marketing lateral permite
encontrar una innovación desde una
situación de aparente ausencia de
lógica. La técnica, muy resumida,
se basa en la existencia de
desplazamientos
laterales.
Lo
vemos con Ziferblat. Partimos de la
necesidad que tienen las personas
de reunirse, charlar, tomar café u
otras bebidas y pasar un rato
agradable con los amigos. A partir
de ahí puede que haya muchas
opciones, desde una cafetería
tradicional hasta un bar de tapas o
cualquier otra solución que cubra
esas necesidades. Bien, nos
centramos en las cafeterías. Y aquí
es donde trabajamos con alguna
característica para generar ese
desplazamiento lateral. Y nos
fijamos en las fuentes de ingresos y
vemos que la fundamental está en el
pago que hacen los clientes por las
bebidas: los clientes pagan por las
bebidas. Y nuestro desplazamiento
lateral consiste en negar esa
afirmación: los clientes no pagan
por las bebidas.
En
este
momento
nos
encontramos en un estado de
indefinición, de extrañeza e
incomodidad. (¿Que los clientes no
pagan por las bebidas? Siempre han
pagado por las bebidas. ¿De qué va
a vivir la cafetería?). Nos falta esa
conexión entre la cafetería como
negocio y la afirmación de que «los
clientes no pagan por las bebidas».
¿Cómo salvamos ese vacío?
Afirmando que «los clientes pagan
por el tiempo que permanecen».
Esa afirmación supone la aparición
de una nueva fuente de ingresos que
puede ser más interesante que la
habitual y que posiciona a Ziferblat
como una cadena innovadora y
distinta.
Centrarse
en
una
sola
característica del modelo de
negocio para buscar la diferencia y
utilizar la técnica adecuada para
hacer que ésta aflore puede generar
como resultado un producto con una
capacidad de posicionamiento
completamente distinta y con alto
potencial de atracción. Este tipo de
técnicas son muy interesantes para
el desarrollo de estrategias de
microinnovación, puesto que no
necesariamente
requieren
de
grandes presupuestos y se pueden
centrar, como he comentado, en un
elemento del modelo de negocio,
permitiendo la focalización del
esfuerzo.
En todo proceso de innovación
es fundamental tener muy claro que
debemos tener un objetivo claro:
resolver una necesidad de la forma
más
eficaz
posible
y
diferenciándonos
de
la
competencia. Pero si pensáramos
que
la
innovación
y
la
microinnovación sólo pueden ser
trabajadas en empresas o enfocadas
al
mercado
estaríamos
equivocándonos. Posiblemente es
en entornos sociales, y para
resolver problemas sociales, donde
la microinnovación tiene uno de los
más interesantes campos de
actuación.
Y esto no es raro, pues hemos
de tener en cuenta que la
microinnovación es una innovación
de bajo coste, que busca que los
gastos a soportar sean mínimos, por
lo que puede generar productos muy
interesantes y muy enfocados para
grupos o comunidades con una
capacidad de gasto muy limitada.
Un ejemplo muy interesante es
el WaterWheel, de Wellowater,[18]
una rueda-bidón ancha y hueca,
rellenable, que facilita el transporte
para aquellas comunidades que han
de desplazarse a cierta distancia
para conseguir agua.
En este caso se ha trabajado
con una necesidad clara, una
necesidad social como es el acceso
fácil al agua. Puesto que un sistema
de canalizaciones hubiera sido más
caro y difícil de desarrollar, se
propone facilitar el proceso de
traslado de esa agua. Así, en lugar
de que las mujeres tengan que
llevar cántaros en la cabeza, con la
posibilidad de que caigan y se
pierda el agua, además de la
dificultad para llevar grandes
cantidades, se propone un producto
que resuelve todos esos problemas.
Es fundamental tener esto en
mente: la innovación sólo es
relevante cuando resuelve un
problema o nos permite hacerlo de
una manera más sencilla y con
menos cargas para el usuario. El
valor que podemos aportar con una
innovación, sea ésta social o
enfocada al mercado, está en que
seamos capaces de aumentar el
valor percibido por el usuario o en
que disminuyan los costes que ha de
soportar para su satisfacción. En el
caso de Wellowater se dan ambas
circunstancias: hay un mayor valor
percibido al aumentar la cantidad
que se puede transportar en cada
viaje
y hay también una
disminución de los costes, pues
aumenta la facilidad de transporte.
La bombilla de los pobres
Otro ejemplo de innovación social,
o en este caso de microinnovación
social, que está teniendo un fuerte
impacto en suburbios de todo el
planeta es la llamada «bombilla de
los pobres». Ésta no es más que una
botella llena de agua que se inserta
en un agujero del techo de chapa de
la vivienda y que actúa como lupa
para incrementar la luz del sol que
entra por ella. Las soluciones
innovadoras no necesariamente
tienen su origen en el mercado o en
empresas u organizaciones, sino
que pueden venir de los propios
usuarios o beneficiarios de esa
innovación.
La idea de la bombilla de los
pobres se le ocurrió al mecánico
brasileño Alfredo Moser en 2002,
tras un apagón de luz. Su objetivo,
como él mismo dice, no fue que el
invento le hiciera rico, sino
resolver una necesidad suya y de
gente necesitada. Es fundamental
que seamos conscientes de que la
innovación y las ideas que la
alimentan tienen múltiples fuentes.
En un proceso de innovación es
clave que seamos capaces de
ampliar esas fuentes y no nos
quedemos únicamente con las
internas.
Trabajar con herramientas como
el pensamiento de diseño ayuda a
gestionar de una manera más eficaz
esa posible abundancia de fuentes
que podemos tener. Cuando
introducimos en nuestros procesos
herramientas como la mirada
antropológica, que no es otra cosa
que la observación de una escena
con sentido y significado, es decir,
interpretándola,
estamos
introduciendo a nuestros clientes en
nuestros procesos de innovación.
La utilización de la bombilla de
los pobres explica, evidentemente,
una necesidad que ha de ser
satisfecha, y cuando no es el
mercado el que consigue generar
esa satisfacción o solventar esa
necesidad es o bien porque no sabe
cómo hacerlo o bien porque su
respuesta tiene alguna debilidad
para el usuario. En este caso la
fundamental es un tema de coste por
el precio que puede tener la
bombilla y la corriente eléctrica
necesaria para encenderla. Pero
también puede haber debilidades de
infraestructuras (no haber tendido
eléctrico) o de mantenimiento. Sea
como fuere, en este caso la solución
social se adapta mejor
determinados entornos que
solución empresarial.
a
la
Luis Soriano y su Biblioburro
Cuando Luis Soriano, profesor
rural de La Gloria, un pequeño
municipio del interior de Colombia,
comenzó su proyecto, en ningún
momento se le cruzó por la cabeza
la palabra «innovación». A Luis le
gustaba la lectura desde pequeño, y
cuando fue maestro trató de
inculcar a sus alumnos ese placer
que produce descubrir nuevos
libros y nuevas historias. Como
profesor tenía la oportunidad de
tratar con niños, y como profesor
del interior de Colombia sabía que
había niños que no tenían acceso a
esos libros. Un día decidió comprar
dos burros, a los que puso por
nombres Alfa y Beto. Cargó los
burros con libros y se dispuso a
introducirse en la selva para llegar
a esos niños sin lectura. Había
nacido el Biblioburro.
El Biblioburro, evidentemente,
no es un proyecto que vaya a
cambiar el mercado, que abra un
nicho nuevo o que vaya a hacer rico
a nadie, pero posiblemente tenga un
impacto social mucho mayor que
muchas innovaciones que se centran
únicamente en el mercado. El
Biblioburro es innovación social,
microinnovación social que pone en
relación
dos
conceptos
aparentemente imposibles de unir:
biblioteca y selva.
El Biblioburro juega con el
método de la hibridación como
estrategia de creación, y con ella
consigue centrarse en el problema y
salir de la zona de confort para
buscar una solución con elementos
aparentemente antagónicos. La
innovación no es aquí el producto
de la tecnología, evidentemente, ni
de
disponer
de
grandes
presupuestos.
Aquí
es
más
importante
haber
detectado
correctamente el problema, analizar
los recursos de que se dispone y
construir una solución sin ponerse
límites en cuanto a la creatividad.
Waka Waka
Otro proyecto interesante en este
mismo entorno de innovación social
es Waka Waka,[19] que nace en
2010, cuando Maurits Groen y
Camille van Gestel vieron las
necesidades de iluminación que
tenían algunas comunidades de
Sudáfrica. A partir de ahí, y
financiándose con la plataforma de
crowdfunding Kickstarter, crearon
Waka Waka, un aparato que es a un
tiempo cargador, batería y linterna,
todo por energía solar. Lo
interesante de Waka Waka es que
además de ser un proyecto
sostenible económicamente, busca
producir un impacto social en
aquellas comunidades donde tengan
algún
tipo
de
deficiencia
energética. Desde la empresa
calculan que ya han llegado a más
de 600.000 personas, teniendo por
ejemplo un claro impacto al
permitir aumentar en más de 144
millones las horas de estudio,
fundamentalmente cuando se va la
luz natural.
Uno de los elementos que
explica el éxito de Waka Waka es
su financiación a través del
crowdfunding. Esto permite que
desde el primer momento podamos
testar si nuestro proyecto es
atractivo o no: si tenemos gente
interesada en invertir, es probable
que ello se deba a que les interesa
el producto, porque estarían
dispuestos a comprarlo, y éste es un
dato fundamental para saber si
nuestro producto puede tener éxito
en el mercado. Si además somos
capaces de integrar este tipo de
financiación de una manera natural
en nuestros procesos, estaremos
innovando en nuestras fuentes de
ingresos, utilizando fuentes no
habituales
que
influyen
positivamente en nuestro riesgo
ante un proyecto determinado.
StudioNet
StudioNet es un estudio de diseño
de Nueva York. Creado por Tom
Gerhardt y Dan Provost en 2010,
utiliza el crowdfunding para sacar
adelante sus proyectos. Cuando
diseñan un producto, crean un
prototipo y acceden a plataformas
de
crowdfunding
para
su
financiación. A partir de aquí
consiguen el dinero y la
información para saber si su
proyecto tendrá éxito o no.
De este modo han creado el
lápiz Cosmonaut para pantallas
táctiles; Glif, un soporte para
iPhones, o Neat Ice Kit, para crear
hielo para cócteles. El modelo les
permite minimizar riesgos y hacer
que el producto entre en el mercado
con mucha información y recursos
adecuados
para
un
buen
posicionamiento. No se trata de
tener una fuente estable de ingresos,
sino de tener un recurso más o
menos sólido para conseguir fondos
que nos permitan poner en marcha
determinados proyectos. Innovar en
las fuentes de ingresos implica
adaptar modos de captar fondos a
productos o con una frecuencia no
habitual.
Solo Raf, desde Almería
Hay una idea importante que todo
aquel que quiere innovar ha de
tener en mente: no existe ningún
producto ajeno a la innovación.
Hasta el producto más humilde
tiene potencial para ser objeto de
innovación. En Almería, dos
jóvenes emprendedores decidieron
entrar en la comercialización
online del tomate en su variedad
Raf, naciendo así Solo Raf.[20] En
su página sólo comercializan
tomate Raf y algo de mermelada de
este tipo de tomate. Además, ellos
dicen que sólo hacen lo que saben
hacer bien, comercializar. Por eso
siguen un modelo de gestión que
busca la máxima eficiencia al
mínimo coste. No tienen almacenes,
sino que compran directamente al
productor en la subasta los tomates
que ya han vendido previamente.
Además contratan a una persona en
esa subasta para que allí mismo
empaquete los tomates y los envíe a
sus destinos, con lo que reducen
costes de infraestructuras, de
intermediación y de tiempo, siendo
más rápidos y eficaces a la hora de
comercializar
un
producto
perecedero. Es un ejemplo de
microinnovación
en
procesos
buscando ser lo más valiosos
posible para el cliente.
Las manzanas Pink Lady
Una buena opción a la hora de ser
relevante en la comunicación es
poner el producto en su contexto.
Una asociación de productores y
comercializadores de manzanas en
su modalidad Pink Lady ha creado
la página Pink Lady.[21] En dicha
página, los autores dan gran
cantidad de información sobre el
producto y todas sus aplicaciones,
desde la historia de esa modalidad
hasta recetas, pasando por un
apartado para niños. Sólo si
conseguimos hacer que el cliente
entienda que nuestro producto es
interesante, éste lo será. De nada
sirve que prediquemos lo buenos
que somos si no construimos un
mensaje y un contexto en el que
nuestro cliente sea capaz de
percibir esa bondad.
Casual Hoteles
La microinnovación es, por lo
tanto, un enfoque de innovación,
más que un tipo distinto de
innovación por sí mismo. Casi se
puede definir como innovación
low-cost. Cuando Juan Carlos
Sanjuan decidió que quería dar el
salto y gestionar sus propios
hoteles, tenía claras varias cosas.
Había trabajado durante bastantes
años como director de hoteles,
principalmente de tres y cuatro
estrellas, y tenía mucha experiencia
en el sector. Pero también tenía muy
claro que no disponía de los
recursos suficientes para construir
ni para comprar un hotel. Así que
ideó un modelo muy concreto de
alojamiento hotelero: hoteles de
dos estrellas, con pocos servicios
pero muy relevantes para el cliente,
urbanos y céntricos y tematizados.
Y creó Casual Hoteles.
El tema de las dos estrellas
parecía claro. El cliente no valora
todo lo que los hoteleros
consideran que valora. De hecho, el
hotelero sabe que en muchos casos
está sobreofertando servicios, pero
teme que el cliente crea que su
hotel es de menor calidad si no
oferta
lo
mismo
que
la
competencia. Por eso Juan Carlos
Sanjuan decidió desde un primer
momento apostar por aquellos
servicios que el cliente, según su
experiencia como director de hotel
urbano, de verdad considera
importantes: un buen desayuno,
buena limpieza, buenas camas y
buen trato. Con unos servicios tan
ajustados, la decisión de apostar
por la categoría de dos estrellas
parecía clara.
Pero además hay que tener en
cuenta que Casual Hoteles busca
una ubicación muy céntrica en
destinos urbanos, por lo que los
clientes que suele tener este tipo de
establecimientos hacen un uso del
hotel muy limitado y prefieren
pasar gran parte de su tiempo fuera
de él. Suelen ser viajeros que
quieren vivir el destino, no el hotel,
por lo que éste ha de buscar una
perfecta adaptación a ese modo de
disfrute y relación con el destino.
Se trata de ser relevante en la
relación que tiene el viajero con el
destino, no en forzar una relación
con el hotel que el cliente puede no
desear.
Utilizar la tematización también
es importante. Hay que aclarar que
cuando Juan Carlos Sanjuan se
propuso tematizar los hoteles
Casual era consciente del limitado
presupuesto con que contaba, por lo
que realizó esta acción basándose
en dos principios: gasto mínimo y
no hay dos habitaciones iguales.
Por eso la tematización se basó en
unas paredes con imágenes
impactantes y guiños en algunos
elementos como la cabecera, las
mesillas de noche o algún mueble
auxiliar. Con la tematización se
consigue que haya un elemento de
juego en la relación del viajero con
el hotel. Sin llegar a ser
abrumadora,
la
tematización
introduce la sorpresa y la
gamificación en la experiencia del
cliente. Así, cada hotel está
tematizado en torno a un tema: el
cine, la música, la literatura...
A todo esto hay que añadir el
modelo de gestión. Vuelvo a lo
mismo: no hay muchos recursos
económicos, por lo que se opta por
un modelo de alquiler. Suelen ser
antiguos hoteles que por una u otra
razón el dueño quiere dejar de
gestionar. En ocasiones se observa
una mala gestión por parte de ese
dueño; en otras hay un cierto
cansancio y la voluntad de alejarse
de la primera línea. Sea como
fuere, el caso es que cuando surge
la oportunidad se valoran el
destino, la ubicación y las
posibilidades del hotel. Cuando se
decide tomar el alquiler, se procede
a la tematización, a cambiar el
modelo de servicio a los clientes y
a diseñar su comercialización. El
resultado es una mejora en las
opiniones de los clientes y
beneficios desde el primer año.
En definitiva, tenemos que aupar
el poder de la microinnovación
Los ejemplos que he presentado, y
otros más que hubiera podido
poner, son el ejemplo de personas
que no necesitaron muchos recursos
para poner en marcha sus
proyectos. Proyectos que buscaban
una diferenciación en el mercado,
pero cuyos impulsores eran
conscientes de la imposibilidad de
desarrollar un tipo de innovación
disruptiva que los posicionara en
un océano azul sin competencia.
Son personas que basaban su
proyecto y su modelo de innovación
en una manera distinta de enfocar
los productos. No necesariamente
mejor. No necesariamente peor.
Para muchos, esto de lo que
aquí he hablado ni siquiera es
innovación. Para muchos no son
más que cambios puntuales dentro
de las empresas que a veces ni
siquiera tienen la categoría de
mejora. Está bien, que le pongan el
nombre que quieran. Que digan que
es innovación o que no lo es, que
implica una mejora o que no. En
todos los casos, sin embargo, hay
una clara voluntad de posicionarse
de una manera distinta en el
mercado y siendo consciente de los
limitados recursos de los que se
dispone. No se busca tanto la
innovación disruptiva como la
movilización efectiva de los
recursos y un nuevo enfoque en la
manera de hacer las cosas.
Lo que sí he notado en los
proyectos analizados es una serie
de elementos que en mayor o menor
medida se repiten de forma
mayoritaria:
—
Personalización del
proyecto.
E
incluso
podríamos
decir
humanización, pues en
muchos casos se parte del
impulso que da a la empresa
una persona y se enfoca a un
modelo en el que el cliente,
como persona, es el centro
de reflexión.
— Visión a largo plazo. No se
suelen buscar resultados
inmediatos, o cuando se
buscan, es para afianzar un
sólido desarrollo posterior.
La visión cortoplacista no
existe.
— Con una historia detrás.
Suelen ser proyectos, como
ya
he
comentado,
personales,
y
esa
personalización implica que
existe una razón temporal
para cada decisión tomada.
La
fortaleza
de
las
decisiones está en su
justificación vivencial, en la
educación sentimental de
sus promotores.
— El dinero no es lo más
importante. No suelen ser
proyectos que nazcan por
una necesidad monetaria.
No es que ésta no exista, es
que no es la razón
fundamental de la existencia
del proyecto.
—
Mucho cuidado por el
producto. El producto casi
es la razón de ser de la
empresa, y por eso se cuida
tanto. El objetivo es que sea
único, distinto, y que su sola
existencia justifique la
razón de ser del proyecto.
— El cliente forma parte de la
reflexión. Y más que el
cliente, el ser humano. No
importa que el proyecto sea
un proyecto social o no, el
producto siempre se pone
en relación con la persona
para que tenga sentido. Al
cliente se le respeta, y se
entiende que todo cambio
va encaminado a ser más
relevante para él, a
satisfacer
mejor
su
necesidad.
— No existe la innovación
consciente. No se observa
una voluntad explícita de
innovar, sino que los
emprendedores
y
promotores entienden que
los procesos, comunicación,
productos y proyectos se
han de desarrollar así,
desde una visión personal y
única, sin voluntad de
copiar lo que ya existe, pero
tampoco
necesariamente
negándolo.
La microinnovación es, sobre
todo, una forma de enfocar los
proyectos y las empresas. Supone
comprender que la innovación no
está necesariamente en las grandes
cifras, en las grandes empresas o
proyectos. Supone no tener miedo a
hacer las cosas de otra manera y no
buscar excusas que paralicen a las
empresas y que les impidan
evolucionar, por muy pequeñas que
sean.
Cualquiera puede innovar, está
a la vuelta de la esquina, sólo
hemos de tener el valor de cruzarla.
12
La gestión compleja de
empresas: un nuevo
management para una nueva
época
XAVIER MARCET Y JAVIER GARCÍA
Progresar
es
ganar
independencia respecto de la
incertidumbre.
JORGE WAGENSBERG
¿Por qué la complejidad y el
management?
Si por algo se nos tiene
encasillados a los economistas es
por ser mánagers, los que están en
el control de las empresas y en
muchas de las decisiones que se
adoptan. Pero, una vez más, esto es
algo de lo que tenemos que dudar,
porque la realidad no es lineal, ni
predecible, y requiere de nuevas
lógicas y unas reflexiones que
pretendemos apuntalar en este
capítulo.
Una empresa es una operación
más o menos compleja cuya razón
de ser es la de convertir inputs en
outputs que crean valor; alguien
paga por ellos y se define un ciclo
de venta-producción-cobro que es
el centro de la actividad
empresarial. Por razones distintas,
se ha multiplicado el número de
inputs a tener en cuenta en las
empresas para realizar los outputs
habituales con la competitividad
deseada.
El
incremento
de
información y de conocimiento no
ha dejado de crecer a lo largo de
todo el siglo XX y se está
revolucionando en el siglo XXI. Las
organizaciones tienen mucha más
información de sus clientes de la
que son capaces de digerir, aunque
existe un campo muy amplio de
trabajo para ello, como hemos visto
en el capítulo acerca de la
«profesión más sexy del siglo XXI».
A pesar de ello, para muchos la
alternativa parece estar entre
olvidar una gran parte de los datos
que tienen de su contexto o bien
incorporarlos para caer con más o
menos celeridad en la parálisis por
el análisis. Cada vez existen nuevas
y más sofisticadas herramientas
para procesar los datos masivos
que prometen revolucionar el
proceso de toma de decisiones con
funciones
como
las
APR
(Automatic Pattern Recognition).
En definitiva, estamos ante un
hecho incuestionable: los mánagers
de nuestras empresas se encuentran
ante
escenarios
de
mayor
incertidumbre, con dificultades
para
diferenciarse,
tomar
decisiones fundamentadas y, sobre
todo, para hacerse un hueco
sostenible y de creación de valor
de forma constante. Se mueven en
escenarios con más vectores que
nunca y deben tomar decisiones en
medio
de
volúmenes
de
información y conocimiento mucho
mayores de lo habitual. Además,
todo hay que hacerlo con agilidad.
El factor tiempo cuenta a veces
tanto como el factor dimensión. Hay
que
moverse
entre
nuevas
realidades con rapidez y articular
nuevas síntesis que permitan
decisiones más frecuentes, a veces
incluso a tiempo real, tanto en el
ámbito estratégico como en el
operativo. Si una de las principales
funciones de los directivos es la
toma de decisiones, queda claro
que éstas deberán tomarse en
entornos de alta complejidad
definitivamente.
Es obvio que muchos de
nuestros directivos tienen una gran
capacidad de formarse lidiando la
realidad que manejan, «aprender
haciendo», pero también es cierto
que muchos tenderán a adoptar
decisiones aprendidas en entornos
«estables», más predecibles (o al
menos con más sensación de que
esto es así). Resolver la gestión en
tiempos de gran incertidumbre
requiere de nuevos esfuerzos, y
también de nuevas habilidades
directivas. Una de las principales
destrezas consistirá en saber
dialogar con las máquinas de un
modo ágil y eficiente. Y otra en
saber interpretar lo que las
máquinas nos dan, en modo de
síntesis y análisis de datos, para
poder convertir esos datos en
conocimiento y, sobre todo, en
decisiones útiles y de impacto.
Resulta imprescindible aprender a
manejar un tipo de conocimiento
just-in-time, que será la base de
una parte importante de las tomas
de decisiones de los directivos. La
inteligencia artificial no sustituirá a
los directivos en las empresas
fácilmente, pero las capacidades
humanas por sí solas ya no serán
suficientes para abordar toda la
complejidad de las empresas que,
sin duda, define una nueva era del
management.
Los directivos de hoy deben ser
muchas cosas a la vez. Requieren
de un tipo de liderazgo más basado
en su capacidad de servicio que de
autoridad
jerárquica;
deben
anticipar visiones y transmitir con
su ejemplo la lógica para
alcanzarlas. Deben ser directivos
capaces de aprender, puesto que sus
subordinados solamente respetarán
a aquellos jefes de los que
aprendan. Deben ser buenos
gestores en la combinación de
objetivos, personas, recursos y
prioridades. Deben ser líderes que
cultiven la innovación en primera
persona, porque delegar la
innovación supone condenarla a un
perfil incremental y no arriesgar en
ninguna de carácter radical. Deben
moverse
cómodamente
en
escenarios de tecnología y de
comunicación
altamente
cambiantes.
Para ejercer su liderazgo no les
bastará con una actuación puertas
adentro; tanto para las alianzas
corporativas como para defender
una articulación simbiótica con la
sociedad, los directivos deberán
articular proposiciones positivas
para con la sociedad. No se trata de
mirlos blancos, se trata de
directivos
poliédricos
que
gestionan lo incierto, lo diferente,
lo
arriesgado.
Profesionales
capaces de construir nuevas síntesis
en medio de la complejidad, sin
simplificar. Lo único que deberán
ser simples son las aportaciones de
valor que las empresas ofrezcan a
sus clientes a través de la
innovación. La simplicidad en
innovación acostumbra a funcionar
bien. El mejor elogio que se puede
hacer a una innovación, decía Peter
Drucker, es que aparezca como una
obviedad, como algo que parezca
imposible que no haya existido
antes. Ahora lo que de verdad
necesitamos son síntesis más que
simplicidad.
Ha nacido un nuevo management,
basado en «lo que de verdad
importa»
Ha nacido un nuevo paradigma en
management. Uno de sus más
firmes evangelizadores, que no el
único, es Gary Hamel, quien ha
sido capaz de fusionar sus claves
en Lo que ahora importa
(publicado en español en esta
misma editorial). El mantra del que
no podemos escapar: es necesario
reinventar el modo en que nos
organizamos porque éste ha
cambiado de forma tectónica
durante el último siglo, muy
lentamente, hasta el punto de estar
desfasado y no orientado a
alimentar la pasión, la creatividad y
la responsabilidad social de las
personas y las empresas.
Resulta realmente complicado
sintetizar todas las ideas que Hamel
transmite de forma tan lúcida. Sus
trabajos aportan siempre un aire
fresco tal que lo convierten, para
muchos (entre los que nos
encontramos), en el Peter Drucker
del siglo XXI. No obstante, ya se han
cumplido, en 2014, seis años de
uno de los eventos que es capaz de
reunir a la Champion League del
management moderno, el Global
Drucker Forum de Viena. Una
reunión que nació en recuerdo de
Peter Drucker y como un tributo a
su inspiración, y que se ha
convertido en un hervidero de las
ideas que están transformando las
organizaciones. Sólo en el último
Forum se pudo escuchar a figuras
consagradas
como
Clayton
Christensen, Gary Hamel, Roger
Martin, Rita Gunter McGrath, John
Hagel, Pankaj Ghemawat, Vineet
Nayar o Steve Denning, y otras más
emergentes como Herminia Ibarra,
Dov Seidman o Nilofer Merchant.
A continuación, resaltaremos
algunas de las ideas más potentes
de este nuevo paradigma para
intentar provocar curiosidad y para
insuflar, amigo lector, la energía
necesaria para sumergirte y bucear
en este nuevo mundo. Y lo vamos a
hacer tomando como referencia
algunas de las citas más
importantes del manual citado de
Hamel. Así, por ejemplo, ya en el
prefacio se pone de manifiesto algo
que supone un duro punch para
muchos acostumbrados a lo de
siempre: «Este libro representa un
apasionado alegato destinado a
reinventar la gestión empresarial tal
y como la conocemos [...]. No es
una celebración para aquellas
empresas que hasta ahora han
realizado un gran trabajo [...]. Es un
anteproyecto
para
crear
organizaciones adaptadas para el
futuro de los seres humanos».
El primer fundamento es que
«en un mundo de certezas rotas y
confianza socavada, algunas cosas
importan más que otras». Por ello,
la primera clave que trabajar es la
respuesta a la pregunta: «¿Cuáles
son las cuestiones fundamentales
que determinarán si tu organización
prosperará o se hundirá en los
próximos años?». La respuesta a
dicha pregunta tiene condimentos
que sorprenderían a nuestros
abuelos o bisabuelos..., pero lo
preocupante es que también
sorprenden a muchas personas de la
empresa de hoy.
El centro del cambio de toda
organización y de toda sociedad
está en las personas: en su libertad,
en el uso de su talento, en su
capacidad para visualizar y
ejecutar soluciones a problemas
complejos y difíciles de abordar. Y
ese talento y esas capacidades no
se desarrollan de forma óptima en
el modelo de gestión al que estamos
acostumbrados. Se precisan nuevas
fórmulas, y ahí es donde se centran
los trabajos de muchos de los
pensadores de este nuevo círculo
de Viena y que son un verdadero
combustible intelectual para esta
época convulsa.
Los amantes de la libertad y del
individualismo solemos citar a
Adam Smith o Ayn Rand, pero
Hamel recuerda una salvedad clave
que nunca debemos olvidar: «Como
sucede con la fisión nuclear, el
interés propio funciona sólo en la
medida en que exista un vaso de
contención:
un conjunto de
principios éticos que asegure que el
interés propio ilustrado no se funda
hasta convertirse en simple
egoísmo [...]. Hoy, el agua
subterránea de los negocios se
encuentra
excesivamente
contaminada por el desagüe
superficial de la “egomanía” con
anteojeras morales».
Valores, responsabilidad y
humanización de las empresas para
desarrollar los nuevos instrumentos
con los que transformar la realidad:
éstas son las claves en las que se
fundamenta el nuevo management.
Y es que «en los próximos años,
una compañía sólo será capaz de
preservar sus libertades si adopta
una visión nueva y más elaborada
de sus responsabilidades».
Será de vital importancia
exponer los valores que han de
perdurar y trabajar en los mismos.
«Las contribuciones extraordinarias
nacen
habitualmente
de
un
apasionado compromiso con los
valores humanos intemporales,
como belleza, verdad, sabiduría,
justicia, caridad, fidelidad, alegría,
coraje..., honor.»
Por todo ello, la máxima que
todos hemos de intentar llevar a la
práctica es «la imperativa y ética
tarea de humanizar el lenguaje y la
práctica
empresarial».
La
importancia de estas ideas se hará
evidente en cuanto intentes
responder a la siguiente pregunta:
¿Por qué los ideales que más nos
importan a los seres humanos a
nivel personal son precisamente
aquellos
significativamente
ausentes en el discurso directivo?
Nos encontramos en un
momento de la historia en el que
una empresa que no «explota una
discontinuidad o tiene dudas porque
podría poner en peligro su querido
modelo de negocio, acabará siendo
la víctima y no el ejecutor». El
miedo al cambio y a lo
desconocido establece sistemas
burocráticos y jerarquizados que
frenan y matan modelos de negocio
continuamente. Por esta razón, se
plantean cuestiones clave para
aprovechar el potencial de las
discontinuidades que emergen por
el mundo:
1.
En el ámbito de la cultura,
la política o la tecnología,
¿qué cosas has leído, visto
o experimentado en los
últimos meses que te han
resultado
sorprendentes,
confusas o desconcertantes?
2. ¿Cuáles de estas anomalías
parecen haber contado con
cierto impulso? ¿Se acelera
dicha tendencia?
3.
Es fácil identificar
discontinuidades mirando
hacia atrás. Pero, si
pasamos la película hacia
adelante,
¿cómo
visualizarías
esas
discontinuidades?
4.
¿Cuáles de esas
discontinuidades no son,
aún, tema de conversación
en tu industria?
5. ¿Cómo podrías aprovechar
esas discontinuidades para
diferenciarte
de
tus
competidores?
Entrena a tu equipo, a ti mismo
y a toda tu red para resolver
constantemente preguntas y detectar
oportunidades
en
las
que
adentrarse. Hacerlo te puede
colocar en una buena posición para
surfear la nueva ola del progreso.
¡Aprovéchalo! Si quieres surfear la
ola desde la arena, seguro que no
llegarás. Para marcar la diferencia,
hay que meterse en el agua y
detectar cuándo viene y cómo la
tienes que sortear.
Esta forma de percibir la
realidad no es cómoda, pero ¿por
qué asumimos que habría de serlo?
¿Cuántos aspectos de un negocio
han cambiado en los últimos cinco
años en una empresa prototipo?
Probablemente muy pocos. ¿Por
qué? ¿Lo impide alguna ley física o
se trata, como argumenta Hamel, de
nuestra desmesurada «devoción por
los
precedentes»?
¿Cuántas
empresas familiares no se atreven a
tocar nada de lo que hacían sus
padres o abuelos por el «peso del
miedo», la responsabilidad y la
incertidumbre? ¿Cuántas veces
optamos por quedarnos en la orilla
y esperar la ola que llegará sin
fuerza para surfear sobre ella?
En un libro de John C. Maxwell
se citaba la existencia de la
Sociedad
Internacional
de
Investigación sobre la Tierra.
Comprobamos esa existencia en la
gran Wikipedia, y es así, hay unas
2.000 personas en esa asociación.
La estrechez mental impide la
aceptación de ideas nuevas,
explicaba Maxwell, pero en
realidad es una demostración
palpable de que cambiar es
realmente difícil. Estamos plagados
de sesgos y solemos poner el foco
de atención en aquello que confirma
nuestros prejuicios. Y esto es una
realidad también en el mundo de las
empresas y, en general, de las
organizaciones (¿qué nos dices de
la
gran
mayoría
de
las
Administraciones Públicas y su
aversión al cambio?)
Pero lo relevante, lo que se
tiene que extender como una
epidemia, es que las empresas vean
y exploten oportunidades donde
otras no son capaces de hacerlo.
¿Por qué? La investigación sobre
este tema ha puesto de relieve un
hecho que Hamel explica muy bien:
«Los innovadores tienen una
manera distinta de observar el
mundo; han desarrollado un
conjunto de hábitos perceptuales
que les permiten atravesar la niebla
de “lo que es” y visualizar aquello
“que podría ser”». ¿Por qué? ¿Se
puede lograr eso en un sistema
clásico de organización que es
predecible, fiable, controlador y
disciplinado con las personas? La
respuesta parece ser que no;
tenemos que lograr humanizar las
empresas, abrirlas, apasionarlas y
convertirlas en un organismo vivo
que
detecte
oportunidades
constantes.
Son las personas las que crean
y convierten un trozo de mármol en
una escultura. ¿Cómo detectar si
hay personas así en una compañía?
Evalúa el diseño de lo que
producen. El diseño «es algo difícil
de definir, pero una cosa es clara,
el buen diseño se reconoce en
cuanto se ve». Un buen diseño
provoca una especie de «reacción
visceral», de atracción, te cautiva,
porque es:
Absolutamente inesperado
Asombrosamente competente
Estéticamente exquisito
Visualmente cuidadoso
¿Y qué es el antidiseño?
Empaquetar todo lo empaquetable,
usar letra pequeña e ilegible, el
lenguaje farragoso, un menú de
centralita que convierte la solución
de un problema en una tarea titánica
para el cliente. ¿Nos suena? El
diseño, el cuidado de los detalles,
está en todo lo que nos rodea:
desde un producto de alta
tecnología hasta la cafetería en la
que nos tomamos el café de la
mañana. Tim Brown, de IDEO,
explica que «el poder de un gran
diseño está subestimado [...].
Históricamente,
los
gestores
concebían el diseño como un
pequeño recipiente de polvos de
hadas que podían espolvorearse
encima de los productos para
embellecerlos [...]; en cambio, el
diseño debería de considerarse
como una disciplina fundamental
que
produce
clientes
demencialmente fieles y márgenes
sustanciosos».
Es necesario hacer un reset y
colocarse en modo «pensamiento
de diseño»; así, la concepción de
una idea, de un proyecto o de una
compañía
consolidada
serán
distintos. ¿Cuál es la esencia del
pensamiento de diseño? Brown lo
sintetiza de forma brillante: «A
través del “construir para pensar”,
en lugar de “pensar para construir”,
una organización puede acelerar
notablemente
su
ritmo
de
innovación».
Para lograr que esto ocurra en
tu empresa, se tiene que crear el
clima necesario para que la
experimentación intelectual de los
empleados sea un fenómeno
habitual. Es imposible generar
avances importantes a menos que la
gente esté dispuesta a explorar
nuevas opciones de forma «poco
ortodoxa».
Experimentar, probar, testear,
de forma continua y barata. El
«construir para pensar» de Tim
Brown nos ha de llevar a técnicas
como las del prototipado rápido y
barato como forma eficaz de
trasladar una idea a algo tangible
que te ayude tanto a pensar sobre
qué quieres como a mostrar que hay
algo más que un papel. ¡Probemos!
Ésta es la manera de abordar la
complejidad, haciendo y cuidando
de que el talento coloque el foco en
obtener lo mejor de sí.
Quédate con una frase de
Hamel: «El diseño tiene que ver
más con la empatía que con el
genio, y, a menudo, son las cosas
insignificantes las que marcan la
mayor
diferencia
para
los
consumidores». Anota estas ideas,
juega con tu puzle profesional... y
responde a una pregunta clave que
te hará avanzar: «¿Cuáles son los
pequeños e inspiradores placeres
que podrías brindar a tus clientes
sin casi ningún coste adicional?».
Encuéntralos, ¡y triunfarás!
En el ADN de toda empresa
tiene que estar su capacidad de
adaptación. La clave no es una
ventaja competitiva en un momento
determinado, sino el mantener la
compañía «en órbita». Por eso la
gestión del cambio tiene que ser
algo habitual y no traumático. «El
Santo Grial del cambio sin trauma
se encuentra en su abordaje de
forma automática, espontánea y
reflexiva».
«Adaptación» es la cualidad
empresarial (y personal) más
importante de nuestro tiempo. Y
entrenarla requiere trabajar en las
actitudes
mentales,
las
motivaciones
intrínsecas,
en
sistemas de gestión que no estorben
y desgasten, así como empoderar
comportamientos, actitudes e ideas
que quieran, de forma constructiva,
reinventar la realidad del momento.
Una
compañía
adaptable,
configurada para gestionar cambios
continuos de una forma poco
traumática, es menos volátil y es
más creíble para los inversores
porque está siempre colonizando
nuevos mercados, abierta al talento
y con un grado adicional de empatía
con sus clientes.
Los modelos de negocio no son
eternos; saber cómo cambiarlos en
«modo automático» y gestionar la
entropía
requiere
desarrollar
nuevas capacidades empresariales.
Tenemos que subir el escalón. Lo
hemos hecho bien en management
para ser eficientes, pero ahora,
además
de
la
eficiencia,
necesitamos la resiliencia. Lo que
hemos aprendido para ser eficientes
puede chocar con lo que
necesitamos para ser resilientes,
creativos y líderes de una
transformación continua.
Un contexto radicalmente distinto
Y es que la prospectiva no nos da
tregua y se anuncian cambios de
contexto extraordinarios. No es
fácil aventurarse a sintetizar las
tendencias de futuro a pesar de los
muchos ejercicios que se realizan
en este sentido. Cada año IBM
aventura las tendencias del
momento en su famoso 5 in 5 o
Millennium-Project, donde efectúa,
desde hace dieciocho años, un
interesante análisis sobre el
«Estado del futuro». Sin pretender
agotar las tendencias, ni siquiera
priorizarlas, nos parece interesante
poder reflejar algunas de las claves
más repetidas en todos los
ejercicios de prospectiva:
Primera. La revolución de la
bioingeniería y la nanotecnología
será equivalente o superior al
impacto que ha causado en nuestras
vidas la revolución de las
tecnologías de la información y la
comunicación (TIC) desde los años
ochenta.
Segunda. Lo que se denomina el
internet de las cosas, una nueva
frontera de internet combinada con
el análisis útil de grandes
volúmenes de información. La
conexión de cosas «inteligentes» y
el avance de la robótica permiten
también imaginar un mundo con
nuevas
y
potentísimas
interacciones. A todo ello hay que
añadir el vértigo del avance de la
inteligencia artificial, con su
capacidad
de
desarrollar
autónomamente
determinadas
soluciones.
Tercera. La consolidación de la
innovación y el emprendimiento
como la capacidad diferencial y la
base de la competitividad de las
empresas.
Cuarta. La vinculación del
desarrollo de un territorio a la masa
crítica de talento emprendedor que
sea capaz de incorporar.
Quinta. El desarrollo de nuevas
formas de producción asociadas a
la impresión y el escaneado en 3D.
Estamos viviendo tiempos donde
«la fabricación en masa» se está
convirtiendo en la «personalización
en masa». La posibilidad de que
podamos
copiar
diseños
sofisticados e imprimir en casa o en
pequeños talleres permite aventurar
cambios serios en las formas de
producción.
La
manufactura
avanzada tiene en el mundo 3D una
gran oportunidad de repensar su
despliegue.
Sexta. El reto de resolver la
sostenibilidad a partir de un nuevo
paradigma basado en la gestión
eficiente del agua como gran
recurso escaso, la resolución de los
residuos (incluida la captura del
CO2) y las nuevas generaciones de
energía limpia para afrontar
grandes desafíos colectivos como
el cambio climático.
Séptima. Un nuevo mapamundi,
en el que los países dominantes de
los siglos XIX y XX ya no ejercerán
el liderazgo y el papel de los
nuevos territorios emergentes (Asia
especialmente) y de los nuevos
mercados-frontera devendrá clave
en el mapa de poder y de los
conflictos a escala global.
Octava. La consolidación de
nuevas claves de mercado basadas
en la profundización de fenómenos
como el actual SoLoMo (sociallocal-mobile), en el que el
fenómeno
de
combinar
la
construcción
de
comunidades
vertebradas por redes sociales, la
geolocalización que permite una
nueva gestión de la proximidad y el
acceso desde una movilidad radical
a cualquier producto o servicio
determinan nuevos hábitos sociales
con nuevas pautas de consumo
asociadas.
Novena. Nuevas formas de
acceso al conocimiento y el
aprendizaje (los MOOC —
acrónimo en inglés de Massive
Open Online Course— son
solamente el aperitivo de este
cambio) y nuevas formas de trabajo
que harán que en la vida de una
persona haya etapas profesionales
mucho más diversas de las que
hemos conocido en el pasado. Uno
fácilmente habrá sido en su trayecto
laboral: profesional dependiente,
emprendedor, empresario y formas
híbridas de entre estos modelos.
Décima.
La
traducción
automática y sincrónica de lenguas
revolucionará las capacidades de
comunicación en el mundo.
Undécima. Hay consenso en que
el paradigma demográfico cambiará
bruscamente y que el nivel de
esperanza de vida aumentará
bastante más allá de los cien años,
lo que forzará a repensar los
resortes de sostenibilidad de una
sociedad no preparada para
trayectorias
biográficas
tan
dilatadas.
Las empresas deberán leer con
rapidez y sentido de la anticipación
los cambios que estas tendencias
supondrán.
No
todo
serán
amenazas, al contrario, los retos
son de tal magnitud que emergerá,
de entre toda esta complejidad, un
gran número de oportunidades. La
capacidad de adaptación al cambio
y la competencia en innovación
serán claves para alojar el
perímetro de las empresas en estas
oportunidades.
Mánagers como constructores de
síntesis
Ante la proliferación de inputs y la
rapidez con la que éstos se
producen, necesitamos mánagers
que sean constructores rápidos de
nuevas síntesis. Para ello, su
capacidad de leer situaciones y
organizaciones, así como su
empatía
con
unos
clientes
cambiantes en sus necesidades y
poco fieles, son características
fundamentales. Construir nuevas
síntesis implica encontrar la guía en
medio de indicadores paradójicos,
a veces contradictorios, y de
inmensidades de datos que se
procesan
automáticamente.
Construir nuevas síntesis implica
saber alterar las estrategias sin
perder la visión o dar una
dimensión táctica a las operaciones
sin dinamitar su consistencia
estratégica.
La gestión de la complejidad
será la nueva frontera del
management del siglo XXI. La
gestión siempre fue algo difícil,
incierta, y requiere adoptar
decisiones con datos difusos, pero
si ahora hablamos de gestión de la
complejidad es porque creemos que
el salto de ésta no es incremental,
sino radical. El Global Drucker
Forum de 2013 estuvo dedicado en
exclusiva a estas cuestiones,
precisamente. Y allí se puso de
manifiesto que el management es
claramente una disciplina en
formación. No hay fronteras claras
ni metodologías maduras. Tampoco
está clara la relación con las
aproximaciones académicas a los
sistemas complejos establecida
hasta hoy. Como sucede a menudo,
la gestión de la complejidad es
antes una necesidad que una
sistemática. Entra plenamente en la
necesidad que el management tiene
que innovarse a sí mismo. Las
viejas herramientas ya no sirven, o
dejan un terreno expuesto a la
intuición que las hace aparecer
como poco consistentes. Que el
management no sea una ciencia
exacta no quiere decir que pueda
hacerse sin moverse en evidencias
basadas en datos (y cada vez más
en datos masivos).
Por más complejidad y más
innovación que haya, los valores
IMPORTAN
Los condimentos de la vida
profesional de los que escriben este
capítulo, durante ya varios años
continuos de crisis en España,
tienen un denominador común que,
creemos, nos tiene que llevar a
algún sitio, esperamos que positivo.
Elevadas inversiones, financiadas
con deuda en su mayoría de las
veces; instalaciones con un uso por
debajo del 50 por ciento de su
capacidad; lo que antes parecía
competitivo y fácil de vender ahora
es misión —casi— imposible (se
vendía casi a golpe de llamada,
hasta el punto de que hay empresas
que distorsionan los conceptos; en
vez de decir «he salido a vender»
se dice «no entran pedidos»);
caídas de productividad; falta de
motivación en los ejecutivos que
antes eran «estrellas mediáticas»...
Si las negociaciones con los
comités sindicales se centraban en
subidas salariales y en mejorar los
derechos de los trabajadores «ante
la carga de trabajo», ahora los
encuentros «empresa/trabajadores»
(como si fueran dos entes distintos)
se han convertido en un arma de
destrucción
masiva
de
la
motivación de los trabajadores,
expedientes de regulación de
empleo en los que se incluyen todo
tipo
medidas:
despidos,
reducciones de jornada, cambios de
la actividad dentro de la compañía,
reducciones de complementos, de
salarios... Y la cosa se pone tensa
cuando hay impagos de nóminas y
los trabajadores empiezan a estar al
límite. De la misma manera, hay
familias de empresarios en apuros,
embargados y que han visto cómo
sus criaturas profesionales o
fallecen o están en proceso de
cáncer galopante.
Todo esto es muy duro y difícil
de gestionar. La pregunta es, ¿y
ahora qué? Hemos aprendido una
lección muy importante, y que
tenemos que empezar a poner en
práctica desde el primer minuto:
«Vivimos y viviremos aún más en
un mundo donde es improbable que
el futuro refleje el pasado». El
parámetro que realmente importa
(para no caer en el sesgo del corto
plazo, cuando estamos bien y
creemos que siempre será así) es el
coste de la adaptabilidad de cada
decisión: «¿cómo nos puede limitar
esta decisión?, ¿dónde reduce
nuestros grados de libertad?,
¿cuánto nos costaría salir?».
Como decíamos, o somos
adaptables
y
creamos
organizaciones que permitan que lo
seamos, o estamos condenados a
sufrir. Una compañía adaptable lo
es cuando «la reversibilidad se
convierte
en
una
variable
fundamental a utilizar cuando las
cosas empiezan a no funcionar». Si
no hay vuelta atrás, o ésta es muy
costosa, tendremos ajustes con altos
costes personales y económicos.
Por lo tanto, es clave trabajar en
averiguar cómo ganar esos grados
de libertad e ir surfeando la ola,
venga por donde venga y tenga el
tamaño que tenga.
Hay, en este sentido, una idea
clave que pone en cuestión ciertos
«fundamentos». Lo decía Steve
Jobs, o el propio Guy Kawasaki:
los emprendedores visionarios,
cuando empiezan a crecer y a tener
«éxito», tienden a pasar el testigo a
gestores muy bien formados, a los
que les gusta la burocracia y el
férreo control y que son capaces de
«mejorar la organización», pero
que no logran hacerla «diferente,
reinventarla de forma continua», y
es por eso por lo que malas
estructuras organizativas conducen
a renunciar a lo que nos hizo
jóvenes, frescos, distintos.
Como los seres humanos, las
empresas también pueden padecer
cáncer. Es más, está más extendido
de lo que creemos. Un cáncer es
algo difícil de diagnosticar al
principio —los síntomas no son
muy apreciables—, pero detectarlo
a tiempo y empezar a tratarlo es
fundamental. Si se extiende, te
mata.
¿Cómo
preparar
una
organización para detectar el
cáncer? ¿Con complejos sistemas
informáticos? ¿Con miles de
reuniones semanales y con informes
y unos cuantos PowerPoint?
Volvamos a Gary Hamel, porque
aporta tres ideas, pero todas ellas
afectan de lleno a la pieza clave de
toda empresa, las personas. Y por
eso sus aportaciones, sobre todo
dirigidas a los «ejecutivos», son:
Ser humilde. Las creencias de
la industria son hipótesis, no
mandamientos. Por lo tanto, están y
deben ser objeto de rectificación.
Cuando escuches eso de «así es
como funciona en este negocio...»,
contrarréstalo con un «¡hasta que
deje de hacerlo!». Ésta es una
lección que aprendemos, en todos
los sectores, casi todos los días.
Otra cosa es que queramos o no
reconocerlo.
Ser honesto. Busca hechos
incómodos, no los escondas,
compártelos con el resto de la
organización, con tu entorno.
Aunque no te resulte fácil y
atractivo, si duele, si te hace
sudar..., estás en el buen camino.
«Pon en un podio a los disidentes
de tu organización», valora a los
que vienen con ideas incómodas,
pero trabajadas y convincentes.
Porque «un líder tiene que hacer
frente al futuro, no desacreditarlo».
Mantén la misión como un bien
supremo. No confundas los medios
con los fines. Tu propósito tiene
que estar en todo lo que haces para
ser creíble. Los hechos tienen que
hablar por ti; no puedes «prostituir»
la misión que transmites al mundo.
Eso de que «el cliente es lo
primero» y tener los baños sucios y
ponerle mala cara... no puede
ocurrir. ¿Qué valores supremos
definen a tu empresa? ¿Para qué
luchas, sudas y trabajas todos los
días y quieres que el resto haga lo
mismo? ¿Por qué haces lo que
haces, además de por el dinero?
Una primera regla para
mantener el éxito es abandonar las
cosas que no funcionan. Pero aquí
ya entramos en conflicto con las
decisiones pasadas que te anclan.
¿Y si no vendo esta máquina, que he
comprado porque tenía una
subvención del 20 por ciento y que
ahora no necesito, y tengo que
devolver el 80 por ciento al banco
y no tengo liquidez para otra cosa?
¿Cómo prevemos evitar caer en
estas
situaciones?
¿Cómo
autodiagnosticamos nuestra propia
estrategia? De nuevo tres ideas-
fuerza de las que parece que es
difícil escapar:
1.
La gravedad gana. Ninguna
compañía puede funcionar
mejor de forma indefinida
que la media. En los
negocios, como en la
biología, las cosas grandes
crecen más despacio. «El
crecimiento se hace más
lento a medida que el
mercado se vuelve más
maduro y los beneficios de
la productividad son más
difíciles
de
conseguir
cuando el cuchillo rasca
más cerca del hueso», es
decir, cuando llegan los
rendimientos decrecientes
entre inversión e ingresos.
2. Las estrategias mueren. ¿Por
qué? Porque se pueden
copiar,
reemplazar
o
simplemente porque los
clientes poderosos o la
competencia pueden acabar
con esa estrategia. Esto
sucede más a menudo de lo
que creemos y es clave
analizar
indicadores
adecuados.
3. El éxito corrompe. Existen
factores
humanos
y
organizacionales
que
prostituyen los valores, la
frescura,
la
juventud
adquirida
en
algún
momento. ¿Cuáles son?
Algunas reflexiones :
— El uso constante de un
«pensamiento
defensivo». Esto ocurre
cuando
aquellos
ejecutivos que alguna
vez desafiaron el statu
quo, que arriesgaron y
fueron valientes, ahora
lo defienden... Ahora
que somos grandes, que
no nos dejen caer, que
mantengan
nuestros
privilegios. ¿Sabes de
qué hablamos, no?
—
Sistemas inflexibles.
Preocúpate cuando veas
a una empresa que pasa
de la innovación a la
mejora,
o
de
la
exploración
a
la
explotación. Cuando la
disciplina,
la
obediencia
y
el
cumplimiento
exhaustivo
de
las
normas son el foco
principal, el cáncer se
empieza a extender. La
eficiencia,
mal
gestionada, puede matar
tu
capacidad
de
adaptación y con ello
sacarte del mercado.
—
Modelos mentales
fosilizados. Esto es
quizás
el
mayor
combustible al cáncer
de una organización.
Cuántas veces has oído
eso de «hasta ahora
mira qué bien nos ha
ido, es una mala racha
que pasará», «las cosas
siempre se han hecho
así y han funcionado» o
«¿vas a desafiar tú a una
industria?». El mayor
problema de todo esto
es que, como dice
Hamel, «el éxito genera
dogmas, doctrinas» y
salirse de ellas es muy
difícil. Antes de ello,
parece que preferimos
la muerte. El problema
del dogma y de creerse
«el gallo del corral»
precedido de un éxito
«pasado» es que esta
tipología de ejecutivos
se dedica a matar, sin
compasión, toda idea
nueva que desafíe su
statu quo. Estos killer
son verdaderos tapones
para progresar en una
empresa (en cualquier
organización
público/privada).
— Recursos abundantes.
Hemos aprendido en
este
boom
de
crecimiento
sin
precedentes, alimentado
con
la
gasolina
crediticia, que cuando
hay
«abundancia»,
aunque
sea
una
percepción más que una
realidad, te conviertes
en perezoso. ¿Para qué
voy a pensar en ideas
nuevas cuando estoy
vendiendo y todo me va
bien? ¿Para qué voy a
enfrascarme en romper
el puzle de mi modelo
de negocio y testar
nuevas opciones si mi
cuota de mercado sigue
creciendo?
— Satisfacción y derechos
adquiridos. En este
ámbito también resulta
muy habitual, cuando
hablas
con
emprendedores de éxito,
creerse que estabas
predestinado a ese éxito
y que, como te ha ido
bien antes, ya no te
puede ir mal. Parece
que una vez creado algo,
basta con gestionarlo...
Pero eso está lejos de la
realidad. «Se necesita
mucha más imaginación
y valentía para construir
algo que para dirigir
algo, y quizá más
esfuerzo para cambiar
algo..., un punto que los
burócratas de carrera
rara
vez
comprender».
suelen
La
arrogancia
y
la
complacencia de muchos directivos
pueden crear una metástasis del
cáncer en cualquier organización.
Nos duele pensar que hay empresas
tomando decisiones en 2014 que
deberían haberse tomado hace seis
o siete años. No sólo tomamos
decisiones «hacia delante» sin
asumir
el
coste
de
la
reversibilidad, sino que también
nos cuesta asumir que esa demanda
perdida no volverá, al menos la
misma y en las mismas condiciones.
Tenemos que asumir la dureza
de que, más veces de las que
creemos,
«cuando
las
organizaciones mueren, lo hacen
por suicidio, tanto por las
decisiones tomadas como por las
no tomadas». No podemos olvidar
que «toda organización debe volver
a ganarse continuamente su derecho
a existir, ya sea un instituto público
de nuestra ciudad o la General
Motors». Mal vamos, y ahora
mismo estamos pensando en muchas
empresas del sector bancario,
cuando su longevidad depende más
de la protección que de su
capacidad de resiliencia.
¿Bajo qué principios están
forjadas
nuestras
empresas?
Cualquiera de nosotros los
reconoce: el control, la disciplina,
la responsabilidad, la fiabilidad y
la previsibilidad. Pero ¿es esto
suficiente? Sobre la base de los
trabajos de Abraham Maslow, hay
seis niveles de capacidades
humanas imprescindibles.
De un bloque tres: la
obediencia, la diligencia y la
competencia;
todas
ellas
necesarias, y las podemos hacer
cumplir fácilmente (si no vas a
trabajar, te despido). La diligencia
es más difícil, pero es una
capacidad que se puede incentivar
para crear empleados que trabajan
duro por satisfacer (ciertos)
objetivos. «No se puede construir
una organización ganadora con
empleados indolentes». Está claro
que la competencia y la experiencia
son un grado, y a veces un grado
imprescindible.
Toda
gran
organización que se precie quiere a
los más formados, a los más
experimentados y a los que estén
con «hambre» por saber más y
llegar más alto.
¿Dónde está el problema? En
que «la obediencia, la diligencia y
la
competencia
se
están
convirtiendo en bienes de consumo
globales». Cada vez es más difícil
diferenciar a las empresas o a las
instituciones sólo por estas tres
capacidades
humanas.
Tener
trabajadores puntuales, que sepan
desempeñar sus tareas y que tengan
buenos incentivos económicos es
cada vez menos diferenciador. Son
mínimos
indispensables
para
sobrevivir.
Y
si
estamos
especializados en tareas muy
automatizadas (tocar el botón), se
abre la puerta para que personas
formadas en cualquier parte del
planeta (con sus dotes adecuadas de
obediencia y diligencia) las puedan
hacer, y siempre hay alguien que
tiene todo esto a un coste menor que
tu empresa.
Se necesita un paso más, algo
que cree organizaciones singulares.
¿Qué más? Hay que escalar en esa
jerarquía de capacidades. El nivel
4 es la iniciativa. Existe una gran
diferencia entre tener o no
trabajadores que ante un problema
actúen, vean una oportunidad de
mejora, y que no esperen a que les
digan qué tienen que hacer. Si a esta
iniciativa se le une la creatividad,
subiremos de nivel, porque en este
caso tendremos empleados que
«están a la caza de grandes ideas
para desafiar lo que tienen entre
manos en su día a día» y mejorar
con ello toda la organización. En la
cima de estas capacidades humanas
está la pasión. Cuando se logra que
los empleados «sientan su trabajo
como una vocación, como una
manera de establecer una diferencia
positiva en el mundo», algo grande,
sorprendente, se puede construir a
partir de ahí. «En una organización
donde prima la pasión, los
empleados no están presentes, sino
comprometidos».
¿Cómo se escala de la
obediencia, la diligencia y la
experiencia a la iniciativa, la
creatividad y la pasión? ¿Se escala
a través del dinero? La iniciativa,
la imaginación y la pasión son
dones, no los puedes comprar. Las
personas deciden (la gran mayoría
por motivos intrínsecos) si van a ir
a trabajar o no equipadas de estos
dones. Y es ahí donde entra el gran
reto de los líderes, de los que
emprenden y de todo aquel que
quiera crear algo de futuro.
«Hoy la tarea más importante
para cualquier gestor consiste en
crear un ambiente de trabajo que
inspire
una
contribución
excepcional; que justifique un flujo
de
pasión,
imaginación
e
iniciativa». Su trabajo como
ejecutivo no sólo es pagar las
nóminas y definir las tareas
(medirlas y optimizarlas), hay que
ir más allá. Hay que crear un
ecosistema interno que extraiga lo
mejor de cada uno de nosotros.
Burocracias absurdas, rigidez de
protocolos,
normas
que
se
acumulan
y
solidifican,
y
mantenimiento del statu quo por
encima de todo constituyen
aspectos que no ayudan a crear
estos ecosistemas, más bien los
destruyen.
¿Tienes
que
reinventarte,
sobrevivir, crear desde las cenizas
donde te encuentras? Pues usa lo
que tienes ahí, a tu lado. ¡Usa a tu
equipo, a tu red, agárrate al talento
que tienes cerca! No vas a resolver
tus problemas llamando a una
empresa que te diga qué mejorar (y
pagarle una gran suma de dinero) o
refinanciando tu deuda dos años
más. Necesitas algo más... Y hay
algo que no cuesta dinero, sino
esfuerzo, humildad y ciertas
habilidades: trabajar con tu equipo,
con las personas que aún mantienes,
que saben, que tienen experiencia y
están
formadas.
Que
están
desmotivadas porque se ven en el
pozo (como su mánager), pero que
quieren luchar por su futuro (como
su mánager). Aliarse con ellas,
escuchar, ceder responsabilidad,
abrir la mente y tratar de encender
la chispa de la imaginación,
iniciativa y pasión que todos (sin
excepción) tenemos. Si das ese
paso, igual esas cenizas esconden,
en realidad, carbón vegetal...
Los vectores para la gestión de la
complejidad
¿Qué vectores constituyen la
complejidad?
Un grupo
de
investigadores y de practitioners
del management (profesores como
Daniel Serra, de la Universidad
Pompeu Fabra, o Fernando Larraín,
de la Universidad Diego Portales, o
consultores como Joan Cortés,
director de Lead To Change)
estamos trabajando con una
complejidad expresada en nueve
vectores: tecnología, innovación,
mercados, personas, comunicación,
geopolítica, finanzas, operaciones,
Big Data. El trabajo práctico sobre
cada uno de los vectores permite
definir una agenda estratégica (en
aquellos ámbitos donde una mínima
estabilidad permita programar y
desplegar acciones) y una agenda
de innovación (en aquellos otros
donde la incertidumbre o la
aceleración de los cambios no dé
tiempo a la planificación y requiera
exploración). La agenda estratégica
combinada con la agenda de
innovación basada en dinámicas de
gestión de la complejidad ofrece
posicionamientos estratégicos más
ágiles y capacidades para gestionar
el cambio interno y obtener
mayores
resultados
de
las
sistemáticas de innovación. La
complejidad no es una elección.
Hacer de la complejidad una
oportunidad es la única opción
estratégica, pero requiere de nuevas
habilidades, nuevos esfuerzos y
nuevas herramientas.
Los nuevos paradigmas y el
talento
La resolución de la complejidad no
vendrá de las máquinas, sino de las
personas y de su destreza para
dialogar con máquinas inteligentes,
sin duda. («Las máquinas pueden
hacer bien la siguiente cosa, pero
se necesita un ser humano para
hacer la siguiente cosa bien», decía
Dov Seidman en el Global Drucker
Forum de Viena 2014). En las
organizaciones convive gente de
talento que tiene un rendimiento
sostenido por encima de la media y
lo demuestra con resultados. Gente
que tiene altibajos. Dependiendo de
los equipos o proyectos a los que
está vinculada y de su situación
personal, ofrece más o menos valor
a la organización. Y también hay
gente que no se sabe exactamente
cómo entró en la organización, pero
de la que todo el mundo sabe que
nunca se irá. Estos últimos no son
los percibidos como profesionales
de talento. Una organización deberá
intentar
tener
capacidades
demostradas y constantemente
entrenadas para enfrentarse a lo
incierto, a lo diferente, y a visionar
el futuro. Ser capaz de generar
síntesis estratégicas, soluciones
operativas e innovaciones que
mantengan
la
carga
de
diferenciación ante sus clientes.
Las empresas, para resolver la
complejidad en la que estarán
inmersas, deberán saber desplegar
todo el potencial de sus personas.
Es imprescindible, para ello,
promover
iniciativas
que
favorezcan el crecimiento de sus
profesionales. ¿Y de qué modo?
1. Fomentando una lógica en la
que gestionar no esté
separado de aprender y de
convivir. La meritocracia se
debería basar en permitir
avanzar más rápido a los
que concretan su talento en
resultados y que, además,
ayudan a crear climas de
convivencia
profesional
positivos.
2. Entendiendo que talento no
consiste
en
exhibir
brillantez entre diletantes,
sino
resultados
entre
expertos.
3. Estableciendo cadenas de
confianza
y
responsabilidad. Afuera se
compite y se colabora, y
dentro también, pero con
sentido y empatía.
4.
Definiendo retos que
desborden
silos,
que
favorezcan
transversalidades
imprescindibles donde antes
solamente había aislamiento
entre unidades.
5. Concibiendo el liderazgo
como servicio, como la
palanca que facilita que
cada persona dé lo mejor de
sí. Un liderazgo que
fundamente el carisma en el
ejemplo y en una lógica de
los hechos que además
deben ser comunicados de
un
modo
atractivo,
ilusionante.
6.
Acostumbrando a las
personas a pensar solas y a
razonar en equipo (razonar
en grupo no es lo mismo que
razonar en equipo).
7. Haciendo de la complejidad
algo natural que se resuelve
naturalmente en equipo, con
el esfuerzo y las energías de
todos.
8. Buscando trascendencia al
trabajo, ensayando que,
además de los objetivos
económicos que hacen
sobrevivir y crecer a una
empresa, existen objetivos
de carácter social.
9. Haciendo que la jerarquía
sea
vista
como
la
estratificación
de
la
responsabilidad más que
como una cadena de poder y
prebendas.
A
más
responsabilidad,
más
servicio y más necesidad de
basarla en el respeto, en la
capacidad de inspirar a los
demás.
10.
Compatibilizando
crecimiento personal con
resultados
compartidos.
Todo se derrumba sin
resultados. Las holocracias
o dan resultados o son un
espejismo.
Huir del cortoplacismo
Las empresas tienen cuatro grandes
stakeholders: clientes, accionistas,
empleados y la propia sociedad.
Quienes optaron por priorizar por
encima de todo el valor para el
accionista acabaron por centrarse
en el presente y por buscar los
negocios
más
especulativos
posibles. Quienes piensan en su
perduración, buscan el equilibrio
entre su orientación al cliente y a
sus empleados, así como en una
lógica retribución a sus accionistas
que sea compatible con apostar por
la diferenciación y la capacidad
innata de sus equipos para el
emprendimiento
corporativo,
aunque no den resultados en meses
sino en años. Además, las
organizaciones que piensan en
perdurar se saben una comunidad
dentro una comunidad mayor: la
sociedad. Y comparten con Drucker
la idea de que no existen negocios
sanos en una sociedad insana.
Una parte de la complejidad a
la
que
se
enfrentan
las
corporaciones es que el diálogo
con la sociedad será un factor
determinante
para
su
posicionamiento. Las empresas que
sepan resolver estos desafíos no
solamente ofreciendo estrategias
solventes,
sino
también
compaginándolas con la creación
de valor para la sociedad tendrán
más capacidad de atraer talento, de
motivar a sus empleados y de
aparecer como auténticas ante sus
clientes.
Innovación más que planificación
Toda organización que tenga
capacidad de innovar resolverá
mejor la complejidad. Es difícil
pensar que el viejo paradigma de la
planificación pueda ser útil en un
mundo que cambia y cambiará más
rápido que la capacidad de
planificar.
Deberemos
pensar
mucho en estrategia, pero mucho
menos en planificación. La
innovación será el mecanismo
natural de establecer un diálogo
fructífero con un contexto que
cambia aceleradamente y de modo
poco previsible.
La innovación empezó dentro
de las empresas como una
culminación de la lógica de I+D.
Más allá de los resultados
cocinados en los departamentos de
I+D,
muchas
organizaciones
siempre tuvieron a alguien que
aportó genialidad para captar las
necesidades
de
clientes
anticipadamente o para sacar punta
a las tecnologías de los otros. Pero
los inicios de la innovación eran de
puertas adentro. Mucho más
adelante llegó internet y consolidó
un entorno de conocimiento
compartido. Todo cambió y se
instauró la innovación abierta. La
innovación se definió entonces más
como la capacidad de aplicar
ideas, más que sólo de crearlas.
Además, no era tan importante que
las ideas nacieran dentro de la
propia organización; lo importante
era saberlas concretar y aplicar
(rápido).
Simplemente
la
innovación abierta propuso algo
lógico: combinar talento interno
con talento externo. Pero la
innovación abierta también ha
evolucionado.
Dado que muchas empresas
tienen graves dificultades por hacer
avanzar ágilmente sus proyectos de
innovación y de superar sus
reticencias internas al riesgo,
algunas han buscado acercar
emprendedores y pymes a sus retos
de cambio para que existan lógicas
de innovación más abiertas y más
ágiles en el entorno corporativo. Se
han creado perímetros en los que
emprendedores, startups y pymes
desarrollan proyectos más o menos
monitoreados por una gran empresa
que los convoca a resolver sus
retos estratégicos y a generar más y
mejores propuestas de valor para
sus clientes.
La relación entre grandes y
pequeños no siempre es fácil, como
tampoco lo es equilibrar las
expectativas de cada uno, pero cada
vez hay más experiencias de este
tipo de innovación-emprendimiento
corporativo. Estos espacios se han
consolidado en programas muy
conocidos de algunas grandes
corporaciones que, a veces, han
generado más ruido que resultados,
pero que han marcado tendencia.
Además, la relación con las
estructuras clásicas de la empresa
grande no siempre ha sido fácil ni
comprendida; a pesar de ello, este
tipo de iniciativas no para de
proliferar. Este perímetro de
innovación más reciente también
está
evolucionando.
Algunas
grandes compañías ya no convocan
retos ni buscan a quien los ejecute
desde fuera, simplemente crean
espacios para que emprendedores
con alta capacidad para crear futuro
se instalen en ellos. Buscan equipos
externos, normalmente en pequeñas
startups, que sigan sus propios
proyectos
de
innovación y
emprendimiento aunque no tengan
una relación directa con sus retos.
¿Para qué? ¿Con qué objetivo? Para
monitorizarlos desde lejos o desde
cerca, depende del caso, pero
también para entender mejor las
lógicas de las nuevas propuestas de
valor, para tener un laboratorio de
modelos de negocio cerca del que
aprender y para acelerar, por
supuesto, aquellas oportunidades
que les parezcan de más impacto
para su futuro.
Gestionar la innovación en la
empresa es gestionar un espacio
cada día más abierto, que puede
incorporar los antiguos centros de
I+D, pero que va mucho más allá.
El nuevo perímetro de innovación
es más abierto y relacional que
nunca, supera de largo las antiguas
fronteras corporativas. Gestionar la
innovación es estar con un pie en la
empresa y un pie en el mundo. Lo
que pasa fuera es tan importante
como lo que pasa dentro, o más.
Por descontado, las lógicas internas
continúan y deben vigorizarse, pero
su mirada y su inspiración no es
solamente interna.
A más complejidad, más
estrategia
Si la complejidad no es una opción,
la estrategia tampoco. Deberemos
continuar definiendo objetivos a los
que dirigirnos aunque los contextos
se muevan aceleradamente. Sin una
visión estratégica que compartir no
es posible alinear. La complejidad
revitalizará
la
estrategia.
Deberemos aprender a vivir con
más
estrategia
y
menos
planificación. Los valores, la
misión y la capacidad de
adaptarnos y de innovar serán los
cuatro costados del perímetro
corporativo y definirán una cultura
en la que las empresas serán más
factorías de oportunidades que de
productos
y servicios.
Las
oportunidades, por descontado, se
concretarán en productos y
servicios, pero que éstos perduren
o perezcan dependerá de los
clientes y de los contextos, más que
de las inercias y las trayectorias.
Las empresas serán comunidades
profesionales especializadas en
definir y aprovechar oportunidades.
Para ello, deberán ser capaces de
intentar cambiar tan rápido como el
mismo cambio (parafraseando a
Hamel).
Lo complejo es distinto de lo
complicado. Cuando algo es
complicado,
presenta
gran
dificultad resolverlo, pero cuando
se entiende su intricada lógica
finalmente
se
supera
la
complicación. Lo complejo implica
que las lógicas se modifican con
gran frecuencia, con lo que buscar
lógicas complicadas pero repetidas
no conlleva la solución. La
complejidad no se presenta
simplemente como un torrente de
datos fuera del alcance de la mente
humana, sino como la conexión de
lógicas que definen patrones que
cambian con gran asiduidad.
Necesitamos
apoyarnos
en
máquinas capaces de analizar
grandes volúmenes de datos, pero
además debemos entrenarnos en
hacer
síntesis
estratégicas
sincrónicas a la detección de los
cambios que percibimos. Las
formas de tomar decisiones
cambiarán; las formas de observar
la realidad serán más híbridas; las
inercias se debilitarán, y la
innovación intentará resolver en
cada
momento
las
nuevas
necesidades percibidas añadiendo
valor desde la máxima simplicidad
posible.
Nuestro reto será desaprender
lo que sabemos de una buena parte
del management clásico y producir
uno nuevo adecuado a la nueva
realidad de complejidad, de
aceleración de los cambios, de
innovación disruptiva. A pesar de
su potencia deslumbradora, las
máquinas
no
resolverán la
complejidad. Serán las personas,
los mánagers de nueva generación,
quienes sabrán definir visiones
potentes y sintéticas con las que
alinear a sus colaboradores, y
convertirán las empresas en
factorías de oportunidades más que
en fábricas de un producto o un
servicio concreto.
No hay tiempo para el descanso
ni para los planes preestablecidos,
y de ahí que haya que desarrollar
una gran capacidad de adaptación;
como diría Steve Jobs, «leer los
renglones de textos que aún no
están escritos». Y para esa
adaptación se requiere audacia,
rapidez y capacidades analíticas
para aprender de los errores y
poder construir sobre ellos. Decidir
bien, cultivar la voluntad y la
disciplina y tener una gran
capacidad analítica, pero conectada
con la creatividad, es algo que se
tiene que trabajar de forma muy
constante. La complejidad supone
más estrategia, más decisiones, más
innovación y más talento alineado y
con gran capacidad de adaptación y
cambio. El nuevo management se
está construyendo y no es
predecible, ni lineal. Duda de
pócimas mágicas, de soluciones
enlatadas, de la tontería.
Tener resultados no es fácil.
Construir
comunidades
profesionales versátiles con un
ADN de cambio natural es un gran
reto. Saber adaptarse para crear un
valor que el cliente perciba como
único está al alcance de pocos.
Luchar contra esas burocracias que
nos crecen sin querer es muy duro.
Equilibrar los intereses de clientes,
empleados, accionistas y de la
sociedad en un mapa de resultados
que ofrezca outputs económicos y
otros sociales es todavía más
complicado como para que las
cosas no sean verdad. El
management que está contra la
tontería lo hacen líderes auténticos
que piensan por cuenta propia, con
estrategias que prueban rumbos que
no son lineales, en escenarios de
comunicación
poliédricos
e
iniciativas de innovación sin
sordina. Estar contra la tontería es
huir del gatopardismo (que todo
cambie para que todo siga igual), es
entender que si el cambio es una
tontería, si no transforma realmente
nuestras empresas, gesticulamos
más que gestionamos. En definitiva,
no te fíes de un economista, o un
mánager, que no dude.
Epílogo
JAVIER GARCÍA, ANDRÉS
ALONSO Y ABEL FERNÁNDEZ
Si preguntas a dos economistas,
tendrás dos opiniones, a menos
que uno de ellos sea lord
Keynes, en cuyo caso tendrás
tres opiniones.
JOHN MAYNARD KEYNES
Si has llegado hasta aquí,
esperamos haberte transmitido una
idea por encima de todas: la
economía es, de entre muchas, una
forma de ver el mundo. Los
economistas hemos ido tejiendo una
lógica realmente potente con la que
tratar de comprender los fenómenos
complejos. Es una lógica que no es
perfecta, como cualquiera que
trabaje con los instintos y los
comportamientos humanos. La
mayoría de las veces no aporta
respuestas unívocas, sino que invita
a dudar, a ver los problemas usando
un «bisturí» distinto, pero creemos
que realmente útil. Da igual tu
profesión, nuestro objetivo era
aportarte un rato de reflexiones,
ideas y enfoques distintos, y
esperemos que te haya resultado
entretenido e interesante. Queremos
acabar con un «postre variado». Un
ejemplo de las reflexiones que nos
han llevado a crear Sintetia.com y,
gracias a ello, a tener esta gran
oportunidad para poder compartir
reflexiones contigo. Nos vemos en
las redes y en nuestro espacio de
mentes inquietas.
No hay buena economía sin
economistas que duden
La cita de Keynes con la que
iniciamos este epílogo, lejos de ser
incoherente, es una demostración de
su genialidad, consciente de sus
aptitudes, pero también de los
límites de la ciencia económica.
Pregunta a un economista
cualquiera qué pasará si se produce
una situación concreta. Los más
rigurosos
usan
una
lógica
fundamental
en
economía,
responder a partir del supuesto de
que el resto de variables del
sistema permanece inalterado. A
esto se le conoce con el nombre de
ceteris paribus, es decir, asumir
que
cuando
cambia
una
circunstancia todo lo demás
permanece constante. Por ejemplo,
¿qué pasa si sube el precio de la
leche para bebés de una
determinada marca? El economista
te dirá que, ceteris paribus, su
demanda bajará. Por supuesto, en
un caso tan sencillo es fácil suponer
que el resto de variables de nuestro
problema no cambiará: los gustos
de los padres por adquirir una
leche «buena y económica» serán
más o menos los mismos, así como
el número de marcas a las que
tendrán acceso para sustituir una
por otra o la legislación sobre las
propiedades nutricionales de la
leche de fórmula. Pero ¿y si no es
así de fácil? Algunos de los que
somos padres y economistas lo
hemos comprobado y hemos escrito
sobre ello: en una misma marca de
leche para bebés, en dos farmacias
distintas y separadas por menos de
500 metros, los precios pueden
variar más de un 40 por ciento.
¿Cómo es posible que los precios
no sean iguales entre las dos
farmacias? ¿Cómo es posible que
alguien compre la misma leche a
quien, a pocos metros, la vende a
un precio muy superior?
La razón es que el ceteris
paribus no es suficiente, ni
tampoco lo es suponer que los
mercados son perfectos, la
información fluye de forma rápida
o, por ejemplo, que los padres
compran la leche, cueste lo que
cueste, en su farmacia sin
«escatimar nada a sus hijos». Sea
lo que sea, hay una realidad
indudable: los mismos productos
(no sólo leche para bebés, sino
también juguetes, bolígrafos, carne
fresca o un coche...) no tienen los
mismos precios, porque tampoco es
único el cliente, ni la información
es perfecta... La economía real es
más compleja de lo que parece.
Por todo ello, el análisis bajo el
supuesto del ceteris paribus y su
asunción
como
verdad
inquebrantable es un buen ejemplo
de los límites de la ciencia
económica. Las relaciones entre los
agentes económicos, que no dejan
de ser personas, son tan complejas
que debemos apoyarnos en una
simplificación (aislamiento) de los
sucesos para poder «modelizar» y
comprender dichas relaciones. Es
cierto que somos capaces de
construir
modelos
de
comportamientos mejores y más
sofisticados que ayudan a entender
el comportamiento de muchas
variables, pero dichos modelos
siempre estarán construidos y
verificados estadísticamente en
función de datos pasados. Es
importante recordar a menudo la
frase de uno de los mejores
economistas de nuestro tiempo,
Xavier Sala i Martín:
Ser economista es como conducir
un coche mirando por el retrovisor:
si la carretera es recta y no giras el
volante, no pasa nada y todo el
mundo piensa que sabes lo que
haces. Ahora bien, si giras cuando
no hay curva o tiras recto cuando la
hay, te vas directo a la cuneta y la
gente se ríe de tu incompetencia.
Eso es exactamente lo que pasa con
los modelos econométricos de
predicción, por más sofisticados
que sean.
En cambio, si por algo se define
la realidad con la que tiene que
trabajar cualquier profesional (no
sólo economistas, sino también
médicos, sociólogos, periodistas,
ingenieros...), es que circulamos
por una carretera llena de curvas
absolutamente nuevas. Por lo tanto,
cualquier economista que intente
explicar el futuro sin dudar de su
predicción tendrá problemas de
fiabilidad. Como Keynes, debemos
ser conscientes de que nuestro
análisis se basa, en algún punto y
por muy pequeño que sea, en que
muchos
aspectos
seguirán
comportándose como hasta hoy. Por
lo tanto, un economista siempre
deberá contestar con una «cláusula
de descuelgue» o disclaimer.
Veamos unos cuantos ejemplos que
pueden sintetizar muy bien el
espíritu de este libro.
El rescate a los bancos, ¿una
única solución?
Déjanos que entremos por un
momento en un tema de cierta
profundidad de economía, y que ha
sido crítico en España. Nosotros
hemos debatido mucho sobre ello
en Sintetia, y a veces ha resultado
muy contraintuitivo. La pregunta
clave es: ¿debemos dejar caer a un
banco? En esta crisis se han podido
leer múltiples entrevistas de
analistas muy válidos que aportan
datos con los que afirman que se
podría cerrar cualquier banco de
España y no pasaría nada porque
habría dinero privado suficiente
para soportarlo. De nuevo, una
afirmación bajo el supuesto de que
todo seguiría igual antes y después
de un determinado suceso, en este
caso la quiebra de un banco.
Sobre el papel y con el
ceteribus
paribus
escondido,
decimos que, por ejemplo, el Banco
X
dispone
de
suficientes
accionistas y bonistas subordinados
(inversores privados) como para
absorber toda su potencial pérdida
en activos tóxicos; por lo tanto,
podríamos dejarlo caer y no
pasaría nada.
Si esto es así y ocurre para
todas las entidades, ¿por qué
invertir dinero público en este
rescate? ¿No es suficiente con el
dinero privado y la pérdida de los
accionistas? Si quiebra el Banco X,
por ejemplo, lo más probable es
que no quiebre él sólo, sino que
arrastre una serie de consecuencias.
¿Cuáles? No lo sabemos, y
debemos
decirlo.
Son
impredecibles, pero algo pasará
cuando pierdan dinero como
accionistas grandes aseguradoras,
que saldrían de España, o fondos
soberanos, que dejarían de
apoyarnos en otras inversiones, o
multitud de individuos de rentas
medias que quebrarían, y los
proveedores de éstos, por ejemplo.
Cuando los efectos colaterales
de la quiebra de un banco son
enormemente grandes decimos que
un banco es «sistémico» o
demasiado grande para quebrar.
Pero lo peor de esto es que el
concepto de sistémico es algo
desconocido hasta que sucede. No
podemos afirmar que algo es
sistémico o no hasta que se produce
la circunstancia que lo puede
desencadenar. Por eso, decir que un
banco tiene dinero suficiente para
cubrir sus pérdidas de manera
privada no es suficiente para
defender que debemos dejar
quebrar ese banco.
Cuando se rescata a un banco,
no podemos quedarnos con la
simplificación de una única
pregunta del estilo: ¿hay dinero en
manos privadas para cubrir eso? La
pregunta relevante sería: ¿qué
estimamos que pasará si quiebra el
Banco X? Y esa predicción del
futuro es lo que resulta realmente
complejo estimar, y mucho más si
asumimos el «todo permanecerá
igual salvo esto que muevo».
A veces, el mal menor es salvar
(injustamente) a los accionistas, por
la incertidumbre del caso contrario.
Con esto no defendimos en España
durante los momentos más duros
que no se debía dejar caer a un
banco. Ni mucho menos, puesto que
se pueden hacer estimaciones de
los efectos colaterales; hay mucho
trabajo académico sobre esta
cuestión, y posiblemente podría
haber tenido sentido económico
dejar caer a algunos bancos en
España, ¡aunque no a todos! Pero,
con seguridad, la crítica al rescate
público de los bancos no puede ser
tan sencilla como «estamos
salvando a los accionistas».
Si un economista lo tiene
difícil, si además es gobernante,
más. Piensa en la dura decisión de
los distintos técnicos y ministros de
Economía cuando valoraron en
España un segundo gran rescate,
que al final no se ha producido.
Con el rescate se esfuma una
incertidumbre: la de si nos darán el
dinero o no (está claro que si nos
rescatan, nos dan el dinero). Pero
¿sabe alguien cómo sería España
con condicionalidad europea?
¿Sabe alguien qué percepción
tendrían los inversores extranjeros
de esta «nueva España» tras el
rescate? No es fácil saberlo, y
mucho menos con antelación. Aquí
no se pueden hacer experimentos
naturales. Recuerda el capítulo de
Abel Fernández sobre esta cuestión.
Es muy difícil estimar que el efecto
de un rescate será indudablemente
positivo, a pesar de que es
indudablemente positivo el hecho
de que le den dinero a uno.
Vivimos tiempos demasiado
nuevos como para simplificar los
análisis. Tenemos una tendencia
absoluta a los 140 caracteres, a los
titulares, a lo corto y breve y a no
entrar en el detalle. Pero resulta
que
necesitamos
detalle.
Necesitamos explicar las cosas. En
esa explicación es donde surgen las
dudas, donde no todo es blanco o
negro. Es en el detalle donde se
ponen las cosas «difíciles» y donde
sudamos para acotar una verdad,
que siempre es escurridiza.
Ningún economista serio al que
se le pregunte debería pasar por
alto los posibles pros y contras de
aquellas acciones que supongan lo
que se denomina «un cambio del
estado de la naturaleza»; es decir,
cuando el modelo antes y después
de un suceso cambiará con una
probabilidad distinta de cero. Por
lo tanto, toda respuesta debe llevar
asociado un componente de
probabilidad. El famoso «yo creo
que» o el conocido «puede que». O,
como dirían los estadísticos, «no
podemos descartar que».
Siguiendo el ejemplo de Sala i
Martín, esto sería como conducir
mirando por el retrovisor y estar en
un cambio de rasante. Imposible tan
siquiera imaginar lo que tenemos
por delante. Sólo con extrapolar del
pasado no conseguiremos nada... El
coche va a dar un salto, y es
incorrecto suponer que caerá de
nuevo en la carretera, tenga ésta
curvas o no.
Mantenemos, por lo tanto, la
definición de Sala i Martín sobre la
labor de un economista: «Mi
trabajo como economista no es
adivinar el futuro, sino diagnosticar
problemas económicos y encontrar
e implementar soluciones».
Quizás es bueno recordar con
humildad nuestras limitaciones a la
hora de participar en debates que
son extremadamente complejos de
analizar. Como diría el gran Tim
Harford en su libro Adáptate:[22]
«La complejidad de la sociedad
que hemos creado para nosotros
nos envuelve de tal manera que, en
vez de aturdirnos, nos parece lo
más normal del mundo». Pero esa
normalidad es eso, sólo una
apariencia.
Cuando hablamos de tecnología...
los economistas pensamos en
recetas
El
crecimiento
económico
se
produce cuando la gente coge los
recursos y los reordena para que
sean más valiosos. La cocina nos
ofrece una metáfora muy útil en
economía. Para crear un producto
final valioso, mezclamos productos
baratos siguiendo una receta. Lo
que se puede cocinar depende de
los recursos disponibles y la
mayoría de la cocina que se puede
hacer en economía acaba teniendo
efectos secundarios poco deseables.
Si el crecimiento económico
pudiera alcanzarse simplemente
cocinando más y más de la misma
comida, acabaríamos agotando las
materias primas y sufriríamos
niveles
inaceptables
de
contaminación y molestias. No
obstante, la historia nos demuestra
que el crecimiento económico
aparece cuando se mejoran las
recetas, no cuando nos limitamos a
cocinar más. Las recetas nuevas
suelen producir menos efectos
secundarios y generan más valor
por unidad de materia prima.
Esta cita, aunque larga, creemos
que pertinente; es de Paul Romer,
profesor de la Universidad de
Stanford, pionero en el campo de
las
teorías
del
crecimiento
endógeno, donde las ideas y la
innovación son los condimentos
base. La cita ha sido obtenida de
otra obra clave, Las ciudades
creativas, de uno de los autores que
más y mejor ha comprendido la
complejidad
del
crecimiento
económico en el siglo en que
vivimos, Richard Florida.
Si los siglos XIX y XX se
forjaron con la
revolución
industrial, el siglo XXI lo hará con
la «economía de las ideas». Y uno
de sus máximos exponentes
científicos es, posiblemente, el
propio Romer. Se le conoce por la
revolución de sus trabajos de
investigación, que encontraron las
relaciones que existen entre las
ideas, la innovación y los
incentivos que conducen al
crecimiento económico de un
territorio.
Una forma muy entretenida y
divulgativa de conocer los trabajos
de Romer es ver la película de
Marc Abraham Destellos de un
genio.[23] Se trata de un filme
basado en una historia real, la de un
ingeniero, profesor, que resolvió un
problema técnico que tenían los
limpiaparabrisas de los años
sesenta. Patentó la idea y Ford, la
gran multinacional de aquellos
años, se la copió con coste cero. La
batalla legal fue dura: doce años.
Hay
una
escena
realmente
interesante. En el juicio, la idea
principal que defendía Ford es que
ninguno de los componentes usados
por el ingeniero para su invento era
nuevo. Nada era nuevo, todos los
componentes estaban inventados; el
ingeniero sólo los había combinado
«de otra forma». Por esta
combinación, si bien había
arreglado el problema, Ford
consideraba que no habría por qué
«compensar» al ingeniero.
El
ingeniero,
que
se
representaba a sí mismo, reaccionó
de forma brillante, igual que lo
haría Paul Romer. Sacó un libro y
un diccionario y empezó a decir
palabras al azar al jurado. Todas
las palabras que iba dictando
también estaban escritas en una
novela de Charles Dickens. Y con
ello trató de demostrar que lo que
hacía a Dickens brillante como
creador literario era cómo usaba
las palabras, cómo las combinaba e
hilvanaba para crear verdaderas
obras de arte singulares.
Este ejemplo nos muestra varias
cosas: i) la verdadera innovación
se forma en un remix, como ya
decíamos en la introducción de este
libro; ii) lo importante para generar
progreso y riqueza está en cómo se
combinan los recursos para generar
más y mejores productos y de una
forma mejor; iii) ¿y cómo se
encuentran nuevas formas de
combinar recursos e ingredientes?
Creando ideas para convertirlas en
progreso. Las ideas, tomando
prestado el ejemplo de Romer, son
como las recetas de cocina. Dados
unos ingredientes, puedes conseguir
múltiples platos. Y disfrutaremos
de una mejor gastronomía cuantos
más platos seamos capaces de crear
con esos ingredientes.
Donde los ingenieros ven bits,
los abogados contratos o los físicos
fórmulas, los economistas vemos
recetas. La clave para crecer está
en crear más recetas, nuevas formas
de combinar lo que tenemos para
crear cosas nuevas. Y para crear
cosas nuevas, hay que pensar
siempre en incentivos. Y es aquí
donde se precisan aportar lógicas
diferenciales. Veamos un ejemplo:
El 40 por ciento de la población
mundial no tiene acceso a un
inodoro, y dicha carencia supone la
muerte anual de 1,5 millones de
niños por la ingestión de alimentos
contaminados por aguas fecales,
cifra muy superior a las muertes
causadas por el sida y la malaria.
¿Cómo es eso posible unos 240
años después de que Alexander
Cummings patentase su invento en
Inglaterra? Aunque el inodoro es
una de las tecnologías que mayor
impacto ha generado en el bienestar
de las personas a lo largo de la
historia,
la
carencia
de
infraestructuras de canalización,
inasequibles para muchos países de
renta baja, ha imposibilitado su
adopción completa.
En un importante esfuerzo para
conseguir instalar inodoros allí
donde las infraestructuras no lo
permiten, la Fundación Bill y
Melinda Gates destinó el año
pasado 3,3 millones de dólares a
dicha tarea.[24] Para ello se
escogieron ocho de las mejores
universidades del mundo y a cada
una de ellas se le asignó un
presupuesto de 400.000 dólares
para afrontar el siguiente reto: los
equipos de investigación debían
inventar un nuevo inodoro que
potabilizase el agua tras recibir los
desechos, generase fertilizantes, no
dependiese de la red eléctrica y
tuviese un coste de mantenimiento
anual inferior a 5 céntimos de
dólar. Un año después, el equipo
del Instituto Tecnológico de
California (Caltech) se proclamaba
ganador, obteniendo un premio
adicional de 100.000 dólares.
El nuevo inodoro funcionaba
con energía solar, que utilizaba
para potabilizar el agua y convertir
los desechos en hidrógeno y
fertilizante, que a su vez se podía
utilizar para generar energía
eléctrica adicional. El inodoro
diseñado
es
completamente
autónomo y tiene un coste de
mantenimiento inferior a los 5
céntimos presupuestados. Se trata
de un gran avance que permitirá el
acceso de los países más pobres de
África a un instrumento para
combatir el cólera, la malaria, la
contaminación de los alimentos y,
por lo tanto, luchar de una forma
más efectiva contra la pobreza.
Este curioso caso real permite
explicar
algunos
hechos
diferenciales
cuando
nos
planteemos cómo invertir recursos,
públicos o privados, para lograr
una verdadera economía de las
ideas:
En primer lugar, que una
tecnología esté «inventada» no
implica que no pueda ser
«reinventada». Toda innovación
suele partir de la combinación de
elementos ya existentes —todos los
componentes del inodoro de
Caltech eran conocidos—, por lo
que
cada
nueva
tecnología
descubierta
abre
nuevas
posibilidades para la innovación.
La aplicación práctica de nuevas
innovaciones no tiene por qué
depender
de
nuevos
descubrimientos
técnicos
o
enormemente complejos; puede
depender
también
de
la
combinación
de
elementos
conocidos.
En segundo lugar, la historia
recuerda el poder de los incentivos.
Un buen diseño de incentivos que
coloque al talento y los recursos
adecuados a resolver un problema
concreto puede producir resultados
asombrosos.
¿Qué
habrían
conseguido,
en
cambio,
subvenciones genéricas por valor
de 3,3 millones? ¿Son comparables
las actuaciones guiadas hacia
objetivos concretos con los
resultados obtenidos por otras vías,
por ejemplo, con las típicas
deducciones
fiscales
a
la
innovación?
El tercer aspecto clave es que
la reinvención del inodoro se debe
especialmente a la calidad media
de las universidades seleccionadas.
El talento, el conocimiento y los
instrumentos
para
resolver
problemas
se
cultivan
con
formación y experiencia, siendo
necesario un stock mínimo de
capital humano capaz de convertir
el conocimiento en soluciones y que
éstas puedan comercializarse o
distribuirse para el beneficio de la
sociedad. La fragmentación de la
universidad española y su escasa
apuesta por la excelencia van en
contra de estos requisitos.
En cuarto lugar, merece la pena
aclarar que el centro ganador,
conocido
popularmente
como
Caltech, se encuentra muy cerca del
mayor clúster tecnológico mundial,
Silicon Valley, donde el flujo de
personas e ideas entre la
universidad y la industria es
constante y habitual. Pero un clúster
de dichas características no se crea
en unos pocos años: han sido
necesarias varias décadas de
concentración de las empresas
tecnológicas más punteras a nivel
mundial y de un núcleo de
universidades que incluye tres de
las seis mejores del mundo
(Berkeley, Stanford y Caltech).
Los próximos años serán
especialmente duros para la
investigación en España. Pero,
aunque las actividades basadas en
el conocimiento no podrán liderar a
corto plazo la recuperación, son el
único camino viable de futuro a
pesar de los fuertes recortes que
está sufriendo la investigación. Su
crecimiento dependerá de una
mejor alineación de incentivos —
alejándose definitivamente de la
subvención no ligada a objetivos—,
de una mayor apuesta por la
excelencia en la formación superior
y de una mayor concentración
geográfica de dicho tipo de
actividades.
¿Quieres dejar de fumar? Piensa
como un economista
La respuesta habitual de un
economista a la pregunta «¿por qué
una persona hace algo en
concreto?» suele ser tan coherente
como exasperante: «porque el
beneficio de hacerlo supera sus
costes». Sin embargo, detrás de la
aparente tautología se esconde una
forma de pensar que suele ir más
allá
de
lo
que
parece.
Reformulemos la pregunta: ¿por
qué hay gente que fuma aun
sabiendo lo pernicioso que es para
la salud? No resulta barato y la
principal consecuencia para un
fumador es una más que probable
reducción de su esperanza de vida.
La primera respuesta de nuestro
economista interior será: porque el
beneficio personal de fumar supera
sus costes. En cambio, la respuesta
de un no economista sería: se trata
de un acto irracional.
La
discusión
sobre
la
irracionalidad lleva a un callejón
vacío, pues todo depende de cuán
amplio considere cada uno el
espectro de la racionalidad. Así
que volvamos al razonamiento
económico más básico: ¿qué
beneficios y costes afronta un
fumador?
Beneficios
Para un no fumador puede resultar
increíble que alguien encuentre
placer llenándose los pulmones con
los residuos de una combustión
(dióxido de carbono, alquitrán,
etc.), pero así parecen asegurarlo
los fumadores; habrá que creerles.
Se podría argumentar que no es
cierto: la experiencia con los
primeros
cigarrillos
es
desalentadora y el único placer real
que se obtiene del acto de fumar es
el de calmar la adicción contraída a
la
nicotina.
Aunque
dicha
afirmación sea cierta, las razones
fisiológicas
son
irrelevantes
llegados a este punto: el fumador
obtiene placer de un cigarrillo, o
así lo percibe, pues ya es adicto a
la nicotina.
Por otra parte, beneficios
clásicos como la determinación de
estatus (especialmente entre las
mujeres) hace tiempo que se han
«esfumado», hasta el punto de que
actualmente
parecen
haberse
invertido las cosas. Pasemos por lo
tanto a los...
Costes
El primer coste que afronta el
fumador es el monetario. Un
paquete diario de cigarrillos
(pensemos una media entre
cigarrillos de liar y otros de marca
de unos 3,5 euros) supone, a lo
largo de una edad laboral de
dieciocho a sesenta y cinco años y
con un tipo de interés real del 3 por
ciento, algo más de 130.000 euros
reales (es decir, su equivalente a
dinero de hoy) como complemento
de jubilación.
El segundo tipo, el más
importante, son los costes de salud.
Poco podemos añadir, salvo citar
uno de los muchos estudios en los
que se revela que los fumadores
tienen de media diez años menos de
esperanza de vida.[25]
Y sin embargo...
Los costes parecen muchísimo
superiores a los beneficios, y sin
embargo en España hay unos nueve
millones de fumadores, según el
Comité
Nacional
para
la
Prevención del Tabaquismo: varios
millones de personas valoran más
en cada momento el beneficio que
les supone fumar que su coste.
El problema podría estar en una
tremenda subvaloración de los
riesgos por parte del fumador. Así
lo documenta el libro Smoking,
Risk, Perception and Policy,
editado por Paul Slovic. Según
diversos
estudios
sobre
la
naturaleza de las adicciones, el ser
humano
no
reacciona
consistentemente en un estado de
relajación y ante una repentina
necesidad de alguna sustancia
adictiva. Otra posible hipótesis es
un terrible problema de descuento
temporal entre la satisfacción a
corto plazo y los costes a largo
plazo, una relación que implicaría
tasas monetarias de descuento
implausibles.
Así, un fumador puede pensar
que un solo cigarrillo adicional no
causa gran daño. Y está en lo
cierto, el coste en términos de salud
de un solo cigarrillo es muy
pequeño. Pero su parte racional
sabe algo más. Sabe que cada
nuevo cigarrillo perpetúa un estado
de adicción. Es decir, el coste en
salud está infravalorado pues
habría de incluir cómo afecta cada
cigarrillo
adicional
a
la
probabilidad de fumar, después de
ése, otros 10.000 u otros 50.000.
¿Y si invertimos la forma de
enfocar el problema? Pensemos en
la opción inversa. ¿Cuál es el
beneficio y el coste de NO fumar un
cigarrillo adicional? El coste es el
malestar y la ansiedad que la
adicción crea. El beneficio podría
verse como la creación de un
«stock
de
superación»,
la
construcción de un activo que
podría mejorar su salud y su
patrimonio futuro. Así, un fumador
no debería pensar que parte con
ochenta y un años de esperanza de
vida y que «quizá» muera antes por
culpa de su hábito. Puede enfocar el
problema pensando que tiene
setenta y un años de esperanza de
vida y que, haciendo un esfuerzo
con un aspecto de sus hábitos,
puede obtener hasta (i) un
complemento adicional de más de
100.000 euros a la jubilación, (ii)
una mejor calidad de vida general
y... (iii) ¡hasta diez años más de
vida!
¿Todo tiene un precio?
La filosofía es un gran combustible
intelectual, y mucho más para los
científicos. No es de extrañar, pues,
que en los mejores equipos técnicos
del mundo siempre haya alguien
«de letras», con fuerte capacidad
lógica y con otros puntos de vista.
Dudar, pensar y poner contra las
cuerdas tus propios axiomas es un
gran ejercicio intelectual. Y como
hasta aquí hemos hablado de
economía, recomendamos que
busques a Michael Sandel, profesor
de filosofía en la Universidad de
Harvard. Sandel imparte desde
hace mucho tiempo uno de los
cursos más populares en su
universidad, Justice, y goza de un
estatus de superestrella en países
como Japón o Corea del Sur (en
una conferencia en Seúl llenó un
estadio de 15.000 personas).
Acaba de publicar un gran
libro, Lo que el dinero no puede
comprar,[26] en el que defiende, a
partir de su concepción de la ética
y la justicia, que los mercados han
ido ganando terreno durante las
últimas décadas hasta entrar en
aspectos que deberían estarles
vedados por cuestiones de valores.
Y el autor no centra sólo su
atención en casos tan evidentes
como el tráfico de órganos o la
«adopción» internacional de niños,
sino que trata ejemplos reales como
el de los tickets para entrar en el
Congreso de Estados Unidos, la
compra por parte de empresas del
nombre de estadios deportivos, el
acceso a una celda penitenciaria
mejor o el derecho a matar un
animal.
Michael Sandel no es, ni mucho
menos, dogmático en su objeción a
los mercados, ya que reconoce que
allí donde ninguna barrera ética
impide su desarrollo han causado
un gran bien a la humanidad. Pero
defiende que poner precio a ciertas
cosas corroe los valores internos
de
la
sociedad
y
atenta
directamente contra los principios
de igualdad y justicia. Tanto un rico
como un pobre disponen del mismo
tiempo y de los mismos derechos en
Estados Unidos, por lo que ambos
deberían invertir el mismo tiempo
esperando en la cola para acceder a
las sesiones del Congreso. Así,
cuando se permite que los pobres
hagan cola para vender su posición
en la misma a los ricos, se está
erosionando
un
principio
fundamental de la vida en sociedad.
No es difícil estar de acuerdo
con el principio general que
propone Sandel: que el mercado y
el sistema de precios no deberían
ser los principios rectores de toda
la actividad humana. Pero, más allá
de los casos evidentes y en los que
la mayoría de la gente está de
acuerdo, conviene preguntarse qué
está fallando cada vez que el
mercado «invade» una nueva
institución social. Hagamos un
sencillo «experimento mental» a
partir de la problemática de las
adopciones. Se trata de un tema
para el cual no hemos encontrado
todavía la solución óptima. La
sociedad está completamente de
acuerdo en que la existencia de un
mercado de niños es una aberración
que no debe suceder. ¿Y cuál es el
estado real de la situación?
•
Hay familias que abandonan
o incluso matan a sus hijos
por no poder hacerse cargo
de ellos (en los países
desarrollados hace tiempo
•
•
que el aborto ha sustituido
al infanticidio,[27] pero en
los
dos
países
más
poblados de la tierra, India
y China, aún persiste bajo
cifras inciertas el fenómeno
conocido
como
«gendercidio»).
Los niños que acaban en
orfanatos se enfrentan a
procesos larguísimos antes
de poder ser dados en
adopción.
El daño psicológico que
sufren los niños que están
hasta los tres años en un
orfanato es irreversible.
•
Durante la época en la que
el niño debe recibir cariño
y
protección
individualizada, recibe una
atención mucho menor a la
óptima.
El proceso de adopción es
realmente largo y al final
los niños suelen acabar
recalando en familias con
perfil profesional de renta
media/alta.
Un
hipotético
mercado
internacional de niños, el cual
suscitaría un lógico rechazo de
todas las sociedades, solucionaría
muchos de estos problemas. Si la
venta fuese legal, en la India no
matarían a tantas niñas, sino que las
venderían a Europa y América. Lo
que hoy es un trámite internacional
complejo sería parecido a comprar
un
iPad:
instantáneo,
bien
empaquetado, legal y seguro. Las
niñas sanas de seis meses se
venderían, por ejemplo, a 6.000
euros. Las niñas de doce meses,
quizá por la mitad. Los niños serían
más caros que las niñas por una
cuestión de escasez (¡ah, la frialdad
de un mercado!). Y, por mucho que
a uno le pueda espeluznar lo que
hasta ahora ha leído en este párrafo,
lo cierto es que dicho mercado
existe de una forma no explícita,
sino encubierta.
Como dice Sandel, es fácil ver
que permitir estos intercambios
corrompe valores que deberían
acompañar al ser humano. Pero la
postura ante este problema no
puede ser la resignación, y es que
las «invasiones» del mercado
señalan a menudo instituciones
sociales que están fallando
estrepitosamente.
Cuando
criticamos al mercado por invadir
un nuevo tipo de intercambio, a
menudo hay detrás un grave fallo
político que ha sido incapaz de dar
solución apropiada a un problema
latente. El mercado sólo acude allí
donde
capaz de
solucionar
problemas a alguien y este alguien
está dispuesto a pagar por ello. En
infinidad de aspectos de nuestra
vida, las instituciones sociales
funcionan perfectamente y el
mercado ni se asoma o lo hace
marginalmente. Pero cuando el
mercado aparece (compra de niños
en Asia), es porque la alternativa
está fallando. Por horrible que
suene, parece socialmente más
deseable dos niñas vendidas a dos
parejas europeas frente a la
alternativa de otras dos niñas
muertas
o
abandonadas
indefinidamente en un orfanato en
paupérrimas condiciones.
Hay una tercera opción, que la
mayoría preferiríamos: que ambas
niñas sean dadas en adopción, con
gran rapidez, a las dos familias del
mundo que más amor y cuidados
estén dispuestas a darles. El trámite
no debería durar dos años, sino dos
semanas. Pero los años pasan y el
mecanismo apenas mejora, lo que
empuja a familias que quieren
adoptar un niño a viajar a algún
país exótico para «acelerar» los
trámites de adopción. Cuando no
hay un mercado transparente y
regulado, a menudo se crea un
mercado negro no regulado y
discrecional. ¿Acaso ese mercado
negro no socava también nuestros
valores?
Hay un motivo clave por el cual
los mercados invaden tantas
instituciones cotidianas: la rapidez
y la eficiencia informativa. Para
lograr
un
acuerdo
político
internacional
de
«adopciones
exprés» serían necesarias infinidad
de cumbres en las que muchos
países habrían de ponerse de
acuerdo,
homogeneizar
legislaciones, crear organismos
públicos para regular todo el asunto
y luego más funcionarios en cada
país para gestionar las adopciones
con rapidez. Y qué duda cabe de
que con voluntad y trabajo podría
lograrse. Pero la capacidad de
trabajo de «lo público» se enfrenta
a serios limitantes: construir un
conjunto de instituciones nacionales
o supranacionales para lidiar con
un problema es muy costoso en
términos de negociación e incluso
presupuestarios. Haciendo este
esfuerzo podría solucionarse este
problema, pero lo costoso del
esfuerzo sigue relegando la
adopción a un segundo plano. Por
el contrario, frente a la lentitud de
la acción política, el mercado es
capaz de organizar cualquier
intercambio de forma fría y
descentralizada.
Las preguntas que plantea
Sandel son sin duda interesantes,
pero no deberían invitar a la
inacción o al rechazo frontal al
mercado, sino que deberían señalar
el camino para la reforma de
aquellas instituciones que no
funcionan bien o lo hacen
parcialmente.
Los
mercados
generan a menudo incentivos
perversos y pueden llegar a
corromper valores profundos, pero
el hecho de esconder dichos
problemas no los elimina. Cuando
algo así sucede, los ciudadanos
deberíamos reconocer que existe un
problema en la «institución
pública» o «costumbre» que regula
dicho problema y exigir una acción
política más contundente.
¿Cómo vive un economista una
final de fútbol apasionante?
¿Recuerdas cuando la Roja, la
selección
española,
estaba
escalando hacia la Eurocopa de
2012? Queríamos compartir contigo
cómo vivimos esos días históricos
para el deporte español. Este
equipo de economistas observaba
que la selección había alcanzado su
tercera gran final consecutiva tras
una fase final relativamente
tranquila, sólo perturbada por unos
ciertos momentos de agobio frente a
Croacia y por una tanda de penaltis
contra Portugal en semifinales. No
es ningún secreto que la capacidad
competitiva de España había dado
un paso de gigante durante los
últimos años, en los que había
acumulado una gran experiencia en
partidos importantes: la práctica
totalidad de la selección llevaba
cuatro años jugando y peleando
innumerables «partidos del siglo»,
finales europeas y mundiales e
interminables series de «clásicos»
de una extrema presión competitiva.
A pesar de su relativa juventud,
jugadores como Piqué o Ramos,
que en otros países estarían todavía
consolidando su juego (recuerda
que es lo que pensábamos en 2012),
parecían encontrarse ya de vuelta
de todas las batallas. No obstante,
aunque la experiencia es una ayuda
inestimable y el fútbol una
disciplina a menudo insondable,
existe un aspecto del deporte rey
que sí ha sido destripado
analíticamente: los penaltis.
En primer lugar, y a pesar de la
curiosa
ignorancia
de
los
comentaristas televisivos, cuando
decían «¿Tú que elegirías? ¿Tirar o
parar primero?», «¡No sé, creo que
me daría igual!», existe una
conocida regularidad empírica: el
equipo que comienza tirando los
penaltis suele ganar la tanda un 60
por ciento de las veces, por lo que
el equipo que gana la tirada al aire
de la moneda ha de elegir chutar
primero.
El análisis de la estrategia en
las penas máximas va mucho más
allá. Ignacio Palacios-Huerta,
investigador español y profesor de
la London School of Economics,
grabó y recopiló durante cinco años
datos de 1.417 penaltis lanzados
mayoritariamente por futbolistas de
las ligas española, italiana e
inglesa, utilizando posteriormente
dicha base de datos en un influyente
artículo científico («Professionals
Play Minimax»)[28] en el que
examina si los profesionales
maximizan sus posibilidades de una
forma «estratégica» conforme a los
resultados de la teoría de juegos en
una situación real.
La teoría no es difícil de
explicar. Los lanzadores pueden ser
diestros o zurdos, y tanto unos
como otros tienen un «lado natural»
a la hora de lanzar un penalti,
puesto que el impacto es más
natural con el empeine: los
lanzadores diestros lanzan con
mayor potencia y precisión a su
izquierda, es decir, al lado derecho
desde el punto de vista del portero;
los lanzadores zurdos golpean
mejor hacia su propia derecha, que
es a su vez la izquierda del portero.
Los porteros lo saben y, en
consecuencia, tenderán a tirarse
más a menudo hacia el lado natural
del lanzador. A su vez, el lanzador
no puede lanzar siempre hacia su
lado natural, pues ha de sorprender
de vez en cuando al portero.
¿Cuál es la estrategia óptima
para el lanzador y para el portero?
La teoría de juegos muestra que la
solución óptima es lo que se llama
una «estrategia mixta», en la que el
lanzador ha de elegir el porcentaje
que hace que la probabilidad de
marcar tirando a un lado sea igual a
la probabilidad de marcar tirando
al otro. Según esta misma estrategia
y los datos recopilados por
Palacios-Huerta, la solución óptima
media es que el lanzador dispare
hacia su «lado natural» el 60 por
ciento de las veces y un 40 por
ciento hacia su lado «no natural».
La solución teórica recomienda que
el jugador tire más a menudo en
aquella dirección en la que tiene
más precisión y potencia, pero
siempre ha de intentar también
sorprender al portero. La solución
que maximiza las opciones del
portero es, lógicamente, simétrica:
deberá lanzarse un 60 por ciento de
las veces al lado bueno del
lanzador y un 40 por ciento al lado
no natural.
Importante, estos porcentajes
están calculados para la media de
jugadores,
pero
cada
caso
particular es distinto en función de
la diferencia que exista entre el
disparo al lado natural y al lado no
natural. Así, un jugador con casi la
misma seguridad de disparo lanzará
casi al 50 por ciento (en la muestra
de Palacios-Huerta, es el caso de
Mihajlovic, exjugador del Lazio),
mientras que uno que tiene una
dirección desproporcionadamente
más precisa y potente puede llegar
a tirar un 80 por ciento de los
penaltis en dicha dirección (en la
muestra del estudio serían, por
ejemplo, Rui Costa, del AC Milan,
y Batistuta, de la Roma).
¿Cumplen los jugadores dicha
regla de optimalidad (la llamada
regla
Maximin)?
Pues,
sorprendentemente, en su mayoría
sí. Los jugadores profesionales y
los porteros son capaces de elegir
los porcentajes de decisión a un
lado y otro que igualan las
probabilidades de éxito en cada
caso. Sólo tres de los 22 jugadores
de la muestra (Donosti, del Eibar,
Finidi, del Ipswich Town, y Penev,
del Atlético de Madrid) parecían
no elegir óptimamente su estrategia.
El caso más peculiar es el del
zurdo Luboslav Penev, el cual, en
los 40 lanzamientos del estudio,
tiró sólo 16 por su lado natural
(¡metiéndolos todos!) e insistía
muchísimo más de lo óptimo en su
lado no natural, lanzando un 60 por
ciento por el mismo... ¡y fallando
uno de cada cuatro! Mientras tanto,
el maestro absoluto en estrategia
era Mendieta, en su época del
Lazio, que anotaba el 91 por ciento
de los penaltis que tiraba a ambos
lados (tirando el 68 por ciento
hacia su lado natural y el 32 por
ciento hacia el otro).
¿Y los porteros? Pues también
se comportan mayoritariamente de
forma óptima, igualando en la
media las probabilidades de éxito
al tirarse un 60 por ciento de las
veces hacia el lado natural del
lanzador (salvo excepciones como,
en la muestra analizada, Juanmi, del
Zaragoza, y Dutruel, del Barcelona,
que se desviaban bastante).
La última consideración teórica
es que para que la estrategia
descrita sea óptima, las direcciones
de lanzamiento han de elegirse de
forma completamente aleatoria. Por
ejemplo,
si
dadas
las
características de disparo de un
jugador su estrategia óptima es
70/30 (es decir, que ha de lanzar el
70 por ciento de las veces hacia su
lado natural), para maximizar la
probabilidad de éxito debería
aleatorizar perfectamente antes de
tirar; por ejemplo, podría tirar un
dado de diez caras en el descanso y
lanzar el penalti por su lado natural
si sale de 1 a 7 y por el lado no
natural si sale de 8 a 10 (no te
rías..., es un ejemplo de los
estadísticos).
Curiosamente, el temido portero
de la selección italiana en la
Eurocopa de 2008, Gianluigi
Buffon, es uno de los porteros de la
muestra del estudio de PalaciosHuerta. Pensábamos con ilusión que
España tenía una oportunidad
porque el portero no parecía ser
uno de los porteros que mejor
enfocaban su estrategia ante la pena
máxima: Buffon se tiraba, en la
muestra
analizada,
desproporcionadamente más hacia
su derecha, es decir, hacia el lado
natural de los diestros (un 73 por
ciento frente a un 27 por ciento). ¿Y
por qué no era óptimo dicho
comportamiento? Pues porque
paraba muchos más penaltis al
lanzarse contra el lado no natural
(un 25 por ciento) que contra el
natural (14 por ciento). Es decir, a
Buffon le costaba estimar la
probabilidad estratégica óptima de
cada jugador y, por culpa de ello,
se lanzaba más de lo aconsejable a
su derecha, contra el lado natural
de los lanzadores diestros.
Pero no te dejes engañar, una
cosa es que la elección estratégica
de Buffon no fuese la ideal y otra
cosa es que Buffon fuese
predecible. El estudio también
verifica esto y muestra que su
elección izquierda-derecha no era
predecible observando sus últimos
penaltis. Es decir, no había
patrones en sus decisiones.
¿Qué sucedió en la tanda de
penaltis de la Eurocopa de 2008?
Por España lanzaron cinco
jugadores diestros (Villa, Cazorla,
Senna, Güiza y Cesc), los cuales,
curiosamente, lanzaron sólo dos de
los cinco penaltis hacia su lado
natural (Villa y Cazorla, anotando
los dos) y tres hacia su lado no
natural (Senna, que marcó, Güiza,
que falló el suyo, y Cesc, que
clasificó a España para las
semifinales).
¿Significa
esto
que
los
jugadores españoles no escogieron
óptimamente? No necesariamente.
Recordemos que, para que la
estrategia sea óptima, la elección
ha de ser completamente aleatoria.
Es decir, un equipo no ha de lanzar
tres penaltis al lado natural y dos al
contrario; sería absurdo, pues el
portero sabría hacia dónde debería
ir el quinto penalti. Lo que ha de
hacer
es
aleatorizarlo
perfectamente, y ahí bien puede
suceder que, en vez de un 60/40, el
resultado del azar sea 40/60. Es
decir, 40/60 es un resultado
perfectamente factible, con sólo
cinco penaltis, de una estrategia
óptima 60/40.
¿Y qué sucedió con Buffon y su
excesiva disposición a tirarse hacia
su derecha, buscando el lado
natural del lanzador? Buffon se
lanzó tres veces hacia el lado no
natural de los jugadores, parando
un penalti, y sólo dos hacia el lado
natural, a su derecha, sin parar
ninguno. Aparentemente, corrigió
aquí dicho exceso tirándose más
hacia el lado no natural, pero es
imposible
saber,
sin
más
información, si dicha elección se
debió al azar o a un cambio
deliberado de estrategia.
¿Acaso había leído Buffon a
Palacios-Huerta y la teoría de
juegos sobre la estrategia en los
penaltis? Pues una pista clave nos
hace dudar mucho de esta hipótesis:
para perplejidad de los expertos,
Buffon había ganado el sorteo
inicial de la tanda, y en vez de
elegir lanzar primero..., ¡eligió
ponerse él primero bajo los palos!
Parece difícil que alguien que no
conocía la regularidad más famosa
de las tandas de penaltis hubiera
analizado la estrategia óptima que
ofrece la teoría. Por lo tanto, que
Buffon se tirase tres veces hacia el
lado no natural de los lanzadores no
implica, ni mucho menos, que el
meta italiano hubiera corregido su
exagerada tendencia a tirarse a la
derecha.
Por
lo
tanto,
¿qué
recomendábamos hacer a Xabi
Alonso, Iniesta, Xavi, Piqué,
Ramos o Cesc si el gran partido de
España acababa en empate? Para
empezar, deberían tener un dado de
diez caras en el vestuario. Si al
final de los 90 minutos el partido
acababa en empate, los posibles
lanzadores deberían ponderar la
diferencia de naturalidad en su
golpeo, es decir, el porcentaje en
que acostumbraban a tirar sus
penaltis. Quien estuviese muy
seguro de poder ajustarlo a su palo
natural con fuerza, que le asignase
una probabilidad mayor (por
ejemplo, un 70 por ciento, un
resultado del 1 al 7 en el dado de
diez). El que fuese más indiferente,
una probabilidad menor (un 60 por
ciento o incluso un 50 por ciento).
Y a continuación llega la clave
de todo el análisis. Si, como
sospechábamos, Buffon no había
corregido su tendencia a tirarse
hacia el lado natural, ¿cómo
deberían incorporar los jugadores
de la selección dicha información?
Pues revisando a la baja
precisamente la probabilidad de
tirar hacia el lado natural. Así, los
que solían elegir confortablemente
dicho lado un 70 por ciento de las
ocasiones deberían rebajar su
probabilidad al 60 por ciento (es
decir, tirar por su lado natural si
sacaban de 1 a 6 en el dado), y si
algún lanzador era realmente
indiferente y partía con un 50 por
ciento, debería también rebajar su
probabilidad a un 40 por ciento
(tirar a la derecha del portero sólo
si sacaba de 1 a 4 en el dado).
La Roja, al final, no necesitó
recurrir a la teoría de juegos para
ganar (¿o sí?); lo que está claro es
que al menos los economistas
futboleros apasionados de la teoría
de juegos se lo pasan realmente
bien ante una oportunidad como una
final de Eurocopa o Champions...
¿No conoces la ley de Hotelling?
En cuanto la conozcas, tu visión
de muchas cosas cambiará
Piensa en una playa de tres
kilómetros
de
largo
no
excesivamente concurrida, en la
cual operan desde hace varios años
dos puestos de vendedores de
helados, frecuentados asiduamente
todo el día por los bañistas. El
volumen de afluencia nunca ha sido
suficiente como para soportar un
tercer puesto de venta, y ambos
venden las mismas marcas a
precios muy parecidos. Es decir, la
utilidad
percibida
por
los
consumidores es la misma en los
dos puestos, por lo que su decisión
se basará exclusivamente en la
distancia a recorrer para acudir a
uno u otro: dado que ambos son
iguales, los consumidores sólo
buscan minimizar el tiempo perdido
en ir a por los helados.
Por otra parte, la única decisión
que cada mañana pueden tomar los
vendedores es el lugar de la playa
donde situarse. ¿Cuál es la
estrategia óptima de colocación
para los mismos? Ésta fue una
pregunta clave que se hizo Harold
Hotelling y que dio lugar a la
publicación, en 1929, de un artículo
que revolucionó parte de la
disciplina económica, a pesar de
que Hotelling era matemático. No
podíamos acabar un libro como
éste sin hablar de una ley que invita
a analizar la realidad con un prisma
totalmente diferente.
Aunque lo racional, en una
playa de tres kilómetros, podría ser
que los carritos se colocasen
aproximadamente en el kilómetro 1
y 2 de la playa, lo cierto es que
éstos tienen, cada mañana, un
incentivo muy fuerte a acercarse lo
más posible al centro de la playa.
Si un carrito está apostado en el
kilómetro 2, su competidor podría
ganar parte de la competencia
acercándose a él, incluso rebasando
el centro de la playa. Mientras que
para los del lado izquierdo de la
playa seguirá siendo el carrito más
cercano, algunos de los que antes
compraban al carrito derecho
tardan menos tiempo en comprarle
ahora a él. El siguiente dibujo lo
ilustra:
Como su competidor no será
menos listo, a la mañana siguiente
ambos se dirigirán al centro y,
probablemente, allí será donde
apuesten sus carritos, uno muy
cerca del otro. Este equilibrio (que
en este sencillo juego es un
equilibrio
de
Nash
—otro
matemático que revolucionó la
lógica económica—, la mejor
respuesta a las posibles estrategias
de tu contrincante) es conocido
como la ley de Hotelling y ayuda a
explicar también por qué muchas
gasolineras aparecen a menudo de
dos en dos. Y a menudo se
interpreta también como la razón
por
la cual
los sistemas
bipartidistas acaban casi siempre
con partidos muy parecidos,
luchando por el centro en los
asuntos más sensibles para la
sociedad y con diferencias reales
en cuestiones secundarias o
dicotómicas
(¿es
legal
el
matrimonio entre personas del
mismo sexo?, aquí no caben medias
tintas).
Pero hay una segunda (e
importante
conclusión)
de
Hotelling. El análisis del problema
suele acabar en el punto anterior,
cuando ahora viene un aspecto
realmente importante del mismo.
Mientras que en la intuitiva
posición
inicial
parecía
minimizarse
el
tiempo
de
desplazamiento de los bañistas (en
realidad, se minimiza, para una
distribución uniforme, en los puntos
1/4 y 3/4 de la playa), con la
solución de Hotelling la distancia
máxima a recorrer... ¡se maximiza!
Es decir, si dejamos competir a los
dos carritos, la decisión final es un
equilibrio perverso en el que los
vendedores de helado ganan lo
mismo (¡o menos, si los bañistas de
las esquinas prefieren prescindir
del helado y de la caminata!) y los
bañistas han de caminar más tiempo
a por el helado o hacinarse en el
centro de la playa, disfrutando de
menos espacio.
Pero ¿no va este resultado
contra las conclusiones clásicas de
la economía? Los consumidores
eligen con libertad, los vendedores
eligen también en libertad su
posición en la playa, y todos
empeoran. Pues bien, dejando de
lado posibles soluciones como las
cooperativas (que se dan con
facilidad en juegos repetidos) o los
carritos móviles, la pregunta clave
para resolver el problema es: «¿por
qué hay sólo dos carritos de
helados?». Pensemos en dos tipos
de
respuestas
y
en
las
consecuencias sobre la política
económica de cada una de ellas:
•
Existencia de costes fijos:
la existencia de inversión
inicial o costes fijos puede
actuar como una barrera de
entrada de competidores en
el mercado. En nuestro
caso, quizá la demanda no
sea la suficiente como para
soportar tres puestos de
helados. La mera entrada de
un
tercer
competidor
solucionaría el problema
(en un espacio de una
dimensión como una playa),
ya que la ordenación óptima
•
sería la equidistante. En el
caso de dos carritos, una
sencilla regulación que
prefijase la posición exacta
de colocación de los
carritos
resolvería
el
problema, impidiendo a los
competidores alcanzar el
equilibrio pernicioso en que
nadie gana.
Existencia de una
regulación previa: así como
la regulación en el punto
anterior
resolvía
el
problema,
en
muchas
ocasiones es una regulación
la que está causando el
problema. Por ejemplo, el
ayuntamiento responsable
de la limpieza de la playa
puede organizar cada año
una subasta para dos
licencias de explotación.
Sabe por experiencia propia
que si pretende subastar tres
licencias extraerá pocos
ingresos, pero que con dos
sí que puede cubrir la
limpieza de las playas. Pero
al preocuparse sólo por
recaudar está creando una
barrera de entrada legal, la
cual, en ausencia de una
regulación adicional sobre
la colocación de carritos,
llevará a un equilibrio
pernicioso y a largas
caminatas para buscar un
simple helado.
Este ejemplo tan sencillo es
capaz de ilustrar cómo, bajo ciertas
condiciones, algunos equilibrios
competitivos no son óptimos en
ninguno de sus sentidos, mientras
que la regulación puede solucionar
el problema..., ¡o crearlo! De ahí la
importancia vital del análisis
racional y económico de la
actuación del sector público.
Quizá la aplicación más
conocida de la ley de Hotelling sea
la de la dinámica de los partidos
mayoritarios
en un sistema
electoral. Puesto que los partidos
pugnan por maximizar votos, y los
electores suelen preferir partidos
afines, en un sistema puro
bipartidista la dinámica lógica de
los partidos es la de acaparar el
centro, al menos en asuntos
centrales como la política fiscal,
sanitaria o educativa.
Es cierto que, en el caso de un
sistema electoral, no existe uno sino
varios partidos, con lo cual parece
que este «problema» de tendencia a
la centralidad no debería de existir:
en España, la presencia de
Izquierda Unida (IU), Unión,
Progreso y Democracia (UPyD) y
ahora Podemos imponen al PSOE y
al PP ciertas disciplinas para no
apartarse de sus planteamientos
ideológicos iniciales. Pero también
es cierto que la representación
política de las ideologías no
corresponde a una imaginaria recta
izquierda-derecha, sino que tiene
muchas otras dimensiones (posición
frente a la política exterior,
posición respecto al nacionalismo y
las independencias, frente a la
protección del medio ambiente...).
Y, aunque con tres jugadores no se
alcanza un equilibrio pernicioso en
el caso más básico de Hotelling,
este equilibrio vuelve a producirse
cuando incrementamos el número
de dimensiones de decisión.
Imagina que en vez de una playa
(unidimensional) y dos carritos
planteamos el mismo problema,
pero
para
un
parque
(bidimensional) y tres carritos: la
solución final pasaría de nuevo por
una concentración de los tres
carritos en el centro del parque. Es
decir, en un sentido abstracto,
mientras haya tantas dimensiones de
disensión política como partidos
pugnando en unas elecciones, no
será raro ver cómo los partidos
acaban buscando dinámicamente, si
aspiran a gobernar, el centro del
electorado.
¿Quiere esto decir que la
competencia libre en los programas
políticos de los partidos puede
llevar a equilibrios perniciosos?
Pues no necesariamente, porque la
estructura de este «mercado de
votos» es distinta a la de la playa
inicial en un aspecto fundamental:
tras las elecciones, a uno no le va a
gobernar su fuerza más cercana
ideológicamente, sino la que gane
la mayoría de los votos. En este
sentido, si lo que queremos es que
la «oferta final» sea aquella que
minimiza
el
«desplazamiento
ideológico», parece cobrar sentido
un sistema que invita a los partidos
a pugnar por el centro.
Es decir, si al final va a haber
un único carrito de helados en la
playa, ¿no será preferible que éste
se sitúe en el centro de la misma?
Por último, las reclamaciones de
independencia son comprensibles,
en esencia, a partir del problema
que planteaba Hotelling. Algunos
bañistas pueden preferir, por
motivos personales, una zona
concreta de la playa alejada del
centro, y pueden cansarse de tener
que ir, año tras año, al centro de la
playa a por sus helados. Este
problema no lo sufren sólo los que
solicitan la independencia, sino que
pueden sufrirlo también, año tras
año, muchos bañistas que ocupan el
centro de la playa pero están hartos
de la oferta del vendedor habitual.
Sólo que los bañistas de la zona
apartada lo tienen más fácil, ya que
al menos pueden tener la opción de
asumir el coste de tener su propio
carrito.
Nos despedimos
Todo este libro, amigo lector, sólo
tenía un objetivo: que se pudieran
entender algunos chistes para
economistas... y nuestra obsesión
por explicar cómo usamos las gafas
con las que miramos el mundo que
nos rodea. Porque cuando sacamos
estos temas en alguna reunión de
amigos la gente nos mira un poco
perpleja. Así que cuando te digan
eso de que dos economistas
caminan juntos por la calle y uno de
ellos exclama: «¡Mira! ¡Un billete
de 20 euros en el suelo!», y el otro
responde: «Imposible. Si fuese
real, ¡alguien lo habría cogido ya!»,
cuando te cuenten este chiste,
pienses: los incentivos son
poderosos, pero no te fíes de un
economista que no dude.
Bibliografía
Angrist, Joshua D., y Jörn-Steffen
Pischke, Mostly Harmless
Econometrics: an Empiricist’s
Companion,
Princeton
University Press, 2009.
Aranda Malavés, Rafael, José
Romero Sangüesa, y Ferran
Calabuig Moreno, «El efecto
fecha
de
nacimiento en
futbolistas
españoles
de
categorías inferiores de élite de
la temporada 2006-2007, y en
futbolistas de las mejores
selecciones nacionales del
Mundial 2006», VII Congreso
Internacional
sobre
la
Enseñanza de la Educación
Física y el Deporte Escolar,
septiembre
de
2007.
http://www.altorendimiento.com/
el-efecto-fecha-de-nacimientoen-futbolistas-espanoles-decategorias-inferiores-de-elitede-la-temporada-2006-2007-yen-futbolistas-de-las-mejoresselecciones-nacionales-delmundial-2006
Ariely, Dan, Las trampas del
deseo: Cómo controlar los
impulsos irracionales que nos
llevan al error, Ariel, 2008.
—, Por qué mentimos... en
especial a nosotros mismos,
Ariel, 2012.
—, Pensar
rápido, pensar
despacio, Debate, 2012.
Ayres, Ian, Super Crunchers,
Bantam Dell, 2007.
Bagüés, Manuel, y Berta EsteveVolart, «Can gender parity
break the glass ceiling?
Evidence from a repeated
randomized experiment», The
Review of Economic Studies,
77:
1.301-1.328,
2010.
http://www.manuelbagues.com/pa
%20bagues%20&%20estevevolart%20%20restud%20version.pdf
Bagüés, Manuel, y Berta EsteveVolart, «Politicians’ Luck of the
Draw: Evidence from the
Spanish Christmas Lottery»,
octubre
de
2013.
http://dept.econ.yorku.ca/~berta/r
volart%20%20economic%20voting.pdf
Banco
Mundial,
World
Development Indicators 2014.
http://wdi.worldbank.org/table/4.
Banco
Mundial,
World
Development Report 2014:
Risk
and
Opportunity:
Managing
Risk
for
Development.
http://econ.worldbank.org/WBSIT
EXTRESEARCH/EXTWDRS/EX
/
0,,contentMDK:23459971~pageP
PK:8258028~theSitePK:8258025
Bando, M., H. Hasebe, A.
Nakayama, A. Shibata, y Y.
Sugiyama, «Dynamical Model
of Traffic Congestion and
Numerical
Simulation»,
Physical Review, 52(2): 1.0351.042,
2005.
http://physics.ucsd.edu/students/c
REFERENCES/bando.pdf
Banerjee, Abhijit V., y Esther
Duflo, Poor economics: A
radical rethinking of the way
to fight global poverty, Public
Affairs, 2011.
Banerjee, Abhijit.V., y Sendhil
Mullainathan,
«Limited
attention
and
income
distribution»,
American
Economic Review, 98(2): 489493,
2008.
https://www.aeaweb.org/articles.
doi=10.1257/aer.98.2.489
Beck, A., A. L. Crain, L. Solberg, J.
Unützer, R. E. Glasgow, M. V.
Maciosek, y R. Whitebird,
«Severity of depression and
magnitude of productivity loss»,
Annals of Family Medicine,
9(4):
305-311,
2011.
http://www.ncbi.nlm.nih.gov/pub
Bertrand,
Marianne,
«New
Perspectives
on Gender»,
Handbook
of
Labor
Economics, 4(b): 1.544-1.589,
2011.
Bertrand, Marianne, Jessica Pan y
Emir
Kamenica,
«Gender
Identity and Relative Income
within Households», NBER
Working Paper, 19.023, mayo
de
2013.
http://www.nber.org/papers/w190
Bolton P., J. Bass, R. Neugebauer,
et al., «Group Interpersonal
Psychotherapy for Depression
in Rural Uganda: A Randomized
Controlled Trial», JAMA,
289(23): 3.117-3.124, 2003.
http://jama.jamanetwork.com/arti
articleid=196766
Bonthuis, B., Jarvis, V., y Vanhala
J., What’s going on behind the
euro area Beveridge curve(s)?,
Banco Central Europeo, 2013.
http://www.ecb.europa.eu/pub/pd
Borondo, F., C. Rodriguez-Sickert y
C. A. Hidalgo, «To Each
According to its Degree: The
Meritocracy and Topocracy of
Embedded Markets», Nature,
2014.
http://www.nature.com/srep/2014
srep03784/full/srep03784.html
Brefczynski-Lewis, J. A., A. Lutz,
H. S. Schaefer, D. B. Levinson,
R. J. Davidson, «Neural
correlates
of
attentional
expertise
in
long-term
meditation
practitioners»,
Proceedings of the National
Academy of Science of the
United States of America,
104(27): 11.483-11.488, 2007.
http://www.ncbi.nlm.nih.gov/pub
Brynjolfsson, Erik, y Andrew
McAfee, La carrera contra la
máquina, Antoni Bosch Editor,
2013.
«Business by Numbers», The
Economist, 13 de septiembre de
2007.
Butler, A. C., J. E. Chapman, E. M.
Forman, y A. T. Beck, «The
empirical status of cognitivebehavioral therapy: a review of
meta-analyses»,
Clinical
Psychology Review, 26(1): 1731,
2006.
http://www.sciencedirect.com/sc
article/pii/S0272735805001005
Calamaras, M. R., E. B. Tone, y P.
L. Anderson, «A Pilot Study of
Attention
Bias
Subtypes:
Examining Their Relation to
Cognitive Bias and Their
Change following Cognitive
Behavioral Therapy», Journal
of Clinical Psychology, 68(7):
745-754, 2012.
Castillo, David, «Out-Liar: What
Malcolm Gladwell Gets Wrong
About the Relative Age Effect
in Pro Hockey», junio de 2012.
http://www.bloodyelbow.com/20
liar-what-malcolm-glad wellgets-wrong-about-the-relativeage
Chesbrough,
Henry,
Open
Innovation:
The
New
Imperative for Creating and
Profiting from Technology,
Harvard Business Review
Press, 2003.
Choi, Hyunyoung, y Hal Varian,
Predicting the Presence with
Google Trends, Draft, abril de
2009.
http://static.googleusercontent.com
www.google.com/es//googleblog
google_predicting_the_present.pd
Christensen,
Clayton,
The
Innovator’s Dilemma, Harper
Business, 2003.
Comisión Europea, Enterprise and
Industry Directorate, Regional
Innovation Scoreboard 2014.
Comisión Europea, Research and
Innovation
Directorate,
Innovation
Union
Competitiveness Report 2013.
Consejo de la Juventud de España,
Calidad del empleo joven,
becarios, y prácticas, 2014.
http://www.cje.org/descargas/cje
Cornelisse, S., V. A. van Ast, J.
Haushofer, M. S. Seinstra, M.
Kindt, y M. Joëls, «Timedependent
effect
of
hydrocortisone administration
on intertemporal choice», 2013.
http://www.princeton.edu/~joha/p
Cornelisse_et_al_2013.pdf
Cornell University, INSEAD y
WIPO, The Global Innovation
Index 2014.
COTEC, Fundación para la
Innovación
Tecnológica,
Informe sobre la Innovación en
España 2014.
Dahl, G., A. R. Kostol, y M.
Mogstad,
Family
Welfare
Cultures, Discussion Papers,
Statistics Norway Research
department, 782, junio de 2014.
Damodaran, Aswath, «Valuing
Young, Start-up and Growth
Companies: Estimation Issues
and Valuation Challenges»,
mayo
de
2009.
http://people.stern.nyu.edu/adamo
pdfiles/papers/younggrowth.pdf
Davenport, Thomas H., y D. J.
Patil, «Data Scientist: The
Sexiest Job of the 21st
Century», Harvard Business
Review, octubre de 2012.
https://hbr.org/2012/10/datascientist-the-sexiest-job-of-the21st-century/
Davenport, Thomas H., y Jeanne G.
Harris,
Competing
on
Analytics. The New Science of
Winning, Harvard Business
School Press, 2007.
Davidson, R. J., y A. Lutz,
«Buddha’s
Brain:
Neuroplasticity
and
Meditation», IEEE Signal
Processing Magazine, 25(1):
176-174,
2008.
http://www.ncbi.nlm.nih.gov/pmc
Denning, Stephen, The Leader’s
Guide to Radical Management:
Reinventing the Workplace for
the 21st Century Hardcover,
John Wiley & Sons, 2010.
Esteva,
Santiago,
Franchek
Drobnic, Jordi Puigdellivol,
Luis Serratosa, y Manuel
Chamorro.
«Fecha
de
nacimiento y éxito en el
baloncesto profesional», Apunts
Medicina de l’Esport., 41
(149),
enero
de
2006.
http://www.apunts.org/es/fechanacimiento-exito-elbaloncesto/articulo/13088973/
Eurostat, Datos del desempleo
juvenil en Europa, 2014.
http://ec.europa.eu/eurostat/tgm/ta
tab=table&init=1&language=en&
FEDEA, Propuesta para la
reactivación
laboral
en
España, 2010.
http://www.crisis09.es/PDF/Prop
Fernald, L., y M. R. Gunnar,
«Effects
of
a
povertyalleviation intervention on
salivary cortisol in very lowincome
children»,
Social
Science and Medicine, 68(12):
2.180-2.189,
2009.
http://www.ncbi.nlm.nih.gov/pmc
Forbes, «Global 2000 Leading
Companies 2014».
http://www.forbes.com/global200
Frey, Carl B, y Michael A.
Osborne, «The future of
employment: how susceptible
are jobs to computerisation?»,
septiembre
de
2013.
http://www.oxfordmartin.ox.ac.uk
The_Future_of_Employment.pdf
Galbraith, J. K., La cultura de la
satisfacción, Ariel, 2011.
Galiani, S., y E. Schargrodsky,
«Property Rights for the Poor:
Effects of Land Titling».
Journal of Public Economics,
94,
700-729,
2010.
http://www.sciencedirect.com/sc
García Montalvo, José, «Voting
after the bombing: a natural
experiment on the effect of
terrorist attacks on democratic
elections»,
Review
of
Economics and Statistics, 93
(4), 1.146-1.154, 2011.
García Pérez, J. I., y F. Muñoz
Bullón,
«Transitions
into
permanent
employment
in
Spain: An empirical analysis
for
young
workers»,
Universidad Carlos III, 2007.
http://earchivo.uc3m.es/bitstream/
handle/10016/721/wb073808.pdf
3E73AF586C94DCDE9?
sequence=1
Ghemawat, Pankaj, y Steven A.
Altman, Depth index of
globalization 2013, Pankaj
Ghemawat-IESE, 2013.
http://www.ghemawat.com/Dig/F
Depth_Index_of_Globalization_2
Gladwell,
Malcolm,
«The
Formula», The New Yorker, 10
de octubre de 2006.
Gladwell, Malcolm, Fueras de
serie: Por qué unas personas
tienen éxito y otras no, Taurus,
2009.
Goldin,
C.,
y C.
Rouse,
«Orchestrating Impartiality: The
Effect of ‘Blind’ Auditions on
Female Musicians», American
Economic Review, 90(4): 715741,
2000.
http://www.uh.edu/~adkugler/Go
Rouse.pdf
Goleman, David, Working with
Emotional Intelligence, Bantam
Books, 1998.
González Aramendi, José Manuel,
«Mes de nacimiento y éxito en
el fútbol. Estudio del Efecto
Relativo de la Edad en el fútbol
guipuzcoano», Osasunaz, 6,
2004.
http://www.euskomedia.org/PDFA
Grant, Adam, Give and Take: Why
helping others drives our
success, Penguin Books, 2014.
Hamel, Gary, Lo que ahora
importa, Deusto, 2012.
Hammerfald, K., C. Eberle, M.
Grau, A. Kinsperger, A.
Zimmermann, U. Ehlert, y J.
Gaab, «Persistent effects of
cognitive-behavioral
stress
management
on
cortisol
responses to acute stress in
healthy subjects. A randomized
controlled
trial»,
Psychoneuroendocrinology,
31(3):
333-339,
2006.
http://www.ncbi.nlm.nih.gov/pub
16183205
Haushofer, J. «The Price of
Poverty: Psychology and the
Cycle of Need», Foreign
Affairs,
138.739,
2014.
http://www.princeton.edu/~joha/p
Haushofer_Foreign_Affairs_2014
Haushofer, J., y E. Fehr, «On the
Psychology
of
Poverty»,
Science, 344: 862-867, 2014.
Haushofer, J., y J. Shapiro,
«Household
Response
to
Income Changes: Evidence from
an Unconditional Cash Transfer
Program in Kenya», 2013.
http://www.princeton.edu/~joha/p
Haushofer_Shapiro_UCT_2013.p
«Harnessing the wisdom of the
crowd to forecast world
events», The Good Judgement
Project.
http://www.goodjudgmentproject
Hernández, Víctor, «Mes de
nacimiento y éxito en el fútbol»,
Ecomanias.com,
2014.
http://ecomanias.com/2014/02/13
de-nacimiento-y-exito-en-elfutbol/
Hofmann, S. G., y J. A. J. Smits,
«Cognitive-behavioral therapy
for adult anxiety disorders: a
meta-analysis of randomized
placebo-controlled
trials»,
Journal of Clinical Psychiatry,
69(4):
621-632,
2008.
http://www.ncbi.nlm.nih.gov/pmc
09267/
Ifcher, J., y H. Zarghamee,
«Happiness
and
Time
Preference: The Effect of
Positive Affect in a RandomAssignment
Experiment»,
American Economic Review,
101(7): 3 109-3.129, 2011.
https://www.aeaweb.org/articles.
doi=10.1257/aer.101.7.3109
Instituto de la Juventud, Situación
actual del empleo juvenil en
España,
2014.
http://www.injuve.es/sites/defaul
files/2014/39/publicaciones/Estu
por
ciento20situacion por
ciento20actual por ciento20del
por
ciento20empleo
por
ciento20juvenil por ciento20en
por ciento20Espa por cientoC3
por cientoB1a.pdf
Instituto Nacional de Estadística,
Encuesta de Población Activa:
Tercer Trimestre de 2014.
http://www.ine.es/daco/daco42/d
Kandasamy, N., et al., «Cortisol
shifts
financial
risk
preferences», Proceedings of
the National Academy of
Science of the United States of
America, 111(9): 3.608-3.613,
2013.
Kawasaki, Gay, El arte de
cautivar: Cómo se cambian los
corazones, las mentes y las
acciones, Planeta, 2011.
Krugman, Paul, «The Accidental
Theorist», The Dismal Science,
1997.
http://web.mit.edu/krugman/www
Lafley, A. G., y Martin, R. L.,
Playing to Win: How Strategy
Really
Works,
Harvard
Business Review, 2013.
«Las carreras con mayor tasa de
empleo», El País, 28 de octubre
de
2014.
http://elpais.com/elpais/2014/10/
550532.html
Lederborgen, F., et al., «City living
and urban upbringing affect
neural social stress processing
in humans», Nature, 474: 498500,
2011.
http://www.nature.com/nature/jou
10190.html
Lerner, J. S., Y. Li, y E. U. Weber,
«The
financial
costs
of
sadness»,
Psychological
Science, 24(1):72-79, 2013.
http://pss.sagepub.com/content/24
Linnell, K. J., S. Caparos, J. W. de
Fockert,
y J.
Davidoff,
«Urbanization
decreases
attentional
engagement»,
Journal
of
Experimental
Psychology:
Human
Perception and Performance,
39(5): 1.232-1.247, 2013.
http://www.ncbi.nlm.nih.gov/pub
Linnell, K. J., S. Caparos, y J.
Davidoff,
«Urbanization
increases left-bias in linebisection: An expression of
elevated levels of intrinsic
alertness?»,
Frontiers
in
Psychology, 5: 1127, 2014.
http://www.ncbi.nlm.nih.gov/pub
Lissack, Michael R. (ed.), The
Interaction of Complexity and
Management, Praeger, 2002.
Lo, Andrew W., Can financial
engineering cure cancer?,
vídeo, LGO Webinar, MIT
TechTV, 2013.
http://techtv.mit.edu/videos/22976
can-financial-engineering-cu recancer-andrew-lo-lgo-webinar
Mani, A., S. Mullainathan, E.
Shafir, y J. Zhao, «Poverty
Impedes Cognitive Function»,
Science, 341: 976-980, 2013.
Mazzucato, Mariana, El Estado
emprendedor. Mitos del sector
público frente al privado,
RBA, 2014.
Mazzucato, Mariana, y Carlota
Pérez, «Innovation as Growth
Policy», en Fagerberg J., S.
Laestadius y B. Martin (eds.),
The triple challenge for
Europe: economy, climate
change, governance, Oxford
University Press, 2014.
McLean, Carmen P., et al., «Gender
differences in anxiety disorders:
Prevalence, course of illness,
comorbidity and burden of
illness», Journal of Psychiatric
Research, 45(8): 1.027-1 035,
2011.
Messerli, F. H., «Chocolate
Consumption,
Cognitive
Function,
and
Nobel
Laureates», New
England
Journal of Medicine, 367:
1.562-1.564, octubre de 2012.
Miller, Peter, «The Genius of
Swarms»,
National
Geographic, julio de 2007.
Nunn, N., y D. Puga, «Ruggedness:
The Blessing of Bad Geography
in
Africa»,
Review
of
Economics and Statistics,
94(1): 20-36, 2012.
OCDE, Education at a Glance
2014.
http://www.oecd.org/edu/Educati
at-a-Glance-2014.pdf
«Of Greed and Ants», The
Economist, 13 de septiembre de
2007.
OIT,
«Enhancing
young
employability: the importance
of core work skills», Skills for
Employment Policy Brief.
2013.
http://www.ilo.org/wcmsp5/grou
--ed_emp/--ifp_skills/documents/publication/
Oswald, A. J., E. Proto, y D. Sgroi,
«Happiness and Productivity»,
2014.
http://www2.warwick.ac.uk/fac/s
staff/eproto/workingpapers/happi
Página web del colectivo «No nos
vamos, nos echan».
http://www.nonosvamosnosechan
echan-del-trabajo-nos-echandel-pais_17.html
Porter, Michael, On Competition,
Harvard Business Review
Press, 1998.
Press, Gil, «A Very Short History of
Data Science», Forbes, 28 de
mayo de 2013.
Pricewaterhouse, El mundo en
2050,
2011.
http://www.pwc.com.uy/es_UY/u
2050.pdf
Salmon, Christian, Storytelling. La
máquina de fabricar historias y
formatear las mentes, Península,
2008.
Sennett, Richard, El artesano,
Anagrama, 2008.
Servicio Público de Empleo Estatal
(SEPE),
Datos
sobre
producción
anual
de
licenciados, 2013.
https://www.sepe.es/contenidos/q
publicaciones/listado_pub_merca
Shah, A. K., S. Mullainathan, y E.
Shafir, «Some consequences of
having too little», Science,
338(6107): 682-685, 2012.
Shambora, Jessica, «Fortune’s best
networker», Fortune, 2011.
http://fortune.com/2011/02/09/for
best-networker/
Silver, Nate, La señal y el ruido:
Cómo navegar por la maraña
de datos que nos inunda,
localizar
los
que
son
relevantes y utilizarlos para
elaborar
predicciones
infalibles, Península, 2014.
Spears, D., «Economic DecisionMaking in Poverty Depletes
Behavioral Control», The B.E.
Journal of Economic Analysis
& Policy, 11(1): article 72,
2011.
Srivastava, K., «Urbanization and
mental
health», Industrial
Psychiatry Journal, 18(2): 7576, 2009.
Stiglitz, Joseph E., Lin, Justin Y., y
Monga,
Celestin,
The
rejuvenation of industrial
policy, Banco Mundial, 2013.
http://papers.ssrn.com/sol3/paper
abstract_id=2333944
Surowiecki, James, Cien mejor que
uno, Urano, 2005.
Taleb, Nassim Nicholas, Antifrágil.
Las cosas que se benefician del
desorden, Paidós, 2013.
Tetlock, Philip E., Expert political
judgement,
Princeton
University Press, 2006.
Thaler, Richard H., y Cass R.
Sunstein, Un pequeño empujón
(Nudge): El impulso que
necesitas para tomar mejores
decisiones sobre salud, dinero
y felicidad, Taurus, 2011.
«The future of Jobs. The onrushing
wave», The Economist, julio de
2014.
http://www.economist.com/news/
previous-technologicalinnovation-has-alwaysdelivered-more-long-runemployment-not-less
«The promise of prediction
markets»,
Science,
2008.
http://hanson.gmu.edu/promisepre
«The third great wave», The
Economist, octubre de 2014.
http://www.economist.com/news/
report/21621156-first-twoindustrial-revolutions-inflictedplenty-pain-ultimately-benefited
«This is Google’s incredibly simple
hiring formula», Quartz, 2014.
http://qz.com/180247/whygoogle-doesnt-care-about-
hiring-top-college-graduates/
Travasso, S. M., D. Rajaraman, y S.
J. Heymann, «A qualitative
study of factors affecting mental
health amongst low-income
working mothers in Bangalore,
India», BMC Women’s Health,
14:22, 2014.
Utterback, James, Mastering the
Dynamics of Innovation: how
companies
can
seize
opportunities in the face of
technological change, Harvard
Business School Press, 1994.
Vodafone Institute for Society and
Communications, Talking about
a Revolution: Europe’s Young
Generation
on
Their
Opportunities in a Digitised
World,
2014.
http://www.vodafoneinstitut.de/
uploads/media/YouGov_Vodafone
Young_Generation_CrossCountry_Report.pdf
“Why Google doesn’t care about
hiring top college graduates»,
Quartz, 2014.
http://qz.com/180247/whygoogle-doesnt-care-abouthiring-top-college-graduates/
Notas
[1] Cita obtenida de John C. Maxwell,
Desarrolle el líder que está en usted,
Grupo Nelson, 1996.
[2] Woolley, Anita, Thomas Malone, y
Scott Berinato, «What Makes a Team
Smarter? More Women», Harvard
Business Review, junio de 2011.
[3] Su libro La señal y el ruido
(Península, 2014) es de obligada
lectura para los apasionados de las
predicciones y los números.
[4] Recomendamos al lector, si no lo
conoce, que se pasee por el fantástico
trabajo que están haciendo desde el
MIT, donde se muestra la complejidad
creciente
en
nuestras
vidas:
http://atlas.media.mit.edu/
[5] Hal Varian, Microeconomía
intermedia, Antoni Bosch Editor,
Barcelona, 2011.
[6] En su libro Por qué mentimos… En
especial a nosotros mismos, Ariel,
Barcelona, 2012.
[7] Gladwell, Malcolm, Fueras de
serie (Outliers), Taurus, 2013,
capítulo 1: «El efecto Mateo».
[8] Out-Liar: What Malcolm Gladwell
Gets Wrong About the Relative Age
Effect
in
Pro
Hockey
(http://www.bloodyelbow.com/2012/1/4/
liar-what-malcolm-gladwell-gets-wrongabout-the-relative-age).
[9] Mes de nacimiento y éxito en el
fútbol. Estudio del efecto relativo de la
edad en el fútbol guipuzcoano
(http://www.euskomedia.org/PDFAnlt/os
naz/06/06159184.pdf).
[10] Fecha de nacimiento y éxito en el
baloncesto
profesional
(http://www.apunts.org/es/fechanacimiento-exito-elbaloncesto/articulo/13088973/).
[11] Mes de nacimiento y éxito en el
fútbol
(http://ecomanias.com/2014/
02/13/mes-de-nacimiento-y-exito-en-elfutbol/).
[12] El efecto fecha de nacimiento en
futbolistas españoles de categorías
inferiores de élite de la temporada
2006-2007 y en futbolistas de las
mejores selecciones nacionales del
Mundial
2006
(http://www.altorendimiento.com/congres
el-efecto-fecha-de-nacimiento-enfutbolistas-espanoles-de-categoriasinferiores-de-elite-de-la-temporada2006-2007-y-en-futbolistas-de-lasmejores-selecciones-nacionales-delmundial-2006).
[13]
Informe
PISA:
http://es.wikipedia.org/wiki/Informe_PIS
[14]
https://hbr.org/2012/10/datascientist-the-sexiest-job-of-the-21stcentury/
[15] «El manual de Oslo y la
innovación social», Arbor, vol. 184, n.
° 732 (2008).
[16]
http://artofeating.com/the-losttaste-of-pork/
[17] http://www.dovase.com/es
[18] http://wellowater.org/
[19] http://waka-waka.com/
[20] http://www.soloraf.es/
[21]
pinklady.com/
http://www.manzana-
[22] Harford, Tim, Adáptate, Planeta,
2011.
[23]
http://www.actualidadcine.com/2009/05/0
de-un-genio-un-ciudadano-contra-laindustria-automovilistica/
[24]
http://www.gatesfoundation.org/WhatWe-Do/Global-Development/ WaterSanitation-and-Hygiene
[25]
http://www.nejm.org/doi/full/10.1056/NE
[26] Sandel, Michael J., Lo que el
dinero no puede comprar, Debate,
2013.
[27]
http://www.jotdown.es/2012/03/tsevanrabtan-violencia-estructural/
[28]
http://www.palacioshuerta.com/docs/professionals.pdf
Nunca te fíes de un economista que no
dude
Javier García Álvarez, Andrés Alonso
y Abel Fernández
No se permite la reproducción total o
parcial de este libro,
ni su incorporación a un sistema
informático, ni su transmisión
en cualquier forma o por cualquier
medio, sea éste electrónico,
mecánico, por fotocopia, por grabación
u otros métodos,
sin el permiso previo y por escrito del
editor. La infracción
de los derechos mencionados puede ser
constitutiva de delito
contra la propiedad intelectual (Art.
270 y siguientes
del Código Penal)
Diríjase a CEDRO (Centro Español de
Derechos Reprográficos)
si necesita reproducir algún fragmento
de esta obra.
Puede contactar con CEDRO a través
de la web www.conlicencia.com
o por teléfono en el 91 702 19 70 / 93
272 04 47
© del diseño de la portada,
microbiogentleman.com, 2015
© de la imagen de la portada, Jan
Stromme - Getty Images
© Javier García Álvarez, Andrés
Alonso y Abel Fernández, 2015
© Centro Libros PAPF, S. L. U., 2015
Deusto es un sello editorial de Centro
Libros PAPF, S. L. U.
Grupo Planeta, Av. Diagonal, 662-664,
08034 Barcelona (España)
www.planetadelibros.com
Primera edición en libro electrónico
(epub): marzo de 2015
ISBN: 978-84-234-2086-5 (epub)
Conversión a libro electrónico: ÀtonaVictor Igual, S.L.
www.victorigual.com