Goodbye, yellow brick road

MGM (1939)

8 de noviembre de 2013. El presidente emérito de la Universidad de Harvard y antiguo secretario del tesoro con Bill Clinton, Larry Summers, hablaba durante una mesa redonda en el FMI. En 16 minutos Summers puso sobre la mesa el principal problema de la economía mundial (hasta la pandemia del coronavirus). La sesión empezaba bien: “that a remarkable job was done in containing the 2007-2008 crisis”. Y luego un gran “pero”: “Four years ago, the financial panic had been arrested […]. But in those four years, the share of adults who are working has not increased at all”.  Summers hablada de “recuperación sin empleo”. Mejoraba la economía, pero sin generar ocupación. Esto no ha sido inusual en las grandes crisis, que cada vez precisan de mayor tiempo para recolocar trabajadores. Minuto 7: “I wonder if […] a set of older ideas that went under the phrase “secular stagnation” — are not profoundly important in understanding Japan’s experience, and may not be without relevance to America’s experience”. Summers recuperaba una expresión olvidada durante unos 80 años: el estancamiento secular. Ese término estaba asociado a Alvin Hansen, un economista discípulo de Keynes, que en los años 30-40 del siglo pasado planteaba si tras la Gran Depresión la demanda sería suficiente para impulsar la recuperación o (como el sugería) quedaría estancada perpetuamente en crecimientos mínimos, en una época histórica donde la demografía era el elemento principal para crecer económicamente y ser actor geopolítico. Pocos años antes, en 2011, el profesor Tyler Cowen había escrito “The Great Stagnation” y analizaba lo que parecía el haber llegado una meseta sin crecimiento. En los primeros años de la década del 2010, todo era pesimismo económico entre los tecnócratas.

Desde el crack de las puntocom en el 2000 (tasa de interés USA máxima 6,5%) y, más o menos, hasta 2004 (tasa de 1% mínima) cualquier desaceleración de la economía norteamericana, POR LA RAZÓN QUE FUESE, era seguida de una baja de las tasas de interés para impulsar la actividad. A esa política se la denominó “Greenspan put” por el Presidente de la Reserva Federal (Fed) entre 1980 y 2006 de la Reserva Federal. Detrás de esos “put”, solían ir ajustes del Banco Central Europeo y el Banco de Inglaterra. Hoy sabemos que esa etapa de crédito barato fue el origen de la Gran Recesión de 2007-2008. Ya sabe: una enorme cantidad de crédito en todos los mercados que, poco a poco, asumía inversiones más arriesgadas. Primero, en los mercados inmobiliarios, invirtiendo en hipotecas de menor solvencia y mayor riesgo de impago; más tarde, en las commodities (llevando el petróleo a más de 100 USD a inicios de 2008). Con esa liquidez inundando los mercados, la inflación empezó a aumentar (+3% anual desde 2005) y las tasas de interés empezaron a subir (hasta el 5,25% en 2007); se intentó bajar más tarde, pero ya no había tiempo. Primero llegaron las insolvencias; sin dilación, las quiebras. Y Lehman. Y todo cayó como un castillo de naipes. Tras el crack, se optó por recapitalizar la quebrada banca internacional a costa de la deuda de los estados; en noviembre de 2008 el G20, de forma coordinada, estableció un enorme programa mundial de estímulos monetarios y se bajaron (de nuevo) las tasas de interés para impulsar la recuperación, pero esa enorme burbuja de deuda soberana ni generó mucho empleo, ni impulsó mucho el crecimiento. De una crisis financiera, se pasó a una económica y, de ahí, a una fiscal.

The Economist (2015)

Cuando Greenspan se retiró en 2006, tanto Ben Bernanke como Janet Yellen siguieron con la política de ayudar a los mercados financieros en dificultades inyectando liquidez cuando fuese necesario. El “Greenspan Put” ya era el “Fed Put”. 10 años después de la Gran Recesión, la economía mundial crecía a un promedio de +1,78% (datos del Banco Mundial y la OCDE para el periodo 2010-2019). Inundados de liquidez, el estancamiento era el paradigma. Hoy pocos economistas dudan del diagnóstico de Summers en noviembre de 2013. Krugman, a los pocos días reconocía en su blog del New York Times el acierto de su compañero. Coincidía en la dificultad en buscar soluciones en la demanda, y también planteaba la duda sobre si solo se podría crecer y generar empleo sería a base de hinchar y explotar burbujas en un escenario de crecimiento vegetativo. Summers lo explicaba en 2013 así: “Too easy money, too much borrowing, too much wealth. Was there a great boom?”. Y ahí aparece la llamada “trampa de liquidez”. Aunque haya liquidez, en un escenario de bajas tasas de interés muy bajas e incertidumbre la tendencia es acumular el efectivo en depósitos bancarios o en bonos. ¿Lo duda?A finales de 2019  sólo entre Alphabet, Apple, Facebook y Microsoft tenían 328 mil millones de dólares en la caja). En efecto, aumenta el ahorro esperando a que, en algún momento, suban las tasas y mejore la rentabilidad de forma automática. En ese escenario se entiende porqué hoy los depósitos bancarios no rinden nada, las comisiones bancarias se han disparado o, incluso, muchos bonos emitidos por los países rinden tasa negativa (¡se paga por tener deuda soberana! pero se supone que no se perderá ese inversión con garantía de un estado… incluso España se añadió a ese exclusivo club de bonos soberanos que cobran por tenerse). El miedo ya no es ganar poco o perder con la inflación (que es muy baja). El miedo es a una gran corrección.

El “new normal” para Summers sería gestionar “an economy in which the zero nominal interest rate is a chronic and systemic inhibitor of economic activity, holding our economies back below their potential“. Pero en 2017 Donald Trump nombró a Jerome “Jay” Powell como Presidente de la Fed y, de a poco, este fue recuperando las tasas de interés deshaciendo la “política monetaria asimétrica” de sus predecesores (ante las quejas del propio Trump). ¿Habría un cambio de dinámica? No sabremos, porque entonces llegó el coronavirus. En marzo de 2020, las bolsas mundiales caían un 30%. Se cerraron las fronteras, los estudiantes de todo el mundo fueron a hacer sus clases por internet y se cerró todo aquello que no podía mantener suficiente “distanciamiento social”. El mundo se confinaba y un shock voluntario de demanda constituiría el experimento socioeconómico más masivo de la historia. La amenaza de la peor recesión desde la segunda guerra mundial motivó la mayor inyección de liquidez vista en menos tiempo: billones de dólares, yenes, euros, yuanes, pesos… Se calcula que a final de 2020, la deuda mundial supera los 270 trillones de dólares (el +350% del PIB mundial). Pero este problema ya venia de antes… En efecto, hay una enorme burbuja de deuda global; pero esta se compone de varias otras burbujas de deuda: deuda corporativa de las empresas, deuda de tarjetas de crédito, deuda hipotecaria, deuda de préstamos estudiantiles y deuda soberana emitida por los estados. El mundo está ahogado en deuday el desempleo mundial en 2020 aumentó un 8,3% afectando a 144 millones de trabajadores según la Organización Mundial del Trabajo, y el desempleo mundial llega a 220 millones de personas. En promedio la economía mundial cayó un -10% en 2020 y SI TODO VA BIEN se podrá recuperar un +5% en 2021 y de forma muy desigual por regiones…

IIF (2020)

Pero, pandemia aparte, ¿son los créditos bajos y de tanto billete emitido la única barrera al crecimiento? No. Hay varios y múltiples elementos estructurales. Por un lado, por la incertidumbre, se ahorra más y se gasta menos; por otro lado, cada vez somos más viejos (incluyendo a los trabajadores). El gasto social a los mayores se ha disparado: las pensiones han aumentado entre el 4 y el 7% del PIB mundial, y la atención a la vejez, del 2 al 5% del PIB mundial. Pero la jobless recovery se explica también por los cambios estructurales producidos en los mercados laborales por la digitalización. ¿Lo duda? Piense en cuantos diccionarios o enciclopedias tenía en casa hace unos años. La gratuita Wikipedia mató el negocio de las enciclopedias de 3.000 millones de dólares anuales. Nunca fue tan barato escuchar toda la música del mundo en streaming por 10 dólares al mes. ¿Cuántos CDs se ahorró? Ninguno. Simplemente no escucharía tanta. Según Nielsen, el consumo de música aumentó un +9% en 2020. ¿Y Netflix? Cine en casa cuando quiera. ¿Y Whatsapp? ¿Cuanto costarían todos esos SMS? Whatsapp o WeChat son gratis para matar al SMS. ¿Cuánto dejan de ganar las empresas de telefonía? El 5% de su negocio por culpa de todas esas apps… Con la digitalización consumimos más (envíanos más mensajes, llamamos más, compramos más, escuchamos más música) y lo hacemos más barato. O gratis. Es la deflación digital. Más consumo digital, mayor transparencia de precios comparables en la web, menores coses de distribución por optimización logística, y todo ello sin aumento de precios pero casi sin generación de empleo. Pero ¿lo digital mejora la productividad? No lo parece. Entre el año 1920 y 2004 la media fue de +1,47% anual. Entre 2004 y 2014, sólo del +0,54%. Es la famosa “Paradoja de Solow”: la era digital estaba en todas partes menos en las estadísticas de productividad.

El profesor Robert J. Gordon lanzó una teoría al respecto. Investigador en Northwestern, publicaba en 2016 el excelente “The Rise and Fall of American Growth“. Como Krugman o Summers, Gordon se centra en la oferta para explicar la desaceleración del crecimiento. Para ello realiza una evaluación histórica de1920 a 2014. La media del PIB entre 1920 y 2004 fue de más del doble (3,45%) que entre 2004 y 2014 (1,58%)… ¿Y la productividad? Casi el triple (1,47% frente a 0,54% ) ¿Como lo explica Gordon? Fueron épocas muy diferentes y con disrupciones no comparables. En efecto, la implantación masiva de las invenciones de la segunda revolución industrial de 1920 a 1960 (telefonía, electricidad, fordismo, taylorismo) o la introducción de la computación en el empleo moderno de la tercera revolución industrial de 1970 al 2000 (las TIC, el procesador de Intel, el computador personal o internet) fueron de implantación masiva. ¿Hoy? el 62,5% de la población mundial tiene acceso a internet y la Revolución 4.0 avanza con sus robots, inteligencia artificial y transformación digital ¿llegará al grueso de la población? Gordon un “Tecno-pesimista” concluye que las nuevas innovaciones no tienen el potencial de las anteriores, y que se cierne ante nosotros una etapa de baja productividad y crecimiento por varios “vientos en contra” (“headwinds”) que impiden crecer: la demografía de una población envejecida y demandante de recursos, estancamiento educativo endeudado para pagar su formación, desigualdad de ingresos y elevada burbuja de deuda que captara recursos al desapalancarse. En este escenario, los aumentos de PIB per cápita no van directamente al bolsillo… Gordon lo calcula: un deprimente +0,3% anual de aumento de la renta. ¿Qué nos espera en esta nueva década? ¿Cambios radicales en la organización de la sociedad y su crecimiento? ¿o simplemente estamos hablando de que vamos a ver nuevas apps? Decía Peter Thiel con ironía que “queríamos autos voladores, y en su lugar tenemos 140 caracteres”. El futuro no es lo que solía ser, y parecería que el camino de la felicidad, pavimentado con ladrillos amarillos y que lleva a la Ciudad Esmeralda en Oz, se desvió por la senda del estancamiento secular. ¿Y ahí? Sin crecer y con la demografía (en especial en el porcentaje de mayores) al alza, seguramente niveles de vida más bajos, menor empleo, mayores déficits presupuestarios, salarios más bajos y mayor desigualdad. Ya lo avisó Elton John en su día: “Goodbye, Yellow Brick Road”.

Publicado en Economy, empleo, futuro, Inteligencia Artificial, pandemia, Sociedad, Tecnología | Deja un comentario

Los felices años 20

“Ariel, listen to me. The human world, it’s a mess”

(Sebastián, “La Sirenita”, Walt Disney Pictures, 1989)

Raymond Coyne/Courtesy of Lucretia Little History Room, Mill Valley Public Library. © The Annual Dipsea Race

Llevamos un año desde que la discutida OMS advirtió de la detección de una nueva cepa vírica en China. Casi sin darnos cuenta, y desde que el coronavirus comenzó a extenderse, nos sumergimos en una “nueva normalidad”. El distanciamiento social, los confinamientos, las restricciones a la movilidad,  los cierres de negocios (temporales y permanente), el establecimiento de toques de queda o los hisopados nos resultan normales, cuando un año atrás era un escenario inimaginable. 100 años antes del SARS-CoV-2 de 2019 a.k.a. COVID-19 ya sufrimos una pandemia global. Fue la llamada “Gripe Española” (algunos sugieren que surgió en Kansas y otros que el primer brote apareció en New York) que contagio a un tercio de la población mundial (entonces de unos 1.800 millones de personas) y se calcula mató no menos de 50 millones de personas entre 1918 y 1919 (algunos lo elevan a 100 millones). Esa enfermedad, a diferencia del actual brote coronavirus, afectaba especialmente a hombres y mujeres jóvenes. ¿Tasa de contagios? 30%… ¿tasa de mortandad? 3%. Terrible. Hasta esa fecha no se había conocido en la Tierra pandemia igual. Mató más personas en un año que la peste negra del siglo XIV y mataba más gente en un día que la que mató el SIDA en 25 años. 

Pero después de 1919 llegó 1920. Muchas cosas pasaban en el inicio de los años 20 (del siglo pasado). Finalizaba la gripe, pero también la primera guerra mundial, el conflicto más devastador de la historia: 20 millones de muertos en 4 años. Se masificaban las mejoras tecnológicas de la llamada “segunda revolución industrial” (que eran anteriores), La industrialización en Europa y Estados Unidos avanzaba a toda velocidad: uso masivo de petróleo y electricidad, automóviles en masa (mi abuelo era uno de los tres únicos mecánicos de automóvil en Madrid en 1930), extensión del ferrocarril, abonos nitrogenados sintéticos… Mejoras en la organización del trabajo: el taylorismo dividía el trabajo tareas y el fordismo especializaba al trabajador en ellas. Sobre esa base se constituían los primeros grandes conglomerados industriales que buscaban economías de escala en la producción. Surgía el consumo de masas (Estados Unidos doblaba su riqueza en 10 años), aparecía una “nueva mujer” (podía votar, trabajaba y no tenían que lavar o limpiar como sus madres). El jazz, el charlestón, el Art Decó, el cine ¡sonoro!, bailar, la radio, la aviación, los discos…  Y si en Estados Unidos eran los “roaring 20s” (literalmente los “rugidores años 20” aunque con Ley Seca, eso sí), en Francia eran los “années folles” (los “años locos”) y en Alemania los “Glückliche Zwanziger Jahre” (los “felices años 20” de la República de Weimar). Alegría por todas partes.

Warner Bros. Pictures/Bazmark Film III Pty Limited

Hegel dejó escrito que todos los grandes hechos (y personajes) de la historia universal, aparecen dos veces. Y si a la gripe española le sucedieron los felices años 20, también a la peste negra le siguió el luminoso Renacimiento. ¿Sucederá esto con el SARS-CoV-2? Desde hace meses muchos autores buscan paralelismos entre esos resurgimientos felices, y un posible escenario post-COVID-19. Se supone que todos descuentan la existencia de una vacuna efectiva (es decir, que inmunice y cause menos de 1 muerto por millón por su aplicación) o que se desarrolle una fuerte inmunidad grupal. El CEO de Moderna (uno de los laboratorios que dispondría de una de las vacunas más efectivas) no piensa igual. Sea como sea, hasta entonces seguiremos con la distancia social, el lavado de manos, el uso compulsivo de alcohol en gel, los barbijos, evitar multitudes… Respuestas similares a las de hace un siglo. Y si bien el virus de la gripe española (H1N1) no desapareció por completo (se siguen encontrando trazas de aquel virus en otras gripes), la sociedad desarrolló una inmunidad colectiva. Un reciente estudio de Science apuntaba si el coronavirus (y sus mutaciones) se volviese endémico podría unirse al grupo de los que al igual que los cuatro coronavirus del resfriado común y el SARS-CoV-1 que hoy causan resfriados comunes en otoño e invierno. Quizás entonces lleguen los nuevos felices años de-2020-en-adelante.

El más citado entre esos optimistas quizá sea el Dr. Nicholas Christakis, investigador en medicina de Yale, que publicó hace unos meses “La flecha de Apolo”, y vaticina un brillante futuro… en 2024. Predice un 45-50% de población vacunada en 2022 y la recuperación socioeconómica en 2023. Y aunque el COVID mucho menos letal (0,5%-1% de mortandad) que la gripe española (3%), la peste bubónica (50%) o el Ébola (80%), los efectos de esta pandemia y sus cuarentenas sobre la sociedad sí podrían ser mucho más perdurables: telemedicina, rediseño de oficinas, teletrabajo, liberación de los centros económicos, afectación psicológica, y “no more handshakes”. Pero eso por un tiempo; luego, el despelote: “cuando las pandemias terminan hay una fiesta”, resume Christakis. Otros hablan del “Revenge Travel. En 1980 los chinos asqueados de años de revolución cultural maoísta se entregaron al consumo. La idea viene de ahí. Como ejemplo, los primeros desconfinamientos en Guanzhou implicaron ventas en Hermès de 2, 7 millones de dólares en un día. Según la consultora McKinsey, los viajes nacionales se han recuperado en China un 60%, y la ocupación hotelera aumenta gradualmente. No sería extraña una explosión del consumo asociado a la movilidad, el turismo de larga distancia o la acumulación de bodas y festejos varios, postergados durante dos años o más.

© Getty Images / Ideal Image

¿Es replicable el entorno de 1920 al actual? No vamos a enfrentarnos a los vengativos y reprimidos consumidores, por lo que parece que el consumo se debería recuperar en uno o dos años… La enorme inyección de liquidez realizada por todos los bancos centrarles debería servir, además, para financiar nuestra adaptación a un mundo post pandemia más global, pero más distanciado que impulsarán la Cuarta Revolución Industrial: la inteligencia artificial (IA) y el aprendizaje automático o machine learning (ML), junto con las redes 5G, harán común a la realidad aumentada y virtual; el cloud computing extenderá y llevará a cualquier lugar y en cualquier momento nuevos servicios digitales; trabajo y aprendizaje se transformarán con herramientas de IA/ML aumentando la productividad global; el big data nos descubrirá con la analítica automática de miles de millones de datos lo que ignorábamos incluso de nosotros mismos; la internet of things (sumada al Big Data) interconectará todo liberando nuestros tiempo, transformando el ocio o incluso la agricultura. Y esta cuarta revolución, además, es verde: un New Green Deal, que consciente de nuestra fragilidad ante un minúsculo virus, asume los peligros del reto climático, abandona los combustibles fósiles y lleva las energías renovables a todas partes. Un optimista futuro resultado de la acumulación de todos los “best case scenarios” posibles que surgiría como respuesta a la pandemia. No me digan que no es tentador e ilusionante.

¿Pero sería esa cuarta revolución industrial tan inclusiva como la segunda? El matiz es otro: la segunda revolución industrial fue el origen del cambio en la sociedad, mientras que la cuarta sería su consecuencia. El impulso de la nueva tecnología llevó a la producción en masa y de ahí al consumo en masa. Hoy el reto es diferente: son los cambios en el comportamiento del consumidor los que nos llevan al cambio tecnológico. No sería lo mismo el push de la Segunda que el pull de la Cuarta. Pero no sólo es eso. Es plantear cual se antoja el eje central de esa transformación: la atomización del consumo y el acceso personalizado al individuo. La ultrapersonalización del producto. La individualización como eje del cambio. Parecería inclusiva, pero sería exclusiva: especial para usted. Hay datos de todos y chips para todos. Eso por no olvidar la extraordinaria concentración del sector de las infraestructuras y servicios digitales, concentrada en unos pocos grupos empresariales chinos y estadounidenses. Europa no está ni se la espera. Eso además de las enormes dudas que genera qué efectos tendrá la digitalización masiva sobre el empleo. Una cuarta revolución industrial que se antoja veloz, inevitable y profunda, aunque se intuye con enormes costes sociales.

AP Foto/Frank Augstein

Marx completaba la cita de Hegel: “La historia ocurre dos veces: la primera vez como una gran tragedia y la segunda como una miserable farsa“. Sin enfrentar a Marx, la historia no se repite: las personas y los contextos nunca son iguales. Pero si se trata de repetir al menos los eventos… ¿no nos faltaría la tragedia? Con el final de la década de los años 20 llegó el crack bursátil de octubre de 1929. Resaca del enorme proceso de expansión económica de los felices años 20, llegaba la Gran Depresión, que rápidamente se extendería a toda Norteamérica y Europa. Igual que en 1920 estamos agotados por una enfermedad. También hay un enorme desfase entre la economía real y la actividad bursátil como ocurrió entre 1926 y 1929. También, como entonces, los capitales inyectados en la economía (esta vez por los bancos centrales de todos los países) parecen estar destinados más destinados a la especulación y al corto plazo que a otra cosa. Pero en los años 20 las clases medias estadounidenses, consumían, prosperaban y se endeudaban con los créditos a bajo coste para entrar en la bolsa. “Buy now, pay later” como credo. Hoy el escenario para las clases medias trabajadores es muy diferente. Según la 6º edicion del Informe de la Organización Mundial del Trabajo ha traido una caída del 17,3% global de la producción y no menos de 495 millones de desempleados. ¿Estaremos en un nuevo 1930 y no en un nuevo 1920?

Y es que quizás el siglo XXI no haya empezado hasta 2020 y antes de festejar nada, tenemos todavía que gestionar sus pesadas herencias: la sobrepoblación, la crisis climática y ecológica, el envejecimiento de la población, la quiebra de todos los sistemas previsionales de seguridad social y el fin de las clases medias como las conocíamos. El coronavirus no habría sido sino el gatillo que habría disparado esta tormenta perfecta. Tras ella, al bajar el agua del tremendo tsunami de la pandemia, estábamos todos desnudos. «Se vogliamo che tutto rimanga come è, bisogna che tutto cambi» escribia Tomasi de Lampedusa en “Il Gattopardo”, aquella novela que igual que hoy contaba el final de una época. Crítica universal a esos cambios que se disfrazan de estructurales y solo son superficiales; donde parece que todo cambia, pero todo queda igual. ¿Será así la industria 4.0? La historia no se repite, pero los errores que se cometen muchas veces sí. ¿Estamos condenados a repetir el pasado? Si un libro retrató mejor que ningún otro lo que fueron los felices años 20 en Estados Unidos fue “El Gran Gatsby”. F. Scott Fitzgerald finalizaba su extraordinario libro así: “De esta manera seguimos avanzando con laboriosidad, barcos contra la corriente, en regresión sin pausa hacia el pasado”. Al pasado. Hacia ahí vamos. A una farsa con unos repetidos y desiguales Felices Años 20 o a la tragedia de una Gran Depresión del 29. O muy probablemente a los dos.

Publicado en Economy, empleo, futuro, Inteligencia Artificial, Sociedad, Tecnología, Uncategorized | Etiquetado , , , , , | Deja un comentario

Gambito de computadora

Imagen tomada de r/PixelArt

La pelirroja de grandes ojos lo puso de moda, sin duda, pero confieso que no me atrae el ajedrez. Sé cómo se mueven las piezas y poca cosa más. Me resulta muy complejo. Quizás por la cantidad de alternativas y posiciones. O por el tiempo que necesito para procesar un movimiento y analizar que pomo puede pasar después. Quizás no solo me parece difícil a mi. Tras el primer movimiento se nos presentan 400 opciones posibles. Después del segundo, se nos muestran 197.742 partidas posibles. Imagine. En 1950. Claude Shannon (el padre de la teoría matemática que fundamenta la computación) calculó el número de partidas de ajedrez posibles (las posiciones “legales”); obtuvo un 1 seguido de 120 ceros. Si este juego les parece difícil, sepan que existe otro que todavía lo es más: el Go o Weiqi (o en chino básico 围棋). El Go es juego de mesa, ya documentado en China hace más de 2.500 años. Consiste en colocar piedras blancas y negras en las intersecciones de un tablero de 19 x 19 (el tamaño más usual). Empiezan las negras; una vez colocada la piedra, ahí se queda. Luego se coloca otra, alternando colores por turnos. La idea básica es capturar piezas del contrario; esto ocurre cuando una piedra queda rodeadas por piedras de otro color. Parece fácil, pero no lo es. Para tener idea de la dificultad del juego, las posibles posiciones “legales” serían un 1 seguido de 172 ceros. Y eso que las piezas del Go no se mueven.

Parece que el Go es más “cercano” a la mente humana que el ajedrez (una única pieza cada vez es un único movimiento). Quizás, fue más sencillo programar computadoras que jugasen (y nos ganasen) a otros juegos en los que solo habia que calcular opciones. Hoy casi cualquier software de ajedrez nos gana fácilmente. En 1994, por primera vez un software (el Chinook desarrollado por la Universidad de Alberta) le ganaba jugando a las damas a un humano: Marion Tinsley. Tinsley solo perdió en su vida siete partidas: dos fueron con Chinook. Años más tarde, el 10 de febrero de 1996, en Filadelfia, el Deep Blue de IBM le ganaba por primera vez a Garri Kaspárov en una partida. No obstante, el programa perdía toda la serie de partidas programadas entre ambos por un global de 2-4. Aquel Deep Blue era capaz de calcular 100 millones de opciones por segundo. En 1997, en Nueva York, se disputó la revancha. Esta vez se organizó un torneo en condiciones de competición, con un “Deeper Blue” mejorado. Su mejor baza se basaba en una mayor potencia de cálculo: hasta 200 millones de posiciones calculadas por segundo. Kaspárov, que fue campeón entre 1986 y 2000, perdió en el sexto juego de una serie consecutiva (3,5 a 2,5). Una victoria de Deep Blue sería un espantoso hito en la historia de la humanidad declaró el campeón antes de empezar la serie que acabaría perdiendo.

Imagen tomada del Financial Times

En 2014 Google (en realidad Alphabet, su matriz) adquirió DeepMind. Esta empresa, fundada en 2010 en Londres, desarrollaba software de aprendizaje autónomo. Uno de sus fundadores era Demis Hassabis. Con 13 años, Demis era maestro del ajedrez, y llegó. ser el segundo mejor jugador del mundo en la categoría sub-14 (solo detrás de la famosa Judit Polgár). Demis calificaba entonces con 2.300 puntos ELO, que se usa para categorizar a los mejores jugadores de ajedrez. Para fijar ideas, el mejor Kaspárov tuvo 2.851 ELO… Pero volvamos a DeepMind. En 2010 ya no tenía sentido diseñar una máquina que te pudiese ganar al ajedrez. ¿pero y al Go? Demis, recibido como doctor en Neurociencia Cognitiva por el University College de Londres en 2009, se enfrentaba a un complejo reto: en el Go hay tantas opciones posibles que ninguna computadora las puede calcular todas. La solución no sería el calculo: sería aprender del error y usar la intuición. Así surgió el software AlphaGo. El código usaba las reglas del juego y luego empezaba a jugar contra sí mismo, aprendiendo mediante prueba y error. Su algoritmo se basa en lo que se denomina una red neuronal artificial “acelerada” (en argot “deep learning”). Esto es un código de programación formado por incontables nodos de cálculo interconectados en árbol, en un símil de las neuronas que forman nuestro cerebro. Un nodo no tiene una función concreta, pero a medida que van intercambiando información con otros nodos se “fija” información. A cada intercambio cierta información de entrada tiene cada vez más valor, y a partir de ahí se desarrolla un patrón de conocimiento. En otras palabras, el algoritmo puede aprender de forma autónoma con la nueva información que entra de forma recurrente.

AlphaGo no era, pues, otro software que realizaba infinitas series de cálculos como Deep Blue (que era puro “big data“, como Chinook). Tras 30 millones de partidas de entreno contra sí mismo el programa estaba listo para enfrentarse a un jugador profesional. Eso pasó en octubre de 2015. AlphaGo le ganó 5-0 a Fan Hui, su primer rival profesional. En marzo de 2016 se enfrentó al coreano Lee Se-dol, jugador 18 veces campeón del mundo. AlphaGo ganó 4-1 en la serie. Si están intrigados, no se pierdan “AlphaGo” el documental de Netflix (también colgado en Youtube), que se grabó durante las partidas con Se-Dol. En mayo de 2017, otra versión de AlphaGo (la “Master”) se enfrentaba a Ke Jie, el número 1 mundial de Go en Whuzhen. Redoble de tambores. Google DeepMind había ofrecido un millón y medio de dólares al ganador y trescientos mil al perdedor. Después de tres partidas de más de tres horas cada una, AlphaGo Master ganaba 3-0 al campeón. “Es implacable y despiadado” declaró Ke Jie tras la derrota. En 2017 Google Deepmind desarrollaba una nueva versión mejorada del software: el AlphaGo Zero. Si su versión anterior precisó de varios meses para poder competir, Zero lo consiguió en sólo 70 horas. En los test, AlphaGo Zero le ganó 100-0 a AlphaGo. En 2019, Se-dol se retiraba. “Aunque yo fuera el número 1, hay un ente al que no se puede derrotar” declaraba. La Inteligencia Artificial (IA) de AlphaGo Zero resultaba, simplemente, imbatible.

Imagen tomada de Quarz

La derrota de Ke Jie fue un shock en China, pero tuvo enormes consecuencias. Dicen que el mismo Xi Jingpin, impresionado por la derrota, se involucró en el desarrollo delo que iba a ser la estrategia china en Inteligencia Artificial (IA): el llamado “Plan de desarrollo de inteligencia artificial de nueva generación”. Mientras Estados Unidos recortaba su presupuesto de apoyo a la IA, China designaba cinco empresas para liderar su programa en el horizonte 2025: Baidu (un motor de búsqueda: el Google chino), Alibaba (comercio electrónico: el Amazon chino), Tencent (dueño de WeChat, el Whatsapp chino de 1.000 millones de cuentas), iFlytek (reconocimiento de voz, pura IA) y SenseTime (imposible de clasificar en un solo rubro, es hoy la primera empresa de IA del mundo). 12 meses después de la directiva de Xi, las inversiones en start-up’s chinas de IA superaban a las estadounidenses; 18 meses después China ya solicitaba más patentes que Estados Unidos, y triplica las de IA: 900 patentes en reconocimiento facial por solo 150 de Estados Unidos, por ejemplo. Cierto es que China tiene ventajas para el desarrollo de estas nuevas tecnologías: dispone de un mercado interno enorme, poca competencia internacional, capacidad de autofinanciación y la colaboración tácita de sus clientes de internet y telefonía (cuyos datos de más de mil millones de smartphones y 840 millones de usuarios de Internet se utilizan sin muchas reparos por parte de las empresas chinas con la aquiescencia tácita del gobierno). En septiembre de 2017 Vladimir Putin (en teoría no muy aficionado al Go) declaraba “quién lidere la IA liderará el mundo“.

Después de cuatro años de la derrota de Kei Ji al Go, la AI ya no es sólo Alphabet (por un lado con el universo Google, pero por otro con empresas como Deepmind, pero también Waymo en movilidad o Verily en aplicaciones médicas), o Facebook (dentro de Facebook AI están plataformas para su Marketplace como GrokNet o Densepose de aplicaciones de reconocimiento corporal y facial), o Microsoft, o Apple, o Amazon o Tesla (en realidad, su Autopilot, y eso es pura AI)… Hay multitud de nuevas compañías chinas que avanzan decididas en la AI: desde el reconocimiento facial aplicado a cualquier cosa (como Axon AI o IDentifyAI o también Amazon Rekognition, pero también la enorme Sensetime o la también china Megvii con el más conocido Face++), sistemas LIDAR y de reconocimiento visual aplicados a la automoción autónoma (como Nuro o Aurora Innovation), reconocimiento de voz para reconocimiento médico o como feedback de publicidad (donde las norteamericanas Suki AI o Affectiva capitalizan cientos de millones de dolares… pero también está la china Mobvoi que ha pasado de los Smartwatch al reconocimiento de voz -en chino- y procesado de lenguaje natural). China no tiene un plan: tiene una estrategia, y hoy lidera la gestion de datos (23,8%) frente a Estados Unidos (casi el 14% de los datos mundiales); Europa ni está ni se la espera. No obstante, en esta pelea por el liderazgo mundial en AI, China quizás, de suficiente capacidad de doctores y doctorandos en AI o la capacidad de desarrollo de nuevos y potentes microprocesadores, que sí tiene Estados Unidos. Más allá del ganador o perdedor, enormes cambios se avecinan con la implantación masiva de la IA en nuestra sociedad, ya sea impulsado por chinos y norteamericanos. Quizás nada de eso habría empezado sin alguien pensando en cual podría ser mejor movimiento para un peón en un tablero cuadriculado.



Después de 4 años largos, vuelvo a escribir en el blog. Mil disculpas a todos los seguidores. Mi proyecto profesional ha sido muy demandante desde 2016. Simplemente, no me quedaba tiempo para escribir con el compromiso que asumo para los lectores de este blog. Cada post son entre 300 y 400 horas de análisis, búsqueda, borrador, redacción, lectura, re-lectura y corrección (este post, por ejemplo, precisó 25 revisiones antes de publicarse). Estoy de vuelta y espero seguir aquí. Gracias a todos los que se quedaron, por su paciente espera. A los que se fueron, les espero aquí de nuevo. A los nuevos, que sepan que no les pienso defraudar.

David Ruyet
Publicado en Uncategorized | 7 comentarios

Skynet (así, sin más)

El T800 boludeando con su mano mecánica

  • Continúa, ¿ qué ocurrirá ?
  • En tres años, Cyberdyne se convertirá en el mayor proveedor de sistemas de computadoras militares; todos los bombarderos antirradar se modernizarán con ellas y ya no necesitaran tripulantes. De ese modo volarán con un funcionamiento operativo perfecto. Se aprobará el presupuesto del Skynet. El sistema se conectará el 4 de agosto de 1997, se eliminarán las decisiones humanas en la defensa estratégica.
  • Skynet aprenderá en progresión geométrica, tendrá conciencia de sí mismo a las 2:14 de la madrugada del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo.
  • Sin embargo, Skynet se defenderá…

(“Terminator II“, James Cameron, 1991)

No sabemos si Jeremy Rifkin vio “Terminator II” en 1991, pero en 1995 publicaba “The End of Work“. Rifkin es un divulgador autor de múltiples best seller mundiales. Antes que un concienzudo investigador, es narrador de historias (mire la bibliografía de sus libros, con más artículos de periódicos que papers académicos). No tiene el rigor documental que muestran, por ejemplo, Nicholas Carr, Nassim Taleb o Malcolm Galdwell en sus libros, de temática similar, en lo que podríamos llamar “sociomanagement“. A cambio, populariza conceptos e ideas disruptivas, y los acerca al mainstream. La crítica habitual a Rifkin es que poco de lo que dice se sustenta en la investigación o en los datos. No obstante, tampoco le ha ido muy mal así: le ha escuchado el Parlamento Europeo, Zapatero, Barroso, Sarkozy, Li Keqiang, Merkel, Sócrates, (todos cuando eran presidentes…), habla en TED y hasta le aplaudieron en Davos. Pero debatir en 1995 sobre los cambios radicales en el mercado del trabajo (en realidad, desempleo) que se iban a dar a causa de la progresiva automatización y globalización, era algo que costaba imaginar. De hecho, sucedía al revés: la expansión de la economía mundial de los 90, la entrada de China al mercado de trabajo, la deslocalización y la burbuja del “Greenspan put“, generaba una enorme demanda de trabajadores, y el desempleo cayó en casi todo el mundo. Así que no se hizo mucho caso a Rifkin. Pero ahí quedó eso de “We are entering a new phase in world history—one in which fewer and fewer workers will be needed to produce the goods and services for the global population.”.

Casi a la vez que “The End of Work”, en diciembre de 1994 se lanzaba el Netscape Navigator 1.0, es decir, el primer navegador comercial de internet. Por cierto, lanzado de forma gratuita y llevándose el 75% (Microsoft no se enteró hasta 1996 con el Explorer 3.0) En 1997 un bombazo: el Deep Blue le ganaba a Kasparov jugando al ajedrez en condiciones de torneo. En 1999, Shawn Fanning lanzaba Napster (el primer gran programa peer-to-peer para compartir archivos) y ello obligaba a reformular los derechos digitales tal y como los entendíamos. Mientras, la locura por las nuevas tecnologías se extendía por todas partes. Inversores de todas partes, convencidos de que la era digital llegaba ya, compraban acciones de start-up’s sin planes de negocio muy claros a precios desorbitados y pagaban por un crecimiento que asumían que se materializaría. A principios del año 2000 el Nasdaq Composite, índice de referencia del mercado tecnológico de EEUU, se disparó de 3,000 puntos a más de 5,000 en sólo cuatro meses. En marzo de 2000 la burbuja pinchaba: los mercados tocaron fondo en octubre de 2002 tras una caída acumulada del 77%… Ajeno a ello, en 2001 Steve Jobs presentaba el iPod (“para 1.000 canciones“) y el iTunes para la compra de música (“un Jukebox“), y cambiaba el mundo de la música. Busquen el último CD que compraron: se sorprenderán. No solo cambiaba el mundo de los negocios, sino también cambiaban las personas. El neurólogo Raja Parasuraman determinaba esos efectos en varios artículos académicos publicado entre 1997 y 2000, «la automatización no sólo suplanta la actividad humana, sino que más bien la cambia, con frecuencia de manera no intencionada ni anticipada por los diseñadores».

Garry Kasparov contra el Deep Blue en 1997

En 2004, Frank Levy y Richard Murnane escribían “The New division of Labor: How Computers Are Creting the Next Job Market” intentando responder una pregunta aparentemente simple: ¿Qué es lo que los humanos hacen mejor que las máquinas?  En su análisis dividieron el trabajo en dos tipos: manual y cognitivo. Esos trabajos, a su vez, se dividian en rutinarios y no-rutinarios. ¿Dónde tenían ventaja los humanos? en las no rutinarios. No importaba si eran cualificadas o no. Eso explicaba que los call center (es decir, trabajos cognitivos) se fuesen a la India y las fábricas (es decir, trabajos manuales) se fuesen a China. Lo que las desplazaba en ambos casos era tratarse de tareas rutinarias. Por tanto, el paso de sustituir producción industrial o call centers por máquinas era el siguiente. La cadena de montaje es previsible; por tanto, programable y construimos autos con robots. Un call center sigue una secuencia lógica en arbol de decisión: por tanto, hablamos con máquinas que nos ordenan pulsar “* para más opciones“. La consecuencia de ello sería que una parte de los empleos serían sustituidos por autómatas y otros, simplemente, complementados. A su vez, se ensancharía la brecha del ingreso entre los profesionales y los trabajadores pobres. Luego, también se eliminarían para siempre algunos empleos desaparecidos por la automatización. La conclusión está clara: hay que dirigir la formación en competencias de razonamiento complejo. Hay de diferenciarse de las máquinas.

La gran recesión de 2008 volvió a sacar el tema a la luz; sólo un año antes Steve Jobs había lanzado el iPhone, y parece que fue… A finales de 2011 se publicó “Race Against de Machine“, un libro tan cortito (100 páginas) como interesante. En él, Andrew McAfee y Erik Brynjolfsson (que también habla en TED), ambos del MIT, predecían un dramático cambio económico: la tecnología reconfigurará dramáticamente la cualificación requerida de los trabajadores por la extremada velocidad de sus cambios. El término que usaban McAfee y Brynjolfsson era “desempleo tecnológico“. La clave estaba en la incapacidad de personas e instituciones y en su insuficiente “velocidad” para adaptarse a los consecutivos y rápidos cambios tecnológicos. Para “atrapar a la máquina” serían necesarios nuevos modelos de emprendeduría, nuevas estructuras organizativas y, en especial, unas instituciones diferentes. Esta “Second Machine Age” (que es también el título del libro de 2014 de McAfee y Brynjolfsson, tan bueno como el anterior), determinaría unos cambios mucho más radicales sobre la sociedad actual a los de la “Primera Edad de las Máquinas” es decir, la Primera Revolución Industrial. ¿Por qué? Porque ahora las máquinas pueden generar decisiones más eficientes por sí mismas, reduciendo la importancia de la parte humana implicada en la estructura productiva que, además, es digital y tecnológica en muchas (quizás demasiadas) actividades cotidianas.

Probabilidad de computerizacion de empleos segun Frey y Osborne

Por tanto, la amenaza es real. ¿Pero es muy grande? ¿Quién gana y quién pierde? En 2013 Carl Frey y Michael Osborne en “The Future Of Employment: How Susceptible Are Jobs To Computerisation?” analizaban 702 empleos diferentes combinando elementos de la literatura económica sobre el trabajo junto con variables tecnológicas para determinar esa probabilidad. Basados en las clasificaciones laborales norteamericanas de la SOC (Standard Occupational Classification) estimaban esa probabilidad o riesgo de ser “potentially automatable over some unspecified number of years, perhaps a decade or two”. Por sectores encontraron que el transporte, la logística y el apoyo administrativo tenían “high risk of automation” cosa que nos imaginábamos (basta con pensar en el coche sin conductor de Google o cómo Amazon gestiona sus almacenes). La sorpresa era que empleos dentro de la industria de servicios también eran “highly susceptible“debido a la introducción del Big Data. El driver era lo que ellos llamaban “la inteligencia social” esa capacidad tan Golemaniana de una persona para “entender, tratar y llevarse bien con la gente que le rodea“. Por tanto, los trabajos menos computerizables serían ocupaciones generalistas, basadas en el aprendizaje a través de la experiencia, o actividades muy especializadas que impliquen nuevas ideas o artefactos. Creatividad, vaya. Dentistas, coreógrafos, actores, entrenadores deportivos, científicos, ingenieros, médicos, diestistas, psicólogos… Es decir, aquello que precisa de una solución particular, de un análisis inmediato, de un diagnóstico complejo, de empatía… es más difícil de sustituirse por una máquina. Dicen Frey y Osborne: “For workers to win the race, however, they will have to acquire creative and social skills.”. Madre mía, como corre Skynet.

Los 25 empleos menos computerizables en USA segun Frey y Osborne

Por tanto, las conclusiones son claras: la probabilidad de automatización ya es un predictor de desempleo potencial. Cierto es que su efecto dependerá de las capacidades requeridas para cada posición, aunque parece que una menor cualificación aumenta enormemente la probabilidad de que Skynet tome el lugar de uno. Para una mayor cualificación (¡oh, paradoja!) no hay regla práctica. Skynet está ahí. Dependerá en cada caso, si bien una mayor capacidad personal (como la creatividad o la empatía) permite adaptarse más fácilmente a un nuevo empleo, sector o entorno laboral. Estos cambios en las estructuras de producción (57% de media en la OCDE, en algunos países hasta el 85%) suponen también una modificación del contrato social como ya pasó en los 80. Las nuevas élites ajenas a la computerización (inversores y emprendedores) se diferenciarán cada vez más de la masa de trabajadores. ¿Por qué? Porque si bien la tecnología mejora la productividad, no genera (ni aunque lo diga Gartner) más empleos o salarios. Estamos en el Siglo XXI y Skynet ya no espera a nadie. Las tecnologías digitales (toda la información es hoy digital), la velocidad y capacidad de los computadores (cualquier PC actual es tan potente como el Deep Blue) presionan en cualquier aspecto social, no sólo en los tecnológicos. Esto afecta a cualquiera. Quién nos iba a decir que la guerra contra los Terminators de Skynet no iba a ser a tiros ni con humanos muertos, sino desempleados.

Dots

Publicado en empleo, Management, Sociedad, Tecnología | 8 comentarios

Ned Ludd y la Cuarta Revolución

Ned Ludd llamando a las armas. O su fantasma.

Año 1712. Thomas Newcomen diseñaba una máquina que generaba el vacío calentando y condensando vapor de agua. El vacío permitía la succión de una bomba, y la bomba extraer agua de las minas de carbón. Era la primera máquina de vapor. Luego el escocés James Watt la mejoraría (y de paso, se llevaría la fama). Quedaba inaugurada la Revolución Industrial. La Primera. Empezaba el periodo de la humanidad de mayores cambios económicos, tecnológicos y sociales desde el Neolítico. La máquina de vapor era la primera gran “general purpose technology” (o GPT), si obviamos la imprenta y la rueda. La economía tradicional, basada en el trabajo manual (o sea, más trabajadores igual a más crecimiento), era fulminada por la máquina de vapor de Watt o la spinning Jenny de James Hargreaves (más tecnología igual a más crecimiento). Empezaba la economía industrial, donde la tecnología era la clave: mecanización de la industria textil y el desarrollo de la metalurgia moderna (el IronBridge, el primer puente metálico, se construyó sobre el rio Severn en 1779).  Mecanizar la producción permitía aumentar la cantidad de producto acabado y, a la vez, reducir sus costes de fabricación. Pero las transformaciones fueron más allá: la economía rural, basada en la agricultura y el comercio, pasaba a ser una economía urbana o periurbana, industrializada y mecanizada. Crecimiento y aumento de la renta per cápita como nunca se había dado hasta entonces en la historia humana.

Año 1779. Un tipo enfadadísimo en Anstey, Leicestershire, destrozaba dos tejedoras mecánicas a martillazos y se daba a la fuga. Su nombre: Ned Ludd. No se le volvió a ver, pero empezaba su leyenda. Entre los obreros se extendía el mismo descontento del tal Ned. Sus malas condiciones laborales eran tan reales como el crecimiento de la nueva economía industrial. Lea a Engels o a Dickens. Da igual: dicen lo mismo. El pasado industrial siempre fue un asco. No obstante, eso del PIB per capita no interesaba mucho a los seguidores del fantasma de Ludd. Llamados luditas, tenían claro el problema: las máquinas eliminan puestos de trabajo de las personas. Tenían también clara la solución: destruir las fábricas con máquinas. De entrada, culpaban al fantasma de Ludd. Luego –a principios del siglo XIX, en especial entre 1811 y 1813- ya no se escondían. A ver quién les podía convencer de que si la tecnología aumentaba el tamaño de la economía, más gente entraba en el sistema. Más tecnología era menos personas trabajando en la industria, cierto. Pero también eran más personas en el sector de los servicios. El excedente de renta se destinaba a mejorar la calidad de vida o realizar nuevas inversiones, y ahí aparecían nuevas necesidades. Lo cierto es que sin sindicatos, poco más podían hacer para protestar. Quizás por ello el historiador Eric Hobsbawm argumentaba que los luditas (“the machine breakers”) hacían “negociación colectiva por disturbio“.

Las cuatro revoluciones industriales

Año 1870. La primera cadena de montaje en Cincinatti declara inaugurada la Segunda Revolución Industrial. Montaje en serie, electrificación de la industria, producción masiva. Del taylorismo al fordismo, y de ahí a Toyota durante “The Glorious Thirty” (1945-1975). La conflictividad laboral era -más o menos- limitada. ¿Por qué? Por un lado, había una red social de cobertura con desempleo y jubilación, a la vez que se protegían las industrias nacionales más vulnerables a base de subvenciones. Por otro, no habían alternativas: el experimento comunista de la Unión Soviética no funcionó. Así que el capitalismo funcionó de forma -más o menos- eficiente (socialmente hablando, claro) hasta los años 80 y su transformación en el neoliberalismo. Año 1969, aparece el Modicon 084, el primer PLC comercial programable. Tercera Revolución Industrial: computadores, electrónica, Internet. Además de Thatcher y Reagan, la revolución informática establecía un nuevo paradigma. Como siempre: nuevas tecnologías permitían mayores eficiencias y sinergias. Empezaba el gran downsizing de las estructuras laborales, que eran laminadas de todas aquellas funcionalidades (y sus trabajadores) que desarrollaban funciones programables y ofimáticas. Si hasta entonces las mejoras en la tecnología desplazaban a gente de la industria, ahora los desplazaban de los servicios. El siglo XXI y la consolidación de la globalización consolidaron el modelo: la ley de Moore (de 1965) implementada bajo el low cost de fabricación asiático permite nuevos procesadores exponencialmente más eficientes y baratos. Son robots cada vez más baratos y  rápidos en el desarrollo de sus rutinas (me resisto a escribir inteligentes).

Año 2016. En el Foro de Davos Charles Schwab, fundador y presidente del Foro, habla sobre la Cuarta Revolución Industrial. Auditorio lleno. Su libro tiene una reseña del Financial Times. La velocidad de los procesadores y la interconectividad lo están cambiando todo. Viene el Internet de las Cosas (el IoT): Máquinas que se comunican entre ellas sin intervención humana. Manufactura personalizada: no enviaremos 100.000 zapatillas a un almacén de distribución, sino que, las enviaremos a sus 100.000 clientes. Aún más: les enviaremos las zapatillas con los colores que ellos quieran. Falta muy poco para eso. Heladeras que avisarán que los yogures van a caducar, o cepillos de dientes que advertirán de una inminente caries. ¿Lo duda? Hay más ejemplos: ¿Chófer? El indiscreto coche de Google sin conductor ya circula. ¿Profesores de idiomas? Hay excelentes apps en iOS y Android. ¿Repartidores? Amazon dice que va a satisfacer los pedidos con drones no militares. ¿Operadoras telefónicas? Diga 8 si quiere saber cuanto lleva gastado en el celular este mes. ¿Contables? Las facturas electrónicas y el big data acabarán con ellos. ¿Cajeros? Pase usted la compra por el scanner con la etiqueta hacia arriba y pague con su tarjeta de crédito. ¿Atracos con pistola? Cybercrimen: tiemble de verdad con los botnet, phishing, troyanos, gusanos, spam… ¿Quiere amigos? Cómpreselos en Twitter o, si quiere, en Facebook. ¿Guías turísticos? Póngase los auriculares, que el GPS sabe en que sala del museo está y le dirá quién pinto el cuadro. ¿Médicos? mire a la cámara y saque la lengua. Schwab calcula que peligran 5 millones de empleos mundiales. The Guardian dice que el 47% de los que hay en Reino Unido peligran. Inevitable.

IoT

En Buenos Aires, en estos días de verano, el Banco Central de la República Argentina autorizó el envío del resumen bancario (por ejemplo, de la tarjeta de crédito) sólo de forma electrónica. Hoy unas 4.000 personas que los reparten por correo postal. El otro día, los camioneros de la CGT del sindicalista Hugo Moyano colapsaron los alrededores del Banco Central con sus protestas. Algunos políticos quieren evitar que se elimine el envío aduciendo “derecho a la información”. Son neoluditas, no tan bestias como el más famoso de ellos: Theodore Kaczynski, el famoso Unabomber. Da igual. No se cansen. Perderán. El resumen mensual se enviará en formato pdf. Pero no se confundan. Si bien la solución que proponía el ludismo era ridíucla (destruir las tecnologías para proteger puestos de trabajo que quedaron obsoletos) no estaban equivocados: máquinas más eficientes amenazan los puestos de trabajo tradicionales. Y seguirán amenazando a cualquier empleo que resulte programable. La capacidad de reconvertirse es muy limitada. No es que vaya a pasar; es que ha pasado siempre. ¿Cómo resistirse a un coste más bajo y a menores demandas laborales? Aquellos con mayor formación y, por tanto, mayor capacidad de resolver problemas complejos, dispondrán de empleos más estables; aquellos con menor formación, un trabajo rutinario, y en posible competencia con un software sufrirán de una eterna precariedad laboral. Sólo sin rutinas no es posible armar una cadena de montaje, y las rutinas ya las hace un robot. Messi puede estar tranquilo; el resto no.

¿Hacia dónde vamos? La destrucción creativa de Schumpeter nos sigue permitiendo ganar eficiencia en los procesos. La duda es si es más destrucción o más creativa. Porque lo cierto es que se ha desarrollado un mercado de trabajo dualizado, donde la minoría menos formada es expulsada. Seguimos creciendo (poquito), pero una gran masa laboral no es capaz de capitalizar ese crecimiento: desempleo de larga duración incapaz de reciclarse o reinventarse se enquista en occidente. Tras la gran crisis de 2008 llega la llamada “recuperación sin empleo” (si es que es posible recuperarse con más deudas). Los trabajadores no cualificados se resignan a una rebaja de salarios (la  llamada “devaluación interna”). Mientras, los cualificados piensan a donde irse para no pagar los excesivos impuestos a los que -cada vez más- se ven sometidos. La clase media ya no existe (si es que existió), sino que somos todos clase obrera, amenazada por la tecnología y atrapada por las burbujas de deuda. ¿Clase obrera? si usted deja de trabajar hoy y no puede vivir de rentas, es usted clase obrera. Y esa clase obrera, amenazada y humillada por la desigualdad del otro 1%, precisa de la protección de los estados para la subsistencia (que se siguen endeudando para financiar planes públicos de ocupación, que no dan resultados en el largo plazo). Después de 250 años, las quejas de Ned Ludd siguen vigentes. El tipo tenía razón. Nunca ganará.

Dots

 

Publicado en Energy, Management, Sociedad, Sostenibilidad, Tecnología | Etiquetado , , , , , , , , , , | 2 comentarios