¿Como sera la sociedas de fin de siglo? ¿Sera una sociedad sin mercados, sin trabajo, sin economía? ¿Estaran nuestros nietos en la sociedad de la abundancia? ¿La tecnología habra resuelto los problemas que la economía fracaso en solucionar?
Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.
Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor deSuperinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.
El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.
“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.
A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.
La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro
Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras vileda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.
Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.
Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, "mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.
En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.
“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio
La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.
Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.
Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackeardrones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.
Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.
El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.
— ¿Los robots nos enriquecerán o nos reemplazarán?
— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.
A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafío éticos de las tecnologías emergentes.“Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.
— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?
— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.
— Pero, ¿es usted optimista con respecto al futuro?
— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.
— O sea, que hay cosas que hacer. ¿Cuáles?
— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.