Piénsalo bien. La inmensa mayoría de novelas y películas que han moldeado tu visión sobre la inteligencia artificial —desde Yo, Robot, de Isaac Asimov, hasta Terminator— lo han hecho anticipando la singularidad, un hipotético escenario futuro en el que las máquinas superan las capacidades cognitivas humanas e impulsan un crecimiento tecnológico incontrolable e irreversible que sacude la civilización.
La superinteligencia que se manifiesta ahí es algo incomprensible para la mente humana como nosotros lo somos para los insectos. Aunque algunos magnates tecnológicos venden esa idea como algo cercano, esta teoría sigue siendo ciencia ficción.
🚀 Esto es WATIF. El resto es historia.
Por ahora, las ciencias computacionales han logrado desarrollar sistemas de IA que sobresalen en la ejecución de tareas específicas y limitadas, como jugar al Go (ved este magnífico documental), generar imágenes o la traducción simultánea, superando incluso a los humanos. El próximo reto es que la IA vaya más allá y pueda razonar, adaptarse y aprender con flexibilidad en distintos contextos, como hacemos nosotros. Eso es, que tenga cierta autonomía y sepa responder a problemas complejos sobre los que no ha sido entrenada, generando así conocimiento nuevo sin que pueda predecirse.
Por ejemplo, que el algoritmo desplegado en un hospital detecte una anomalía en los datos, realice experimentos nuevos para entenderla y detecte una enfermedad hasta entonces desconocida. Esa supuesta capacidad de cognición se conoce como IA General, un objetivo largamente perseguido en el campo de la informática cuyo alcance polariza cada vez más a los expertos.
Sam Altman, de OpenAI; Elon Musk, de xAI; o Dario Amodei, de Anthropic, predicen que la IAG —un término nebuloso sin una definición universalmente aceptada— será realidad en 2026. Todos ellos, claro está, tienen interés en alimentar el hype dentro del sector para relanzar las inversiones y el interés en sus empresas. Y lo hacen con pronósticos que muchos expertos descartan por «infundados y exagerados».
Escepticismo científico
Grandes nombres de la investigación en IA son cautos. Demis Hassabis, de Google DeepMind, cree que «aún falta mucha investigación» para alcanzar la IAG, que podría llegar dentro de 5 o 10 años. Yann LeCun, de Meta, también considera que «estamos muy lejos» de ese estadio, mientras que Mustafa Suleyman, de Microsoft AI, vaticina que la IAG será factible «en algún momento en las próximas dos a cinco generaciones».
Más allá de los popes que trabajan para las grandes corporaciones del sector, la mayor encuesta realizada hasta la fecha entre investigadores punteros de IA —en la que participaron más de 2.700 de ellos— concluye que hay un 10 por ciento de probabilidades de que la IA supere a los humanos en la mayoría de tareas en 2027. Otro sondeo entre medio millar de académicos apunta en la misma dirección: un 76 por ciento cree que es «muy improbable» o «improbable» que el aumento de los enfoques actuales logren la IAG.

Hablamos con los expertos
¿Qué significa todo esto? A finales de mayo, entrevisté a Ramón López de Mántaras, pionero de la IA en España, para El Periódico y me dijo esto:
«Si vemos la IAG como aquella capaz de ejecutar cientos o miles de tareas con un buen nivel de calidad creo que puede ser algo factible a largo plazo. Si, en cambio, la definimos como una IA con conciencia indistinguible de la humana, entonces no la veo posible en absoluto. Tenemos un cerebro extraordinariamente complejo producto de millones de años de desarrollo. Las máquinas están basadas en programación informática, transistores con una capa de software que procesa unos y ceros, así que me parece imposible que de ahí nazca una conciencia. Es casi ridículo comparar ambas cosas».
Para orientarnos en ese complejo debate, tan técnico como filosófico, he consultado a cuatro grandes expertos españoles para saber qué piensan sobre la llamada IAG.
Nuria Oliver: «El aprendizaje humano es mucho más eficiente que el de la IA»
Oliver, cofundadora y directora científica de la fundación ELLIS, desconfía. «Estamos muy lejos de construir una IA con tanta complejidad y competencia como la humana, con múltiples habilidades y autoconciencia», me explica. Ella remarca que la capacidad de aprendizaje humana es mucho más eficiente: «No nos hace falta leer todos los libros del mundo para aprender a leer y escribir».
Asimismo, Oliver lamenta que la industria «nos vende que solo tenemos que preocuparnos si se alcanza la IAG», como si la IA no estuviese planteando ya grandes retos sociales. «Nos distraen con escenarios ficticios para que no pensemos en riesgos actuales de la IA como su falta de veracidad, sus sesgos o su impacto climático», apunta.
Cree que, en lugar de caer en ese marco, «deberíamos centrarnos en entender en qué son buenos esos sistemas» y en aprovechar la IA para «acelerar el descubrimiento científico en otros campos como la física o la química». Google DeepMind marca el camino que, subraya, debemos seguir.
Josep Maria Martorell: «Faltan datos para alcanzar la IAG»
Martorell, ex director asociado del Barcelona Supercomputing Center, ve factible alcanzar la IAG «a medio plazo». Aun así, me explica que hay barreras tecnológicas «muy evidentes» que hacen pensar que «no será fácil». Esos límites son los cuellos de botella que enfrentan la computación, los datos y los algoritmos, las tres patas de la IA. Se refiere a que «cada vez es más difícil hacer microprocesadores más pequeños y potentes», a que «los modelos actuales ya se entrenan con casi todos los datos que hay en Internet» —ergo, faltarán datos para una IA mucho más potente— y a que la revolución actual se basa en una fórmula inventada por Google en 2017 que puede no servir para la próxima iteración.
Martorell advierte que si se logra que los algoritmos den resultados distintos a los que se buscaban —eso es, «de forma espontánea»— eso «romperá con las reglas básicas de la ciencia».
Nerea Luis: «La IA sigue fallando en tareas muy básicas para los humanos»
Luis, doctora en Ciencias de la Computación y asesora en IA, también cree que los modelos de IA actuales «están aún muy verdes para entender su contexto», como promete la IAG. Desde chatbots que no saben interpretar la ironía o las referencias culturales a coches autónomos que pueden tirarse por un precipicio al no estar este señalado en el GPS que los guía. «Cada vez son más potentes y saben simular el razonamiento, pero siguen fallando en cosas muy básicas para los humanos», remarca.
Antonio Diéguez: «La IA no elabora hipótesis porque no tiene imaginación»
La llamada IAG también plantea dudas y limitaciones filosóficas. «Por ahora, la IA no puede elaborar hipótesis para explicar un hecho porque eso requiere de un componente creativo que no tiene, la imaginación», me explica Diéguez, catedrático en filosofía de la ciencia y experto en pensar la tecnología.
El filósofo malagueño cree que es necesario insistir en que, por mucho que nuestra mente tenga una tendencia «inevitable» a atribuir intención a las acciones de la IA, las máquinas «no tienen ningún tipo de voluntad ni autoconciencia». A medida que nos acerquemos a una hipotética IAG, considera, será cada vez más importante reiterar esa obviedad. «Ni tienen libre albedrío ni entienden lo que están diciendo».
Indagando en la IAG
La IAG es la gran ambición de Silicon Valley, pero también uno de los temas más polarizantes del sector. Hay mucho en juego y para entenderlo mejor WATIF se ha sumergido en profundidad en este debate de la mano del analista tecnológico Antonio Ortiz, coautor del podcast Monos Estocásticos, referente de la divulgación sobre IA en España. Dentro vídeo:
El semáforo
🟢 IA que cura. Un nuevo implante cerebral permite traducir la actividad neuronal en palabras casi al instante. Se trata de una interfaz humano-máquina que ha logrado por primera vez que un hombre con esclerosis lateral amiotrófica, una enfermedad de la neurona motora que daña el habla, pueda hablar con entonación para expresar emoción e incluso cantar con una latencia de tan solo 10 milisegundos.
🟠 Misión histórica. La nave espacial china Tianwen-2 se dirige al asteroide Kamo'oalewa, una cuasi-luna de origen desconocido que orbita alrededor del Sol, para extraer muestras de su superficie que podría mandar a la Tierra a finales de 2027, algo sumamente complicado que solo han logrado Estados Unidos y Japón. De lograr este hito, la misión puede ayudar a resolver grandes cuestiones científicas como la evolución del sistema solar.
🔴 El peligro de explotar la privacidad. El autor del múltiple asesinato político en Minnesota, Estados Unidos, localizó a sus víctimas, dos políticos demócratas, a través de data brokers, empresas que se lucran recopilando y vendiendo información personal de los ciudadanos.
Gracias por llegar hasta aquí. Si te ha gustado este número de la newsletter, puedes darle al corazoncito más abajo, escribir un comentario o contestarnos a este correo. Nos encantará saber qué opinas.
💬 Si quieres charlar, compartir sugerencias de temas o alguna pista, puedes escribirme a carles@watif.es
🎙️Si quieres ver y/o escuchar nuestro pódcast, síguenos en YouTube y Spotify.
🐝 Y si quieres ser parte de la comunidad de WATIF y venir a nuestros eventos digitales y presenciales, échale un vistazo a nuestros niveles de membresía.
🤝 Hasta la próxima,