Stefano Feltri
En estos días, los desarrollos políticos han desencadenado una serie de caídas en los mercados financieros. Los aranceles prometidos por Donald Trump hacen bajar las acciones en los Estados Unidos y Europa, la necesidad de emitir nueva deuda para financiar los gastos de defensa en grandes países como Alemania hace subir los rendimientos de los bonos del Estado y, por lo tanto, reduce sus precios.
Solo hay un impulso que va en dirección contraria, que se opone a las consecuencias desastrosas de las decisiones humanas: el ascenso de la inteligencia artificial.
Aparte de la geopolítica, la variable decisiva para explicar la evolución de las bolsas en los últimos dos o tres años ha sido únicamente la apuesta de los inversores en las potencialidades de la inteligencia artificial, en la rapidez de su difusión, y por lo tanto, en las perspectivas de ganancias para las empresas que ofrecen servicios basados en esta tecnología o venden los chips necesarios para entrenar los algoritmos.
Sin embargo, la obsesión por el corto plazo nos ha hecho perder de vista una cuestión más general: mientras OpenAI, Elon Musk, Anthropic y DeepSeek intentan desarrollar una inteligencia artificial general, similar a una mente humana, en muchas tareas específicas las máquinas ya son superiores a nosotros.
Tan solo en 2016 ha habido una noticia de relevancia mundial el hecho que una inteligencia artificial de AlphaGo hubiera vencido al campeón humano Lee Sedol en el complejo juego de Go, una especie de ajedrez. Hoy sería imposible que un humano venciera al algoritmo, que ha seguido evolucionando.
Nello Cristianini es profesor de inteligencia artificial en la Universidad de Bath, en Gran Bretaña, y columnista en Appunti. En sus libros La Scorciatoia y Machina Sapiens (ambos editados por Mulino) ha relatado el ascenso de esta nueva generación de inteligencias artificiales. Ahora publica Sovrumano. Más allá de los límites de nuestra inteligencia (Mulino).
¿En qué campos la inteligencia artificial ya ha superado las prestaciones de los seres humanos? ¿Cómo se está desarrollando?
El ser humano se considera capaz de resolver problemas muy distintos entre sí: desde traducir latín hasta hacer diagnósticos médicos, e incluso inventar un nuevo tipo de fármaco. La misma inteligencia puede ocuparse de tareas variadas, y eso es lo que hoy se define como “inteligencia artificial general”.
Para llegar a esta hipotética inteligencia artificial general, actualmente se siguen dos caminos distintos. El primero es la llamada scaling hypothesis (hipótesis del escalado), es decir, la idea de que, aumentando el tamaño de los modelos actuales, se incrementa la inteligencia general de la máquina.
Se cree mucho en esta hipótesis, tanto que las grandes empresas han invertido miles de millones de dólares, considerando que basta con aumentar la escala, sin modificar la arquitectura, para obtener resultados significativos.
El segundo camino, explorado más recientemente, tiene que ver con el razonamiento, es decir, la capacidad de las máquinas para formular razonamientos lógicos propiamente dichos. Ambos enfoques podrían funcionar, quizás en combinación. No se trata de opiniones o sensaciones, sino de verdadera ingeniería.
¿Cómo logramos entender si la máquina es más inteligente que nosotros?
Si queremos crear una máquina cada vez más inteligente, necesitamos una forma de medir su progreso.
Si nuestro objetivo es igualar una de nuestras habilidades, debemos poder determinar con claridad el momento en que eso ocurre. De hecho, existe una ciencia dedicada a la medición de las máquinas inteligentes, una especie de “psicometría de las máquinas”, en la que se someten a las IA a baterías de pruebas sofisticadas y se evalúa su rendimiento.
Con cada nueva generación, las máquinas mejoran. Luego podemos aplicar las mismas pruebas a los seres humanos para verificar en qué punto son igualados o superados. No estamos hablando de opiniones, sino de mediciones objetivas y repetibles.
Las empresas compiten en este ámbito, los test se vuelven cada vez más difíciles y las máquinas cada vez más capaces, acercándose al rendimiento humano: un fenómeno que no podemos ignorar.
¿En qué punto estamos?
Las grandes empresas ya han elaborado una especie de “hoja de ruta” para alcanzar la inteligencia artificial general. OpenAI, que desarrolló GPT, prevé cinco etapas:
- Los conversadores (las máquinas que interactúan a nivel lingüístico, una realidad en la que nos encontramos desde hace un par de años).
- Los razonadores (sistemas capaces de razonar de forma lógica, y desde hace algunos meses ya existen soluciones de muy buena calidad).
- Los agentes (máquinas capaces de actuar de forma autónoma en la web, buscar información, suscribirse a servicios, pagar facturas, siempre con el objetivo de alcanzar una meta).
- Los innovadores (sistemas capaces de crear o innovar).
- Las organizaciones (conjuntos de agentes que colaboran para lograr objetivos complejos).
Actualmente nos encontramos en la tercera etapa, la de los “agentes”.
¿Cuáles son las consecuencias del hecho que en diferentes campos la IA resulta ya “sobrehumana”?
Debemos reconocer que en algunos sectores ya hemos sido superados, en otros podríamos serlo pronto, y es sobre esta base que debe desarrollarse el debate.
Además de los avances en áreas específicas (como en el caso del ajedrez), las máquinas generalistas —por ejemplo, GPT-4 o Cloud 3.7— en distintos ámbitos, si se las evalúa rigurosamente, logran rendimientos superiores a los nuestros.
Por ejemplo, en recientes baterías de test de matemáticas y programación, a menudo superan al ser humano promedio y, en ocasiones, incluso a personas muy competentes. En algunos casos llegan a superar el nivel de los mejores especialistas, pero ya se ha establecido con claridad que al menos tienen una ventaja del 10 % sobre la población general.
Pueden aprobar exámenes universitarios, formular diagnósticos médicos y traducir con fluidez en unas 200 lenguas. En resumen, en muchos campos se acercan a nuestras capacidades, nos igualan o nos superan.
Las consecuencias prácticas son evidentes. El sector de la traducción, por ejemplo, fue uno de los primeros en experimentar este impacto: hasta hace pocos años, un traductor especializado en lenguas poco comunes (como el lituano o el portugués) podía obtener buenos ingresos por ese servicio.
Hoy, sin embargo, cualquier combinación entre 200 lenguas puede ser gestionada gratuitamente por las máquinas.
Lo mismo podría ocurrir pronto con el radiólogo (ya que las máquinas ya interpretan ciertas radiografías mejor que un ser humano), con el taxista, el periodista, el docente e incluso con el médico.
Es un mundo en el que todo evoluciona muy rápidamente, por lo tanto, debemos prepararnos. También hay que trabajar para hacer la IA más sostenible a nivel ambiental, con menores costos energéticos y un mayor respeto de las normativas.
En el futuro, además, será necesario superar la actual dependencia del texto: actualmente las máquinas aprenden principalmente a través de la lectura de la web en formato textual, pero algún día deberán generar sus propios datos en el mundo real, mediante robots o automóviles, y en ese caso ya no podremos “ver” fácilmente todo lo que aprenden. La investigación, en definitiva, está lejos de haber terminado.
En lo que respecta al trabajo, la sensación de estar siendo superado que hoy experimenta el traductor —al notar que la máquina realiza su labor de forma eficiente— pronto podría extenderse también a radiólogos, programadores, médicos, docentes y periodistas, en distintos contextos y aplicaciones.
¿Qué papel queda para los seres humanos?
Me interesa tanto a nivel filosófico como práctico. Filosóficamente, este es el momento de concentrarnos: tratemos de entender cuáles son aquellas cosas que nosotros nunca podremos hacer.
Yo lo llamo, en tono de broma pero no tanto, “el residuo”: lo que queda cuando la máquina ha tomado todo lo que puede. Ese residuo es lo que es únicamente humano. Tengamos en cuenta que esto vale en ambas direcciones: hay cosas que la máquina hace y que nosotros no podemos hacer —eso también es un “residuo”.
Iremos descubriendo estos territorios a medida que se vuelvan cada vez más difíciles de alcanzar, porque la máquina seguirá avanzando más y más, hasta que sobrepase la frontera y se sitúe en un mundo incomprensible para nosotros. Pero también, de nuestro lado, existen cosas que nosotros podemos hacer y que la máquina nunca podrá lograr.
Debemos identificarlas ahora, porque ahí es donde se juega nuestra identidad, nuestro trabajo y nuestra competitividad. No digo que sea fácil responder a esta pregunta humanista, pero es necesario afrontarla ya. No cometamos el error de descartar estas reflexiones repitiendo la vieja historia de que somos “insuperables” por alguna razón no explicada.
Expliquémosla, si la conocemos, la razón por la cual seríamos insuperables, porque los datos nos están contando una historia algo diferente.
¿Estamos viviendo una nueva revolución industrial?
Ha habido momentos en la historia similares a este, en los que una gran innovación técnica —la máquina de vapor, por ejemplo— provocó cambios profundos. Es cierto que con la introducción de la máquina de vapor hubo un trastorno, pero luego la gente se adaptó. Podemos esperar que también esta vez nos adaptaremos.
Sin embargo, recordemos que la máquina de vapor tuvo consecuencias importantes: dio inicio a un cierto tipo de industria, llevó el trabajo a las ciudades, desplazó a la población del campo a los centros urbanos y creó un proletariado que antes no existía, dando origen al socialismo y a las revoluciones. El mundo tomó un rumbo diferente gracias a una innovación técnica, y creo que esto puede volver a suceder.
Es el tipo de innovación capaz de cambiar el mundo. Tengamos en cuenta que “sobrehumano” puede parecer un término grandilocuente, pero simplemente indica aquello que supera los límites del ser humano. No es sobrenatural, no es mágico: una máquina sobrehumana es una máquina con capacidades superiores a las mías.
Si hablamos de inteligencia, en este caso significaría una máquina más inteligente que un ser humano, y debemos abordar esta cuestión con el desapego del científico: cómo se mide, cómo se identifica, cómo se construye, cómo se controla, cómo se contiene.
Esta es la misión de 2025 para los investigadores en este campo.
Artículo publicado en Settimananews el 14 de marzo de 2025.