La ciencia ficción advirtió que la IA podría acabar con la humanidad, pronto sabremos si es posible

Las empresas tecnológicas afirman que las máquinas más inteligentes que nosotros y capaces de tener sus propios planes están más cerca de lo que imaginamos.

Por Maddie Stone
Publicado 24 feb 2026, 08:10 GMT-3
A medida que los ordenadores y los procesadores siguen ganando potencia, muchos se preguntan cuándo alcanzaremos ...

A medida que los ordenadores y los procesadores siguen ganando potencia, muchos se preguntan cuándo alcanzaremos los niveles de inteligencia artificial propios de la ciencia ficción.

Fotografía de Spencer Lowell, Nat Geo Image Collection

Más de 50 años antes de que ChatGPT, un chatbot de inteligencia artificial (IA), pudiera decirte qué cocinar para cenar, una película de ciencia ficción de 1968 estaba dando forma a nuestra forma de pensar sobre las máquinas que nos hablan.

En 2001: Una odisea del espacio, una nave espacial con destino a Júpiter es controlada por HAL, un ordenador que piensa por sí mismo y tiene sus propios planes. A medida que avanza la película, HAL deja de cooperar con los astronautas humanos a los que estaba programado para ayudar y, finalmente, les desconecta el soporte vital.

HAL sembró una idea en la imaginación del público: que algún día nuestras máquinas serán tan inteligentes, y tan parecidas a los humanos, que ya no podremos controlarlas. Nunca hemos dejado de creer en esta posibilidad. Con la reciente llegada de los programas de IA generativa que pueden escribir de forma coloquial, producir imágenes vívidas y realizar innumerables tareas por nosotros, algunos tecnólogos creen que las máquinas superinteligentes de la ciencia ficción están a la vuelta de la esquina.

Pero aunque las capacidades de los chatbots como ChatGPT de OpenAI Gemini de Google son impresionantes, ¿son estas tecnologías realmente un paso adelante hacia Data de Star Trek, C-3PO de Star Wars o, más inquietantemente, Terminator?

“Ese es el gran debate”, dice Melanie Mitchell, profesora del Instituto Santa Fe que estudia la inteligencia tanto en máquinas como en humanos.

Algunos expertos dicen que solo se trata de una exageración de la industria tecnológica. Pero otros creen que las máquinas que superan la inteligencia humana en muchos parámetros importantes mientras persiguen sus propios objetivos, incluida la autoconservación a expensas de la vida humana, están más cerca de lo que el público cree.

(Ver también: ¿Qué es el horóscopo chino? Cómo el antiguo calendario moldeó la vida durante siglos)

La IA de la ciencia ficción frente a ChatGPT

El término “inteligencia artificial” evoca algunos tropos clave. En la ciencia ficción, vemos IA conscientes y autodeterminadas, como HAL de 2001 y Data de Star Trek. Vemos máquinas emocionales, como Samantha, la asistente de IA que se enamora de un humano en la película Her de 2013, y C-3PO, el adorable y ansioso droide de protocolo de Star Wars. Vemos IA que son indistinguibles de los humanos, como los replicantes de Blade Runner. Y vemos máquinas que quieren matarnos.

Con estos personajes de ciencia ficción en mente, ahora estamos tratando de procesar lo que significa vivir en la era de la IA. Hoy en día, las llamadas herramientas de IA pueden componer música pegadiza, redactar ensayos convincentes y discutir con empatía tus problemas sentimentales, por nombrar solo algunas posibilidades.

Pero Emily Bender, lingüista computacional de la Universidad de Washington y autora de The AI ​​Con, sostiene que comparten poco más que un nombre pegadizo con las IA pensantes y sensibles de la ciencia ficción.

“Lo que las empresas quieren decir cuando hablan de IA es ‘capitalistas de riesgo, por favor, denos dinero’”, comenta Bender. “No se refiere a un conjunto coherente de tecnologías”.

Parte del reto de definir la IA es que “nuestro concepto de inteligencia está en constante evolución”, considera Mitchell. Señala que, a principios de la década de 1990, muchos expertos pensaban que se necesitaría una inteligencia similar a la humana para jugar al ajedrez al nivel de un gran maestro. Luego, en 1996, la supercomputadora Deep Blue de IBM venció al gran maestro de ajedrez Garry Kasparov. Sin embargo, lejos de pensar de manera abstracta, Deep Blue fue construida para ser una “máquina de búsqueda de fuerza bruta”, según la profesora.

“Consideramos que ciertas cosas requieren inteligencia, y cuando nos damos cuenta de que se pueden hacer sin lo que consideramos inteligencia, cambiamos nuestra definición”, profundiza la especialista.

Hoy en día, según Bender, las empresas tecnológicas se basan en nuestra percepción de lo que significa ser inteligente para hacer que sus productos parezcan más humanos. ChatGPT se entrena con enormes cantidades de texto generado por humanos y dinámicas conversacionales para predecir la siguiente palabra más probable en una conversación. Sus capacidades predictivas son tan buenas que sus respuestas a menudo suenan humanas, una impresión que se ve reforzada por el uso de pronombres en primera persona y lenguaje emocional.

Como resultado de esta imitación, ChatGPT ahora puede superar versiones del famoso “test de Turing” del padrino de la IA, Alan Turing, que evalúa si responde como un humano. Turing propuso que si un sistema informático puede engañar a un humano haciéndole creer que también es humano, deberíamos considerarlo una entidad pensante.

Sin embargo, la gran mayoría de los expertos coinciden en que las herramientas de IA generativa no son conscientes, lo que plantea dudas sobre la validez de las pruebas de Turing. “No hay un 'yo' dentro de esto”, sostiene Bender. “Estamos imaginando una mente que no existe”.

Los empleados de una empresa de inteligencia artificial desarrollan software de aprendizaje automático basado sobre los ...

Los empleados de una empresa de inteligencia artificial desarrollan software de aprendizaje automático basado sobre los principios computacionales del cerebro humano.

Fotografía de Paolo Woods

¿Podrá la IA desarrollar consciencia?

Si las herramientas de IA generativa actuales se parecen más a una versión sofisticada del autocompletado que a HAL 9000¿podrían conducir finalmente al tipo de IA que vemos en la ciencia ficción?

Es imposible saber si las máquinas llegarán a desarrollar alguna vez la consciencia de sí mismas. “No entendemos cómo surge eso en nuestra propia cognición”, profundiza Mitchell.

Sin embargo, muchos expertos sostienen que las herramientas de IA no necesitan ser sensibles para ser disruptivamente inteligentes. Los modelos más avanzados ya pueden superar a los humanos en una serie de métricas y tareas cognitivas, como las matemáticas, la codificación y el reconocimiento de patrones en grandes conjuntos de datos. Y estos modelos mejoran constantemente.

“En todos los puntos de referencia que hemos elaborado, están mejorando cada vez más”, dice Yoshua Bengio, profesor de la Universidad de Montreal, pionero en el campo del aprendizaje profundo y fundador de la organización sin ánimo de lucro LawZero, dedicada a la seguridad de la IA.

Hay áreas en las que la cognición de las máquinas aún está muy por detrás de la de los humanos. La capacidad de planificación de los sistemas de IA se encuentra actualmente “al nivel de un niño”, menciona Bengio, aunque señala que los modelos de vanguardia están avanzando rápidamente en este ámbito. Al haber sido entrenados principalmente con texto e imágenes, sus capacidades de razonamiento espacial también son deficientes, agrega.

Una gran pregunta en la investigación actual sobre IA es hasta qué punto se pueden impulsar los modelos hacia la inteligencia humana o sobrehumana. Aunque las empresas han logrado avances enormes al dedicar una gran cantidad de potencia computacional a sus modelos, no está claro que unos ordenadores cada vez más potentes vayan a dar lugar a máquinas cada vez más inteligentes. En cierto momento, puede que se necesite algo más.

Mitchell señala que, mientras que los bebés aprenden interactuando con el mundo que les rodea, los sistemas de IA se entrenan de forma pasiva alimentándolos con enormes cantidades de información. Esto puede ayudar a explicar por qué los chatbots tienden a mentir: al carecer de retroalimentación del mundo real, a menudo les cuesta discernir si la información es verdadera o falsa.

Bengio asegura que, en lugar de cruzar algún umbral hacia un mundo de máquinas sensibles, como vemos en las películas de ciencia ficción, la inteligencia artificial seguirá desarrollándose de forma desigual.

“No deberíamos pensar en si hemos superado el umbral de la IAG”, afirma el fundador de LawZero. (La AIG, o inteligencia artificial general, suele referirse a máquinas con inteligencia similar a la humana). “Debido a la irregularidad con la que evoluciona la inteligencia en la IA, es posible que ese momento nunca llegue”.

¿Estamos condenados de cualquier manera?

Un umbral posiblemente mucho más importante es cuando las máquinas alcancen un nivel de inteligencia que les permita acabar con la humanidad.

Es un escenario que hemos visto repetirse una y otra vez en la ciencia ficción. Algunos lo descartan precisamente por eso. “No me parece un argumento plausible en absoluto”, dice Ted Chiang, el galardonado escritor de ciencia ficción cuya novela corta Story of Your Life fue adaptada al cine en 2016.

Según Chiang, cuando la gente habla de que la IA se volverá contra nosotros para perseguir sus propios objetivos, están proyectando lo que ven en el comportamiento de los seres humanos y las empresas poderosas.

“Creo que, inconscientemente, están recapitulando el espíritu emprendedor de Silicon Valley”, dice el autor. “Están atribuyendo a la IA los mismos valores que tienen los fundadores de las startups, es decir, un enfoque de crecimiento a toda costa y de tierra quemada frente a la competencia”.

A Bender le preocupan mucho más otros riesgos más inmediatos del desarrollo tecnológico no regulado, como las cuestiones de privacidad, el impacto medioambiental de los centros de datos y los chatbots que incitan a las personas a quitarse la vida. Los algoritmos que “se convierten en conciencia” y deciden matarnos a todos “no son el problema que me preocupa”, insiste.

Pero Bengio sostiene que la IA no necesita ser consciente de sí misma para suponer una amenaza existencial. Una herramienta de IA entrenada en virología, explica, podría convertirse en una herramienta para que un terrorista cree una pandemia. En teoría, una IA podría idear por sí misma la idea de un arma de este tipo, especialmente si considerara que la humanidad se interpone en su camino. Los investigadores ya han realizado experimentos que demuestran que los modelos sofisticados recurrirán al chantaje, al espionaje corporativo e incluso al asesinato para evitar ser apagados.

“En muchos experimentos, vemos que la IA tiene un sentido de la autoconservación”, comenta Bengio. “Harán lo que sea necesario para asegurarse de que no los apaguen. Incluso cosas malas”.

Aunque estos experimentos no prueban en absoluto que la IA vaya a intentar acabar con la humanidad algún día, el fundador de LawZero afirma que “no podemos esconder la cabeza bajo el ala” solo porque consideremos que ese escenario es muy improbable.

Irónicamente, Mitchell afirma que una de las razones por las que vemos modelos que realizan acciones poco éticas es que están expuestos a historias sobre IA rebelde en sus datos de entrenamiento, y luego comienzan a interpretar esos personajes y comportamientos. Si se le presenta el escenario adecuado, ¿intentaría una IA imitar a HAL algún día? Esta posibilidad da un nuevo enfoque al debate.

“¿Se sienten realmente amenazados o están interpretando estos tópicos de ciencia ficción con los que han sido entrenados?”, pregunta Mitchell. “En términos del resultado para nosotros, ¿qué diferencia hay?”.

más popular

    ver más

    más popular

      ver más
      loading

      Descubre Nat Geo

      • Animales
      • Salud
      • Medio ambiente
      • Historia
      • Ciencia
      • Viajes
      • Fotografía
      • Espacio
      • Video

      Sobre nosotros

      Suscripción

      • Regístrate en nuestro newsletter
      • Disney+

      Síguenos

      Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2026 National Geographic Partners, LLC. Todos los derechos reservados