Vía Cultura de Red.- En el mundo de la inteligencia artificial afloran todo tipo de opiniones sobre esta tecnología. Centrándonos en un enfoque positivista y negativista o de oportunismo o catastrofismo, las opiniones en ambas corrientes no paran de crecer. Desde reputados científicos hasta el ciudadano usuario de la IA, las opiniones se encuentran divididas en ambos bandos.
Sin embargo, podríamos decir que existe una tercera corriente: el de los reflexivos. Estos son los menos porque implica una capacidad de razonamiento, a veces metafísico, sobre esta tecnología disruptiva. Y no todos están por la labor. Llama la atención que en esta tercera corriente se asientan quienes han sido -y son- los «precursores», ideadores primero y creadores después, de la inteligencia artificial. Sobre este perfil llama la atención las reflexiones de uno de los artífices de la inteligencia artificial actual, Geoffrey Hinton, considerado el `padrino de la IA´, exdirector ejecutivo de Google y creador de las redes neurales, por las que fue premiado, junto a Yoshua Bengio y Yann LeCun, del Premio Turing (2018) y junto a John Hopfield del Premio Nobel (2024). Hinton ha sido el pionero en la investigación sobre las redes neuronales para aprendizaje de máquina, memoria, percepción y procesamiento de símbolos y promotor del uso del algoritmo de retropropagación generalizado para entrenar redes neuronales multicapa que ha sido ampliamente utilizado por los actuales sistemas de IA como ChatGPT o Perplexity.
Recientemente, Hinton fue entrevistado por Matt Egan, cuya entrevista se publicó en el sitio web de la cadena estadounidense CNN, el pasado 14 de agosto de 2025, en donde advierte «que existe una probabilidad del 10% al 20% de que la IA aniquile a los humanos». Destaca además que “los sistemas de IA podrían controlar a los humanos con la misma facilidad con la que un adulto puede sobornar a un niño de tres años con dulces». Pone el ejemplo de cómo un modelo de IA, para evitar ser reemplazado, intentó chantajear a un ingeniero por una aventura de la que se enteró por correo electrónico. Para evitar el riesgo de la dominación del imperio de la IA, Hinton propone el «instinto materno» en la educación de los sistemas inteligentes.
Y otras cuestiones que invitan a la reflexión. A continuación, la entrevista traducida al español. Su lectura no tiene desperdicio.
El ‘padrino de la IA’ revela la única forma en que la humanidad puede sobrevivir a una IA superinteligente
Matt Egan. CNN
Actualizado el 14 de agosto de 2025
Geoffrey Hinton, conocido como el `padrino de la IA´, teme que la tecnología que ayudó a construir pueda acabar con la humanidad, y los «hermanos de la tecnología» están adoptando el enfoque equivocado para detenerlo.
Hinton, científico informático ganador del Premio Nobel y exejecutivo de Google, ha advertido anteriormente que existe una probabilidad del 10% al 20% de que la IA aniquile a los humanos. El martes, expresó sus dudas sobre cómo las empresas tecnológicas intentan garantizar que los humanos sigan siendo «dominantes» sobre los sistemas de IA «sumisos».
«Eso no va a funcionar. Serán mucho más inteligentes que nosotros. Tendrán todo tipo de maneras de sortearlo», dijo Hinton en Ai4, una conferencia del sector en Las Vegas.
En el futuro, advirtió Hinton, los sistemas de IA podrían controlar a los humanos con la misma facilidad con la que un adulto puede sobornar a un niño de tres años con dulces. Este año ya hemos visto ejemplos de sistemas de IA dispuestos a engañar, estafar y robar para lograr sus objetivos. Por ejemplo, para evitar ser reemplazado, un modelo de IA intentó chantajear a un ingeniero por una aventura de la que se enteró por correo electrónico.
En lugar de obligar a la IA a someterse a los humanos, Hinton presentó una solución intrigante: incorporar «instintos maternales» en los modelos de IA, para que «realmente se preocupen por la gente» incluso cuando la tecnología se vuelva más poderosa e inteligente que los humanos.
Los sistemas de IA «desarrollarán rápidamente dos subobjetivos, si son inteligentes: uno es sobrevivir… y el otro es obtener más control», dijo Hinton. «Hay buenas razones para creer que cualquier tipo de agente de IA intentará sobrevivir».
Por eso es importante fomentar la compasión por las personas, argumentó Hinton. En la conferencia, señaló que las madres tienen instintos y presión social para cuidar a sus bebés.
«El modelo correcto es el único modelo que tenemos de una cosa más inteligente controlada por una cosa menos inteligente, que es una madre controlada por su bebé», dijo Hinton.
‘El único resultado bueno’
Hinton dijo que no tiene claro exactamente cómo se puede hacer eso técnicamente, pero enfatizó que es fundamental que los investigadores trabajen en ello.
«Ese es el único buen resultado. Si no va a criarme, me va a reemplazar», dijo. «La mayoría de estas madres superinteligentes y cariñosas IA no querrán deshacerse del instinto maternal porque no quieren que muramos».
Hinton es conocido por su trabajo pionero en redes neuronales, que contribuyó a allanar el camino hacia el auge actual de la IA. En 2023, dejó Google y comenzó a denunciar los peligros de la IA.
No todo el mundo está de acuerdo con el enfoque de inteligencia artificial madre de Hinton.
Fei-Fei Li, conocida como la `madrina de la IA´ por su trabajo pionero en el campo, dijo a CNN el miércoles que respetuosamente discrepa con Hinton, su amigo de toda la vida. «Creo que esa es la forma incorrecta de plantearlo», dijo Li, cofundador y director ejecutivo de la empresa emergente de inteligencia espacial World Labs, durante una charla informal en Ai4.
En cambio, Li pide una «IA centrada en el ser humano que preserve la dignidad y la autonomía humanas». Es nuestra responsabilidad, a todos los niveles, crear y utilizar la tecnología de la manera más responsable. Y en ningún momento, ni un solo ser humano debería ser obligado a renunciar a su dignidad, ni debería elegirlo —dijo Li—. Solo porque una herramienta es poderosa, como madre, como educadora e inventora, creo firmemente que este es el núcleo de cómo debe centrarse la IA.
Emmett Shear, quien se desempeñó brevemente como director ejecutivo interino de OpenAI, propietario de ChatGPT, dijo que no le sorprende que algunos sistemas de IA hayan intentado chantajear a los humanos o eludir las órdenes de cierre.
«Esto sigue sucediendo. No va a dejar de suceder», declaró Shear, director ejecutivo de Softmax, la startup especializada en alineación de IA, en la conferencia Ai4. «Las IA actuales son relativamente débiles, pero se están fortaleciendo rápidamente».
Shear dijo que, en lugar de intentar inculcar valores humanos en los sistemas de IA, un enfoque más inteligente sería forjar relaciones de colaboración entre los humanos y la IA.
La IA se está acelerando más rápido de lo esperado
Muchos expertos creen que las IA alcanzarán la superinteligencia, también conocida como inteligencia artificial general o AGI, en los próximos años. Hinton dijo que solía pensar que podría tomar entre 30 y 50 años lograr la IAG, pero ahora ve que ese momento llegará antes. «Una apuesta razonable es que durará entre cinco y veinte años», afirmó.
Aunque Hinton sigue preocupado por lo que podría salir mal con la IA, tiene la esperanza de que la tecnología abra el camino hacia avances médicos. «Vamos a ver nuevos medicamentos radicales. Vamos a obtener tratamientos contra el cáncer mucho mejores que los actuales», sostuvo. Por ejemplo, afirmó que la IA ayudará a los médicos a analizar y correlacionar la enorme cantidad de datos generados por las resonancias magnéticas y las tomografías computarizadas.
Sin embargo, Hinton no cree que la IA ayude a los humanos a alcanzar la inmortalidad.
«No creo que vivamos para siempre», dijo Hinton. «Creo que vivir para siempre sería un gran error. ¿Quieres que el mundo esté gobernado por hombres blancos de 200 años?»
Cuando se le preguntó si hay algo que hubiera hecho de manera diferente en su carrera si hubiera sabido lo rápido que aceleraría la IA, Hinton dijo que lamenta haberse centrado únicamente en lograr que la IA funcione.
«Me hubiera gustado pensar también en las cuestiones de seguridad», dijo.
Fuente original: https://edition.cnn.com/2025/08/13/tech/ai-geoffrey-hinton
El contenido de este sitio está bajo una licencia Creative Commons Attribution 4.0 International. Difunde, cita y enlaza.
COMO CITAR (APA 7)
Flores-Vivar, J.M. (30 de agosto de 2025). Sobrevivir a la superinteligencia artificial. Cultura de Red (Blogs Fundación para el Conocimiento Madrid+d), [https://shorturl.at/jCJgE]