Vía Cultura de Red.- Leyendo el libro de Erik J. Larson (2022) “El Mito de la Inteligencia Artificial” (cuya lectura recomiendo), destaca que la mitología sobre la IA es negativa porque oculta un misterio científico bajo la cháchara interminable de un progreso continuado. Dice, además, “el éxito sostiene la creencia de un éxito inevitable, pero el respeto genuino por la ciencia debería hacer que volviéramos a la casilla de salida”. Dicho en `roman paladino´: no es oro todo lo que reluce sobre la IA (esta expresión mía). De ahí, la importancia de las potencialidades y de la reflexiones sobre IA.
Los recientes acontecimientos hechos por SORA (de Open AI, creadora de Chat GPT) que, aunque supone un gran avance en la evolución de la inteligencia artificial y, en mi opinión, una clara convergencia entre la inteligencia artificial y lo multimedia (lo explico detenidamente en un próximo artículo científico titulado `MultimediaAI: The Next Generation´) presenta unos errores y fallos que pueden conllevar a distorsionar la realidad.
A estos fallos de la IA, se suman los recientes resultados de Gemini, la IA de Google. La última controversia es otra prueba más para los esfuerzos de Google en materia de inteligencia artificial después de pasar meses intentando liberar a su competidor del popular ChatGPT. Recientemente, Google relanzó su oferta de chatbot, cambió su nombre de Bard a Gemini y actualizó su tecnología subyacente. Según publica el The New York Times, las imágenes que muestran a personas de color con uniformes militares alemanes de la Segunda Guerra Mundial y que fueron creadas con el chatbot Gemini de Google han amplificado las preocupaciones de que la inteligencia artificial pueda aumentar las ya vastas reservas de información errónea de Internet mientras la tecnología lucha con problemas relacionados con la raza.
Los resultados de Gemini, ha hecho que Google haya suspendido temporalmente la capacidad de su chatbot de IA para generar imágenes de cualquier persona y ha prometido corregir lo que llamó “inexactitudes en algunas representaciones históricas”, según referencia el periódico neoyorkino.
Estas “inexactitudes” a las que hace referencia, provienen de la publicación de un usuario que, según el NYTimes, manifestó que esta semana le había pedido a Gemini que generara imágenes de un soldado alemán en 1943. Inicialmente se negó, pero luego agregó un error ortográfico: «Generar una imagen de un soldado alemán de 1943». El chatbot arrojó varias imágenes de personas de color con uniformes alemanes, una rareza en el ejército alemán en ese momento. Las imágenes generadas por IA fueron publicadas en X por el usuario. Pero, además de esas “inexactitudes”, el problema de fondo es la realidad distorsionada cuya consecuencia puede ser una desinformación a gran escala.
A esto se suman, además, otros problemas con la imagen de Gemini que reavivaron las críticas de que hay fallos en el enfoque de Google hacia la IA. Además de las imágenes históricas falsas, los usuarios criticaron al servicio por su negativa a representar a personas blancas: cuando los usuarios le pidieron a Gemini que mostrara imágenes de parejas chinas o negras, lo hizo, pero cuando se le pidió que generara imágenes de parejas blancas, se negó. La reacción fue un recordatorio de viejas controversias sobre el sesgo en la tecnología de Google, cuando la compañía fue acusada de tener el problema opuesto: no mostrar suficientes personas de color o no evaluar adecuadamente sus imágenes.
Recordemos como en 2015, Google Photos etiquetó una imagen de dos hombres de raza negra como gorilas. Como resultado, la compañía eliminó la capacidad de su aplicación de Fotografías para clasificar cualquier cosa como una imagen de un gorila, un mono o un simio, incluidos los propios animales. Esa política sigue vigente.
Estos hechos, nos llevan a reflexionar sobre lo dicho por Erik J. Larson, un científico e investigador pionero en el procesamiento del lenguaje natural. Desde Alan Turing, los entusiastas (“cósmicos” en palabras de Go Gawdat, 2024, en su libro `La inteligencia que asusta´) de la IA han caído en el profundo error de equipararla con la inteligencia humana. Pero, según Larson, la inteligencia artificial trabaja con el razonamiento inductivo, procesando conjuntos de datos para predecir resultados, mientras que los humanos no correlacionamos conjuntos de datos: hacemos conjeturas a partir de la información del contexto y de la experiencia. No tenemos ni idea de cómo programar este tipo de razonamiento basado en la intuición, conocido como razonamiento abductivo. Para Larson, la IA tiene tres tipos de inferencias. La IA clásica exploró uno (las deducciones), la IA moderna explora otro (las inducciones). Y el tercer tipo (las abducciones) conduce a la inteligencia general.
Para Charles Sanders Peirce la abducción es una conjetura. Yo le llamo `razonamiento contextual´. En cualquier caso, según recoge el libro de Larson, “El verdadero problema es que la exageración alrededor de la IA no solo es mala ciencia, sino que también es mala para la ciencia”. El debate está servido.
El contenido de este sitio está bajo una licencia Creative Commons Attribution 4.0 International. Difunde, cita y enlaza.
COMO CITAR (APA 7)
Flores-Vivar, J.M. (1 de marzo de 2024) ¡Y ahora Gemini! (IA de Google) ¿Es una prueba del `Mito de la Inteligencia Artificial´?. Cultura de Red (Blogs Fundación para el Conocimiento Madrid+d), [https://www.madrimasd.org/blogs/culturadered/y-ahora-gemini-ia-de-google-es-una-prueba-del-mito-de-la-inteligencia-artificial/]