23.3 C
Córdoba
23 septiembre, 2024

“Es inaceptable”: el enojo del CEO de Google por los resultados racistas de la inteligencia artificial Gemini

Sundar Pichai salió al ruedo a explicar el comportamiento de sistema, que creó imágenes tan delirantes como polémicas. “Trabajamos las 24 horas del día para corregirlo”, dijo.

29 de febrero 2024, 11:56hs

Además del mea culpa, Pichai se escudó al señalar que “ninguna IA es perfecta en este momento”. (Foto: EFE/EPA/MICHAEL REYNOLDS)

Además del mea culpa, Pichai se escudó al señalar que “ninguna IA es perfecta en este momento”. (Foto: EFE/EPA/MICHAEL REYNOLDS)

Gemini, la flamante inteligencia artificial generativa de Google, recientemente protagonizó una polémica por una serie de creaciones que, tal como señalamos en TN Tecno, fueron delirantes e inexactas, además de teñidas de sesgos racistas. En ese marco, el CEO de la compañía, Sundar Pichai, no se escondió. Hizo mea culpa indicando que ese comportamiento del sistema es “inaceptable”, aunque se escudó al mencionar que, en este momento, “ninguna IA es perfecta”.

El CEO de Google reacciona a las acusaciones contra Gemini

La semana pasada, la compañía estadounidense pausó el acceso a Gemini tras la circulación de numerosas imágenes creadas por usuarios, que revelaron sesgos racistas en el generador, además de incongruencias notables. “Las fotos en cuestión no solo eran incorrectas en términos históricos, sino que además exageraban la diversidad, al punto que representaron soldados nazis afroamericanos y reyes medievales de tez oscura”, explicábamos.

Acusado de sesgo racista, Google bajó su generador de imágenes por inteligencia artificial: los mejores memes. (Capturas: Twitter/GummyBear)

Acusado de sesgo racista, Google bajó su generador de imágenes por inteligencia artificial: los mejores memes. (Capturas: Twitter/GummyBear)

Por otra parte, la tecnología de Google se negó a crear imágenes de “gente blanca”, según reportaron usuarios del sistema de inteligencia artificial. En función de ello, se acusó a la empresa de Mountain View de un sesgo racista en la programación y entrenamiento del chatbot.

Leé también: Google arremete con Gemma, una variante de su inteligencia artificial más liviana y abierta

Tal como indicamos, el director ejecutivo de la firma dijo que ese comportamiento de Gemini es “inaceptable”, y que trabajan las 24 horas del día para corregirlo. “Ninguna IA es perfecta, especialmente en esta etapa emergente del desarrollo de la industria. Pero sabemos que la vara está alta para nosotros y lo mantendremos durante el tiempo que sea necesario”, dijo Pichai al personal de la compañía. “Revisaremos lo que sucedió y nos aseguraremos de solucionarlo”, cerró.

“Revisaremos lo que sucedió y nos aseguraremos de solucionarlo”, prometió Sundar Pichai. (Foto: AFP/ALAIN JOCARD)

“Revisaremos lo que sucedió y nos aseguraremos de solucionarlo”, prometió Sundar Pichai. (Foto: AFP/ALAIN JOCARD)

Al respecto, observa el sitio Engadget: “Parece que Google estaba tratando de complacer a una audiencia global y garantizar que el modelo no cayera en algunas de las trampas en las que incurrieron los productos rivales, como crear imágenes sexualmente explícitas o representaciones de personas reales”. Por lo demás, siguiendo a la fuente mencionada, “ajustar estos sistemas IA es un trabajo extremadamente delicado, ya que software puede fácilmente cometer errores ridículos”.

Polémica con Google Gemini: ¿cuándo volverá a crear imágenes?

Ahora, la generación de imágenes con Gemini está fuera de servicio. Así será hasta que se remedien los comportamientos por los que recibió un aluvión de críticas. Para que vuelva a funcionar, desde la empresa estadounidense mencionaron que requiere “cambios estructurales, pautas de producto actualizadas, procesos de lanzamiento mejorados, evaluaciones sólidas y recomendaciones técnicas”.

Gemini es la apuesta de Google para competir con ChatGPT de OpenAI. (Foto: Adobe Stock)

Gemini es la apuesta de Google para competir con ChatGPT de OpenAI. (Foto: Adobe Stock)Por: gguy – stock.adobe.com

Además, Google comentó que trabajan con los denominados “equipos rojos”. Esa terminología heredada de la Guerra Fría refiere a grupos de expertos que diagraman simulaciones extremas, para que los sistemas se comporten agresivamente. De esa forma, en un entorno controlado, es posible diseñar protecciones eficientes.

Últimas Noticias
NOTICIAS RELACIONADAS