La compañía ha recibido duras críticas por cómo su herramienta de IA ha representado diferentes situaciones históricas. Tanto así que su CEO, Sundar Pichai, las ha considerado “completamente inaceptables”.
La reconocida compañía de informática, Google, ha recibido duras críticas por parte de los usuarios por cómo su herramienta basada en inteligencia artificial, Gemini AI, ha representado diferentes situaciones históricas.
De acuerdo a lo publicado por el medio The Verge, la IA de Google ha mostrado resultados complemente fuera de lugar, como un grupo de soldados nazi con rasgos afrodescendientes o asiáticas.
Al respecto, el presidente ejecutivo de la compañía, Sundar Pichai, rechazó los resultados que arrojó su inteligencia artificial, afirmando que son «completamente inaceptables».
“Quiero abordar los problemas recientes con respuestas problemáticas de texto e imágenes en la aplicación Gemini (anteriormente llamada Bard). Sé que algunas de sus respuestas han ofendido a nuestros usuarios y han mostrado parcialidad; para ser claros, eso es completamente inaceptable y nos equivocamos”, escribió Pichai en un correo electrónico.
Del mismo modo, Gemini mostró un terrible error al ser consultado por senadores estadounidenses de 1800 que, como se sabe, todos eran de tez blanca. No obstante, la herramienta los representó de una manera muy diferente, con una mujer negra vestida de época, un hombre asiático también vestido de época, una mujer latina rodeada de hombres blancos y una mujer nativa americana vestida con un traje típico y una diadema de plumas.
“Ningún IA es perfecta, especialmente en esta etapa emergente del desarrollo de la industria, pero sabemos que el listón es alto para nosotros y lo mantendremos así durante el tiempo que sea necesario”, agregó Sundar.
Google se ha dispuesto en estos días a trabajar para solucionar estos inconvenientes con la función de generación de imágenes de Gemini. Por ahora, han decidido pausar la generación de imágenes de personas hasta tener una versión mejorada.