Google suspende su Gimini AI. Esto muestra errores raciales…

Google suspende su Gimini AI.  Esto muestra errores raciales…

Gimini tiene un comportamiento racista, dicen los funcionarios. De hecho, la herramienta de IA presentó imágenes de creación propia de soldados negros en Alemania en 1943, durante la era nazi. Esto llevó a Google a reconocer el error y afirmar que ya estaba trabajando para mejorar las representaciones de su tecnología.

Ilustración de Gimini, la herramienta de inteligencia artificial de Google

¿Puede la inteligencia artificial ser racista?

Google ha suspendido la creación de imágenes de personas realizadas por su inteligencia artificial (IA) Gemini debido a imprecisiones históricas y raciales generadas por la tecnología.

Rival de OpenAI, propietario de ChatGPT, la herramienta de Google crea imágenes, programas y produce tareas basadas en comandos ingresados ​​por los usuarios.

En los últimos días, varias personas que probaron la IA identificaron que las ilustraciones eran falsas y publicaron estos resultados en las redes sociales.

En una publicación sobre

Como se puede ver arriba, en uno de los errores identificados, un usuario le pide a Gemini que genere imágenes de soldados alemanes en 1943, durante la era nazi. Luego, la tecnología devuelve fotografías de soldados negros.

La herramienta también generó imágenes de personas no blancas cuando se les pidió una foto de los padres fundadores de los Estados Unidos, quienes, de hecho, son todos hombres blancos.

READ  Cambio radical en las copias de seguridad de WhatsApp que hacemos de los mensajes

¿Sabes qué es Gimini?

Gemini es un modelo de inteligencia artificial (IA) desarrollado por Google como el sistema más poderoso que su equipo haya creado jamás. Funcionó como el "motor" de Bard (el competidor de ChatGPT). A principios de este mes, la compañía decidió "matar" el nombre Bard y adoptar Gemini de una vez por todas.

Según el gigante de las búsquedas, Gemini fue diseñado desde cero para ser una herramienta "multimodal", capaz de trabajar con diferentes tipos de información, como texto, audio, códigos, imágenes y vídeo. Ahora la compañía ha anunciado que lanzará la función de imágenes en Gemini.

Google dice que, como toda IA, Gemini es propenso al problema de las alucinaciones, un error que hace que la respuesta de un robot incluya información incorrecta, sesgada o sin sentido. Sin embargo, afirman que Gemini es capaz de realizar las mejores evaluaciones de seguridad de una IA que su equipo haya creado jamás. El objetivo es que pueda evitar contenidos violentos o estereotipados, por ejemplo.

Desde el lanzamiento de ChatGPT en noviembre de 2022, Google ha trabajado para producir software de inteligencia artificial que rivalice con la solución OpenAI respaldada por Microsoft.

Written By
More from Celio Aragon
Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *