Tras el escándalo, Google explica qué salió mal con Gemini…

Tras el escándalo, Google explica qué salió mal con Gemini…

Uno de los mayores problemas de los modelos de inteligencia artificial (IA) es que ocurren algunos imprevistos durante su entrenamiento. Recientemente, vimos a Gemini, el modelo de inteligencia artificial de Google, exhibir un comportamiento racial. Pero después de todo el escándalo que se vivió, Google vino a explicar qué pasaba…

Google Géminis (anteriormente Bard)

Tras la controversia, Google se disculpó en un artículo sobre X y luego dio una explicación más detallada de los errores de Géminis en su Blog.

Las explicaciones de Google sobre la excesiva inclusión de Géminis

Prabhakar Raghavan, vicepresidente senior de Búsqueda, Asistente, Anuncios, Mapas y productos relacionados de Google, comienza la publicación reconociendo el error y disculpándose. Google dice que "no quiere que Gemini se niegue a crear imágenes de un grupo en particular" o "cree imágenes históricas o inexactas". que en la práctica pueden ser dos conceptos antagónicos.

Por lo tanto, explica que si envías una solicitud a Gemini solicitar imágenes de un tipo específico de personacomo “un maestro negro en un salón de clases o un veterinario blanco con un perro o personas en un determinado contexto cultural o histórico, deberían obtener una respuesta que refleje exactamente lo que preguntan”.

La compañía de Mountain View dice que ha identificado dos sujetos como responsables de lo sucedido. Mas presisamente:

  • "Nuestro ajuste para garantizar que Géminis muestre una variedad de personas no tuvo en cuenta los casos en los que claramente no debería mostrar variedad".
  • “Con el tiempo, el modelo se volvió mucho más cauteloso de lo esperado y se negó a responder a determinadas solicitudes, malinterpretando algunas muy simples como sensibles. »
READ  Windows 11: ¡cómo cambiar la frecuencia de actualización y ahorrar!

Como resultado, la herramienta de imágenes de Gemini, que funciona con la Imagen 2, "compensaba excesivamente en algunos casos y era demasiado conservadora en otros".

Chatbot, IA

Como ya fue mencionado, Google prometió trabajar en más mejoras antes de reactivar la función para las personas mediante “pruebas exhaustivas”.

En su artículo, Raghavan hace una clara distinción entre Gemini y su motor de búsqueda, y recomienda encarecidamente confiar en la Búsqueda de Google, donde explica que sus "sistemas separados muestran información nueva y de alta calidad" sobre este tema. con fuentes web.

El comunicado finaliza con una advertencia: no pueden prometer que no volverá a suceder, abrir la puerta a resultados más inexactos, ofensivos y engañosos. Sin embargo, seguirán tomando medidas para remediar esta situación. Finalmente, destaca el potencial de la inteligencia artificial como una tecnología emergente con muchas posibilidades.

Lea también:

Written By
More from Celio Aragon
Qué esperar del panorama de las ciberamenazas en 2024
2023 ha sido un año muy ocupado para la ciberseguridad en Brasil...
Read More
Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *