Google defiende sus respuestas con inteligencia artificial tras múltiples errores garrafales

La compañía sigue defendiendo a sus Resúmenes IA.
La compañía sigue defendiendo a sus Resúmenes IA.

La compañía reconoció que en algunas respuestas a consultas satíricas existe un “vacío de datos”, pero no profundizó en los errores que se viralizaron ampliamente.

Durante la última semana se han dado a conocer múltiples problemas con los Resúmenes IA que entrega Google en lugares como Estados Unidos, pues comenzaron a utilizar elementos de inteligencia artificial para entregar más contexto a las búsquedas realizadas por los usuarios.

¿Resultado? algunas búsquedas dieron como resultado la sugerencia de añadir pegamento a la pizza o usar un juguete sexual en el gimnasio. En otro momento planteó que Arenita, el personaje de Bob Esponja, se quitó la vida intoxicada con cocaína y alcohol.

Tras la semana de controversias, la jefa de búsquedas de Google, Liz Reid, publicó en el blog oficial de la compañía un mensaje en el que respalda el uso de la inteligencia artificial que ha impulsado la compañía tecnológica y explica los errores garrafales que fueron entregados durante la última semana.

En primer lugar, aseguró que probaron la función de Resúmenes IA “exhaustivamente” antes del lanzamiento. “Esto incluyó sólidos esfuerzos de formación de equipos rojos, evaluaciones con muestras de consultas típicas de los usuarios y pruebas en una proporción del tráfico de búsqueda para ver su rendimiento. Pero no hay nada como que millones de personas utilicen la función con muchas búsquedas novedosas. También hemos visto nuevas búsquedas sin sentido aparentemente destinadas a producir resultados erróneos”, planteó la ejecutiva.

“Por otra parte, se ha compartido ampliamente una gran cantidad de capturas de pantalla falsas. Algunos de estos resultados falsos han sido obvios y tontos. Otros han dado a entender que obtuvimos resultados peligrosos en temas como dejar perros en los automóviles, fumar durante el embarazo y la depresión. Esas descripciones generales de IA nunca aparecieron. Por lo tanto, animamos a cualquiera que encuentre estas capturas de pantalla a que realice una búsqueda para comprobarlo”, planteó Reid.

La IA es tonta ante la sátira

La jefa de las búsquedas de Google reconoció que, en las búsquedas realizadas por los usuarios desde la luz verde, “ciertamente aparecieron algunas descripciones generales de IA extrañas, inexactas o inútiles. Y si bien generalmente eran para consultas que la gente no suele hacer, destacó algunas áreas específicas que necesitábamos mejorar”.

De acuerdo a Reid, ese tipo de resultados se dieron en base a su baja capacidad para interpretar “consultas sin sentido y contenido satírico”. Según explicó, en ese ámbito no existen contenido web que respondan seriamente a ese tipo de consultas, por lo que se denomina un “vacío de datos” o “brecha de información”, en la que hay una cantidad limitada de contenido de alta calidad sobre un tema.

“En otros ejemplos, vimos descripciones generales de IA que presentaban contenido sarcástico o troll en foros de discusión. Los foros suelen ser una gran fuente de información auténtica y de primera mano, pero en algunos casos pueden dar lugar a consejos poco útiles, como usar pegamento para hacer que el queso se adhiera a la pizza”, abordó Liz Reid.

En esa línea planteó que están trabajando en mejoras en los algoritmos e inclusive en los procesos establecidos para eliminar respuestas que no cumplen con las políticas de Google.

Entre esas mejores se incluyen los siguientes puntos:

- Crearon lo que definen como “mejores mecanismos de detección para consultas sin sentido que no deberían mostrar una descripción general de IA”. Para ello han limitado la inclusión de contenido satírico y humorístico.

- Actualizaron sus sistemas para “limitar el uso de contenido generado por usuarios en respuestas que podrían ofrecer consejos engañosos”.

- Agregaron restricciones de activación para consultas en las que las descripciones generales de IA no resultaron útiles.

- Para temas como noticias y salud, recalcan que cuentan con “con fuertes barreras de seguridad”. Por ejemplo, no mostrarán resúmenes de IA “para temas de noticias importantes, donde la frescura y la factualidad son importantes”.

COMPARTIR NOTA