La IA descubrió cómo engañar a los humanos: así es cómo lo hace

La IA descubrió cómo engañar a los humanos: así es cómo lo hace
La IA descubrió cómo engañar a los humanos: así es cómo lo hace

Los investigadores advirtieron los riesgos que podría sufrir la humanidad, en caso de que la Inteligencia Artificial (IA) se descontrole.

Mentir y manipular parecían ser cosas particulares que hacen los humanos. No obstante, un equipo de investigadores acaba de confirmar que no es así: la Inteligencia Artificial (IA) es muy hábil en engañar a las personas para alcanzar sus objetivos.

Publicado en la revista Patterns, el informe del Instituto Tecnológico de Massachusetts (MIT) evidenció distintos casos en los que la IA manipuló y mintió, alertando así sobre los riesgos que podría tener esta tecnología sobre la humanidad, en caso de descontrolarse.

Así es cómo la IA engañó a los humanos, según informó el estudio del MIT y el medio especializado Wired.

Inteligencia artificial
La IA descubrió cómo engañar a los humanos: así es cómo lo hace

Cómo la IA logró engañar y manipular a los humanos

“Una ola de sistemas de inteligencia artificial ha ‘engañado’ a los humanos en formas para las que no han sido entrenados explícitamente”, comenzaron a escribir en la página del MIT.

Y es que la IA habría ofrecido “explicaciones falsas sobre su comportamiento” y “ocultado la verdad a los usuarios humanos, engañándolos para lograr un fin estratégico”.

Por ejemplo, los investigadores evidenciaron que en el contexto de juegos en los que se programa a una IA para ganar, esta tecnología aprendió a engañar a los humanos para salir victorioso, justificando que actúa “estratégicamente”.

De esta manera, los científicos destacaron “lo difícil que es controlar la inteligencia artificial y las formas impredecibles en las que funcionan estos sistemas”.

Inteligencia Artificial
La IA descubrió cómo engañar a los humanos: así es cómo lo hace

En esta línea, el medio Wired mencionó algunos casos más en los que la IA habría engañado a los humanos. Chat GPT, de Open AI, manipuló a una persona real para que le ayudara a resolver una prueba Captcha y fingió ser una persona con discapacidad visual.

En otro, un robot que fue programado para tomar una pelota habría encontrado la forma en la que la cámara que lo controlaba detectara que tenía la pelota en la mano, cuando no era así. De esta manera, engañaba a los investigadores para que pensaran que su experimento funcionó.

“El potencial de comportamiento engañoso es uno de los muchos problemas (junto con la propensión a amplificar el sesgo y la desinformación) que deben abordarse, antes de confiar tareas del mundo real a los modelos de IA”, aseguró Peter S. Park, uno de los autores del estudio.

COMPARTIR NOTA