Por Paulo QuinterosOpenAI da marcha atrás con Sora 2 y su locura de videos que infringían los derechos de autor
Tras una semana de caos con videos generados que usaban personajes con copyright, la empresa de Sam Altman cambió su política y permitirá el uso de material protegido solo si los titulares lo autorizan.

La libertad total que OpenAI dio a su nuevo modelo de video Sora 2 duró apenas una semana.
La compañía anunció que abandonará el sistema de “opt-out”, en el que los dueños de derechos debían solicitar ser excluidos, y pasará a un modelo de “opt-in”, que exigirá permiso previo para que los personajes aparezcan en videos generados con la herramienta.
El cambio responde a la ola de videos problemáticos que inundaron la plataforma social lanzada por OpenAI para mostrar las creaciones de Sora, muchos de ellos basados en material protegido. Entre los ejemplos más polémicos hubo varios de personajes históricos e ilustraciones nazi. También de IA con Maradona y Pelé en un ring de lucha libre.
La presión obviamente no tardó en llegar. El lunes, la Motion Picture Association (MPA) pidió públicamente a OpenAI poner fin a las posibles infracciones. En cuestión de días, la compañía cedió.
En una entrada de blog, Sam Altman defendió el nuevo enfoque afirmando que “muchos titulares de derechos están entusiasmados con este tipo de ‘fan fiction interactiva’”, pero desean definir por sí mismos los límites de uso. “Queremos que los titulares decidan cómo proceder”, escribió.
Altman reconoció, no obstante, que habrá “casos límite” en los que se filtren contenidos indebidos. Pero la MPA fue tajante: su director ejecutivo, Charles Rivkin, respondió que “la responsabilidad de prevenir infracciones es de OpenAI, no de los titulares de derechos”.
El debate no termina en los resultados de Sora. Un informe del Washington Post de septiembre reveló que el modelo original fue entrenado con material protegido sin autorización. No está claro si Sora 2 corrigió esa práctica, aunque su precisión para recrear obras con derechos de autor sugiere lo contrario.
El tema de los datos de entrenamiento para la IA también ha tenido consecuencias legales. Anthropic pagó 1.500 millones de dólares para resolver una demanda de autores cuyos libros fueron usados sin permiso. Pese a ello, algunos tribunales han dictaminado que ese tipo de uso podría considerarse “uso justo”.
Aunque desde ya hay usuarios molestos por no poder crear nuevos videos, el giro de OpenAI intenta evitar nuevos conflictos legales, dejando en evidencia la línea cada vez más fina entre creatividad, derechos de autor y control corporativo en la era de la inteligencia artificial.
Imperdibles
Lo último
00:32
00:01
01:51
23:29
23:22
Lo más leído
2.
3.
4.

















