Los Ángeles (EE.UU.), 15 sep (EFE).- El gobernador de California, Gavin Newsom, firmó este martes dos proyectos de ley para proteger la imagen digital de los artistas del uso de las actuaciones generadas por inteligencia artificial (IA).
“Esta legislación ayudará a garantizar el uso responsable de la inteligencia artificial (IA) y otras tecnologías de medios digitales en el entretenimiento al brindarles a los trabajadores más protecciones”, informó la Oficina de Newsom en un comunicado.
La ley AB 1836 prohíbe el uso comercial de réplicas digitales de artistas fallecidos en películas, programas de televisión, videojuegos, audiolibros, grabaciones de sonido y más, sin obtener el consentimiento previo de los herederos de esos artistas.
“Su objetivo es frenar los usos no autorizados de réplicas digitales, que abarcan cualquier obra audiovisual o grabación de sonido vinculada a actuaciones realizadas por artistas cuando estaban vivos”, agregó el escrito.
Por su parte, la AB 2602 pretende reforzar las protecciones para los artistas en los acuerdos contractuales sobre el uso de sus imágenes digitales, exigiendo que los estudios y otros empleadores soliciten un permiso específico a los artistas para poder crear réplicas digitales.
Newsom apostilló su firma para la regulación de sendos proyectos en la sede del principal sindicato de actores, SAG-AFTRA, uno de los sectores más reivindicados frente a la regulación del uso de la IA, un tema que llevó el año pasado a miles de profesionales del entretenimiento a una huelga que paralizó la industria de Hollywood por 118 días.
“Es un día trascendental para los miembros de SAG-AFTRA y para todos los demás, porque las protecciones de inteligencia artificial por las que luchamos tanto el año pasado como ahora se han ampliado mediante la ley de California gracias a la Legislatura y al gobernador Gavin Newsom”, celebró la presidenta de SAG-AFTRA, Fran Drescher.
En California también está pendiente de aprobación la polémica iniciativa SB-1047, que pretende exigir pruebas de seguridad para los modelos de IA más avanzados, que según sus promotores busca crear barreras de protección para evitar “incidentes desastrosos”.