OpenAI ha revelado una herramienta de clonación de audio que planea controlar estrictamente hasta que se establezcan medidas de seguridad para evitar la suplantación de audio destinada a engañar a los oyentes. Un modelo llamado «Voice Engine» puede reproducir el discurso de alguien basándose en una muestra de audio de 15 segundos, según los resultados compartidos en una publicación del blog OpenAI de una pequeña prueba de la herramienta. “Reconocemos que crear un discurso que se parezca a las voces de las personas conlleva serios riesgos. Esta es una de las principales preocupaciones en un año electoral”, afirmó la empresa con sede en San Francisco. “Estamos colaborando con nuestros socios estadounidenses. «Los investigadores de desinformación temen su uso. Abuso generalizado de aplicaciones impulsadas por IA en un año electoral crucial. Gracias a la ubicuidad de las herramientas de clonación de audio Son baratos, fáciles de usar y difíciles de localizar. Al reconocer estos problemas, OpenAI dijo que está «adoptando un enfoque cauteloso e informado para la distribución generalizada». Debido al posible uso indebido de voces sintéticas.» La cautelosa revelación se produce pocos meses después de que un consultor político que trabaja en la campaña presidencial del rival demócrata Joe Biden admitiera estar detrás de las llamadas automáticas, haciéndose pasar por el líder de los Estados Unidos. Una llamada generada por IA de los agentes del congresista de Minnesota Dean Phillips. Presenta lo que suena como si Biden instara a la gente a no votar en las primarias de New Hampshire en enero. El incidente ha causado alarma entre los expertos que temen un aumento de la desinformación profunda impulsada por la IA en la carrera por la Casa Blanca de 2024 y otras elecciones clave. A nivel mundial este año, OpenAI dijo que los socios que probaron Voice Engine acordaron reglas. Esto incluye exigir el consentimiento explícito e informado de cualquier persona cuyo audio se reproduzca usando la herramienta. También debe dejar claro a los espectadores cuándo el audio que están escuchando ha sido generado por IA, dijo la compañía. Y agregó: «Hemos implementado una serie de medidas de seguridad. Esto incluye marcas de agua para rastrear el origen de cualquier audio generado por Voice Engine, así como un monitoreo proactivo de cómo se usa”, dijo OpenAI. © 2024 AFP
Source link
+ There are no comments
Add yours