Durante casi 30 años, Oren Etzioni ha sido uno de los investigadores de inteligencia artificial más optimistas, pero en 2019, el Dr. Etzioni, profesor de la Universidad de Washington y director ejecutivo fundador del Instituto Allen para la IA, se convirtió en uno de los primeros investigadores. para advertir que nuevas variedades de IA acelerarán la difusión de desinformación en línea Y a mediados del año pasado, dijo que le preocupaba que los deepfakes generados por IA provocaran elecciones a gran escala y fundó TrueMedia.org. , una organización sin fines de lucro, en enero con la esperanza de combatir la amenaza. el martes La organización ha lanzado una herramienta gratuita para identificar la desinformación digital y planea poner esta información en manos de los periodistas. verificador de hechos Y cualquiera que intente entender Descubra lo real en línea Varias herramientas disponible en el sitio web TrueMedia.org Para cualquier persona aprobada por una organización sin fines de lucro. Está diseñado para detectar imágenes, audio y videos falsos o alterados. Revisan enlaces a archivos multimedia y juzgan rápidamente si se debe confiar en ellos o no.Dr. Etzioni ve estas herramientas como una mejora del mosaico de defensas que se utilizan actualmente para detectar contenido de IA engañoso o engañoso. Pero en un año en el que miles de millones de personas en todo el mundo se preparan para votar en las elecciones, Aún así, pinta un panorama sombrío de lo que nos espera: «Estoy muy asustado», dijo. «Hay muchas posibilidades de que veamos mucha desinformación». , La tecnología de inteligencia artificial ayudó a dar forma a las llamadas. Falso del presidente Biden Fotos y anuncios de audio falsos de Taylor Swift y todo eso: una entrevista falsa que parece mostrar a un funcionario ucraniano atribuyéndose el mérito del ataque terrorista en Moscú. Detectar este tipo de desinformación es difícil, y la industria tecnológica continúa lanzando sistemas de inteligencia artificial cada vez más poderosos que crean deepfakes más confiables y dificultan aún más la detección. Muchos investigadores de inteligencia artificial advierten que la amenaza está cobrando fuerza. el mes pasado Más de mil personas, incluido el Dr. Etzioni y muchos otros destacados investigadores de IA, firmaron una carta abierta pidiendo una legislación que responsabilice a los desarrolladores y distribuidores de servicios audiovisuales de IA por: Su tecnología se utiliza fácilmente para crear Deepfakes maliciosos. En un evento organizado por la Universidad de Columbia el jueves, la ex Secretaria de Estado Hillary Clinton Entrevista con el ex director ejecutivo de Google, Eric Schmidt, advirtiendo que el vídeo Incluso los vídeos falsos pueden “impulsar el comportamiento electoral”. El comportamiento humano, las emociones, todo.» «No creo que estemos preparados», dijo Schmidt. “Este problema sólo va a empeorar mucho en los próximos años. Quizás o quizás no para noviembre. Pero definitivamente en la próxima ronda”. La industria tecnológica es muy consciente de la amenaza. Aunque las empresas Compiten para desarrollar sistemas creativos de IA. También han luchado por limitar el daño que estas tecnologías pueden causar: Anthropic, Google, Meta y OpenAI han anunciado planes para limitar o etiquetar el uso de servicios de inteligencia artificial relacionados con las elecciones. en febrero Veinte empresas de tecnología, incluidas Amazon, Microsoft, TikTok y otras, suelen publicar su tecnología como software. “Código abierto”, lo que significa que cualquiera puede usarlo y modificarlo libremente y sin restricciones. Los expertos dicen que la tecnología utilizada para crear deepfakes es el resultado de enormes inversiones por parte de algunas de las empresas más grandes del mundo. Siempre superará a las tecnologías diseñadas para detectar desinformación. La semana pasada, durante una entrevista con The New York Times, el Dr. Etzioni mostró lo fácil que es crear un deepfake. Aprovechando los servicios de CivAI, una organización afiliada sin fines de lucro que utiliza herramientas de inteligencia artificial disponibles en Internet para demostrar los peligros de estas tecnologías. Así que inmediatamente creó una fotografía de sí mismo en prisión, un lugar en el que nunca había estado. “Cuando ves que se burlan de ti mismo. Fue extraordinariamente aterrador”, dijo, y más tarde creó una imagen falsa de sí mismo en una cama de hospital. Una imagen ultrafalsa creada por el Dr. Etzioni de sí mismo en la cama del Credit Hospital… a través de Oren Etzoni Las herramientas de TrueMedia están diseñadas para detectar falsificaciones como esta. Más de una docena de nuevas empresas ofrecen tecnología similar, pero el Dr. Etzoini, al discutir el desempeño de las herramientas de su grupo, dijo que ningún detector es perfecto porque está impulsado por la probabilidad. El servicio de detección de deepfake fue engañado para declarar imágenes de robots besándose y neandertales gigantes como fotos reales Planteó preocupaciones de que tales herramientas pudieran socavar la confianza de la sociedad en los hechos y la evidencia cuando el Dr. Etizoni alimentó las herramientas de TrueMedia con una conocida falsificación de la okupación de Trump. con un grupo de jóvenes negros especificando que este grupo “Muy sospechoso” fue su mayor nivel de confianza. Cuando subió otro conocido DeepFake del dedo de Trump manchado de sangre, «no estaban seguros» de si era real o falso. El sistema de inteligencia artificial del expresidente Donald J. Trump se agachó con un grupo de jóvenes negros que fueron etiquetados como «altamente sospechosos». por las herramientas de TrueMedia, pero eran falsas. Trump, cuyo dedo estaba manchado de sangre, fue tildado de «inestable». «Incluso con las mejores herramientas Todavía no estás seguro», dijo. Algunas empresas, incluidas OpenAI y Meta, están etiquetando imágenes generadas por IA con marcas de agua, y los investigadores están explorando formas adicionales de separar lo real de lo falso. La Universidad de Maryland está desarrollando un sistema de cifrado basado en códigos QR para verificar la autenticidad de grabaciones en vivo inalteradas. Un estudio publicado el mes pasado pidió a decenas de adultos que respiraran, tragaran y pensaran mientras hablaban, para que sus patrones de parada del habla pudieran compararse con el ritmo de un sonido turbio. Pero al igual que otros expertos, el Dr. Etzioni advierte que la marca de agua de la imagen se puede eliminar fácilmente. Aunque ha dedicado su carrera a luchar contra los deepfakes, reconoce que las herramientas de detección tendrán dificultades para superar a las nuevas generaciones de tecnología de IA desde su creación. TrueMedia.org OpenAI ha lanzado dos nuevas tecnologías que prometen dificultar su trabajo. Podemos reconstruir la voz de una persona a partir de una grabación de 15 segundos. Otro método puede crear un vídeo completo que parezca sacado de una película de Hollywood. OpenAI aún no ha compartido estas herramientas con el público mientras funcionan. peligros potenciales (The Times ha demandado a OpenAI y a su socio Microsoft por reclamos de infracción de derechos de autor relacionados con sistemas de inteligencia artificial que generan texto), el Dr. Etzioni dijo que combatir el problema requerirá en última instancia una amplia cooperación entre las agencias reguladoras gubernamentales. Las empresas que crean tecnología de inteligencia artificial y los gigantes tecnológicos controlan los navegadores web y las redes sociales que difunden desinformación, pero, dijo, hay muy pocas posibilidades de que esto suceda antes de las elecciones de otoño. «Estamos tratando de dar a la gente la mejor evaluación técnica de lo que tienen delante. Todavía tienen que decidir si es real o no».
Source link
+ There are no comments
Add yours