Jeff Hancock, profesor de la Universidad de Stanford, ha sido acusado de utilizar IA para citar estudios falsos.

5 min read
Jeff Hancock, profesor de la Universidad de Stanford, ha sido acusado de utilizar IA para citar estudios falsos.

Un «experto en desinformación» de la Universidad de Stanford está acusado de utilizar inteligencia artificial (IA) para fabricar un testimonio presentado posteriormente por el Fiscal General de Minnesota, Keith Ellison, en una demanda con carga política, Jay Jeff Hancock, profesor de comunicaciones y fundador del tan cacareado laboratorio de redes sociales de la escuela. preparó una declaración de experto en un caso que involucra al YouTuber satírico conservador Christopher Kohls. El caso judicial trata sobre la prohibición política de los deepfake en Minnesota. que, según el demandante, era un ataque a la libertad de expresión Ellison presentó el testimonio de Hancock al tribunal. , que discute sobre la ley, Hancock es “muy conocido por su investigación sobre cómo la gente engaña con la tecnología. desde enviar mensajes de texto y correos electrónicos hasta detectar reseñas falsas en línea”, según el sitio web de Stanford. Pero los abogados de los demandantes pidieron al juez federal de Minnesota que conoce el caso que desestime la declaración jurada que acusa a Hancock de referirse a un lenguaje de inteligencia artificial falso para redactar anuncios de expertos. (Imágenes falsas)[The] El anuncio del profesor Jeff Hancock se refiere a un estudio inexistente». Los abogados argumentan en el último memorando de 36 páginas que «no hay ningún artículo por título». Este «estudio» se llama «La influencia de los vídeos deepfake en las actitudes y el comportamiento políticos». y afirma haber sido publicado en el Journal of Information Technology and Politics. La presentación del 16 de noviembre señala que la revista es precisa. Pero nunca se publicó ningún estudio con ese nombre. “Está publicado. Pero la página a la que se refiere pertenece a un artículo no relacionado», dijo el abogado. «Es probable que este estudio sea una ‘alucinación’ generada por un modelo de lenguaje de inteligencia artificial a gran escala como ChatGPT». «Los demandantes no saben cómo se produce esta alucinación. ocurrido en el anuncio de Hancock, pone en duda todo el documento. Especialmente cuando hay mucho «La descripción no tiene metodología ni lógica analítica». El documento también menciona a Ellison. Al argumentar que «Las conclusiones en las que se basa Ellison no tienen ninguna metodología detrás y se basan enteramente en lo que dicen los expertos». «Hancock podría reclamar un estudio real similar a la propuesta en el párrafo 21», afirma el memorando. «Pero la existencia de una referencia a el hecho de que el personaje Hancock (o su asistente) no se moleste en hacer clic en la línea pone en duda la calidad y precisión de todo el anuncio». ORDEN EJECUTIVA PROPUESTA PARA LA INTELIGENCIA ARTIFICIAL ‘WAKE’ LLAMADA Ese ‘cáncer social’ Microsoft Bing, la aplicación de chat Chat y ChatGPT AI aparece en dispositivos móviles en esta ilustración fotográfica en Varsovia. Polonia el 21 de julio de 2023 (Jaap Arriens/NurPhoto vía Getty Images) El memorando también añade acusaciones de que la cita es falsa. Señaló que los abogados habían realizado múltiples búsquedas para localizar el estudio”, alega el título del artículo. e incluso algunos ejemplos No aparece en ningún lugar de Internet indexado por Google y Bing, los dos motores de búsqueda más utilizados”, afirma el documento. “Una búsqueda en Google Scholar, un motor de búsqueda dedicado a artículos académicos y publicaciones de patentes, No se encontraron artículos que coincidan con la descripción de la cita escrita por ‘Hwang’. [the purported author] eso incluye la palabra ‘deepfake'». «Quizás esto sea solo un error de copiar y pegar, no», afirma luego simplemente la demanda. «Este artículo no existe», concluye el abogado. Si la declaración está sólo parcialmente compuesta Será completamente poco confiable. y la revisión judicial debería ser revocada”. El anuncio del profesor Hancock debería excluirse en su totalidad. Debido a que se basa, al menos parcialmente, en materiales artificiales que pueden ser generados por el modelo de IA, pone en duda su afirmación sumaria”, concluye el documento. “Los tribunales pueden preguntar sobre la fuente de fabricación y Es posible que se justifiquen acciones adicionales”. El fiscal general de Minnesota, Keith Ellison, llega para hablar en el escenario durante el tercer día de la Convención Nacional Demócrata en el United Center el 21 de agosto de 2024 en Chicago. (Getty Images) Haga clic aquí. PARA OBTENER LA APLICACIÓN FOX NEWS Fox News Digital contactó a Ellison, Hancock y la Universidad de Stanford para solicitar comentarios. Andrea Margolis es redactora de Fox News Digital y los lectores de Fox Business pueden enviar sugerencias sobre historias a news@foxnewsdigital.com. andrea.margolis@fox.com

You May Also Like

More From Author

+ There are no comments

Add yours