Es posible que las tecnologías poderosas nunca presenten mayores desafíos regulatorios para el gobierno de Estados Unidos. Antes de las elecciones primarias estatales en enero. Los demócratas de New Hampshire recibieron llamadas automáticas que reproducían grabaciones de audio falsas del presidente Biden generadas por IA. para animarlos a no votar Imaginemos una invención política que aliente a los estadounidenses a utilizar la violencia. Esta situación no es demasiado difícil de imaginar. Una nueva investigación de la Universidad de Nueva York explica cómo se propaga el contenido falso mostrar odio o violencia en las redes sociales Es el mayor riesgo digital para las elecciones de 2024. Hemos ayudado a desarrollar e implementar algunas de las medidas. Las decisiones de redes sociales más trascendentales en la historia moderna Esto incluye prohibir la pornografía de venganza en Reddit y prohibir a Trump en Twitter, por lo que hemos visto de primera mano cómo funciona depender completamente de la autorregulación de las empresas de redes sociales para moderar su contenido. Veredicto: No es bueno. El contenido tóxico abunda en nuestras redes sociales, en gran medida no reguladas. . que ha ayudado a estimular Intento de insurrección en el Capitolio de Estados Unidos el 1 de enero, 6 de enero de 2021 e intento de golpe de estado en Brasil el 6 de enero de 2021, 8 de octubre de 2023. Este peligro se ve agravado por los despidos que afectan a la industria. La Corte Suprema y el Congreso no han abordado directamente estas cuestiones. Y los directores ejecutivos que no pueden entenderlo provocan grandes cambios en sus empresas. Un acceso más amplio a tecnologías nuevas y más complejas para crear deepfakes realistas, como la pornografía falsa de Taylor Swift generada por IA, facilitará la propagación de las estafas. El status quo de las empresas de redes sociales estadounidenses Es similar a tener una industria aérea no regulada. Imagínese si no lleváramos un seguimiento de los tiempos de vuelo o los retrasos. o si no registramos el incidente e investigamos por qué ocurrió; Imagínense si nunca supiéramos del piloto o pasajero rebelde. Y esas personas no han sido incluidas en la lista negra para vuelos futuros. Las aerolíneas tendrán menos idea de qué hacer y dónde están los problemas. También enfrentan menos responsabilidad. La falta de estándares y métricas de la industria de las redes sociales para rastrear la seguridad y los peligros nos ha dejado en una carrera hacia el fondo, junto con la Junta Nacional de Seguridad en el Transporte y la Administración Federal de Aviación. Debería haber una agencia que regule las empresas tecnológicas estadounidenses. El Congreso podría crear una agencia independiente responsable de crear y hacer cumplir reglas básicas de seguridad y privacidad para las empresas de redes sociales. Para garantizar el cumplimiento de la normativa Las agencias deben tener acceso a información y documentos relevantes de la empresa. y tiene la autoridad para hacerse responsable de las empresas que no cumplan con los requisitos Si algo sale mal, la agencia debería tener autoridad para investigar lo sucedido, de la misma manera que la Comisión de Transporte pudo investigar a Boeing después de su accidente más reciente. Contener el daño en las redes sociales es una tarea difícil. Pero tenemos que empezar por algún lado. e intentar prohibir las plataformas después de que ya tengan mucha influencia. Porque los espectadores en los Estados Unidos Algunas personas intentan hacerlo en TikTok simplemente configurando un juego interminable de golpear al topo. La plataforma puede rastrear números. de la cuenta eliminada Número de publicaciones eliminadas También debería ser posible crear una base de datos para toda la empresa de ID de dispositivos ocultos pero rastreables para teléfonos y direcciones IP utilizados en acciones de privacidad, seguridad y abuso. Incluye enlaces a publicaciones y eventos que forman la base para la toma de decisiones. Para catalogar personas y equipos. Las empresas deberían compartir cómo utilizan algoritmos para moderar el contenido. así como información específica sobre salvaguardas para evitar sesgos. (Las investigaciones indican que, por ejemplo, la detección automatizada del discurso de odio muestra prejuicios raciales y puede verse amplificado peligrosamente por la raza). Como mínimo, se prohibiría a las empresas aceptar pagos de grupos terroristas que quieran verificar cuentas de redes sociales. Como el Tech Transparency Project encontró prohibiciones de pornografía, filtros de spam y comentarios en cuentas individuales, como la que rastrea el jet privado de Elon Musk, es importante regular estas empresas privadas para evitar el acoso. Compartir información maliciosa Y la desinformación es necesaria y natural para ampliar la seguridad. privacidad y experiencia de usuario Proteger la privacidad y la seguridad de los usuarios requiere investigación y conocimientos sobre cómo funcionan las empresas de redes sociales. Cómo están redactadas sus políticas actuales y cómo se han tomado y aplicado sus decisiones de moderación de contenido en el pasado Un equipo de seguridad cuyos miembros desempeñan funciones importantes en la moderación de contenido y tienen importantes conocimientos internos. Recientemente se han reducido los despidos en empresas como Amazon, Twitter y Google. Además del creciente número de personas que trabajan en tecnología, existe incertidumbre en el sector tecnológico privado. También ha dado lugar a que muchas personas en el mercado laboral tengan las habilidades y el conocimiento para abordar estos problemas. Las nuevas agencias pueden reclutarlos para crear prácticas efectivas y eficientes. La regulación de la tecnología es un tema poco común que cuenta con apoyo bipartidista y, en 2018, el Congreso creó la agencia para proteger la ciberseguridad del gobierno. Se pueden y se deben crear agencias reguladoras alternativas para enfrentar las amenazas que plantean las tecnologías heredadas y emergentes por parte de las empresas nacionales e internacionales, de lo contrario, enfrentaremos un desastre tras otro en las redes sociales. Anika Collier Navaroli es periodista, abogada e investigadora principal del Tow Center. para Periodismo Digital en la Escuela de Periodismo de Columbia. También fue funcionaria senior de políticas para Twitter y Twitch. Ellen K. Pao es inversora y defensora de tecnología, ex directora ejecutiva de Reddit y cofundadora de Project Incluido, un programa de diversidad galardonado. e inclusión sin fines de lucro
Source link
+ There are no comments
Add yours