Se espera que la desinformación sea uno de los principales riesgos cibernéticos. Para las elecciones de 2024 Andrew Brooks | Fuente de la imagen | Getty Images Se espera que el Reino Unido se enfrente a ciberataques y campañas de desinformación patrocinados por el Estado. A medida que el Reino Unido se dirige a las elecciones de 2024, la inteligencia artificial es un riesgo clave. Como dijo un experto cibernético a CNBC, los británicos votarán en las elecciones locales el 2 de mayo y se esperan elecciones generales en la segunda mitad de este año. Esto a pesar de que el primer ministro británico, Rishi Sunak, aún no ha fijado una fecha para la votación. La votación se produce cuando el país enfrenta una serie de problemas, incluida una crisis del costo de vida y marcadas divisiones en torno a la inmigración y el asilo”, mientras la mayoría de la gente en el Reino Unido emitía su voto en los colegios electorales el día de las elecciones. «Espero que la mayoría de los riesgos de ciberseguridad se produzcan en los meses previos al día de las elecciones», dijo a CNBC en un correo electrónico Todd McKinnon, director ejecutivo de la empresa de seguridad de identidad Okta. Esta no es la primera vez, en 2016, el presidente electoral de la Estados Unidos Y se descubrió que la votación del Brexit en el Reino Unido se vio perturbada por desinformación compartida en plataformas de redes sociales, supuestamente por grupos vinculados al Estado ruso. Sin embargo, Moscú niega estas afirmaciones. Desde entonces El actor ataca regularmente en diferentes países. distorsionar los resultados electorales Según los ciberexpertos Mientras tanto la semana pasada Reino Unido acusa al grupo de piratería informática APT 31 de la Commonwealth de Naciones de China Intentar acceder a la cuenta de correo electrónico de un espectador del Reino Unido Pero dijo que tales intentos no tuvieron éxito. Londres impuso sanciones a personas y empresas de tecnología chinas en Wuhan, que se cree que son fachadas del APT 31, y Estados Unidos, Australia y Nueva Zelanda siguieron con sus propias sanciones. China niega las acusaciones de piratería patrocinada por el Estado. Llamándolos cibercriminales «irracionales» basados en IA, los expertos en ciberseguridad esperan que los malos actores interfieran en las próximas elecciones de muchas maneras, entre ellas a través de la desinformación. Se espera que esto empeore este año debido al uso generalizado de la inteligencia artificial: imágenes, vídeos y sonidos sintéticos creados mediante gráficos por ordenador, métodos de simulación e IA, comúnmente conocida como inteligencia artificial. Las “falsificaciones profundas” serán más comunes porque será más fácil para las personas crearlas. los expertos dicen “Es probable que los actores nacionales y los ciberdelincuentes utilicen ataques basados en identidades impulsados por IA, como phishing, ingeniería social, ransomware y compromiso de la cadena de suministro, para atacar a los políticos. Personal de campaña e instituciones relacionadas con las elecciones», añadió McKinnon de Okta. «También estamos seguros de que veremos una mayor afluencia de IA y contenido impulsado por bots creado por actores de amenazas para difundir información errónea, como hemos visto en ciclos electorales anteriores». La comunidad está pidiendo una mayor conciencia. Este tipo de información errónea basada en IA incluye la cooperación internacional para reducir el riesgo de tales actividades maliciosas. Principales riesgos electorales Adam Meyers, jefe de operaciones adversas de la empresa de ciberseguridad CrowdStrike, dijo que la desinformación impulsada por la inteligencia artificial es el principal riesgo. Para las elecciones de 2024, “por ahora, la IA generativa puede utilizarse para hacer daño o para bien. Entonces vemos ambas aplicaciones. Cada día se adopta más», dijo Meyers a CNBC. Es más probable que China, Rusia e Irán lleven a cabo desinformación y desinformación en varias elecciones mundiales. Con la ayuda de herramientas como la IA generativa, según el último informe anual de amenazas de Crowdstrike, «este proceso democrático es extremadamente frágil», dijo Meyers a CNBC. «Cuando empiezas a observar cómo estados adversarios como Rusia, China o Irán pueden beneficiarse de IA generativa y algunas tecnologías nuevas para generar mensajes y utilizar la falsificación profunda para crear historias o historias que atraigan a las personas a aceptarlas. Especialmente cuando La gente ya tiene este tipo de sesgo de confirmación. Esto es extremadamente peligroso”. El problema clave es que la IA está reduciendo la barrera de entrada para los delincuentes que buscan explotar a las personas en línea. Esto ya está sucediendo en forma de correos electrónicos de phishing creados utilizando herramientas de inteligencia artificial de fácil acceso como ChatGPT. Los piratas informáticos también están desarrollando ataques más avanzados y personalizados entrenando modelos de inteligencia artificial con nuestros datos disponibles en las redes sociales. Según Dan Holmes, experto en prevención de fraude. En la empresa de tecnología regulatoria Feedzai, “puedes entrenar esos modelos de voz AI muy fácilmente. ..a través de la exposición a la sociedad [media]Holmes dijo a CNBC en una entrevista: “Lo es. [about] Comprometerse emocionalmente y ser genuinamente creativo” en el contexto de las elecciones. Clip de audio falso generado por IA del líder laborista de la oposición Keir Starmer El insultante trabajador del partido fue publicado en la plataforma de redes sociales en octubre de 2023. La publicación ha acumulado 1,5 millones de visitas, según la organización benéfica de corrección de hechos Full Fact. Es solo un ejemplo de la inmersión profunda. Mientras los expertos en seguridad cibernética se preocupan por lo que sucederá cuando se acerquen las elecciones del Reino Unido a finales de este año, Probando tecnología Sin embargo, los gigantes de la tecnología deepfake están logrando grandes avances. y para muchas empresas de tecnología La carrera para derrotarlos ahora es una cuestión de combatir fuego con fuego: «Los deepfakes pasaron de ser solo una teoría a estar en producción hoy», dijo el CEO de Onfido, Mike Tuchen, a CNBC en una entrevista el año pasado. «Ahora hay un juego del gato y el ratón con ‘IA contra IA’: usar la IA para detectar Deepfakes y mitigar su impacto en nuestros clientes es la gran batalla en este momento». lo que es real, pero puede haber algunos signos de que el contenido ha sido manipulado digitalmente. La IA utiliza indicaciones para crear texto, imágenes y vídeos, pero no siempre lo hace bien. Por ejemplo, si estás viendo una película generada por IA video de la cena Entonces la cuchara desapareció de repente. Éste es un ejemplo de las deficiencias de la IA: «Ciertamente veremos una manipulación más profunda a lo largo del proceso electoral. Pero los pasos son simples. Todo lo que podemos hacer es validar algo antes de compartirlo”, añadió McKinnon de Okta.
Source link
+ There are no comments
Add yours