De Gmail a Word, configuración de privacidad e IA en una nueva relación

9 min read

El sitio web de Microsoft 365 en una computadora portátil celebrado en Nueva York, EE. UU., el martes 25 de junio de 2024. Bloomberg | Bloomberg | Getty Images El comienzo del año es un buen momento para hacer un balance de la salud cibernética básica. A todos se nos dice que hagamos las paces. Cambiar la contraseña y actualizar software Pero una preocupación que está cada vez más presente es la integración silenciosa en los programas de IA potencialmente invasora de la privacidad. «La rápida integración de la IA en nuestro software y servicios plantea importantes cuestiones de privacidad que son anteriores a la era de la IA», afirmó Lynette Owens, vicepresidenta de educación global del consumidor de Trend Micro, una empresa de seguridad de Said Cyber. Muchos programas que utilizamos hoy Ya sea correo electrónico, contabilidad o herramientas de productividad. y redes sociales y aplicaciones de streaming Puede estar sujeto a políticas de privacidad que carecen de claridad sobre si nuestros datos personales pueden usarse para entrenar modelos de inteligencia artificial. Corremos el riesgo de utilizar nuestros datos personales sin nuestro consentimiento informado apropiado. Es hora de que todas las aplicaciones, sitios web o servicios en línea analicen detenidamente los datos que recopilan. Con quién comparten información ¿Y cómo es? «Compartiremos y podremos acceder a modelos de inteligencia artificial», dijo Owens. «Aún queda mucho trabajo por hacer». El punto es que la inteligencia artificial ya está presente en nuestra vida diaria en línea. están en cascada. Se superpone con la mayoría de los programas y aplicaciones que utilizamos a diario. Muchas plataformas han integrado la IA en ellos. Estuvo en funcionamiento durante muchos años antes de que la IA se convirtiera en una palabra de moda”, dijo. Como ejemplo, Owens señala que Gmail utiliza la IA para filtrar el spam y predecir mensajes con funciones. «Written Genius» «Y los servicios de streaming como Netflix dependen de la IA para analizar el comportamiento de visualización y recomendar contenido», dijo Owens. Las plataformas de redes sociales como Facebook e Instagram han utilizado durante mucho tiempo la IA para reconocer rostros en fotos y contenidos personales. “Aunque estas herramientas brindan comodidad, Pero los consumidores deberían considerar posibles compensaciones en materia de privacidad, como cuánta información personal se recopila y cómo se recopila. Utilizado para entrenar sistemas de inteligencia artificial, todos deberían revisar cuidadosamente su configuración de privacidad. Entender qué información se comparte. y verifique periódicamente las actualizaciones de los Términos de servicio”, dijo Owens. Una herramienta que se tiene en cuenta es Connected Experiences de Microsoft, que está disponible desde 2019 y viene con. La opción de exclusión voluntaria ha sido destacada recientemente en informes de noticias (según la compañía y algunos expertos externos en ciberseguridad que han investigado el problema) como incorrecta, ya que afirma que es una característica nueva o que se ha desarrollado. A los expertos en privacidad les preocupa que los avances en la IA puedan generar la posibilidad de que los datos y las palabras en programas como Microsoft Word se utilicen de maneras que no sean lo suficientemente completas en cuanto a la configuración de privacidad. Evoluciona, incluso si la configuración de privacidad básica no cambia”. . El impacto del uso de datos podría ser más generalizado”, dijo Owens en un comunicado a CNBC que Microsoft no utiliza datos de clientes de aplicaciones comerciales y de consumo de Microsoft 365 para entrenar modelos de lenguaje. Agregó que en algunos casos Los clientes pueden dar su consentimiento para el uso de sus datos para fines específicos, como el desarrollo de modelos personalizados solicitados expresamente por ciertos clientes comerciales. Dichas configuraciones también habilitan funciones compatibles basadas en la nube que muchas personas esperan de herramientas de productividad como la coautoría en tiempo real. . almacenamiento en la nube y herramientas como el editor de Word que brindan sugerencias de ortografía y gramática. La configuración de privacidad predeterminada es un problema, Ted Miracco, director ejecutivo de la empresa de software de seguridad Approov, dice que características como la experiencia conectada de Microsoft son un arma de doble filo. Un compromiso para mejorar el rendimiento Pero brindar privacidad es una señal de alerta importante. Miracco dijo que el estado abierto predeterminado de la configuración puede optar por permitir que las personas hagan cosas que no necesariamente conocen. Esto implica principalmente recopilar información. Y es posible que las organizaciones quieran pensar detenidamente antes de abandonar esta característica”. Pero aún no llega a mitigar las preocupaciones reales sobre la privacidad”, dijo Miracco, Kaveh Vadat, fundador de RiseOpp, una agencia de marketing SEO, dice que la concienciación puede ser un problema en sí misma. «Tener la habilitación predeterminada cambia la dinámica significativamente», dijo Wahdat. «Habilitar estas funciones automáticamente Incluso con buenas intenciones Naturalmente, los usuarios deberán revisar y editar su configuración de privacidad. Esto puede parecer intrusivo o manipulador para algunas personas”. Se necesita más transparencia. nada menos que en En un entorno donde hay tanta desconfianza y escepticismo en torno a la IA, las empresas, incluida Microsoft, deberían hacer hincapié en optar por no participar de forma predeterminada en lugar de optar por participar. y puede proporcionar información detallada y no técnica sobre cómo administrar el contenido personal. Porque la percepción puede volverse Realidad“Aunque la tecnología es completamente segura, Pero la percepción pública no se basa sólo en hechos. Pero con miedo y suposiciones, especialmente en la era de la IA, donde los usuarios a menudo se sienten impotentes», dijo, tiene sentido desde el punto de vista comercial, pero es malo para la privacidad del consumidor. Según Jochem Hummel, profesor asistente de sistemas de información y gestión en la Warwick Business School Hummel, de la Universidad de Warwick en Inglaterra, dice que las empresas pueden mejorar sus productos y seguir siendo competitivas compartiendo más datos de forma predeterminada. Priorizar la privacidad mediante el uso de modelos de participación voluntaria para compartir datos será «Es un enfoque más ético», afirmó, y siempre y cuando las funciones adicionales que ofrece la recopilación de datos no sean necesarias. Los usuarios pueden elegir qué funciones se adaptan más a sus intereses. Existe una verdadera compensación entre las herramientas mejoradas por IA y la privacidad, dijo Hummel, basándose en lo que le gusta. Lo vi en el trabajo que enviaron los estudiantes. Estudiantes que crecieron con cámaras web. Transmisión en vivo en tiempo real en las redes sociales. y tecnología integral La gente tiende a preocuparse menos por la privacidad, dijo Hummel, y adopta estas herramientas con más entusiasmo. «Por ejemplo: Mis estudiantes están creando mejores presentaciones que nunca”, dijo, manejando el riesgo en áreas como la ley de derechos de autor. Los temores sobre la copia masiva de los LLM son exagerados, según el director de la biblioteca de Colby College, Kevin Smith, pero la evolución de la IA está en desacuerdo con las principales preocupaciones sobre la privacidad. Muchas de las preocupaciones actuales sobre la privacidad que se plantean en la IA en realidad existen desde hace muchos años. El rápido despliegue de la IA para modelar el lenguaje a gran escala ha centrado la atención en algunas de esas cuestiones”, dijo Smith. “La información personal tiene que ver con las relaciones. Por lo tanto, el riesgo de que los modelos de IA puedan revelar datos más seguros en sistemas más ‘estáticos’ es un cambio real que debemos descubrir cómo gestionar”, añadió. En la mayoría de los programas, desactivar las funciones de IA es una opción oculta en la configuración, por ejemplo, con experiencias conectadas. Abra el documento y haga clic en «Archivo», luego vaya a «Cuenta» y luego busque su configuración de privacidad. Una vez allí, vaya a «Administrar configuración» y desplácese hacia abajo hasta Experiencias conectadas. Haga clic en el cuadro para cerrar. Al hacerlo, Microsoft advierte: «Si desactivas esto, Es posible que algunas experiencias no estén disponibles para usted «. Microsoft dice que dejar esta configuración activada permitirá la comunicación. Para habilitar más colaboración y recomendaciones de IA, abra Gmail, toque Menú y luego vaya a Configuración. Luego haga clic en la cuenta que desea cambiar. Luego, desplácese hasta la sección «General» y desmarque la casilla junto a Hay varias «características inteligentes» y opciones de personalización, como señaló el proveedor de ciberseguridad Malwarebytes en una publicación de blog sobre la característica de Microsoft: «Desactivar la opción puede resultar en la pérdida de algunas funciones si Trabajando en el mismo documento con todos los demás miembros de su organización… Si desea desactivar estas configuraciones por razones de privacidad, Y no lo usas mucho, sin embargo, hazlo. Todas las configuraciones se pueden encontrar en Configuración de privacidad Por alguna razón Pero en ninguna parte puedo encontrar ninguna indicación de que estas experiencias conectadas se estén utilizando para entrenar modelos de IA”. Aunque estas instrucciones son bastante fáciles de seguir, Y conocer más sobre lo que acordaste puede ser una buena opción. Pero algunos expertos dicen que la responsabilidad de desactivar estas configuraciones no debería recaer en el consumidor. “Cuando las empresas Utilice estas funciones A menudo ofrecen opciones para mejorar la funcionalidad. Pero es posible que los usuarios no comprendan el alcance de lo que están aceptando”, afirmó el experto en privacidad de datos Wes Chaar. Las revelaciones vagas y la falta de una comunicación clara sobre lo que está ‘conectado’ conducen a conocimientos profundos sobre cómo las personas analizan o almacenan su contenido personal”, dijo Chaar “Para quienes están fuera de la tecnología. Puede compararse con invitar a un asistente útil a su casa. sólo para saber más tarde que han tomado notas de sus conversaciones privadas como un manual de capacitación. Decisiones para administrar, limitar o incluso revocar el acceso”. Los datos subrayan los desequilibrios actuales en el ecosistema digital. “Sin sistemas sólidos que prioricen el consentimiento del usuario y ofrezcan controles, las personas corren el riesgo de que sus datos se reutilicen de maneras que no esperan o de las que no se benefician”, dijo Chaar.

You May Also Like

More From Author

+ There are no comments

Add yours