Elon Musk critica el acuerdo OpenAI de Apple por supuestos problemas de privacidad ¿Tiene algo de razón?

6 min read
Elon Musk critica el acuerdo OpenAI de Apple por supuestos problemas de privacidad ¿Tiene algo de razón?

Cuando Apple celebra su Conferencia Mundial de Desarrolladores anual, los anuncios de software de la compañía a menudo provocan aplausos y entusiasmo entre los entusiastas de la tecnología. Pero este año hubo una excepción notable: el director ejecutivo de Tesla y SpaceX, Elon Musk, amenazó con prohibir todos los dispositivos Apple en su empresa. Alega que una nueva asociación entre Apple y la startup OpenAI, respaldada por Microsoft, podría representar un riesgo para la seguridad. Como parte de la nueva actualización del sistema operativo, Apple dijo que los usuarios que le hacen preguntas a Siri pueden optar por que Siri obtenga información adicional de ChatGPT. «Apple no tiene idea de lo que sucede cuando envían sus datos a OpenAI». en el río”, escribió Musk en La nueva característica, que estará disponible en dispositivos Apple seleccionados, es parte de una actualización del sistema operativo de la compañía que se realizará a finales de este año. “Si Apple integrara OpenAI a nivel del sistema operativo, los dispositivos Apple estarían prohibidos en mi empresa”. escribió X. «Esa fue una violación de seguridad inaceptable». Los representantes de Musk y Apple no respondieron a las solicitudes de comentarios. En una presentación principal en su conferencia de desarrolladores el lunes, Apple dijo que ChatGPT será gratuito para los usuarios de iPhone, Mac y iPad bajo la asociación. Los usuarios de dispositivos Apple no necesitan configurar una cuenta ChatGPT para usar Siri. «Las protecciones de privacidad están integradas para los usuarios que acceden a ChatGPT: sus direcciones IP están enmascaradas y OpenAI no almacena solicitudes», dijo Apple en su sitio web. «La política de uso de datos de ChatGPT se aplica a los usuarios que eligen conectar sus cuentas». Muchos de los modelos y funciones de inteligencia artificial de Apple, que la compañía llama «Inteligencia de Apple», se ejecutan en el propio dispositivo. Pero algunas consultas requerirán que los datos se envíen a través de la nube. Apple dice que Apple no los almacenará ni los hará accesibles, y que expertos independientes pueden examinar el código que se ejecuta en los servidores para verificar que Apple Intelligence esté disponible. Con el trabajo en dispositivos Apple seleccionados como el iPhone 15 Pro y el iPhone 15 Pro Max y iPads y Mac con el M1 y posteriores, ¿tiene razón Musk? Los expertos en tecnología y seguridad que hablaron con The Times ofrecieron opiniones encontradas. Algunos respondieron a la afirmación de Musk de que el acuerdo OpenAI de Apple representa un riesgo para la seguridad. Afirmando que faltan pruebas. «Como muchas cosas que dice Elon Musk, no se basa en ninguna realidad técnica en este momento, sino que realmente se basa en sus creencias políticas», dijo Alex Stamos, director de confianza de Mountain View, la empresa de ciberseguridad con sede en California, SentinelOne. «Lo que dije no tenía ningún fundamento en los hechos», dijo Stamos, profesor de informática en la Universidad de Stanford y ex director de seguridad de Facebook. Está impresionado con los esfuerzos de protección de datos de Apple y agrega: «Son muy prometedores». Un nivel de transparencia que nadie realmente puede ofrecer”. A estas alturas es muy difícil de demostrar. Pero lo que expusieron es lo mejor que se puede hacer para proporcionar este nivel de IA que funcione con los datos personales de las personas y al mismo tiempo proteja su privacidad», dice Stamos “Para hacer cosas a las que la gente está acostumbrada con ChatGPT, todavía no se puede hacer. eso en un teléfono”, añadió Stamos. “Todavía estamos a años de poder utilizar ese tipo de modelo con algo que quepa en el bolsillo. Y no daña tus jeans por la cantidad de energía que quema”. Musk ha sido muy crítico con OpenAI y demandó a la compañía en febrero por incumplimiento de contrato y deber fiduciario. Afirma que la empresa ha cambiado su enfoque de los acuerdos al desarrollo de inteligencia artificial general. “En beneficio de la humanidad No es para empresas con fines de lucro que quieran maximizar las ganancias de los accionistas”. El martes, Musk, cofundador e inversor de OpenAI, retiró la demanda contra la empresa de Musk con sede en San Francisco, xAI, como competidora de OpenAI. En el campo de rápido crecimiento de la inteligencia artificial, Musk ha apuntado a Apple en el pasado, llamándolo el “cementerio de Tesla” porque, según él, Apple contrata personas que Tesla despide: “Si no lo haces en Tesla, vas a trabajar en Apple”, dijo Musk en una entrevista con el periódico alemán Handelsblatt en 2015. “No estoy bromeando”, dijo Rayid Ghani, profesor de aprendizaje automático y políticas públicas. En la Universidad Carnegie Mellon se dice que a un alto nivel Él cree que las preocupaciones que Musk planteó sobre una colaboración entre OpenAI y Apple deberían plantearse. Si bien Apple dice que OpenAI no almacena las solicitudes de Siri, «no creo que debamos usar eso al pie de la letra», dijo Ghani. Creo que debemos pedir pruebas al respecto. ¿Cómo puede Apple estar seguro de que existen procesos? Si esto no sucede, ¿qué recurso habrá? ¿Quién es el responsable, Apple u OpenAI, y cómo abordamos el problema? Algunos observadores de la industria también han cuestionado la opción de que los usuarios de Apple con suscripciones ChatGPT vinculen sus cuentas con sus iPhones y OpenAI. Tenemos que tener cuidado con esto. Vincular su cuenta a su teléfono móvil es un gran problema”, dijo Pam Dixon, directora ejecutiva del Foro Mundial de Privacidad. “Personalmente, no lo vincularé hasta que haya más claridad sobre lo que sucede con los datos”, señala una declaración sobre. su sitio web que dice: “Los usuarios pueden optar por conectar su cuenta ChatGPT, lo que significa que se aplicarán sus preferencias de datos. Según la política de ChatGPT”. La compañía declinó hacer más comentarios. Según la política de privacidad de OpenAI, la compañía dice que recopila datos personales incluidos en la entrada. Subiendo archivos o comentarios cuando los propietarios de cuentas utilizan el servicio ChatGPT. Hay una manera para que los usuarios opten por no recibir consultas para entrenar modelos de IA a medida que el uso de la IA se vuelve más relevante para la vida de las personas. Los observadores de la industria dicen que es importante brindar transparencia a los clientes y probar la confiabilidad de las herramientas de inteligencia artificial. Será muy similar a la plomería. Estará en todas partes de nuestros dispositivos y de nuestras vidas”, dijo Dixon. “La IA tiene que ser confiable y tenemos que poder probar esa confiabilidad, Valerie Hood, supervisora ​​​​de Night Archive, ha participado en este informe”.

You May Also Like

More From Author

+ There are no comments

Add yours