OpenAI se asocia con la empresa de defensa Anduril

4 min read

Sam Altman, director ejecutivo de OpenAI, durante una charla informal organizada por Softbank Ventures Asia en Seúl, Corea del Sur. El viernes 9 de junio de 2023 SeongJoon Cho | Bloomberg | El miércoles, OpenAI y Anduril anunciaron una asociación que permitirá a las empresas de tecnología de defensa implementar sistemas avanzados de inteligencia artificial para Las “misiones de seguridad nacional”, parte de una tendencia más amplia y controvertida para las empresas de IA, no sólo han levantado la prohibición del uso militar. Pero también ha cooperado con gigantes de la industria de defensa y el Departamento de Defensa de Estados Unidos. El mes pasado, Anthropic, una startup de inteligencia artificial respaldada por Amazon y fundada por el ex ejecutivo de investigación de OpenAI y contratista de defensa Palantir, anunció una asociación con Amazon Web Services para “dar acceso a las agencias de inteligencia y a la defensa de Estados Unidos”. [Anthropic’s] Familia de modelos Claude 3 y 3.5 en AWS”. Este otoño, Palantir firmó un nuevo contrato de cinco años por un valor de hasta 100 millones de dólares para acceso militar de EE. UU. En el proyecto de expansión de Maven AI, la colaboración de OpenAI-Anduril Así lo anunció el miércoles. “Céntrate en mejorar. “Anduril y OpenAI explorarán cómo los principales modelos de IA pueden aprovechar la rápida síntesis de datos urgentes. Reducir la carga de los operadores humanos y mejorar la conciencia situacional”. Anduril, cofundada por Palmer Luckey, no respondió a las preguntas sobre la reducción de su responsabilidad en Los operadores humanos se traducirán en que menos humanos tomen decisiones sobre guerras de alto riesgo. Luckey fundó Oculus VR, que vendió a Facebook en 2014. OpenAI dice que está trabajando con Anduril para ayudar a los operadores humanos a tomar decisiones. “Para proteger al personal militar de tierra de los ataques de drones no tripulados”, dijo la compañía. La compañía mantiene su política en su declaración de misión que prohíbe el uso de sistemas de inteligencia artificial para dañar a otros. La noticia llega después de que OpenAI, respaldado por Microsoft, levantara silenciosamente en enero una prohibición militar sobre el uso de ChatGPT y otras herramientas de inteligencia artificial, justo cuando comenzaba a trabajar con el Departamento de Defensa de EE. UU. Acerca de las herramientas de inteligencia artificial, incluidas las herramientas de ciberseguridad de código abierto Hasta principios de enero La página de políticas de OpenAI establece que la compañía no permite el uso de prototipos para «actividades que contengan Existe un alto riesgo de daño físico”, como el desarrollo de armas o actividades militares y bélicas. A mediados de enero, OpenAI eliminó las referencias al ejército. Aunque la política todavía establece que los usuarios no deben “Utilizar nuestros servicios para dañarse a sí mismo o a otros” y “desarrollar o utilizar armas” La noticia llega después de años de conflicto. Acerca de una empresa de tecnología que desarrolla tecnología para aplicaciones militares. Se centra en las preocupaciones del público sobre los trabajadores de la tecnología. Esto es especialmente cierto para las empresas que trabajan en IA. Los empleados de casi todas las principales empresas de tecnología involucradas en contratos militares han expresado su preocupación después de que miles de empleados de Google protestaran contra el Proyecto Maven, un proyecto del Pentágono que utilizaría la IA de Google para analizar imágenes. Contrato militar de 480 millones de dólares para proporcionar cascos de realidad aumentada a los soldados. Y más de 1.500 empleados de Amazon y Google firmaron una carta protestando por el contrato conjunto de 1.200 millones de dólares. Muchos años con el gobierno y el ejército israelí. que esta debajo El gigante tecnológico proporcionará computación en la nube, herramientas de inteligencia artificial y centros de datos. Morgan Brennan de CNBC contribuyó a este informe.

You May Also Like

More From Author

+ There are no comments

Add yours