Actualmente, California está tratando de mantenerse a la vanguardia en IA.

9 min read
Actualmente, California está tratando de mantenerse a la vanguardia en IA.

Jacob Hilton trabajó durante cuatro años en una de las empresas emergentes más influyentes del Área de la Bahía, OpenAI. Su investigación ayuda a probar y mejorar la veracidad de modelos de inteligencia artificial como ChatGPT. Él cree que la inteligencia artificial puede beneficiar a la sociedad. Pero es consciente de los graves riesgos que corre esta tecnología si no se controla. Hilton es uno de los 13 empleados actuales y anteriores de OpenAI y Google que firmaron una carta abierta este mes pidiendo mayor protección para los denunciantes. Afirma que los acuerdos de confidencialidad amplios son problemáticos. “La situación básica es que los empleados son las personas más cercanas a la tecnología. También son las personas que tienen más que perder con las represalias por hablar”, dijo Hilton, de 33 años, ahora investigador del Centro de Investigación de Alineación sin Fines de Lucro, que vive en Berkeley. Los legisladores de California se están apresurando a abordar estas preocupaciones a través de alrededor de 50 proyectos de ley relacionados con la IA, muchos de los cuales apuntan a proteger esta tecnología en rápida evolución. Dicen que podría causar daño a la sociedad. Sin embargo, grupos que representan a las grandes empresas tecnológicas argumentan que la ley propuesta podría sofocar la innovación y la creatividad. haciendo que California pierda su ventaja competitiva y cambiar drásticamente la forma en que se desarrolla la IA en el estado. El impacto de la inteligencia artificial en el empleo, la sociedad y la cultura es de gran alcance. Y eso se refleja en los numerosos proyectos de ley que circulan en la Legislatura. Cubre varios miedos relacionados con la IA, incluidos los cambios de trabajo seguridad de la información y discriminación racial Un proyecto de ley apoyado por los camioneros El objetivo es proporcionar control humano a camiones pesados ​​sin conductor. Un proyecto de ley respaldado por el Sindicato Internacional de Empleados de Servicios busca prohibir la automatización o el reemplazo de empleos impulsado por inteligencia artificial en los centros de llamadas que brindan servicios de servicios públicos, como Medi-Cal. Otro proyecto de ley redactado por el senador Scott Wiener (demócrata por San Francisco) exige a las empresas. Desarrollar modelos de IA a gran escala para realizar pruebas de seguridad. Muchos de los proyectos de ley surgen después de que los políticos fueran criticados por no tomar medidas enérgicas lo suficientemente duras contra las empresas de redes sociales. Hasta que sea demasiado tarde Durante la administración Biden, los demócratas federales y estatales se han vuelto más agresivos a la hora de perseguir a las grandes empresas tecnológicas. “Hemos visto otras tecnologías Y luego no hacemos nada hasta que surge un gran problema”, dijo Wiener. “Las redes sociales contribuyen a hacer cosas buenas. Mucho para la sociedad… Pero sabemos que las redes sociales tienen grandes desventajas. Y no hacemos nada para reducir o aliviar esos peligros. Y ahora estamos tratando de ponernos al día. No me gusta ponerme al día”. El impulso llega cuando las herramientas de inteligencia artificial avanzan rápidamente. Les leían cuentos a los niños antes de dormir y conducían a restaurantes de comida rápida. y ayudar a crear videos musicales Si bien algunos entusiastas de la tecnología están entusiasmados con los beneficios potenciales de la IA, otros temen la pérdida de empleos y las preocupaciones por la seguridad. “Esto tomó rápidamente a casi todos por sorpresa. Incluyendo muchos expertos. [the tech is] está progresando”, dijo Dan Hendrycks, director del AI Security Center, una organización sin fines de lucro con sede en San Francisco. “Si posponemos y no hacemos nada durante muchos años, Quizás estemos esperando hasta que sea demasiado tarde”. El proyecto de ley de Wiener, SB1047, patrocinado por el Centro para la Seguridad de la IA, insta a las empresas a que construyen modelos de IA a gran escala para realizar pruebas de seguridad y tienen la capacidad de apagar directamente los modelos que controlan Los defensores del proyecto de ley dicen que ayudaría a evitar situaciones como el uso de la IA para crear armas biológicas o cerrar redes eléctricas, por ejemplo. El proyecto de ley también exigiría que las empresas de IA proporcionen una forma para que los empleados expresen sus preocupaciones de forma anónima. El fiscal general puede demandar para hacer cumplir las normas de seguridad. “Una tecnología muy poderosa trae consigo beneficios y riesgos. Y quiero asegurarme de que los beneficios de la IA sean más profundos que los riesgos”, dijo Wiener. Entre los opositores al proyecto de ley se encuentra TechNet, un grupo comercial que cuenta entre sus miembros con empresas tecnológicas como Meta, Google y OpenAI. Con precaución, Meta y OpenAI no respondieron a las solicitudes de comentarios. Google se negó a hacer comentarios. Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet, dijo: “Actuar demasiado rápido tiene consecuencias para usted. Esto podría obstaculizar y disminuir algunos de los beneficios que conlleva esta tecnología”. El proyecto de ley fue aprobado por el Comité de Privacidad y Protección al Consumidor de la Asamblea el martes. Y pasará al Comité Judicial de la Asamblea y al Comité de Asignaciones de la Cámara. Y si se aprueba, irá al pleno de la Cámara. En una encuesta de 800 votantes en California Realizado por el Centro para el Fondo de Acción para la Seguridad de la IA, el 86% de los participantes dijo que desarrollar regulaciones de seguridad de la IA es una máxima prioridad para los estados. Según la encuesta, el 77% de los participantes apoya la propuesta de someter los sistemas de IA a pruebas de seguridad. “El estado actual es Cuando se habla de seguridad Confiamos en los compromisos públicos voluntarios asumidos por estas empresas”, dijo Hilton, un ex empleado de OpenAI. “Pero parte del problema es que no existen buenos mecanismos de rendición de cuentas”. AB 2930, que intenta prevenir “Discriminación algorítmica”, o cuando los sistemas automatizados ponen a alguien en desventaja por motivos de raza, género u orientación sexual en cuestiones de contratación, pago y despido. «Estamos viendo un ejemplo tras otro en el espacio de la IA, donde el resultado está sesgado», dijo la asambleísta Rebecca Bauer-Kahan (D-Orinda). Un proyecto de ley contra la discriminación fracasó en la sesión legislativa del año pasado. Ha habido una gran oposición por parte de las empresas de tecnología. Las medidas se reintrodujeron este año. Inicialmente contó con el respaldo de empresas tecnológicas de renombre como Workday y Microsoft, aunque dudaban en respaldarlo. Expresaron su preocupación por el hecho de que las enmiendas aumenten la responsabilidad de las empresas. que están desarrollando productos de IA para reducir el sesgo “Por lo general, no hay una industria que diga: ‘Contrólame’, pero las comunidades no confían en la IA, y lo que este esfuerzo intenta hacer es generar confianza en estos sistemas de IA, que Creo que es útil. Realmente perjudica a la industria”, dijo Bauer-Kahan. A algunos defensores de la privacidad de los datos y de los derechos laborales les preocupa que el lenguaje de la ley antidiscriminatoria propuesta sea demasiado débil. Los opositores dicen que es demasiado amplio. Chandler Morse, jefe de políticas públicas de Workday, dijo que la compañía apoya la AB 2930 tal como se presentó. «Actualmente estamos reevaluando nuestra posición sobre la enmienda», dijo Microsoft declinó hacer comentarios. El Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists negociaron protecciones de IA para sus miembros durante una huelga el año pasado. Pero los riesgos de la tecnología están más allá del alcance de los contratos sindicales, dijo Duncan, director ejecutivo nacional del Actors Guild. Crabtree-Irlanda “Necesitamos que las políticas públicas se pongan al día y comiencen a establecer estas normas. para reducir el ambiente del Lejano Oeste que existe con la IA”, dijo Crabtree-Ireland. SAG-AFTRA ha ayudado a redactar tres proyectos de ley federales que abordan los deepfakes (imágenes y videos engañosos que a menudo implican una similitud con las personas) junto con dos medidas en. California, incluido AB 2602, que fortalecería los controles sobre el uso de imágenes digitales por parte de los empleados. Si se aprueba La ley exige que los trabajadores estén representados por un sindicato o un asesor legal para que los acuerdos que involucren imágenes generadas por IA sean legalmente vinculantes. Las empresas tecnológicas instan a tener precaución contra la regulación excesiva Todd O’Boyle, del grupo de la industria tecnológica Chamber of Progress, dijo que las empresas de IA en California podrían optar por trasladarse a otro lugar. Si la supervisión del gobierno es demasiada Es importante que los legisladores “No dejemos que el miedo a los peligros especulativos impulse la formulación de políticas. Cuando tengamos innovaciones tecnológicas disruptivas que crearán mucha riqueza en las primeras etapas”, dijo, cuando se establezcan regulaciones. Fue difícil. De regreso, advirtieron a Aaron Levie, director ejecutivo de Box, una empresa de computación en la nube con sede en Redwood City que está integrando IA en sus productos. “Necesitamos un modelo más potente. Es más factible y más capaz”, dijo Levie. “Y comencemos a evaluar el riesgo en pequeños incrementos a partir de ahí”. Dice que las empresas de tecnología están tratando de retrasar la regulación haciendo que el problema parezca más complicado de lo que es. Y dicen que necesitan abordarlo con una propuesta integral de política pública. «Rechazamos absolutamente eso», dijo Crabtree-Ireland. «No creemos que todo lo relacionado con la IA deba solucionarse de una vez».

You May Also Like

More From Author

+ There are no comments

Add yours