California examina los beneficios y riesgos del uso de inteligencia artificial en agencias gubernamentales

6 min read
California examina los beneficios y riesgos del uso de inteligencia artificial en agencias gubernamentales

Inteligencia artificial que puede crear texto, imágenes y otros contenidos. Puede ayudar a mejorar los proyectos gubernamentales. Pero también crea riesgos. Según un informe publicado por la oficina del gobernador el martes, las generaciones de IA pueden ayudar a traducir rápidamente materiales gubernamentales a varios idiomas. Analizar reclamaciones tributarias para detectar fraudes Resumir la opinión pública. y responder preguntas sobre servicios gubernamentales El análisis advierte que el despliegue de la tecnología también conlleva preocupaciones sobre la privacidad de los datos, la desinformación, la equidad y el sesgo: «Cuando se utiliza de forma ética y transparente, GenAI tiene el potencial de mejorar drásticamente los resultados de los servicios y aumentar el acceso y la utilización de los programas gubernamentales», señala el informe. El informe de 34 páginas, encargado por el gobernador Gavin Newsom, proporciona información sobre cómo California puede aplicar la tecnología a los programas estatales incluso cuando continúan luchando con Cómo proteger a las personas sin sofocar la innovación. Las preocupaciones sobre la seguridad de la IA dividen a los ejecutivos de tecnología. Líderes como el multimillonario Elon Musk han hecho sonar la alarma de que la tecnología podría conducir a la destrucción de la civilización. Observando que si los humanos dependen demasiado de la automatización Es posible que con el tiempo olviden cómo funcionan las máquinas. Otros ejecutivos de tecnología Hay un optimismo cada vez mayor sobre el potencial de la IA para ayudar a salvar a la humanidad al facilitar la lucha contra el cambio climático y las enfermedades. al mismo tiempo Las principales empresas de tecnología, incluidas Google, Facebook y OpenAI, respaldada por Microsoft, están compitiendo entre sí para desarrollarlo. y lanza nuevas herramientas de IA que pueden crear contenido. El informe también llega en un momento en que la IA generativa está alcanzando otro punto de inflexión. la semana pasada La junta directiva de OpenAI, el creador de ChatGPT, despidió al director ejecutivo Sam Altman por no ser «franco en sus comunicaciones con la junta directiva», lo que sumió a la empresa y al sector de la IA en el caos. El martes por la noche, OpenAI dijo que había logrado Hubo un «acuerdo de principio» para que Altman regresara como director ejecutivo y la empresa nombró nuevos miembros de la junta directiva. La compañía ha enfrentado presiones para reintegrar a Altman por parte de inversionistas, ejecutivos de tecnología y ejecutivos de tecnología. y empleados que amenazan con dimitir. OpenAI no ha detallado públicamente qué llevó al sorprendente despido de Altman. Pero, según se informa, la empresa ha tenido conflictos sobre cómo mantener segura la IA y al mismo tiempo generar ingresos. Una junta sin fines de lucro gobierna OpenAI, una estructura de gobierno inusual que le permite expulsar a su CEO. Newsom calificó el informe de IA como un «primer paso importante» mientras los estados sopesan algunas de las preocupaciones de seguridad que conlleva la IA. adoptar un enfoque apropiado y mensurable. Entiende los riesgos que plantea esta tecnología transformadora y examina cómo aprovecharla”, dijo en un comunicado. Los avances en IA podrían beneficiar la economía de California El estado alberga a 35 de las 50 principales empresas de IA del mundo, y los datos de Pitchbook dicen que el mercado de GenAI podría tener un valor de 42.600 millones de dólares para 2023. Algunos de los riesgos señalados en el informe incluyen: Difusión. Información falsa. Proporcionar consejos médicos peligrosos a los consumidores. y provocar la producción de sustancias químicas peligrosas y armas nucleares. Filtración de datos La privacidad y los prejuicios también son preocupaciones importantes, junto con si la IA eliminará empleos o no. “Con estos riesgos «El uso de la tecnología GenAI siempre debe evaluarse para determinar si la herramienta es necesaria y útil para resolver problemas relacionados con la situación actual», dice el informe. Mientras los estados trabajan en enfoques para el uso de la IA generativa, el informe afirma que Los empleados temporales del gobierno deben seguir ciertos principios para proteger los datos de los californianos. Por ejemplo, los empleados del gobierno no deben proporcionar los datos de los californianos a herramientas innovadoras de inteligencia artificial como ChatGPT o Bard de Google, ni utilizar herramientas no aprobadas en sus dispositivos. El informe decía Las posibles aplicaciones de la IA van más allá del gobierno. Agencias encargadas de hacer cumplir la ley como la Policía de Los Ángeles. Está planeando utilizar IA para analizar el tono y las elecciones de habla de los agentes en los vídeos de las cámaras corporales. Los esfuerzos de California para frenar las preocupaciones de seguridad, como el sesgo de la IA, no ganaron mucho impulso durante la última sesión legislativa. Pero presentó nuevos proyectos de ley para abordar algunos de los riesgos de la IA cuando regresaron en enero, como proteger a los trabajadores del entretenimiento de ser reemplazados por clones digitales. Mientras tanto Los reguladores de todo el mundo todavía están descubriendo cómo proteger a las personas de los riesgos potenciales de la IA en octubre. El presidente Biden emite una orden ejecutiva que especifica estándares de seguridad a medida que los desarrolladores construyen nuevas herramientas de inteligencia artificial. Las regulaciones sobre inteligencia artificial fueron un punto clave de discusión en la Conferencia de Cooperación Económica Asia-Pacífico en San Francisco la semana pasada. Durante una mesa redonda con ejecutivos de Meta, la empresa matriz de Google y Facebook, Altman dijo que pensaba que la orden ejecutiva de Biden era un «buen comienzo», «aunque hay áreas de mejora». Dijo que los modelos actuales de IA eran «buenos» y que no era necesaria una «regulación estricta», pero expresó preocupación por el futuro. «En algún momento Cuando el modelo puede producir resultados equivalentes para toda la empresa Y luego todo el país, y luego todo el mundo, es como si tal vez necesitáramos una gobernanza colectiva global para eso”, dijo, un día antes de Despedido como director ejecutivo de OpenAI

Source link

You May Also Like

More From Author

+ There are no comments

Add yours