El mes pasado, el presidente Biden emitió una orden ejecutiva sobre inteligencia artificial. Es el intento más ambicioso del gobierno hasta el momento de establecer reglas básicas para la tecnología. La orden se centra en la creación de mejores prácticas y estándares para los modelos de IA, tratando de limitar la tendencia de Silicon Valley a lanzar productos antes de que hayan sido completamente probados, para «moverse rápidamente y romper cosas». 111 páginas y cubre una amplia gama de temas, incluidos los estándares de la industria y los derechos civiles. Dos omisiones flagrantes pueden socavar esa promesa. Primero, la orden no aborda las lagunas identificadas en la Sección 230 de la Ley de Decencia en las Comunicaciones. La mayoría de los contextos en los que interviene la IA implican generar conocimientos como vídeos, audio e imágenes fiables. e información incorrecta La orden incluye requisitos para poner marcas de agua y etiquetar el contenido de IA para que la gente al menos sepa cómo se creó. Pero ¿qué pasa si el contenido no tiene etiqueta? La mayor parte del contenido generado por la IA se distribuye en redes sociales como Instagram y X (antes Twitter), y los peligros potenciales son alarmantes: ya existen muchos desnudos falsos. Eso incluye a las adolescentes, pero la Sección 230 protege a las plataformas de la responsabilidad por la mayoría del contenido publicado por terceros. Si una plataforma no es responsable de publicar contenido generado por IA, ¿qué incentivo tiene para eliminarlo? ¿Hay una marca de agua? Asignar responsabilidad únicamente a los productores de contenido de IA en lugar de a los distribuidores. No será eficaz para controlar en profundidad la falsificación y la desinformación. Esto se debe a que los productores de contenidos pueden ser difíciles de identificar. Está fuera de la jurisdicción de la jurisdicción o no puede pagar si se le considera responsable Según las protecciones de la Sección 230, las plataformas pueden continuar distribuyendo contenido dañino. y puede obtener ingresos por contenido si es en forma de anuncios. Un proyecto de ley bipartidista patrocinado por los senadores Richard Blumenthal (D-Conn.) y Josh Hawley (R-Mo.) intenta abordar este vacío legal de responsabilidad eliminando 230” protecciones para reclamos y costos relacionados con la inteligencia artificial generativa”. La legislación propuesta no parece responder a la pregunta de cómo se dividirán las responsabilidades entre las empresas de IA que crean contenido y las plataformas que lo alojan. La segunda omisión preocupante de la directiva sobre IA se refiere a las condiciones de servicio. Esa escritura molesta que plaga Internet y aparece cada vez que descargas. Aunque la mayoría de personas pulsan “aceptar” sin leer estos términos. Pero el tribunal sostuvo que podían estar obligados por el contrato. Esta es otra laguna de responsabilidad para las empresas que producen productos y servicios de IA: pueden imponer unilateralmente términos unilaterales largos y complejos que permiten prácticas ilegales o poco éticas. y afirmar que hemos dado nuestro consentimiento. De esta manera, las empresas pueden saltarse los estándares y ser las mejores Lineamientos establecidos por el comité asesor Teniendo en cuenta lo que está sucediendo con la Web 2.0 (la explosión de contenidos generados por los usuarios dominados por los sitios de redes sociales), el seguimiento web y la recopilación de datos son una práctica ética y jurídicamente cuestionable que va en contra de las normas sociales. Sociedad y empresas Sin embargo, Facebook, Google y otros compañías Puede defenderse afirmando que los usuarios “consienten” estos comportamientos intrusivos cuando hacen clic para aceptar los términos de servicio. Mientras tanto, las empresas están lanzando al público productos de IA, algunos de ellos sin las pruebas ni el estímulo adecuados. Los consumidores pueden probar sus productos de forma gratuita. Es posible que los consumidores no sepan que las aplicaciones «gratuitas» ayudan a entrenar estos modelos. Por lo tanto, sus esfuerzos se consideran trabajo no remunerado. Es posible que no se den cuenta de que están renunciando a derechos valiosos y responsabilidad legal. Por ejemplo, los términos de servicio de Open AI establecen que el servicio se proporciona «tal cual» sin garantía y que los usuarios nos «defenderán, indemnizarán e indemnizarán». y eximirá de responsabilidad” a Open AI de “cualquier reclamo, pérdida y gasto (incluidos los honorarios de abogados)” que surjan de su uso del servicio. LOS TÉRMINOS TAMBIÉN REQUIEREN QUE EL USUARIO RENUNCIA AL DERECHO A JUICIO POR JURADO Y DEMANDAS COLECTIVAS. Estas limitaciones pueden parecer terribles. Pero se considera un estándar en toda la industria. Algunas empresas incluso reclaman amplios derechos sobre el contenido de IA generado por los usuarios. La directiva sobre IA de Biden ha sido muy elogiada por su intento de lograr un equilibrio entre la protección del interés público y la innovación. Pero para proporcionar disposiciones de reacción Debe haber un mecanismo de aplicación de la ley y la amenaza de enjuiciamiento. Las normas que se establezcan en virtud de dicha orden deberían limitar claramente las exenciones del artículo 230. e incluye estándares de cumplimiento para la plataforma. Estos pueden incluir procedimientos para revisar y eliminar contenido. Mecanismo para reportar problemas tanto dentro de la empresa como fuera de ella. y tiempos mínimos de respuesta de las empresas a inquietudes externas. Además, no se debe permitir que las empresas utilicen términos de servicio (u otras formas de «consentimiento») para eludir los estándares y regulaciones de la industria. Deberíamos prestar atención a las duras lecciones de las últimas dos décadas para evitar repetir los mismos errores. La autorregulación de las grandes empresas tecnológicas es ineficaz y la amplia inmunidad para las empresas con fines de lucro crea un incentivo socialmente perjudicial para prosperar a cualquier precio. En la carrera por dominar el altamente competitivo espacio de la IA, es casi seguro que las empresas tendrán que priorizar el crecimiento y descontar la seguridad. Los líderes de la industria han expresado su apoyo a las medidas de seguridad, las pruebas y la estandarización. Pero lograr que cumplan requerirá más que buenas intenciones: requerirá responsabilidad legal. Nancy Kim es profesora de derecho en la Facultad de Derecho. Chicago-Kent, Instituto de Tecnología de Illinois
Source link
+ There are no comments
Add yours