Para aquellos que asisten al festival de tecnología que marca tendencias aquí Un escándalo estalló después de que el chatbot Gemini de Google publicara imágenes de soldados nazis negros y asiáticos. Es una advertencia sobre el poder que la inteligencia artificial puede ofrecer a los gigantes tecnológicos. El mes pasado, el director ejecutivo de Google, Sundar Pichai, condenó el error. «Totalmente inaceptable» desde la aplicación Gemini AI de su empresa Después del uso de caricaturas, como imágenes de tropas nazis étnicamente diversas, Obliga a la aplicación a pausar la creación de fotografías de personas por parte de los usuarios. Los usuarios de las redes sociales ridiculizaron y criticaron a Google por imágenes inexactas en el pasado. Como la imagen de una senadora estadounidense negra del siglo XIX, cuando el primer senador no fue elegido hasta 1992. «Definitivamente arruinamos el problema de los estereotipos», dijo el fundador de Google, Sergey Brin, en el evento de IA. «hackathon», y agregó que la empresa debería probar Gemini más a fondo. Las personas entrevistadas en el popular festival de arte y tecnología South by Southwest en Austin dijeron que el tropiezo de Gemini subraya el enorme poder que tienen un puñado de empresas sobre las plataformas de inteligencia artificial listas para cambiar. «Básicamente, es demasiado ‘despertar'», dijo Joshua Weaver, abogado y empresario tecnológico. Esto significa que Google ha hecho todo lo posible para ser inclusivo y diverso y corrige rápidamente los errores. Pero los problemas persisten, dijo Charlie Burgoyne, director ejecutivo del Laboratorio de Ciencias Aplicadas Valkyrie en Texas. Comparó la solución Gemini de Google con poner una tirita en una herida de bala, mientras que Google ha tenido el lujo de tener tiempo para perfeccionar su producto durante tanto tiempo. Pero ahora está compitiendo por la competencia en IA con Microsoft, OpenAI, Anthropic y otros, añadió Weaver. «Se están moviendo más rápido de lo que saben moverse.» Los errores cometidos en los esfuerzos de sensibilidad cultural son un punto álgido. Especialmente considerando las tensas divisiones políticas en Estados Unidos. Es una situación empeorada por la plataforma del ex-Twitter Elon Musk. eso sucede en la tecnología», dijo Weaver, y agregó que la reacción a la metedura de pata nazi ha sido «abrumadora». Sin embargo, el accidente plantea dudas sobre el nivel de control que los usuarios de herramientas de inteligencia artificial tienen sobre sus datos, afirma. década, La cantidad de datos o información errónea generada por la IA puede eclipsar los datos generados por las personas. «Esto significa que los gobernantes controlados por la IA tendrán una gran influencia en el mundo», dijo Weaver. Karen Palmer, una galardonada creadora de realidad mixta de Interactive Films Ltd., dijo que podría imaginar un futuro en el que alguien se suba a un robot-taxi. y «Si la IA lo escanea y cree que hay una infracción pendiente en su contra… lo llevarán a la estación de policía local» no es su destino previsto. La IA está entrenada con enormes cantidades de datos. y se puede utilizar para una variedad más amplia de aplicaciones Desde crear una imagen o sonido hasta determinar quién obtiene un préstamo. ¿O una exploración médica detectará el cáncer? Pero esa información proviene de un mundo plagado de prejuicios culturales. Desinformación y desigualdad social Sin mencionar que el contenido en línea puede incluir conversaciones casuales entre amigos. o publicaciones que son exageradas e intencionalmente provocativas, y los modelos de IA pueden reflejar esas deficiencias. Con Gemini, los ingenieros de Google trabajan para equilibrar el algoritmo para producir mejores resultados que reflejen la diversidad humana. El intento fracasó. “Puede ser realmente difícil, complejo y delicado. para comprender dónde existen los sesgos y cómo se integran.” Alex Shahrestani, abogado de tecnología dijo el socio director de Promise Legal, una firma de abogados para empresas de tecnología. Incluso los ingenieros bien intencionados que participan en el entrenamiento de la IA no pueden evitar aportar sus propias experiencias de vida y prejuicios subconscientes al proceso. Él y otros creen que Burgoyne de Valkyrie también culpa a las grandes empresas tecnológicas por mantener el funcionamiento interno de generaciones de IA oculto en «cajas negras» para que los usuarios no puedan detectar sesgos ocultos. «El calibre de los resultados supera con creces nuestra comprensión del método», afirmó. Expertos y activistas han pedido equipos más diversos para crear IA y herramientas relacionadas. y más transparencia sobre cómo funciona. Especialmente cuando los algoritmos reescriben las solicitudes de los usuarios para «mejorar» los resultados, el desafío es cómo construirlos adecuadamente en vista de las comunidades diversas y diversas del mundo, dijo Jason Lewis del Centro de Recursos para Futuros Indígenas y grupos relacionados. trabaja con comunidades indígenas remotas para diseñar algoritmos que utilicen sus datos de forma ética. Al mismo tiempo, refleja su visión del mundo. que era algo que no había visto en No siempre se trata de la «arrogancia» de los grandes líderes tecnológicos. Le dijo a su propia cartera: «Compárese esto con la retórica de Silicon Valley, que es de arriba hacia abajo: ‘Oh, estamos haciendo esto porque beneficiaremos a toda la humanidad’. Tonterías, ¿verdad?», se rió su audiencia. © 2024 AFP
Source link
+ There are no comments
Add yours