El 1 de junio de 2009, el vuelo 447 de Air France desapareció en un vuelo transatlántico de rutina. La situación era un misterio hasta que se descubrió una caja negra de vuelo casi dos años después. Y la aterradora verdad se hizo evidente. Es decir, tres pilotos altamente capacitados estrellaron un avión en pleno funcionamiento en el océano. Mató a las 288 personas a bordo porque estaban confundidas. Basándome en lo que les dijo el sistema de automatización del Airbus 330, recientemente me encontré regresando a los momentos finales del vuelo 447, que se describieron tan claramente en artículos de Popular Mechanics y Vanity Fair. No pude. Es difícil deshacerme de la sensación. «Este accidente tiene algo importante que enseñarnos sobre los riesgos y las enormes recompensas de la inteligencia artificial. La última generación de IA puede crear poesía y arte, mientras que los sistemas de IA en Decide tienen el poder de encontrar patrones útiles en datos caóticos. Estas nuevas tecnologías no tienen un predecesor claro. Pero hay similitudes. El conjunto de herramientas de inteligencia artificial de Microsoft se denomina «Copilot» y no en vano. La “automatización” podría ser más precisa, pero de cualquier manera, es una comparación que vale la pena investigar. Volvamos al vuelo 447. El A330 tiene fama de ser fluido y fácil de volar. Con un complejo sistema de vuelo automatizado llamado instalación de vuelo por cable, los pilotos tradicionalmente han tenido control directo sobre las alas del avión. En cambio, el sistema de vuelo por cable traduce los movimientos bruscos del piloto en órdenes suaves. Esto hace que sea difícil colisionar con el A330, y el avión tenía un excelente historial de seguridad antes de la tragedia de Air France, pero, paradójicamente, es arriesgado construir un avión que proteja diligentemente a sus pilotos de los errores. Esto significa que cuando surgen desafíos Los pilotos tendrán muy poca experiencia intentando superar ese desafío. En el caso del vuelo 447, el desafío fue una tormenta que bloqueó con hielo los instrumentos de velocidad del avión. El sistema concluyó correctamente que estaba volando utilizando datos poco fiables. y según lo programado Sin embargo, el control total quedó en manos del piloto, que lamentablemente no estaba acostumbrado a volar en aire turbulento y enrarecido sin la supervisión de un ordenador. y comencé a cometer errores mientras el avión se balanceaba alarmantemente Instintivamente subió y detuvo el avión. Esto es algo que no sería posible si las ayudas al vuelo por cable funcionaran con normalidad. otros pilotos Existe confusión y desconfianza hacia los equipos de las aeronaves hasta el punto de no poder diagnosticar problemas fácilmente solucionables. Hasta que sea demasiado tarde Este problema a veces se llama “La paradoja de la automatización” Los sistemas automatizados pueden ayudar o incluso reemplazar la toma de decisiones humana. Pero eso significa que los humanos pueden olvidar sus habilidades o simplemente dejar de prestar atención. Cuando las computadoras requieren intervención humana Es posible que los humanos ya no puedan funcionar. Una mejor automatización significa que estos casos son raros e inusuales. Y es incluso menos probable que los humanos se enfrenten a ello. Hay muchas pruebas de que esto sucede con los sistemas de inteligencia artificial recientes. Pensemos en el desafortunado abogado que recurrió a ChatGPT en busca de ayuda para construir un caso. Pero resultó ser una referencia falsificada. Se les impuso una multa de 5.000 dólares y se les ordenó escribir cartas a varios jueces para dar explicaciones. La cuestión no es que ChatGPT no sea útil. Pero la asistencia aérea es inútil. Ambos son milagros tecnológicos. Pero hay límites. ¿Y si los usuarios humanos no comprenden esos límites? Puede seguir el desastre. La evidencia de este riesgo proviene de Fabrizio Dell’Acqua de la Escuela de Negocios de Harvard, quien recientemente realizó un experimento. Los reclutadores cuentan con la ayuda de algoritmos. Algunas de las cuales son excelentes y otras no tanto. En un intento por decidir a qué candidatos invitar a las entrevistas (esto no es IA generativa, sino una aplicación clave de la IA en el mundo real), Dell’Acqua descubrió intuitivamente que su algoritmo Los algoritmos moderados con una precisión de aproximadamente el 75 por ciento producen mejores resultados que buenos algoritmos con una precisión de alrededor del 85 por ciento. La razón es simple: cuando los reclutadores se guían por un algoritmo conocido, es un parche Permanecen enfocados y mejoran su juicio y experiencia. Cuando los reclutadores se guían por algoritmos que saben que son geniales Simplemente se sentaron allí. y deja que la computadora decida Quizás ahorraron tanto tiempo que el error valió la pena. Pero definitivamente hay trampas. Algoritmos de mala calidad y humanos que los impulsan Toma mejores decisiones colaborativas que los algoritmos de élite y los humanos zonificados. Y cuando el algoritmo es excelente. Un ser humano fragmentado se convierte en lo que recibe. Escuché sobre la investigación de Dell’Acqua por medio de Ethan Mollick, autor de Co-Intelligence. próximo Pero cuando le conté a Mollick la idea de que el piloto automático era una comparación instructiva con la IA emergente, me advirtió que no buscara paralelos que «Estrechos y bastante cómodos» Eso es justo. No existe un precedente tecnológico único que haga justicia a los rápidos avances y al desconcertante alcance de los sistemas de IA generativa. Vale la pena buscar diferentes comparaciones. Para aclarar las diferentes partes. de lo que puede haber por delante Tengo dos más en mente para futuras exploraciones. Y hay una lección de la automatización que creo que se aplica a la IA generativa: en lugar de pensar en que las máquinas reemplacen a los humanos, Las preguntas más interesantes se centran en la colaboración, a veces tensa, entre ambos. Incluso los mejores sistemas automatizados a veces requieren del juicio humano. ¿Estaremos listos? Los sistemas de IA de nueva generación suelen resultar confusos. Pero tenemos mucho tiempo para experimentar con ellos. Más que el pobre Pierre-Cedric Bonin, el joven piloto que pilotó un avión perfectamente operativo en el Océano Atlántico. Sus últimas palabras: “¿Pero qué pasó?” Escrito y publicado originalmente en el Financial Times el 2 de febrero de 2024 Mi primer libro para niños, El detective de la verdad, ya está disponible. (Aún no en EE. UU. ni Canadá, lo siento). He instalado escaparates en librerías de EE. UU. y el Reino Unido. Los enlaces a librerías y Amazon pueden generar tarifas de referencia.
Source link
+ There are no comments
Add yours