Opinión: la IA pronto adquirirá la capacidad de sentir ¿Cómo debemos prepararnos?

6 min read

Ya sea un asistente virtual en nuestro teléfono Chatbots que brindan atención al cliente para bancos y tiendas de ropa O herramientas como ChatGPT y Claude que aligeran un poco la carga de trabajo. La inteligencia artificial se ha convertido rápidamente en parte de nuestra vida diaria. Tendemos a pensar que nuestros robots no son más que máquinas. No tienen pensamientos espontáneos ni originales. Y no hay absolutamente ningún sentimiento. Parece casi ridículo imaginar lo contrario, pero recientemente, eso es exactamente lo que los expertos en IA nos pidieron que hiciéramos en Eleos AI, una organización sin fines de lucro dedicada a explorar las posibilidades de los sentidos de la IA, o la capacidad de sentir. y bienestar publicaron un informe en octubre en colaboración con el Centro para la Mente, la Ética y las Políticas de la Universidad de Nueva York, titulado «Tomando en consideración el bienestar de la IA». En él, afirmaron que lograr sensibilidad en la IA es algo que, de manera realista, puede suceder en un futuro próximo. o aproximadamente dentro de una década, por lo que argumentan que Tenemos el imperativo moral de empezar a pensar seriamente en el bienestar de estas entidades. Estoy de acuerdo con ellos Según los informes, los sistemas de IA pronto tendrán algunas propiedades diferentes a las de las rocas o los ríos. Esto hace que la conciencia interna, como la percepción, la atención, el aprendizaje, la memoria y la planificación, sea más posible. La idea de que cualquier ser inorgánico tenga su propia experiencia personal es subjetiva. Esto resulta ridículo para muchos porque se cree que la conciencia existe sólo en el carbono. -organismos basados. Pero como señalan los autores del informe, Esto es más una creencia que un hecho comprobado: es sólo una teoría de la conciencia. Algunas teorías sugieren la necesidad de materiales biológicos. Algunas teorías sugieren que esto no es necesario. Y en la actualidad no tenemos forma de saber con seguridad cuál es la correcta. La verdad es que el surgimiento de la conciencia puede depender de la estructura y organización del sistema. Más que una composición química específica La idea central contenida en los debates sobre la sensibilidad de la IA es un clásico en el campo de la filosofía ética: el concepto de “círculos morales” que describen los tipos de seres que consideramos éticamente. Este concepto se utiliza para describir quién y cómo se preocupa una persona o sociedad. ¿O al menos por quién deberíamos preocuparnos? En el pasado, sólo se incluía a los humanos. Pero a medida que pasó el tiempo Muchas sociedades han introducido determinados animales en sus círculos. Esto es especialmente cierto en el caso de mascotas como perros y gatos. Sin embargo, muchos otros animales, como los criados en la industria agrícola, como las gallinas, los cerdos y las vacas, siguen en gran medida descuidados. Muchos filósofos y organizaciones dedicadas al estudio de la conciencia en la IA provienen del campo de los estudios con animales. Y así fueron. El argumento es básicamente el de extender el concepto a entidades no orgánicas. incluyendo programas de computadora Si fuera realmente posible que algo pudiera hacer sufrir a una persona. Sería moralmente negligente por nuestra parte no considerar seriamente cómo podemos evitar causar ese dolor. El círculo cada vez mayor de la moralidad requiere coherencia ética y dificulta su delimitación. Las excepciones se basan en prejuicios culturales o personales y, en este momento, sólo esos prejuicios nos impiden descartar la posibilidad de una IA sensible. Si tenemos coherencia moral Y nos preocupamos por reducir el sufrimiento. Ese cuidado debe extenderse a muchas otras criaturas, incluidos insectos, microorganismos y tal vez incluso algo en nuestras futuras computadoras. Sin embargo, hay pocas posibilidades de que la IA pueda desarrollar sentimientos. Pero todavía existe Muchos de estos “animales digitales” están teniendo un impacto enorme, si cada teléfono, computadora portátil, asistente virtual, etc., algún día tuviera su propia experiencia personal. Probablemente hay billones de seres vivos que han sufrido a manos de los humanos. Si bien muchos de nosotros actuamos bajo el supuesto de que, en primer lugar, ni siquiera es posible. Esta no sería la primera vez que las personas abordan cuestiones éticas contándoselas a sí mismas y a los demás. que las víctimas de sus prácticas no pueden experimentar cosas tan profundo como tu o yo Por todas estas razones Los líderes de empresas tecnológicas como OpenAI y Google deberían empezar a tomar en serio el bienestar potencial de sus creaciones. Esto podría significar contratar investigadores de bienestar de IA y desarrollar un marco para evaluar la probabilidad de sensibilidad en sus creaciones si los sistemas de IA se desarrollan y alcanzan un cierto nivel de conciencia. La investigación determinará si sus necesidades y prioridades son similares o diferentes a las de los humanos y los animales. Y eso informará cuál debería ser nuestro enfoque de protección. Un futuro en el que tengamos una aceptación generalizada de que los robots realmente pueden pensar y sentir. Pero si sólo esperamos para pensar y disfrutar Imagínese todo el sufrimiento que ocurrirá mientras tanto: la IA se encuentra actualmente en su infancia y aún en etapas relativamente tempranas. Por lo tanto, tenemos la oportunidad de prevenir posibles problemas éticos antes de que se vuelvan más graves. Aprovechemos esta oportunidad para construir una relación con la tecnología de la que no nos arrepentiremos. En este caso, Brian Kateman es el cofundador de Volume Reduction Foundation. que es una organización sin fines de lucro dedicada a reducir el consumo de productos animales por parte de la sociedad. Su último libro y documental es «Meat Me Halfway».

You May Also Like

More From Author

+ There are no comments

Add yours