La construcción de chatbots de inteligencia artificial hoy en día se basa en chips de computadora especializados, de los que fue pionera Nvidia, que dominó el mercado y se convirtió en el ejemplo del auge de la IA. Pero las mismas propiedades que hacen que los chips de procesamiento de gráficos, o GPU, sean tan poderosos para construirlos. Potente sistema de IA desde el principio Eso lo hace menos eficiente a la hora de poner en funcionamiento los productos de IA. Eso abre la industria de los chips de IA a competidores que creen que pueden competir con Nvidia en la venta de los llamados chips de inferencia de IA que se adaptan a cada caso de uso de las herramientas de IA. y está diseñado para reducir parte del procesamiento a gran escala. El costo de construir IA «Estas empresas ven una oportunidad para ese tipo de hardware especializado», dijo Jacob Feldgoise, analista del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown. “Cuanto más amplia sea la adopción de estos modelos, mejor. Se requiere más potencia de procesamiento para la inferencia. Y la demanda de chips de inferencia no hará más que aumentar”. Se requiere mucha potencia informática para construir un chatbot de IA, comenzando con un proceso conocido como entrenamiento o preentrenamiento – la “P” en ChatGPT – que involucra el “aprendizaje” de los sistemas de IA. A partir de patrones de estudio de grandes cantidades de datos, las GPU lo hacen bien porque pueden realizar múltiples cálculos a través de una red de dispositivos que se comunican entre sí. Sin embargo, una vez entrenadas, las herramientas creativas de IA aún pueden necesitar un chip para funcionar, por ejemplo. le pides a un chatbot que escriba un documento o cree una imagen. Ahí es donde entra en juego la inferencia. Un modelo de IA entrenado debe tomar nuevos datos y extrapolar lo que ya sabe para crear una respuesta que las GPU también pueden hacer ese trabajo. Pero podría ser como tomar un mazo y cascar nueces. “Con la práctica Trabajarás mucho más duro. y trabajar más duro por inferencia Por eso es más liviano”, dijo el analista de Forrester, Alvin Nguyen. Esto ha llevado a empresas emergentes como Cerebras, Groq y d-Matrix, así como a los competidores tradicionales de Nvidia en la fabricación de chips, como AMD e Intel, a optar por chips amigables. Mientras Nvidia se centra en satisfacer la enorme demanda de hardware de alta gama de las grandes empresas de tecnología, que lanzó su primer producto esta semana. Fue fundada en 2019, lo que es un poco tarde en el juego de los chips de IA, como explicó el CEO Sid Sheth durante una entrevista reciente en la sede de la compañía en Santa Clara, California, Silicon Valley, una ciudad que también alberga a AMD, Intel. , y Nvidia, “Ya tiene más de 100 empresas, así que cuando salimos La primera reacción que tuvimos fue… ‘Llegas demasiado tarde’”, dijo. La llegada de la pandemia seis meses después no ayudó. Sin embargo, a medida que la industria tecnológica se centra en el software para respaldar el trabajo remoto, Sheth ahora ve un gran mercado en la IA inferencial, comparando el aprendizaje automático reciente con la forma en que los humanos aplican el conocimiento adquirido. “Pasamos los primeros 20 años de nuestras vidas en la escuela educando. nosotros mismos. Eso es entrenamiento, ¿verdad? Él dijo: “Y los próximos 40 años de tu vida. Sales y aplicas ese conocimiento, y obtienes una recompensa por ser eficaz”. El producto, llamado Corsair, consta de dos chips. Cuatro fichas cada una Están fabricados por Taiwan Semiconductor Manufacturing Company, el mismo fabricante de chips de la mayoría de los chips de Nvidia, y empaquetados de una manera que los mantiene frescos. El chip fue diseñado en Santa Clara. Montado en Taiwán Luego se volvió a probar en California. La prueba es un proceso largo y puede llevar seis meses. Si algo sale mal Se puede enviar de regreso a Taiwán. Los empleados de D-Matrix están realizando pruebas finales en el chip durante una visita reciente al laboratorio, con una mesa de metal azul cubierta de cables, placas base y computadoras. con una genial sala de servidores al lado Mientras que los gigantes tecnológicos como Amazon, Google, Meta y Microsoft están devorando costosas GPU en su carrera por superarse entre sí en el desarrollo de IA, los fabricantes de chips de inferencia de IA se dirigen a una gama más amplia de clientes, dijo Nguyen, esto podría incluir a las empresas Fortune 500. que quieran utilizar tecnología de inteligencia artificial de próxima generación sin tener que construir su propia infraestructura de inteligencia artificial, Sheth dijo que espera que haya mucho interés en crear videos de inteligencia artificial para muchas de estas empresas. Puede utilizar sus propios datos empresariales”, dijo Nguyen. “Debería ser más barato comprar (chips de inferencia de IA) que comprar GPU de primera línea de Nvidia y otros, pero creo que habrá una curva de aprendizaje en términos. Las tareas de inferencia de IA para acampar son diferentes de los chips centrados en el entrenamiento, dijo Feldgoise. Prioriza la rapidez con la que una persona puede recibir una respuesta de un chatbot. Dijo que otra empresa está desarrollando hardware de inteligencia artificial para inferencias que puede funcionar no solo en grandes centros de datos. Pero también solo funciona en computadoras de escritorio, portátiles y teléfonos. Chips mejor diseñados podrían reducir drásticamente el costo de implementar la IA en las empresas. Eso también podría tener costos ambientales y energéticos para otros. Sheth dice que la gran preocupación en este momento es. «¿Vamos a quemar el mundo en busca de lo que la gente llama AGI, inteligencia similar a la humana?» Aún no está claro cuándo la IA podría alcanzar el punto de convertirse en inteligencia artificial general. Las predicciones varían desde unos pocos años hasta décadas, pero Sheth señaló que sólo un puñado de gigantes tecnológicos están en esa misión. «¿Pero qué pasa con el resto?», dijo. «No pueden seguir en el mismo camino». Porque es demasiado caro y consume demasiada energía. “No sé si la gente realmente aprecia que la inferencia sea en realidad una oportunidad más grande que la capacitación. No creo que lo aprecien. Sigue siendo la capacitación la que acapara todos los titulares”, dijo Sheth. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.
Los competidores de Nvidia se centran en construir otros tipos de chips para impulsar productos de IA.
Posted on by admin
You May Also Like
More From Author
RJ Guitars invade América | The Manila Times
noviembre 21, 2024
P701B en el proyecto ‘Green Lane’ OKd
noviembre 21, 2024
+ There are no comments
Add yours