Intel y otros se comprometen a construir herramientas de AI generativas abiertas para empresas

Spread the love

¿Puede la IA generativa diseñada para empresas (por ejemplo, IA que completa informes, fórmulas de hojas de cálculo, etc.) ser interoperable? Junto con una serie de organizaciones, como Cloudera e Intel, la Fundación Linux, la organización sin fines de lucro que apoya y mantiene un creciente número de esfuerzos de código abierto, tiene como objetivo averiguarlo.

La Fundación Linux anunció el martes el lanzamiento de la Open Platform for Enterprise AI (OPEA), un proyecto para fomentar el desarrollo de sistemas de IA generativa abiertos, multiproveedor y componibles (es decir, modulares). Bajo la supervisión de la organización LF AI and Data de la Fundación Linux, que se centra en iniciativas de plataformas relacionadas con la IA y los datos, el objetivo de OPEA será allanar el camino para la publicación de sistemas de IA generativa «robustos» y «escalables» que «aprovechen la mejor innovación de código abierto de todo el ecosistema», dijo Ibrahim Haddad, director ejecutivo de LF AI and Data, en un comunicado de prensa.

«OPEA desbloqueará nuevas posibilidades en IA al crear un marco detallado y componible que se encuentra en la vanguardia de las pilas tecnológicas», dijo Haddad. «Esta iniciativa es un testimonio de nuestra misión de impulsar la innovación y la colaboración de código abierto dentro de las comunidades de IA y datos bajo un modelo de gobernanza neutral y abierto».

Además de Cloudera e Intel, OPEA, uno de los Proyectos Sandbox de la Fundación Linux, un programa incubador de cierto modo, cuenta entre sus miembros con gigantes corporativos como Intel, Red Hat, de IBM, Hugging Face, Domino Data Lab, MariaDB y VMware.

Entonces, ¿qué podrían construir juntos exactamente? Haddad sugiere algunas posibilidades, como el «soporte optimizado» para cadenas de herramientas y compiladores de IA, que permiten que las cargas de trabajo de IA se ejecuten en diferentes componentes de hardware, así como «tuberías heterogéneas» para generación aumentada por recuperación (RAG).

RAG se está volviendo cada vez más popular en aplicaciones empresariales de IA generativa, y no es difícil ver por qué. Las respuestas y acciones de la mayoría de los modelos de IA generativa están limitadas a los datos en los que están entrenados. Pero con RAG, la base de conocimientos de un modelo puede extenderse a información fuera de los datos de entrenamiento originales. Los modelos RAG hacen referencia a esta información externa, que puede ser datos de la empresa, una base de datos pública o una combinación de ambos, antes de generar una respuesta o realizar una tarea.

Una imagen que explica los modelos RAG. Créditos de la imagen: Intel

Intel ofreció algunos detalles adicionales en su propio comunicado de prensa:

Imagem destacada

Las empresas se enfrentan a un enfoque de «hazlo tú mismo» [para RAG] porque no hay estándares de facto entre los componentes que permitan a las empresas elegir e implementar soluciones RAG que sean abiertas e interoperables y que les ayuden a llegar rápidamente al mercado. OPEA tiene la intención de abordar estos problemas colaborando con la industria para estandarizar componentes, incluidos marcos de trabajo, planos de arquitectura y soluciones de referencia.

La evaluación también será una parte clave de lo que OPEA aborda.

En su repositorio de GitHub, OPEA propone un esquema para calificar sistemas de IA generativa en cuatro ejes: rendimiento, características, confiabilidad y preparación de nivel empresarial. El rendimiento, tal como lo define OPEA, se refiere a los benchmarks «de caja negra» de casos de uso del mundo real. Las características son una evaluación de la interoperabilidad del sistema, las opciones de implementación y la facilidad de uso. La confiabilidad examina la capacidad de un modelo de IA para garantizar «robustez» y calidad. Y la preparación empresarial se centra en los requisitos para poner en marcha un sistema sin problemas importantes.

Rachel Roumeliotis, directora de estrategia de código abierto en Intel, dice que OPEA trabajará con la comunidad de código abierto para ofrecer pruebas basadas en el esquema, así como proporcionar evaluaciones y calificaciones de implementaciones de IA generativa a pedido.

Los otros esfuerzos de OPEA están un poco en el aire en este momento. Pero Haddad mencionó el potencial de desarrollo de modelos abiertos a lo largo de las líneas de la creciente familia Llama de Meta y DBRX de Databricks. Con ese fin, en el repositorio de OPEA, Intel ya ha contribuido con implementaciones de referencia para un chatbot impulsado por IA generativa, un resumidor de documentos y un generador de código optimizado para su hardware Xeon 6 y Gaudi 2.

Ahora, los miembros de OPEA están claramente interesados (y con intereses propios, dicho sea de paso) en construir herramientas para la IA generativa empresarial. Cloudera recientemente lanzó asociaciones para crear lo que presenta como un «ecosistema de IA» en la nube. Domino ofrece un conjunto de aplicaciones para construir y auditar IA generativa orientada a los negocios. Y VMware, orientado al lado de la infraestructura de la IA empresarial, lanzó nuevos productos de computación de «IA privada» en agosto pasado.

La pregunta es si estos proveedores trabajarán juntos para construir herramientas de IA cruzadas compatibles bajo OPEA.

Hay un beneficio obvio en hacerlo. Los clientes estarán encantados de recurrir a varios proveedores según sus necesidades, recursos y presupuestos. Pero la historia ha demostrado que es demasiado fácil inclinarse hacia la dependencia de proveedores. Esperemos que ese no sea el resultado final aquí.

¡Apple retira un emulador de Game Boy de la App Store por violaciones, pero asegura que los emuladores de juegos están permitidos!

¡Airchat, la nueva y emocionante app social, promete ser genial! ¡Descubre si logrará triunfar o sucumbirá al mismo destino que Clubhouse!