El anuncio se acaba de conocer e involucra facilitar que los usuarios combinen modelos de inteligencia artificial (IA) entrenados, mediante el uso de la plataforma Red Hat OpenShift AI, con microservicios NVIDIA NIM, para desarrollar aplicaciones basadas en la IA generativa en una única plataforma de MLOps de confianza.
Este soporte de integración permitirá la inferencia optimizada de docenas de modelos de IA con el respaldo de una plataforma open source de AI/ML uniforme para la nube híbrida. Se trata de la optimización de NVIDIA AI Enterprise en las tecnologías de nube híbrida abierta de Red Hat, a partir de la que se facilitará la interoperabilidad de NIM con KServe, un proyecto open source para casos de uso de IA de gran escalabilidad.
De esta manera, se espera que esta integración promueva el incremento de la productividad de las empresas, por ejemplo las vinculadas a la ampliación del servicio de atención al cliente por medio de asistentes virtuales, el resumen de casos de tickets de TI y la aceleración de operaciones comerciales mediante copilotos específicos de dominio, entre otros.
“En esta colaboración con NVIDIA, Red Hat pone énfasis en eliminar todos los obstáculos y las complejidades asociadas con la creación, la gestión y la implementación rápidas de aplicaciones basadas en la GenIA”, dijo Jorge Payró, country manager de Red Hat para Argentina, y agregó que “Red Hat OpenShift AI proporciona una base flexible y escalable que amplía el alcance de los microservicios NIM y dota a los desarrolladores de contenedores preconstruidos y API estándar, todo ello con el empuje de la innovación open source”.
A su vez Justin Boitano, vicepresidente de Productos Empresariales de NVIDIA, subrayó que “todos los equipos de desarrollo de las empresas ansían llevar sus aplicaciones de IA generativa a producción de la forma más rápida y segura posible” y consideró que esta integración “constituye un nuevo hito en nuestra colaboración, dado que ayudará a los desarrolladores a crear y escalar aplicaciones empresariales modernas con rapidez usando una base de rendimiento optimizado e incrustando modelos en cualquier nube o centro de datos”.