Colombia Consultor TIC Revistas Soluciones Corporativas

Infraestructura abierta y portabilidad: Red Hat redefine los fundamentos técnicos para escalar la IA empresarial en entornos híbridos 

Durante el Summit 2025, Red Hat presentó una batería de actualizaciones en su portafolio de inteligencia artificial que apunta a resolver uno de los principales cuellos de botella en la implementación empresarial de IA: la inferencia eficiente y reproducible. Con nuevas herramientas, estándares abiertos y modelos validados, la compañía busca acelerar el uso práctico de la IA en cualquier entorno, sin depender de una nube, proveedor o framework específicos. 

Imagen: Red Hat

En un escenario donde la inteligencia artificial ya no es una promesa sino una prioridad empresarial, el verdadero reto ha pasado de entrenar modelos a desplegarlos y mantenerlos funcionando con seguridad, eficiencia y escala. Durante el Red Hat Summit 2025, la compañía anunció una serie de actualizaciones diseñadas para acelerar la inferencia, facilitar la personalización y permitir flujos de trabajo de IA más abiertos y estandarizados

Las novedades, integradas en el portafolio Red Hat AI, incluyen: 

  • El lanzamiento del AI Inference Server, pensado para ejecutar modelos grandes o pequeños en nubes híbridas y entornos distribuidos. 
  • Nuevas versiones de OpenShift AI (2.20) y Red Hat Enterprise Linux AI (1.5), con capacidades mejoradas de entrenamiento, personalización y monitoreo. 
  • Integraciones con plataformas y estándares abiertos como Llama Stack, Model Context Protocol (MCP) y Hugging Face, que fortalecen la interoperabilidad. 

“La IA necesita moverse más rápido que la tecnología que la habilita. Para lograrlo, debemos derribar barreras entre herramientas, equipos y entornos de ejecución. Con estas actualizaciones, queremos ofrecer una plataforma de IA reproducible, portable y abierta, sin fricciones innecesarias”, afirmó Joe Fernandes, vicepresidente y líder de la unidad de IA de Red Hat. 

Inferencia: el nuevo punto crítico para la innovación en IA generativa 

Aunque el entrenamiento de modelos ha recibido gran parte de la atención pública, en entornos empresariales la inferencia —es decir, la ejecución de modelos para resolver tareas en producción— es el verdadero cuello de botella. Las empresas necesitan ejecutar modelos en múltiples ubicaciones, con recursos limitados, sin sacrificar precisión ni costos. 

El nuevo AI Inference Server de Red Hat responde a este reto como una solución modular, pensada para operar en clústeres de Kubernetes, instancias de OpenShift, servidores edge o nubes públicas, según la necesidad. Su diseño permite: 

  • Reutilizar modelos preentrenados validados. 
  • Integrarse con pipelines existentes. 
  • Ejecutar inferencias con mayor eficiencia energética. 
  • Garantizar trazabilidad y portabilidad de las configuraciones. 

El objetivo, según Red Hat, es que las empresas puedan inferir a escala sin replicar el esfuerzo técnico en cada nuevo despliegue. 

Modelos validados, compresión y catálogo inteligente 

Junto con el nuevo servidor de inferencia, Red Hat lanzó una colección de modelos optimizados y validados, disponibles a través de Hugging Face. Cada modelo incluye configuraciones reproducibles, métricas de rendimiento y documentación de referencia, lo que facilita su adopción por parte de equipos técnicos. 

Además, se anunció el soporte para compresión de modelos, una técnica que permite reducir el tamaño de los LLMs y aumentar su velocidad de inferencia, sin comprometer la calidad. Esta optimización es clave para empresas que buscan reducir su consumo de GPU o ejecutar IA en entornos donde los recursos computacionales son limitados. 

Llama Stack y MCP: hacia un lenguaje común para construir agentes 

Una de las mayores barreras para escalar IA en las organizaciones es la fragmentación de interfaces y herramientas. Por eso Red Hat integró Llama Stack, el framework de Meta para construir agentes sobre LLMs, y el Model Context Protocol (MCP) de Anthropic, un estándar para interoperabilidad entre modelos, datos y herramientas externas. 

Estas integraciones permiten: 

  • Ejecutar flujos RAG, agentes conversacionales y asistentes internos sin depender de un proveedor único. 
  • Reutilizar componentes entre distintos modelos y entornos. 
  • Evaluar modelos de forma coherente, midiendo resultados en contextos reales de negocio. 

“La IA generativa no puede ser una caja negra. Necesitamos transparencia, trazabilidad y modularidad para que las empresas confíen en sus resultados”, explicó Fernandes. 

Actualizaciones en OpenShift AI y RHEL AI: más rendimiento, más opciones 

Las nuevas versiones de las plataformas principales de Red Hat también llegaron con mejoras sustanciales: 

OpenShift AI 2.20: 

  • Entrenamiento distribuido en clústeres con PyTorch y Kubeflow. 
  • Feature Store integrada (Feast) para manejo de variables clave. 
  • Catálogo preliminar de modelos optimizados, listos para usar. 

RHEL AI 1.5: 

  • Compatible ahora con Google Cloud Marketplace. 
  • Soporte multilingüe mejorado gracias a InstructLab (incluyendo español, francés, alemán e italiano). 
  • Nuevas herramientas para entrenamiento maestro/alumno y uso de modelos compactos. 

Estas plataformas están pensadas para organizaciones que buscan entrenar, refinar y ejecutar IA desde el mismo entorno, con control sobre el ciclo de vida completo. 

El futuro de la IA empresarial es híbrido, distribuido y abierto 

La estrategia de Red Hat para 2025 y más allá no se basa en ofrecer un único modelo o entorno cerrado, sino en habilitar una arquitectura de IA abierta y componible, donde las organizaciones puedan construir sus propios flujos, elegir sus modelos, controlar sus costos y desplegar en donde lo necesiten. 

En un mercado donde las grandes plataformas luchan por capturar todo el ciclo de IA en sus ecosistemas, Red Hat propone una alternativa más modular, portátil y ética, alineada con los principios del software libre y la interoperabilidad. 

“El reto no es solo tener IA, sino tener IA que funcione bien, en todas partes, para todos los equipos. Ahí es donde nosotros queremos marcar la diferencia”, concluyó Fernandes. 

Facebook
Twitter
Instagram
Whatsapp
LinkedIn