Colombia Consultor TIC Revistas Virtualización y computación en la nube

Empresas con arquitecturas distribuidas ganaron flexibilidad con las mejoras introducidas en OpenShift AI y RHEL AI 

Durante el primer trimestre de 2025, la compañía introdujo mejoras en Red Hat OpenShift AI y Red Hat Enterprise Linux AI (RHEL AI), enfocadas en facilitar el ajuste, monitoreo y despliegue de modelos de lenguaje de gran tamaño. Las nuevas capacidades apuntaron a resolver desafíos comunes en entornos de nube híbrida, edge y centros de datos, desde la gobernanza de modelos hasta la integración de datos privados. 

Imagen: RedHat

Red Hat anunció actualizaciones importantes en su portafolio de soluciones de inteligencia artificial (IA) empresarial, marcando un nuevo paso en su estrategia para acompañar a organizaciones que están adoptando modelos de lenguaje de gran tamaño (LLM) en entornos de nube híbrida y edge computing. Las novedades abarcaron tanto la plataforma Red Hat OpenShift AI, en su versión 2.18, como Red Hat Enterprise Linux AI (RHEL AI) 1.4, y respondieron a una creciente demanda por soluciones que combinen eficiencia operativa, personalización de modelos, interoperabilidad y cumplimiento normativo. 

En un contexto donde cada vez más empresas buscan entrenar e implementar modelos de IA generativa utilizando sus propios datos, pero sin comprometer la seguridad ni aumentar los costos, Red Hat profundizó su enfoque en plataformas abiertas, con flexibilidad de despliegue en múltiples arquitecturas y mayor control sobre los ciclos de vida de los modelos. 

Red Hat OpenShift AI 2.18 incluyó avances centrados en facilitar el entrenamiento, la inferencia y la gobernanza de los modelos. Uno de los elementos destacados fue la incorporación de servicio distribuido para LLMs, que permite asignar tareas entre múltiples GPU para maximizar el rendimiento y distribuir la carga de trabajo de manera más equilibrada. Esta arquitectura es clave para organizaciones que operan en entornos de computación acelerada y buscan minimizar tiempos de respuesta y cuellos de botella. 

La plataforma también agregó una experiencia de ajuste de modelos más integral, basada en la integración de herramientas como InstructLab. Esta funcionalidad permitió a los equipos de ciencia de datos adaptar modelos de lenguaje a contextos empresariales específicos de forma más ágil y transparente. Asimismo, Red Hat reforzó las capacidades de evaluación de desempeño a través de la incorporación de lm-eval, una herramienta para comparar resultados en tareas como razonamiento lógico, comprensión lingüística adversarial o generación contextual. 

En paralelo, la versión 2.18 de OpenShift AI introdujo AI Guardrails, un conjunto de mecanismos de revisión tecnológica que ayudan a prevenir respuestas ofensivas, exposición de datos sensibles o contenido contrario a políticas corporativas. Esta característica reforzó la dimensión de gobernanza, uno de los temas críticos para entornos regulados y de alta exposición pública. 

Por otro lado, Red Hat Enterprise Linux AI 1.4 avanzó como plataforma base para la ejecución de modelos, sumando compatibilidad con el modelo Granite 3.1 8B y ampliando sus capacidades multilingües. RHEL AI continuó consolidándose como una solución de soporte para el entrenamiento local y el ajuste ligero de modelos en arquitecturas distribuidas, incluyendo nubes públicas, entornos on-premise y edge. 

Entre sus novedades, RHEL AI 1.4 introdujo una nueva interfaz gráfica para la incorporación de taxonomías y habilidades empresariales, diseñada para simplificar el trabajo de quienes no son especialistas en IA. También presentó Document Knowledge-bench (DK-bench), una herramienta que permite comparar la eficacia de modelos entrenados con datos privados frente a sus versiones originales, facilitando la toma de decisiones sobre tuning, escalabilidad o renovación de modelos. 

En paralelo a estas actualizaciones, Red Hat anunció la disponibilidad del servicio InstructLab en IBM Cloud, pensado para facilitar el acceso a herramientas de ajuste en modalidad gestionada. Este movimiento apuntó a empresas que, sin disponer de infraestructura propia, desean implementar IA bajo esquemas de seguridad reforzada y control de datos. 

Para fortalecer el proceso de adopción, la compañía también lanzó un programa de capacitación gratuita en fundamentos de IA dirigido a sus clientes. Con rutas diferenciadas para líderes técnicos, usuarios sin experiencia previa y perfiles intermedios, el programa buscó preparar al canal y a los usuarios finales en los conceptos clave que definen el uso productivo de la inteligencia artificial empresarial. 

Estas iniciativas fueron respaldadas por testimonios de empresas como Airbus Helicopters, que implementó su primer caso de uso de IA con OpenShift AI, o socios de integración como HCLTech e IBM Consulting, quienes destacaron la relevancia de contar con plataformas abiertas, adaptables y alineadas con los requisitos de seguridad, eficiencia operativa y flexibilidad de despliegue. 

Las actualizaciones realizadas por Red Hat en su portafolio de inteligencia artificial evidenciaron un enfoque estratégico orientado a resolver problemas prácticos de integración, ajuste y operación de modelos de lenguaje en la nube híbrida. Para fabricantes de tecnología, mayoristas e integradores de soluciones, estas plataformas representan una oportunidad de valor agregado, tanto por su flexibilidad técnica como por su alineación con las exigencias de empresas que demandan IA personalizada, auditable y compatible con múltiples entornos. Con una hoja de ruta centrada en apertura, eficiencia y control, Red Hat reforzó su posición en el ecosistema tecnológico como proveedor de referencia para la IA empresarial. 

Facebook
Twitter
Instagram
Whatsapp
LinkedIn