Red Hat AI
Red Hat® AI agiliza la adopción de la inteligencia artificial empresarial con modelos pequeños diseñados para un propósito específico, técnicas de personalización eficientes y la flexibilidad para desarrollar e implementar sistemas en cualquier entorno.
Te permite comenzar el proceso de incorporación de esta tecnología o prepararte para ajustar las aplicaciones.
Ofertas de Red Hat AI
Red Hat Enterprise Linux® AI
Red Hat Enterprise Linux AI ayuda a los clientes que aún no han definido sus casos prácticos empresariales en el inicio de su proceso de adopción de la inteligencia artificial. Esta plataforma está diseñada para desarrollar, probar y ejecutar los modelos base de esta tecnología generativa.
Funciones y ventajas
Incluye los modelos de lenguaje de gran tamaño de Granite de IBM.
Los modelos se pueden perfeccionar con InstructLab.
Es rentable para los clientes con acceso restringido a la GPU.
Red Hat OpenShift® AI
Red Hat OpenShift AI está diseñada para los clientes que ya están listos para ajustar sus aplicaciones de inteligencia artificial. Esta plataforma permite gestionar el ciclo de vida de los modelos de inteligencia artificial predictiva y generativa en todos los entornos de la nube híbrida.
Funciones y ventajas
Incluye funciones de MLOps empresarial.
Cuenta con modelos de lenguaje de gran tamaño de IBM Granite y herramientas de InstructLab.
La inteligencia artificial se puede diseñar y distribuir según sea conveniente con los aceleradores del hardware y la compatibilidad de la nube híbrida.
¿Qué es InstructLab?
InstructLab de Red Hat es un proyecto de la comunidad que logra que los desarrolladores realicen pruebas con los modelos de Granite de IBM de manera más sencilla, incluso si tienen poca experiencia en machine learning (aprendizaje automático).
Es una buena opción para comenzar si deseas experimentar con el modelo de inteligencia artificial que elijas o perfeccionar los modelos base de tu hardware local.
Esto elimina los obstáculos relacionados con los costos y los recursos para realizar pruebas con los modelos mencionados antes de que estés listo para incorporar la inteligencia artificial en tu empresa.
Partners de Red Hat AI
Con más partners de inteligencia artificial, tendrás más posibilidades de alcanzar el éxito y podrás explorar más opciones.
Los especialistas y las tecnologías se están uniendo para que los clientes puedan obtener mejores resultados con la inteligencia artificial. Varios partners tecnológicos están trabajando con Red Hat para certificar su funcionamiento con nuestras soluciones, y nuestro ecosistema sigue creciendo.
Patrón de la solución
Aplicaciones de inteligencia artificial con NVIDIA AI Enterprise y Red Hat
Cree una aplicación RAG
Red Hat OpenShift AI es una plataforma para diseñar proyectos de análisis de datos y distribuir aplicaciones que utilizan la inteligencia artificial. Con ella puede integrar todas las herramientas que necesita para respaldar la generación aumentada por recuperación (RAG), un método para obtener respuestas de la inteligencia artificial desde sus documentos de referencia. Cuando conecta OpenShift AI con NVIDIA AI Enterprise, puede experimentar con los modelos de lenguaje de gran tamaño (LLM) para encontrar el más adecuado para su aplicación.
Diseñe un canal para los documentos
Para usar la RAG, primero debe incorporar los documentos en una base de datos vectorial. En nuestra aplicación de ejemplo, integramos un conjunto de documentos de productos en una base de datos de Redis. Ya que estos cambian con frecuencia, podemos crear un canal para este proceso que ejecutaremos de forma regular y, de esta forma, siempre tendremos las versiones más recientes de ellos.
Consulte el catálogo de LLM
NVIDIA AI Enterprise brinda acceso a un catálogo de distintos LLM, por lo que puede probar diferentes opciones y elegir el modelo que ofrezca los mejores resultados. Estos modelos se alojan en el catálogo de NVIDIA API. Una vez que haya configurado un token de interfaz de programación de aplicaciones (API), puede implementar un modelo utilizando la plataforma de distribución de NVIDIA NIM directamente desde OpenShift AI.
Seleccione el modelo adecuado
A medida que prueba distintos LLM, los usuarios tienen la posibilidad de calificar cada respuesta que se genera. Puede configurar un panel de control de Grafana para comparar las calificaciones, además de la latencia y los tiempos de respuesta de cada modelo. Luego, puede usar esos datos para elegir el mejor LLM para implementar en la producción.
Casos de éxito de Red Hat AI
Ortec Finance agiliza el crecimiento y el tiempo de comercialización
Ortec Finance, un proveedor internacional de soluciones y tecnologías para la gestión del riesgo y la rentabilidad, está poniendo a disposición los modelos de machine learning en la etapa de producción en Microsoft Azure Red Hat OpenShift y está adoptando Red Hat AI.
La Universidad de Boston diseña una plataforma educativa
La Universidad de Boston amplió el entorno de aprendizaje para que cientos de usuarios de las ciencias de la computación y la ingeniería informática accedan a él.