Red Hat AI

O Red Hat® AI acelera a adoção da IA empresarial com modelos pequenos e específicos, técnicas de personalização eficientes e flexibilidade para desenvolver e implantar de qualquer lugar. 

Nossa solução ajuda você a começar sua jornada de IA ou se preparar para escalar.

Um navegador flutuando no espaço com dois quadrados com cantos arredondados. Em um deles, está o ícone da solução Red Hat Enterprise Linux. No outro, o ícone do OpenShift AI.

Ofertas do Red Hat AI

Red Hat Enterprise Linux® AI

O Red Hat Enterprise Linux AI pode ajudar os clientes no começo da jornada de IA, quando ainda não definiram os casos de uso da empresa. A plataforma de IA é criada para desenvolver, testar e executar modelos de base de IA generativa (gen AI).

Funcionalidades e benefícios

  •  Inclui LLMs da família Granite da IBM

  • Ajuste fino dos modelos feito localmente com o InstructLab

  • Eficaz e econômico para clientes com acesso de GPU restrito

Red Hat OpenShift® AI

O Red Hat OpenShift AI é criado para clientes que estão prontos para escalar aplicações de IA. Essa plataforma de IA pode ajudar a gerenciar o ciclo de vida de modelos preditivos e de gen AI em ambientes de nuvem híbrida.

Funcionalidades e benefícios

  • Funcionalidades empresariais do MLOps

  • Inclui os LLMs do IBM Granite e o conjunto de ferramentas do InstructLab

  • Criação e entrega de IA em escala com aceleradores de hardware e suporte de nuvem híbrida.

O que é o InstructLab?

O InstructLab da Red Hat é um projeto orientado pela comunidade que facilita o experimento de modelos Granite da IBM pelos desenvolvedores, até mesmo aqueles com pouca experiência em machine learning.

Esta é uma ótima opção se você quiser testar modelos de IA ou fazer o ajuste fino de modelos de base no seu hardware local.

Isso remove as barreiras de custo e recurso que existem para testar modelos de IA antes de usar essa tecnologia na sua empresa.

Parceiros da Red Hat AI

Mais parceiros de IA significa mais caminhos para o sucesso, então você tem mais opções.

Os especialistas e as tecnologias se juntam para que nossos clientes façam mais com a IA. Uma variedade de parceiros de tecnologia trabalham com a Red Hat para certificar a capacidade de operação com nossas soluções. E nosso ecossistema não para de crescer.

Logotipos dos parceiros: Lenovo, intel, NVIDIA, Dell

Padrão da solução

Aplicações de IA com a Red Hat e o NVIDIA AI Enterprise

Crie uma aplicação com RAG

O Red Hat OpenShift AI é uma plataforma para criar projetos de ciência de dados e disponibilizar aplicações com IA. Você pode integrar todas as ferramentas para dar suporte à Geração Aumentada de Recuperação (RAG), um método para receber respostas da IA a partir dos seus próprios documentos de referência. Quando você conecta o OpenShift AI ao NVIDIA AI Enterprise, é possível testar large language models (LLMs) para encontrar o melhor modelo para sua aplicação.

Crie um pipeline de documentos

Para usar a RAG, primeiro você precisa ingerir seus documentos em um banco de dados vetorial. Na nossa app de exemplo, inserimos um conjunto de documentos da solução em um banco de dados do Redis. Como esses documentos mudam com frequência, criamos um pipeline para esse processo que executaremos periodicamente. Dessa forma, sempre teremos as versões mais recentes dos documentos.

Confira o catálogo de LLM

O NVIDIA AI Enterprise oferece um acesso a um catálogo de diferentes LLMs para que você tenha opções diversas e selecione o modelo com os melhores resultados. Os modelos são hospedados no catálogo da API da NVIDIA. Depois de configurar um token de API, é possível implantar um modelo usando o NVIDIA NIM que disponibiliza a plataforma diretamente a partir do OpenShift AI.

Como escolher o modelo ideal

Conforme você testa LLMs diferentes, seus usuários podem avaliar cada resposta gerada. Você pode configurar um dashboard de monitoramento do Grafana para comparar as avaliações e o tempo de resposta e latência de cada modelo. Depois, use esses dados para escolher o melhor LLM para a produção.

Ícone "Faça o download do PDF"

Um diagrama de arquitetura mostra uma aplicação criada com o Red Hat OpenShift AI e o NVIDIA AI Enterprise. Os componentes incluem o OpenShift GitOps para conexão com o GitHub e gerenciamento de interações DevOps, o Grafana para monitoramento, o OpenShift AI para ciência de dados, o Redis como um banco de dados vetorial e o Quay como um registro de imagem. Esses componentes todos são direcionados ao front-end e back-end da app. Eles são baseados no Red Hat OpenShift AI, com uma integração ao ai.nvidia.com.

Histórias de sucesso do Red Hat AI

Foto de mãos com uma calculadora

Logotipo da Ortec Finance

Ortec Finance acelera o crescimento e o time to market 

A Ortec Finance, fornecedora global de tecnologia e soluções para gerenciamento de risco e retorno, disponibiliza modelos de ML no Microsoft Azure Red Hat OpenShift e adota o Red Hat AI.

Figura olhando para dispositivo
Phoenix logo

Phoenix Systems oferece cloud computing avançado

Saiba como a Phoenix Systems está colaborando com a Red Hat para oferecer aos clientes mais variedade de escolhas, transparência e inovação de IA.​

Alunos em computadores

Universidade de Boston cria plataforma educacional

A Universidade de Boston escalou um ambiente de aprendizado para acomodar centenas de estudantes de ciência e engenharia da computação.  

Leitura recomendada

Como começar a usar a IA na empresa

Red Hat Consulting: Red Hat OpenShift AI Pilot

Red Hat Consulting: MLOps Foundation

Fale com um especialista da Red Hat sobre o Red Hat AI