Como construir um agente de IA com ajuste fino de LLM no Jitterbit Harmony
Introdução
Este guia mostra como construir um agente de IA com um Modelo de Linguagem Grande (LLM) ajustado no Jitterbit Harmony usando o Studio. O guia usa OpenAI como o provedor de LLM de exemplo, mas você pode adaptar essas etapas para outros provedores, como Google Gemini ou AWS Bedrock. Os conceitos principais permanecem os mesmos, mas as etapas de configuração podem diferir.
Dica
Para fins de aprendizado, consulte o Agente LLM Ajustado fornecido através do Jitterbit Marketplace para uma implementação deste guia.
Construir um agente de IA com ajuste fino de LLM
-
Crie um novo projeto no Studio:
- Faça login no portal Harmony e selecione Studio > Projetos.
- Clique em Novo Projeto. Um diálogo Criar Novo Projeto é aberto.
- No diálogo, insira um Nome do projeto como
Agente de IA - Ajuste Fino OpenAI, selecione um ambiente existente e clique em Começar a Projetar. O designer de projetos é aberto.
-
Crie um fluxo de trabalho de utilitário de ajuste fino para treinar o LLM com os dados da sua organização:
-
No designer de projetos, clique duas vezes no nome do fluxo de trabalho padrão e insira um nome, como
Utilitário - Ajustar Modelo OpenAI. -
Use o conector HTTP v2 para criar um endpoint para o seu provedor de LLM. Este exemplo usa OpenAI, mas você pode configurar o conector HTTP v2 para a API de qualquer provedor. Na aba Endpoints e conectores do projeto, clique no endpoint OpenAI para mostrar seus tipos de atividade.
-
Crie uma operação para enviar dados de treinamento e iniciar o trabalho de ajuste fino. Você precisa preparar seus dados de treinamento de acordo com os requisitos do seu provedor de LLM. Este exemplo usa o formato JSONL (JSON Lines), onde cada linha representa um único exemplo de treinamento. A OpenAI exige pelo menos 10 exemplos, mas recomenda pelo menos 50 exemplos para melhores resultados. Consulte a documentação do seu provedor para requisitos específicos de formato e recomendações mínimas de dados de treinamento.
O exemplo a seguir mostra o formato do esquema JSONL.
{"messages": [ {"role": "user", "content": "What was the top employee-requested feature in the 2025 internal IT satisfaction survey?"}, {"role": "assistant", "content": "The most requested feature in the 2025 IT satisfaction survey was single sign-on integration for all internal tools."} ]} {"messages": [ {"role": "user", "content": "In the Q3 Workplace Environment Survey, what did employees rate as the lowest performing area?"}, {"role": "assistant", "content": "The lowest performing area in the Q3 Workplace Environment Survey was the availability of quiet workspaces for focused tasks."} ]} -
Crie um script para atribuir seus dados de treinamento a uma variável, como
$InAndOut. Esta variável armazena seus dados de treinamento JSONL e é usada nas operações subsequentes para enviar o arquivo para a OpenAI e iniciar o trabalho de ajuste fino. -
Crie uma operação para monitorar o status do trabalho de ajuste fino. Após a conclusão do trabalho, recupere o ID do modelo ajustado a partir do painel de ajuste fino da OpenAI. Você usará este ID de modelo ao configurar o fluxo de trabalho de lógica de IA para enviar consultas ao seu modelo ajustado.
-
-
Crie um fluxo de trabalho de manipulador de solicitações de API para receber consultas de usuários da sua interface de chat:
-
Clique em Adicionar Novo Fluxo de Trabalho para criar um novo fluxo de trabalho.
-
Renomeie o fluxo de trabalho para
Manipulador de Solicitações de API. -
Na aba Endpoints e Conectores do Projeto, arraste o tipo de atividade Solicitação para a zona de drop no canvas de design.
-
Clique duas vezes na atividade Solicitação de API e defina um esquema JSON apropriado para sua interface de chat.
-
Adicione uma transformação para mapear os campos de dados da solicitação para o formato que seu agente de IA requer. Consulte o Agente LLM Ajustado para exemplos.
-
Crie uma API personalizada do Jitterbit para expor a operação:
- Clique no menu de ações da operação e selecione Publicar como uma API.
- Configure as seguintes definições: Método:
POSTe Tipo de Resposta:Variável do Sistema. - Salve a URL do serviço da API para configurar sua interface de chat. Sua interface de chat envia a carga útil da solicitação com a pergunta do usuário para esta URL de serviço.
-
-
Crie o fluxo de trabalho de lógica de IA para lidar com consultas de usuários e retornar respostas do modelo ajustado. Os seguintes passos demonstram a implementação da OpenAI:
-
Clique em Adicionar Novo Fluxo de Trabalho para criar um novo fluxo de trabalho.
-
Renomeie o fluxo de trabalho para
Main - AI Agent Tools Logic. -
Na aba Endpoints e conectores do projeto, arraste uma atividade HTTP v2 Post do endpoint HTTP v2 para a zona de drop.
-
Adicione uma transformação antes da atividade HTTP v2 POST. Nesta transformação, especifique o ID do seu modelo ajustado para direcionar as consultas ao seu modelo treinado. A consulta enviada ao LLM é a pergunta do usuário recebida na carga útil do fluxo de trabalho
API Request Handler. Consulte o Agente LLM Ajustado para exemplos. -
Adicione uma transformação após a atividade HTTP v2 POST para mapear a resposta da OpenAI em um formato de saída estruturado para sua interface de chat. Consulte o Agente LLM Ajustado para exemplos.
-
-
Conecte os fluxos de trabalho:
-
Retorne ao fluxo de trabalho
API Request Handler. -
Chame a operação no fluxo de trabalho
Main - AI Agent Tools Logicusando um destes métodos:- Adicione um script que utilize a função
RunOperation. - Configure uma atividade Invocar Operação (Beta).
- Adicione um script que utilize a função
-
-
Configure sua interface de chat. Este agente de IA pode funcionar com várias plataformas, incluindo Slack, Microsoft Teams, microsserviços, aplicativos SaaS como Salesforce, ou aplicações construídas usando Jitterbit App Builder. Configure a plataforma escolhida e defina a URL de solicitação para a URL do seu serviço de API personalizado do Jitterbit.
Dica
Para um exemplo de implementação no Slack, consulte o Agente LLM Ajustado no Jitterbit Marketplace.
-
Clique no menu de ações do projeto e selecione Implantar Projeto.
