Ir para o conteúdo

Agente LLM Ajustado no Jitterbit Harmony

Visão Geral

O Jitterbit oferece o Agente LLM Ajustado a todos os clientes através do Jitterbit Marketplace. Este agente é projetado para fins de aprendizado, ajudando as organizações a adotarem facilmente a IA utilizando a técnica de Geração Aumentada por Recuperação (RAG), que combina o raciocínio de LLM com acesso a ferramentas externas e fontes de dados.

Este agente de IA permite que você personalize um modelo de linguagem grande (LLM) com os dados da sua organização e, em seguida, use esse modelo ajustado para responder a perguntas por meio de uma interface conversacional. Embora este agente utilize OpenAI e Slack, você pode adaptá-lo para funcionar com outros LLMs e plataformas de chat, como Claude, Microsoft Teams, microsserviços, aplicativos SaaS como Salesforce ou aplicações construídas usando o Jitterbit App Builder.

Este documento explica como configurar e operar este agente de IA. O documento primeiro aborda a arquitetura e os pré-requisitos, em seguida, fornece exemplos de prompts para mostrar o que o modelo ajustado pode fazer, e depois fornece etapas para instalar, configurar e operar o agente de IA.

Arquitetura do projeto

Este projeto fornece dois componentes distintos:

  1. Utilitário de ajuste fino: Um fluxo de trabalho único que treina um modelo OpenAI com os dados específicos da sua organização (como pesquisas de funcionários, documentação interna ou políticas da empresa).

  2. Agente conversacional: Um bot interativo do Slack que utiliza seu modelo ajustado para responder a perguntas. Este é o agente de IA com o qual seus usuários interagem.

Um fluxo de trabalho típico envolve as seguintes etapas:

  1. Você executa o utilitário de ajuste fino uma vez para criar seu modelo personalizado.
  2. Os usuários interagem com o agente do Slack, que utiliza esse modelo personalizado.
  3. Se você precisar atualizar o modelo com novos dados, você executa novamente o utilitário de ajuste fino.

Diagramas de fluxo de trabalho

Os diagramas a seguir representam os dois principais fluxos de trabalho nesta integração.

Utility - Fine Tune OpenAI Model workflow

Este fluxo de trabalho utilitário gerencia o processo de ajuste fino para o modelo OpenAI:

--- config: flowchart: padding: 50 nodeSpacing: 100 --- flowchart LR classDef default fill:white, stroke:black, stroke-width:3px, rx:15px, ry:15px FTD@{ shape: hex, label: "
Jitterbit Studio training data" } FTR[OpenAI API HTTP request] FTJ@{ shape: hex, label: "OpenAI fine-tuning job" } FTD --> FTR --> FTJ classDef plain fill:white, stroke:black, stroke-width:3px, rx:15px, ry:15px

Main Entry - Slack API Request Handler workflow

Este fluxo de trabalho lida com a interação principal entre o Slack, a API Personalizada do Jitterbit e o modelo ajustado da OpenAI:

--- config: flowchart: padding: 20 nodeSpacing: 100 --- flowchart classDef default fill:white, stroke:black, stroke-width:3px, rx:15px, ry:15px JSP@{ shape: hex, label: "
Jitterbit Studio AI agent project" } SCI[fab:fa-slack
Slack bot chat interface] JCA@{ shape: hex, label: "
Jitterbit API Manager
custom API" } ORC[OpenAI REST Call] OFL@{ shape: hex, label: "Fine-tuned OpenAI model" } JSP -->|Answer| SCI SCI -->|Sends Question| JCA JCA -->|Triggers Slack API request handler| JSP JSP -->|Question| ORC -->|Answer| JSP ORC --> OFL --> ORC classDef plain fill:white, stroke:black, stroke-width:3px, rx:15px, ry:15px

Prerequisites

Você precisa dos seguintes componentes para usar este agente de IA.

Harmony components

Você deve ter uma licença do Jitterbit Harmony com acesso aos seguintes componentes:

OpenAI

Você deve ter uma assinatura da OpenAI com permissões para criar e gerenciar chaves de API.

Dica

Para informações sobre preços da OpenAI, consulte a página de preços da OpenAI.

Supported endpoints

O design do agente de IA incorpora os seguintes endpoints. Você pode acomodar outros sistemas modificando as configurações de endpoint e fluxos de trabalho do projeto.

LLM

O agente de IA utiliza OpenAI como o provedor de LLM para ajuste fino e inferência.

Chat interface

O agente de IA utiliza o Slack como a interface de chat padrão para interagir com o modelo ajustado.

Se você quiser usar um aplicativo diferente como interface de chat, pode modificar os fluxos de trabalho do projeto para integrar-se à sua plataforma preferida.

Example prompts

Os seguintes exemplos de prompts demonstram os tipos de perguntas que o modelo ajustado pode lidar após o treinamento com os dados da sua organização:

  • "Na Pesquisa de Ambiente de Trabalho do Q3, o que os funcionários classificaram como a área de menor desempenho?"
  • "Qual foi a principal reclamação na Pesquisa de Experiência de Onboarding de 2025?"

Nota

Os dados específicos que você usa para ajustar o LLM determinam as perguntas e respostas que o modelo pode lidar. Personalize seus dados de treinamento para atender às necessidades da sua organização.

Instalação, configuração e operação

Siga estas etapas para instalar, configurar e operar este agente de IA:

  1. Baixar personalizações e instalar o projeto do Studio.
  2. Revisar fluxos de trabalho do projeto.
  3. Gerar sua chave de API do OpenAI.
  4. Configurar variáveis do projeto.
  5. Testar conexões.
  6. Implantar o projeto.
  7. Criar a API personalizada do Jitterbit.
  8. Criar o aplicativo Slack, testar a conexão do Slack e reimplantar o projeto.
  9. Acionar os fluxos de trabalho do projeto.
  10. Solução de problemas.

Baixar personalizações e instalar o projeto

Siga estas etapas para baixar arquivos de personalização e instalar o projeto do Studio:

  1. Faça login no portal Harmony em https://login.jitterbit.com e abra o Marketplace.

  2. Localize o agente de IA chamado Agente LLM Ajustado. Para localizar o agente de IA, você pode usar a barra de pesquisa ou, no painel Filtros sob Tipo, selecionar Agente de IA para filtrar a exibição.

  3. Clique no link Documentação do agente de IA para abrir sua documentação em uma nova aba. Mantenha a aba aberta para que você possa consultar a documentação após iniciar o projeto.

  4. Clique em Iniciar Projeto para abrir uma caixa de diálogo de configuração em duas etapas. A caixa de diálogo permite que você baixe personalizações e importe o agente de IA como um projeto do Studio.

  5. Na etapa de configuração 1, Baixar Personalizações, selecione o seguinte arquivo e clique em Baixar Arquivos:

    • slack_app_manifest.json

    Dica

    A caixa de diálogo de configuração inclui um aviso para não importar o agente de IA antes de aplicar as personalizações do endpoint. Esse aviso não se aplica a este agente de IA e pode ser ignorado. Siga a ordem recomendada de etapas nesta documentação.

  6. Clique em Próximo.

  7. Na etapa de configuração 2, Criar um Novo Projeto, selecione um ambiente onde o projeto do Studio será criado e, em seguida, clique em Criar Projeto.

  8. Uma caixa de diálogo de progresso é exibida. Após a caixa de diálogo indicar que o projeto foi criado, use o link da caixa de diálogo Ir para o Studio ou abra o projeto diretamente na página de Projetos do Studio.

Revisar fluxos de trabalho do projeto

No projeto do Studio aberto, revise os fluxos de trabalho juntamente com as descrições abaixo para entender o que cada fluxo de trabalho faz.

Nome do fluxo de trabalho Tipo de gatilho Tipo de componente Descrição
Ajuste Fino do Modelo OpenAI Manual Utilitário de ajuste Inicia o processo de ajuste fino com dados de treinamento.
Entrada Principal - Manipulador de Solicitações da API Slack API Agente conversacional Lida com solicitações de bot do Slack recebidas.
Principal - Lógica das Ferramentas do Agente de IA Chamado por outros fluxos Agente conversacional Gerencia solicitações e respostas do LLM.

Ajuste Fino do Modelo OpenAI

Este fluxo de trabalho realiza o processo de ajuste fino para criar um modelo OpenAI personalizado. Inicie o processo manualmente executando a operação Main-Init Fine Tune quando desejar criar ou atualizar um modelo ajustado com novos dados de treinamento.

O fluxo de trabalho lida com as seguintes tarefas:

  • Carrega dados de treinamento para a OpenAI.
  • Inicia o trabalho de ajuste fino.
  • Monitora o status do trabalho.

Antes de executar este fluxo de trabalho, prepare seus dados de treinamento no formato JSONL (JSON Lines). Cada linha deve representar um único exemplo de treinamento como um objeto JSON completo. A OpenAI exige um mínimo de 10 exemplos de perguntas e respostas, mas recomenda-se pelo menos 50 exemplos para melhores resultados.

O exemplo abaixo mostra o formato correto para os dados de treinamento. Cada linha contém um objeto JSON com um array messages que inclui uma pergunta do usuário e uma resposta do assistente.

A OpenAI exige o seguinte esquema JSONL para dados de ajuste fino:

{"messages": [
    {"role": "user", "content": "What was the top employee-requested feature in the 2025 internal IT satisfaction survey?"},
    {"role": "assistant", "content": "The most requested feature in the 2025 IT satisfaction survey was single sign-on integration for all internal tools."}
]}
{"messages": [
    {"role": "user", "content": "In the Q3 Workplace Environment Survey, what did employees rate as the lowest performing area?"},
    {"role": "assistant", "content": "The lowest performing area in the Q3 Workplace Environment Survey was the availability of quiet workspaces for focused tasks."}
]}

Nota

Após a conclusão do processo de ajuste fino, recupere o ID do modelo ajustado a partir do painel de ajuste fino da OpenAI. Você precisará desse ID para definir a variável de projeto Fine_Tuned_Model_ID variável de projeto.

Main Entry - Manipulador de Solicitações da API do Slack

Este fluxo de trabalho gerencia solicitações de bot do Slack recebidas. O fluxo de trabalho é acionado através de uma API personalizada do Jitterbit sempre que um usuário interage com a interface de chat do bot do Slack. Para aprender como configurar a API personalizada do Jitterbit, veja Criar a API personalizada do Jitterbit.

Main - Lógica das Ferramentas do Agente de IA

Este fluxo de trabalho lida com consultas de usuários recebidas do fluxo de trabalho Main Entry - Manipulador de Solicitações da API do Slack. O fluxo de trabalho gerencia solicitações ao LLM e captura suas respostas.

Gere sua chave de API da OpenAI

Siga estas etapas para gerar uma chave de API da OpenAI:

  1. Vá para a página de chaves de API da OpenAI.

  2. Clique em Criar nova chave secreta para gerar uma nova chave de API.

  3. Copie a chave gerada e a salve com segurança. Você precisará dessa chave para configurar a variável de projeto OpenAI_API_KEY variável de projeto.

Aviso

Armazene sua chave de API com segurança. A chave é exibida apenas uma vez quando você a cria. Se você perder a chave, deverá gerar uma nova chave.

Configurar variáveis do projeto

No projeto do Studio, é necessário definir valores para as seguintes variáveis do projeto.

Para configurar as variáveis do projeto, use o menu de ações do projeto para selecionar Variáveis do Projeto. Isso abre uma gaveta na parte inferior da página onde você pode revisar e definir os valores.

OpenAI

Nome da variável Descrição
OpenAI_Model Identificador do modelo base fornecido pela OpenAI que será ajustado. Este deve ser um modelo ajustável lançado pela OpenAI (por exemplo, gpt-4.1-nano-2025-04-14).
OpenAI_Base_Url O endpoint HTTP base para chamadas da API OpenAI. Todas as solicitações de modelo, arquivo, ajuste fino e embeddings são feitas em relação a esta URL. Geralmente definido como https://api.openai.com.
OpenAI_API_KEY O token de autenticação secreto emitido pela OpenAI. Esta chave autoriza solicitações da API e deve ser incluída em todas as chamadas aos serviços da OpenAI. Mantenha esta chave confidencial.
Generic_System_Prompt A instrução padrão que define como o agente deve se comportar em todas as conversas (por exemplo, "Você é um assistente de IA que ajuda os usuários a encontrar informações precisas e relevantes").
Fine_Tuned_Model_ID O identificador único do modelo atribuído pela OpenAI após o ajuste fino. Recupere este valor do painel de ajuste fino da OpenAI após a conclusão do ajuste fino.

Slack

Nome da variável Descrição
bot_oauth_user_token O token do bot do Slack obtido após criar o aplicativo Slack. Este token é usado para o Token de acesso OAuth do usuário do bot na conexão do Slack.

Nota

O aplicativo Slack é criado em uma etapa posterior. Você pode deixar esta variável em branco por enquanto.

Testar conexões

Teste as configurações de endpoint para verificar a conectividade usando os valores de variáveis de projeto definidos.

Para testar conexões, vá para a aba Endpoints e conectores do projeto no painel de componentes de design, passe o mouse sobre cada endpoint e clique em Testar.

Implantar o projeto

Implante o projeto do Studio.

Para implantar o projeto, use o menu de ações do projeto para selecionar Implantar.

Criar a API personalizada do Jitterbit

Criar uma API personalizada para a operação Solicitação do Bot Slack no fluxo de trabalho Entrada Principal - Manipulador de Solicitações da API Slack.

Para criar a API, use o menu de ações da operação para selecionar Publicar como uma API ou Publicar como uma API usando IA.

Configure as seguintes definições:

Configuração Valor
Método POST
Tipo de Resposta Variável do Sistema

Salve a URL do serviço da API publicada para uso ao criar o aplicativo Slack. Para encontrar a URL do serviço, vá até o painel de detalhes da API na aba Serviços, passe o mouse sobre a coluna Ações do serviço e clique em Copiar URL do serviço da API.

Criar o aplicativo Slack, testar a conexão e reimplantar o projeto

Para criar a interface de chat no Slack, crie um aplicativo Slack usando o arquivo de manifesto do aplicativo Slack fornecido com os arquivos de personalização deste agente de IA. Alternativamente, crie o aplicativo do zero.

Se você usar o arquivo de manifesto do aplicativo Slack fornecido (slack_app_manifest.json), substitua os seguintes espaços reservados pelos seus próprios valores de configuração.

Placeholder Descrição
{{Replace with Slack bot name}} O nome que você deseja que seu bot do Slack tenha, conforme exibido para os usuários. Substitua este valor em dois lugares no manifesto.
{{Replace with Jitterbit API URL}} A URL do serviço da API personalizada do Jitterbit que você criou em Criar a API personalizada do Jitterbit.

Após instalar o aplicativo Slack, obtenha seu token do bot.

Abra novamente a configuração das variáveis do projeto e insira o token do bot para o valor da variável do projeto bot_oauth_user_token.

Depois de definir o token do bot, teste a conexão do Slack e reimplante o projeto.

Acionar os fluxos de trabalho do projeto

Para acionar o processo de ajuste fino:

  1. Execute manualmente o fluxo de trabalho Utility-Fine Tune OpenAI Model executando a operação Main-Init Fine Tune.

  2. Forneça seus dados de treinamento no script Fine Tune Data atribuindo-os à variável $InAndOut. Para mais detalhes, veja Utility-Fine Tune OpenAI Model.

    Nota

    Esta configuração é necessária apenas quando você precisa criar um novo modelo ajustado.

Para usar o modelo ajustado:

  • O fluxo de trabalho Main Entry - Slack API Request Handler é acionado pela API personalizada do Jitterbit. Envie uma mensagem direta para o aplicativo Slack para iniciar o acionamento da API personalizada.

  • Todos os outros fluxos de trabalho são acionados por outras operações e são executados a jusante do fluxo de trabalho principal. Eles não são destinados a serem executados de forma independente.

Solução de Problemas

Se você encontrar problemas, revise os seguintes logs para obter informações detalhadas de solução de problemas:

Para assistência adicional, entre em contato com o suporte da Jitterbit.