Saltar al contenido

Cómo construir un agente de IA con ajuste fino de LLM en Jitterbit Harmony

Introducción

Esta guía te muestra cómo construir un agente de IA con un Modelo de Lenguaje Grande (LLM) ajustado finamente en Jitterbit Harmony utilizando Studio. La guía utiliza OpenAI como el proveedor de LLM de ejemplo, pero puedes adaptar estos pasos para otros proveedores como Google Gemini o AWS Bedrock. Los conceptos básicos permanecen iguales, pero los pasos de configuración pueden diferir.

Consejo

Para fines de aprendizaje, consulta el Agente LLM Ajustado Finamente proporcionado a través del Jitterbit Marketplace para una implementación de esta guía.

agente de IA openai

Construir un agente de IA con ajuste fino de LLM

  1. Crea un nuevo proyecto en Studio:

    1. Inicia sesión en el portal de Harmony y selecciona Studio > Proyectos.
    2. Haz clic en Nuevo Proyecto. Se abre un diálogo de Crear Nuevo Proyecto.
    3. En el diálogo, ingresa un Nombre del proyecto como Agente IA - Ajuste Fino OpenAI, selecciona un entorno existente y haz clic en Comenzar a Diseñar. Se abre el diseñador de proyectos.
  2. Crea un flujo de trabajo de utilidad para el ajuste fino para entrenar el LLM con los datos de tu organización:

    1. En el diseñador de proyectos, haz doble clic en el nombre del flujo de trabajo predeterminado e ingresa un nombre, como Utilidad - Ajustar Modelo OpenAI.

    2. Utiliza el conector HTTP v2 para crear un punto final para tu proveedor de LLM. Este ejemplo utiliza OpenAI, pero puedes configurar el conector HTTP v2 para la API de cualquier proveedor. En la pestaña Puntos finales y conectores del proyecto, haz clic en el punto final de OpenAI para mostrar sus tipos de actividad.

    3. Crea una operación para cargar datos de entrenamiento y comenzar el trabajo de ajuste fino. Necesitas preparar tus datos de entrenamiento de acuerdo con los requisitos de tu proveedor de LLM. Este ejemplo utiliza el formato JSONL (JSON Lines), donde cada línea representa un único ejemplo de entrenamiento. OpenAI requiere al menos 10 ejemplos, pero recomienda al menos 50 ejemplos para obtener mejores resultados. Consulta la documentación de tu proveedor para requisitos específicos de formato y recomendaciones mínimas de datos de entrenamiento.

      El siguiente ejemplo muestra el formato de esquema JSONL.

      {"messages": [
          {"role": "user", "content": "What was the top employee-requested feature in the 2025 internal IT satisfaction survey?"},
          {"role": "assistant", "content": "The most requested feature in the 2025 IT satisfaction survey was single sign-on integration for all internal tools."}
      ]}
      {"messages": [
          {"role": "user", "content": "In the Q3 Workplace Environment Survey, what did employees rate as the lowest performing area?"},
          {"role": "assistant", "content": "The lowest performing area in the Q3 Workplace Environment Survey was the availability of quiet workspaces for focused tasks."}
      ]}
      
    4. Crea un script para asignar tus datos de entrenamiento a una variable, como $InAndOut. Esta variable almacena tus datos de entrenamiento en JSONL y se utiliza en las operaciones posteriores para subir el archivo a OpenAI e iniciar el trabajo de ajuste fino.

    5. Crea una operación para monitorear el estado del trabajo de ajuste fino. Después de que el trabajo se complete, recupera el ID del modelo ajustado desde el tablero de ajuste fino de OpenAI. Usarás este ID de modelo cuando configures el flujo de trabajo de lógica de IA para enviar consultas a tu modelo ajustado.

  3. Crea un flujo de trabajo de manejador de solicitudes API para recibir consultas de usuario desde tu interfaz de chat:

    1. Haz clic en Agregar nuevo flujo de trabajo para crear un nuevo flujo de trabajo.

    2. Cambia el nombre del flujo de trabajo a Manejador de Solicitudes API.

    3. En la pestaña Puntos finales y conectores del proyecto, arrastra el tipo de actividad Solicitud a la zona de caída en el lienzo de diseño.

    4. Haz doble clic en la actividad Solicitud API y define un esquema JSON apropiado para tu interfaz de chat.

    5. Agrega una transformación para mapear los campos de datos de la solicitud al formato que requiere tu agente de IA. Consulta el Agente LLM Ajustado para ejemplos.

    6. Crea una API personalizada de Jitterbit para exponer la operación:

      1. Haz clic en el menú de acciones de la operación y selecciona Publicar como API.
      2. Configura los siguientes ajustes: Método: POST y Tipo de respuesta: Variable del sistema.
      3. Guarda la URL del servicio API para configurar tu interfaz de chat. Tu interfaz de chat envía la carga de la solicitud con la pregunta del usuario a esta URL de servicio.
  4. Crea el flujo de trabajo de lógica de IA para manejar las consultas de los usuarios y devolver respuestas del modelo ajustado. Los siguientes pasos demuestran la implementación de OpenAI:

    1. Haz clic en Agregar Nuevo Flujo de Trabajo para crear un nuevo flujo de trabajo.

    2. Cambia el nombre del flujo de trabajo a Main - AI Agent Tools Logic.

    3. En la pestaña Puntos finales y conectores del proyecto, arrastra una actividad Post de HTTP v2 desde el punto final HTTP v2 a la zona de caída.

    4. Agrega una transformación antes de la actividad POST de HTTP v2. En esta transformación, especifica el ID de tu modelo ajustado para dirigir las consultas a tu modelo entrenado. La consulta enviada al LLM es la pregunta del usuario del payload recibido en el flujo de trabajo API Request Handler. Consulta el Agente LLM Ajustado para ejemplos.

    5. Agrega una transformación después de la actividad POST de HTTP v2 para mapear la respuesta de OpenAI en un formato de salida estructurado para tu interfaz de chat. Consulta el Agente LLM Ajustado para ejemplos.

  5. Conecta los flujos de trabajo:

    1. Regresa al flujo de trabajo API Request Handler.

    2. Llama a la operación en el flujo de trabajo Main - AI Agent Tools Logic utilizando uno de estos métodos:

      1. Agrega un script que use la función RunOperation.
      2. Configura una actividad Invoke Operation (Beta).
  6. Configura tu interfaz de chat. Este agente de IA puede trabajar con varias plataformas, incluyendo Slack, Microsoft Teams, microservicios, aplicaciones SaaS como Salesforce, o aplicaciones construidas utilizando Jitterbit App Builder. Configura la plataforma elegida y establece la URL de solicitud en la URL de tu servicio API personalizado de Jitterbit.

    Consejo

    Para un ejemplo de implementación en Slack, consulta el Agente LLM Ajustado en Jitterbit Marketplace.

  7. Haz clic en el menú de acciones del proyecto y selecciona Desplegar Proyecto.