Generar Respuesta LLM
Usa esta accion cuando quieras que un paso de workflow o accion de agente envie un prompt directamente a un LLM y reutilice el resultado en pasos posteriores.
Mejor para
- Resumenes, clasificaciones, reescrituras y tareas de extraccion
- Convertir datos crudos de API en lenguaje natural
- Producir salida estructurada que pasos posteriores puedan leer de forma confiable
Campos principales
| Campo | Que hace |
|---|---|
| Modo avanzado | Alterna entre un prompt simple y una solicitud basada en mensajes completamente configurada |
| Plataforma | Elige el proveedor de LLM |
| Modelo | Elige el modelo especifico a ejecutar |
| Clave de API | Permite reemplazar la clave predeterminada cuando sea necesario |
| Texto | Campo de prompt simple para casos de uso basicos |
| Mensajes | Formato de prompt avanzado con multiples roles y tipos de contenido |
| Habilitar salidas estructuradas | Permite definir un esquema para que el modelo retorne JSON predecible |
| Temperatura | Controla cuan predecible o creativa es la salida |
| Maximo de tokens | Limita el tamano de la respuesta |
Que pueden usar los pasos posteriores
La respuesta generalmente esta disponible en:
step(N).choicesstep(N).choices[0].message.content
Si habilitas salidas estructuradas, el contenido esta disenado para ser mas facil de reutilizar en condiciones, actualizaciones y plantillas de mensajes.
Consejos
- Usa el campo simple Texto cuando solo necesites un prompt.
- Cambia a Modo avanzado cuando necesites multiples mensajes, imagenes, audio o archivos.
- Usa salida estructurada cuando pasos posteriores necesiten claves estables como
category,scoreosummary. - Depura el paso antes de crear condiciones de seguimiento basadas en el resultado.