Saltar al contenido principal

Generar Respuesta LLM

Usa esta accion cuando quieras que un paso de workflow o accion de agente envie un prompt directamente a un LLM y reutilice el resultado en pasos posteriores.

Mejor para

  • Resumenes, clasificaciones, reescrituras y tareas de extraccion
  • Convertir datos crudos de API en lenguaje natural
  • Producir salida estructurada que pasos posteriores puedan leer de forma confiable

Campos principales

CampoQue hace
Modo avanzadoAlterna entre un prompt simple y una solicitud basada en mensajes completamente configurada
PlataformaElige el proveedor de LLM
ModeloElige el modelo especifico a ejecutar
Clave de APIPermite reemplazar la clave predeterminada cuando sea necesario
TextoCampo de prompt simple para casos de uso basicos
MensajesFormato de prompt avanzado con multiples roles y tipos de contenido
Habilitar salidas estructuradasPermite definir un esquema para que el modelo retorne JSON predecible
TemperaturaControla cuan predecible o creativa es la salida
Maximo de tokensLimita el tamano de la respuesta

Que pueden usar los pasos posteriores

La respuesta generalmente esta disponible en:

  • step(N).choices
  • step(N).choices[0].message.content

Si habilitas salidas estructuradas, el contenido esta disenado para ser mas facil de reutilizar en condiciones, actualizaciones y plantillas de mensajes.

Consejos

  • Usa el campo simple Texto cuando solo necesites un prompt.
  • Cambia a Modo avanzado cuando necesites multiples mensajes, imagenes, audio o archivos.
  • Usa salida estructurada cuando pasos posteriores necesiten claves estables como category, score o summary.
  • Depura el paso antes de crear condiciones de seguimiento basadas en el resultado.