Gerar Resposta LLM
Use esta ação quando quiser que um passo de workflow ou ação de agente envie um prompt diretamente a um LLM e reutilize o resultado em passos posteriores.
Melhor para
- Resumos, classificações, reescritas e tarefas de extração
- Transformar dados brutos de API em linguagem natural
- Produzir saída estruturada que passos posteriores possam ler de forma confiável
Campos principais
| Campo | O que faz |
|---|---|
| Modo avançado | Alterna entre um prompt simples e uma requisição baseada em mensagens totalmente configurada |
| Plataforma | Escolhe o provedor de LLM |
| Modelo | Escolhe o modelo específico a executar |
| Chave de API | Permite substituir a chave padrão quando necessário |
| Texto | Campo de prompt simples para casos de uso básicos |
| Mensagens | Formato de prompt avançado com múltiplos papéis e tipos de conteúdo |
| Habilitar saídas estruturadas | Permite definir um esquema para que o modelo retorne JSON previsível |
| Temperatura | Controla quão previsível ou criativa é a saída |
| Máximo de tokens | Limita o tamanho da resposta |
O que passos posteriores podem usar
A resposta geralmente está disponível em:
step(N).choicesstep(N).choices[0].message.content
Se você habilitar saídas estruturadas, o conteúdo é projetado para ser mais fácil de reutilizar em condições, atualizações e modelos de mensagem.
Dicas
- Use o campo simples Texto quando precisar apenas de um prompt.
- Mude para Modo avançado quando precisar de múltiplas mensagens, imagens, áudio ou arquivos.
- Use saída estruturada quando passos posteriores precisarem de chaves estáveis como
category,scoreousummary. - Depure o passo antes de criar condições de acompanhamento baseadas no resultado.