Pular para o conteúdo principal

Gerar Resposta LLM

Use esta ação quando quiser que um passo de workflow ou ação de agente envie um prompt diretamente a um LLM e reutilize o resultado em passos posteriores.

Melhor para

  • Resumos, classificações, reescritas e tarefas de extração
  • Transformar dados brutos de API em linguagem natural
  • Produzir saída estruturada que passos posteriores possam ler de forma confiável

Campos principais

CampoO que faz
Modo avançadoAlterna entre um prompt simples e uma requisição baseada em mensagens totalmente configurada
PlataformaEscolhe o provedor de LLM
ModeloEscolhe o modelo específico a executar
Chave de APIPermite substituir a chave padrão quando necessário
TextoCampo de prompt simples para casos de uso básicos
MensagensFormato de prompt avançado com múltiplos papéis e tipos de conteúdo
Habilitar saídas estruturadasPermite definir um esquema para que o modelo retorne JSON previsível
TemperaturaControla quão previsível ou criativa é a saída
Máximo de tokensLimita o tamanho da resposta

O que passos posteriores podem usar

A resposta geralmente está disponível em:

  • step(N).choices
  • step(N).choices[0].message.content

Se você habilitar saídas estruturadas, o conteúdo é projetado para ser mais fácil de reutilizar em condições, atualizações e modelos de mensagem.

Dicas

  • Use o campo simples Texto quando precisar apenas de um prompt.
  • Mude para Modo avançado quando precisar de múltiplas mensagens, imagens, áudio ou arquivos.
  • Use saída estruturada quando passos posteriores precisarem de chaves estáveis como category, score ou summary.
  • Depure o passo antes de criar condições de acompanhamento baseadas no resultado.