For professional creators.
Cancele quando quiser
Advanced features for professional teams.
Cancele quando quiser
Enterprise Service
Cancele quando quiser
Assinantes aproveitam preços mais acessíveis nos pacotes de créditos
Tudo o que precisa de saber sobre prompting com JSON estruturado para Veo 3.1 e Sora 2
O Veo 3.1 oferece precisão cirúrgica para resultados previsíveis e seguros para a marca. É ideal para conteúdo estruturado como vídeos de produtos, anúncios e mensagens corporativas onde a consistência é importante. O Sora 2 proporciona uma maior variação criativa com diversos estilos visuais—perfeito para conteúdo experimental, projetos artísticos ou para explorar múltiplas direções estéticas. Ambos usam a mesma estrutura de JSON prompt, para que possa trocar de modelo sem reescrever. Dica profissional: Use o Sora para testes A/B rápidos de conceitos criativos, e depois finalize as versões com o Veo para uma produção em lote consistente.
Escolha o Veo 3.1 quando precisar de: (1) Consistência de marca em mais de 10 vídeos, (2) Resultados previsíveis para aprovações de clientes, (3) Controlo rigoroso sobre as especificações de câmara, iluminação e áudio. Escolha o Sora 2 quando quiser: (1) Exploração criativa com estilos visuais variados, (2) Teste rápido de conceitos antes de finalizar a direção, (3) Conteúdo artístico ou experimental com maior diversidade visual. Muitos utilizadores combinam ambos: Sora para a fase de ideação (2-3 variações em 5 minutos), Veo para a fase de produção (ativos de marca fixos em escala). Ambos os modelos partilham a mesma estrutura JSON, pelo que a sua biblioteca de modelos funciona em ambos.
Prompts de texto = lotaria criativa. JSON prompts = resultados previsíveis. Com prompts de texto, está à espera que a IA adivinhe a sua intenção corretamente. A maioria dos profissionais precisa de mais de 10 gerações para obter um plano utilizável. Com JSON prompts, organiza por estrutura: sequência de planos, câmara (lente, movimento), especificações de iluminação, camadas de áudio. A IA segue instruções exatas, não descrições vagas. Impacto real: As agências relatam passar de 10 tentativas por plano para 2 tentativas — isso é 80% mais rápido com uma poupança de custos 5x. Pense em storyboards (estruturados) vs consultas de pesquisa (vagas).
Se já usou um formulário ou uma folha de cálculo, já percebe o conceito. O prompting com JSON é apenas preencher campos rotulados: plano (o que está a acontecer), câmara (close-up, grande plano, acompanhamento), iluminação (hora dourada, estúdio), áudio (diálogo, som ambiente). Comece por aqui: (1) Escolha um modelo pré-construído para vídeo de produto, anúncio ou vlog (2) Altere 2-3 campos como o nome do produto ou a paleta de cores (3) Gere e veja os resultados em 60 segundos (4) Ajuste um campo de cada vez para aprender o que cada um faz. A maioria dos utilizadores cria prompts personalizados em 15-20 minutos. Não é necessário programar — o nosso editor visual constrói o JSON por si. Utilizadores avançados escrevem JSON diretamente para o máximo controlo.
Sim — esse é o objetivo principal dos prompts estruturados. Um modelo JSON cria variações ilimitadas. Mesma estrutura, produtos diferentes: Mantenha a sequência de planos, movimentos de câmara, iluminação. Altere o nome do produto, a paleta de cores, a voz da marca. Resultado: 10 vídeos de produto com estilo consistente em 30 minutos. Mesmo conteúdo, formatos diferentes: Mantenha o tema, a ação, o áudio. Altere o campo aspect_ratio (16:9 para 9:16 para 1:1). Resultado: Versões para YouTube, TikTok, Instagram a partir de um único prompt. Mesma marca, campanhas diferentes: Guarde o estilo de câmara da sua marca, a gradação de cor e a assinatura de áudio como um modelo. Duplique e ajuste apenas a mensagem. Resultado: Cada vídeo mantém-se automaticamente fiel à marca. É por isso que as agências adoram o JSON — um modelo serve mais de 50 clientes com edições mínimas.
Fixe as variáveis, mude apenas o que quer de diferente. Para consistência de personagem: Defina uma vez em JSON (características físicas, estilo de fala, guarda-roupa), depois copie e cole estes campos em todos os prompts para a mesma personagem em cada vídeo. Para consistência de marca: Crie um modelo JSON de kit de marca com configurações de câmara fixas (lente de 50mm, ao nível dos olhos), paleta de cores, estilo de áudio (corporativo animado, 95 BPM) e duração. Dica profissional de utilizadores do Reddit: Mude um campo por geração. Se mudar 5 coisas, não saberá o que causou a melhoria. Mude apenas o ângulo da câmara, teste, depois mude a iluminação, teste novamente. Resultado: De 10 tentativas para 2 tentativas por plano utilizável.
Sim. A nossa API e integrações conectam-se à sua stack atual. Fluxos de trabalho populares: Gatilhos de CMS (produto adicionado ao Shopify gera automaticamente JSON, renderiza vídeo, publica no Instagram), Lote de folha de cálculo (carregue 100 linhas de produtos, cada uma torna-se um JSON prompt, coloque as renderizações em fila durante a noite), n8n ou Zapier (webhook recebe pedido, gera vídeo de agradecimento com o nome do cliente, envia por e-mail automaticamente), API para equipas de desenvolvimento (envie payload JSON via POST, receba URL do vídeo, incorpore na sua aplicação). Pode automatizar: sincronização da biblioteca de modelos, aplicação do kit de marca, exportação multiformato (16:9, 9:16, 1:1 a partir de um JSON), monitorização de tendências. Caso de uso real do Reddit: Construiu um bot no Telegram onde diz 'Faz-me um anúncio da Rolex' e o fluxo de trabalho gera o JSON, o Veo 3.1 renderiza, e o vídeo é entregue em 2 minutos.
Sim — a isto chama-se engenharia reversa, e é uma das funcionalidades mais poderosas para os criadores. Como funciona: (1) Carregue ou coloque um link para qualquer vídeo do TikTok, Instagram Reel, YouTube (2) A IA analisa ângulos de câmara, iluminação, movimento, áudio, ritmo (3) Gera um JSON com uma análise estruturada de cada elemento (4) Você edita para trocar o produto ou o tema, mantendo a estrutura viral (5) Renderiza a sua versão em minutos. Exemplo real do Reddit: Um utilizador encontrou um vídeo viral de ASMR de café (3M de visualizações), carregou-o, obteve o JSON, mudou o produto para uma taça de smoothie, gerou 10 variações e publicou uma que atingiu 500 mil visualizações em 2 dias. Pode extrair: sequência de planos (0-2s close-up, 2-5s movimento de verter, 5-8s revelação), especificações da câmara (lente de 35mm, câmara na mão, ligeiro dolly), gradação de cor (tons quentes, alto contraste), estrutura de áudio (batidas ASMR, sons ambiente de café). Casos de uso: análise da concorrência, replicação de tendências, correspondência de estilo. Nota: Só funciona com vídeos gerados por IA ou livres de direitos de autor.
Pré-visualização com Veo 3.1 Rápido: 60-90 segundos. Alta qualidade com Veo 3.1: 2-4 minutos. Fluxo de trabalho pela primeira vez: Escolher modelo (30 segundos), personalizar campos (2-3 minutos), gerar (60 segundos), rever e ajustar (1-2 minutos). Total: 5-7 minutos para o seu primeiro vídeo pronto para produção. Depois de ter modelos: Duplicar modelo (10 segundos), alterar 2-3 campos (1 minuto), gerar (60 segundos). Total: 2-3 minutos por vídeo. Fluxos de trabalho em lote com API: Carregar 100 JSONs de produtos (5 minutos), colocar renderizações em fila automaticamente, todos os 100 vídeos prontos em 2-3 horas durante a noite. Tempo por vídeo: cerca de 2 minutos cada. Compare com o método tradicional: Roteiro mais storyboard (2 horas), filmagem mais configuração de iluminação (4 horas), edição mais gradação de cor (6 horas). Total: Mais de 12 horas mais custos de equipamento. Citação do Reddit: Eu costumava filmar anúncios farmacêuticos de 500 mil dólares. Fiz isto por 500 dólares no Veo 3.1 em menos de um dia.
1600 credits for batch creation
800 credits for batch creation
300 credits for batch creation