A OpenAI lançou o GPT-5.4 com uma context window de 1 milhão de tokens disponível na API, acompanhado das versões Pro e Thinking. Em simultâneo, o GPT-5.3-Codex unifica o treino de linguagem natural com capacidades de programação para suportar fluxos de trabalho de coding agêntico. O GPT-5.1 foi descontinuado a 11 de Março, consolidando a transição para a nova geração de modelos.
GPT-5.4 com 1 milhão de tokens: o que significa na prática
Uma context window de 1 milhão de tokens representa a capacidade de processar aproximadamente 750.000 palavras em simultâneo — o equivalente a vários livros, bases de dados completas ou repositórios de código inteiros numa única chamada de API. Para comparação, o GPT-4o opera com 128.000 tokens, o que significa que o GPT-5.4 oferece quase 8x mais capacidade de contexto.
As versões GPT-5.4 mini e nano foram igualmente anunciadas para workloads de alto volume a custo reduzido, tornando a nova geração acessível para aplicações que processam grandes quantidades de pedidos — como sistemas de atendimento automatizado, análise de documentos em escala ou pipelines de processamento de dados. De acordo com a OpenAI, os novos modelos estão disponíveis progressivamente via API para utilizadores com acesso à lista de espera.
GPT-5.3-Codex: coding agêntico nativo
O GPT-5.3-Codex representa uma convergência entre as capacidades de raciocínio de linguagem natural do GPT e as competências de programação do modelo Codex original. O resultado é um modelo desenhado especificamente para tarefas de desenvolvimento de software agêntico — ou seja, para agentes de IA que não apenas escrevem código, mas executam, testam, depuram e iteram autonomamente.
Esta especialização distingue o GPT-5.3-Codex de versões generalistas: enquanto o GPT-5.4 está optimizado para raciocínio amplo e processamento de grandes volumes de contexto, o GPT-5.3-Codex está ajustado para o ciclo de desenvolvimento de software com menor latência e maior precisão em tarefas de programação. Para perceber como integrar estas capacidades em fluxos de trabalho de automação, o guia de automação de marketing oferece um enquadramento prático.
Contexto: aceleração da OpenAI em 2026
A descontinuação do GPT-5.1 a 11 de Março de 2026 sinalizou uma cadência de lançamentos mais rápida da OpenAI, que tem comprimido os ciclos de actualização de modelos face à pressão competitiva da Anthropic, Google e Meta. O lançamento do GPT-5.4 consolida uma estratégia de segmentação clara: modelos Pro e Thinking para casos de uso de alta complexidade, mini e nano para volume, e versões Codex especializadas para desenvolvimento de software.
Esta segmentação reflecte uma maturação do mercado de LLMs, onde o preço por token e a especialização por caso de uso se tornaram diferenciais mais relevantes do que benchmarks genéricos de desempenho. O guia de IA para marketing e negócios explora como seleccionar o modelo certo para cada tipo de aplicação empresarial.
Impacto do GPT-5.4 com 1 milhão de tokens nas PMEs portuguesas
Para as pequenas e médias empresas portuguesas, a disponibilidade de 1 milhão de tokens em contexto abre oportunidades concretas que não eram viáveis com modelos anteriores. A análise de contratos completos, revisão de bases de dados de clientes, processamento de históricos de comunicação ou auditoria de código de aplicações inteiras passam a ser possíveis numa única interacção com a API.
Os custos continuam a ser o principal factor de barreira: os modelos Pro e Thinking com 1M de tokens são significativamente mais caros por chamada do que os modelos mini ou nano. As PMEs que queiram adoptar estas capacidades devem começar por casos de uso com retorno mensurável — como automação de análise documental, geração de relatórios personalizados ou sistemas de suporte ao cliente com acesso a toda a base de conhecimento da empresa. A versão mini do GPT-5.4 oferece um ponto de entrada economicamente mais acessível para testar estas aplicações em escala.