Uma vulnerabilidade de supply chain na biblioteca open-source LiteLLM comprometeu activamente a plataforma de contratação tecnológica Mercor, em 31 de Março de 2026. O atacante explorou dependências da cadeia de fornecimento do projecto LiteLLM — amplamente utilizado como camada de routing de modelos de linguagem em pipelines de IA — para aceder a sistemas downstream. O incidente evidencia os novos vectores de ataque que as bibliotecas de IA open-source introduzem em stacks de automação modernos.
Como o ataque ao LiteLLM explorou a cadeia de fornecimento de software
O LiteLLM é uma das bibliotecas mais populares para abstrair o acesso a múltiplos fornecedores de LLMs — da OpenAI ao Anthropic, passando por Ollama e outros. Organizações que constroem pipelines de IA utilizam-na para normalizar chamadas de API e gerir routing entre modelos. A sua popularidade torna-a um alvo de elevado valor: ao comprometer uma dependência da cadeia de fornecimento do LiteLLM, o atacante conseguiu acesso potencial a todos os sistemas que integram a biblioteca.
Ataques de supply chain a software open-source não são novidade — o caso SolarWinds em 2020 demonstrou o impacto catastrófico que este vector pode ter. No contexto da IA, a superfície de ataque expande-se rapidamente: as bibliotecas de routing de LLMs integram-se profundamente em infraestruturas de automação, agentes de IA e sistemas de processamento de dados sensíveis. Para quem gere cibersegurança em negócios digitais, este incidente é um sinal de alerta claro.
Mercor confirmou comprometimento activo após exploração do LiteLLM
A Mercor, plataforma norte-americana de contratação de developers com recurso a IA, confirmou ter sido vítima do ataque. A empresa utiliza LiteLLM na sua infraestrutura de IA para routing de modelos, tornando-a vulnerável à exploração da cadeia de dependências. O comunicado da Mercor, reportado pela TechCrunch em 31 de Março de 2026, confirmou exploração activa — não se tratou de uma vulnerabilidade teórica, mas de um ataque real com impacto operacional.
A investigação está em curso. A extensão exacta dos dados comprometidos ainda não foi totalmente divulgada, mas o incidente afecta directamente qualquer organização que dependa da mesma versão vulnerável do LiteLLM nas suas dependências.
O papel do LiteLLM nos stacks de automação com IA
O LiteLLM desempenha uma função crítica em muitos stacks modernos de IA: actua como camada de abstracção que permite chamar dezenas de modelos de linguagem com uma API unificada. É amplamente adoptado em sistemas de agentes de IA, plataformas de RAG (Retrieval-Augmented Generation) e pipelines de automação empresarial.
Organizações que integram inteligência artificial nos seus processos tendem a adoptar bibliotecas como o LiteLLM precisamente pela sua conveniência e versatilidade. Contudo, a adopção massiva de uma biblioteca concentra o risco: uma única vulnerabilidade compromete simultaneamente milhares de sistemas dependentes. A versão afectada e o CVE específico ainda não foram publicados ao momento da redacção deste artigo — o repositório do LiteLLM no GitHub deve ser monitorizado para patches de segurança e avisos oficiais.
Impacto da vulnerabilidade LiteLLM nas PMEs portuguesas
PMEs portuguesas que utilizam ferramentas de IA em produção — seja para automação de suporte, geração de conteúdo ou análise de dados — devem verificar imediatamente se as suas dependências incluem o LiteLLM. As acções prioritárias são:
- Auditar dependências: verificar se o LiteLLM está presente no
requirements.txt,pyproject.tomlou equivalente do stack de IA - Verificar a versão: comparar com avisos de segurança publicados no repositório oficial e no NVD (National Vulnerability Database)
- Actualizar ou isolar: aplicar patch assim que disponível ou isolar o serviço afectado até resolução
- Rever acessos: auditar as permissões e dados a que o serviço que usa LiteLLM tem acesso
- Notificar: se existir processamento de dados pessoais e houver suspeita de comprometimento, avaliar obrigações de notificação ao abrigo do RGPD no prazo de 72 horas
Este incidente é também um argumento forte para adoptar práticas de Software Composition Analysis (SCA) — ferramentas que monitorizam automaticamente vulnerabilidades em dependências open-source. Para stacks que correm agentes ou pipelines de automação com LLMs, a superfície de ataque é significativa e requer atenção contínua. Quem já utiliza o LiteLLM como parte de soluções de IA para vendas e marketing deve prioritizar a auditoria das suas dependências.