O Google Cloud passou por uma interrupção significativa que afetou serviços essenciais em escala global, na última quinta-feira, 12 de junho de 2025. Segundo a Downdetector, foram registradas mais de 13.000 ocorrências relacionadas à plataforma.
A origem foi atribuída a uma falha no Identity and Access Management (IAM) do Google Cloud, mecanismo responsável pela autorização e segurança das APIs.
A interrupção repercutiu diretamente em infraestruturas de empresas que dependem do Google Cloud, provocando impacto em plataformas como Twitch, GitLab, Replit, Elastic, LangChain e Amazon Twitch, conforme relatórios de usuários e empresas afetadas.
Aplicativos conhecidos — incluindo Spotify, Discord, Snapchat, Character.AI, além de serviços do próprio Google, como Gmail, Google Drive, Google Meet e YouTube — apresentaram instabilidade ou interrupção temporária.
O monitoramento de incidentes no serviço do Cloud revelou que o problema envolvia mais de 50 produtos da Google Cloud, com registro de erros 503 (“Service Unavailable”) nas chamadas de API. A falha iniciou-se por volta das 10h51 PT e persiste até aproximadamente 18h18 PT, com recuperação gradual iniciada às 14h e conclusão estimada na noite do mesmo dia.
Motivo oficial e causas técnicas
No mini relatório emitido pela equipe do Google Cloud, divulgado em 13 de junho, foi detalhado que a raiz da falha foi uma inconsistência no Service Control, componente do IAM. O software, distribuído regionalmente, utiliza um datastore regional para políticas de acesso e cotas. Uma atualização de configuração foi aplicada sem o devido teste em ambiente de staging, resultando em erros em múltiplas regiões simultaneamente.

Conforme o status oficial:
“O núcleo binário do Service Control, … serviço regional responsável por quotas e política, enfrentou inconsistências por uma atualização mal testada.”
Usuários relataram mensagens de erro como “Audiences in Jwt are not allowed” em serviços como Spotify.
Cronologia da recuperação
11h59 PT – anúncio inicial da investigação e identificação de erro 503;
12h30 PT – maioria das regiões recuperada, exceto us-central1 (Iowa);
14h23 PT – recuperação confirmada em várias áreas com finalização prevista em menos de uma hora;
18h18 PT – encerramento do incidente e restabelecimento completo das mais de 50 plataformas afetadas.
A consequência foi um efeito cascata global: plataformas essenciais, inclusive serviços de correio, música e comunicação, ficaram offline ou instáveis por diversas horas.
Perda financeira e de produtividade: empresas como Cloudflare reportaram queda de até 5 % em valor de mercado devido à dependência indireta do Google.
Reputação e confiança abalada: o Google Cloud é um dos principais pilares da Alphabet, faturando US$ 43 bilhões em 2024. Esses eventos reforçam o desafio de manter alta confiabilidade técnica.
Medidas de mitigações futuras: o Google assumiu compromisso de reforçar protocolos de validação e testes em ambientes isolados, conforme afirmou em seu relatório.
O ocorrido em 12 de junho de 2025 evidencia a alta complexidade na manutenção de infraestruturas críticas. Mesmo gigantes como o Google — que gerencia serviços utilizados por milhões em escala global — são vulneráveis a falhas operacionais em atualizações. A promessa de aprimoramento do processo de deploy, testes e redundância é vital para evitar que falhas semelhantes venham a ameaçar ainda mais a estabilidade da internet.