Na última semana, um vídeo divulgado pelo grupo de ativismo “The Dawn Project” voltou a chamar atenção para a segurança do sistema Tesla Full Self‑Driving (FSD). O teste, realizado em Austin (Texas), envolveu uma simulação de criança atravessando a rua diante de um ônibus escolar — e o Tesla Model Y equipado com FSD “supervisionado” ignorou o sinal de parada do ônibus e atropelou o bonequinho, sem desacelerar ou alertar o motorista.
O relato mais detalhado vem da Carscoops, que confirmou que o veículo executou oito repetições do teste: em todas, o carro passou pelo ônibus com luzes vermelhas piscando e placa de pare estendida, atropelando o manequim infantil e prosseguindo sem interrupção ou aviso ao motorista.
Um dos artigos complementa que o sistema FSD chegou a identificar o boneco como pedestre, mas simplesmente não freou nem reduziu a velocidade.
A demonstração foi conduzida por Dan O’Dowd, engenheiro formado no Caltech e fundador do “Dawn Project”, consigo registrar um posicionamento contundente: “Full‑Self‑Driving rodou sobre o boneco infantil enquanto passava ilegalmente por um ônibus escolar com o sinal vermelho estendido”.
Segundo O’Dowd, esse comportamento viola leis de trânsito e representa sério risco à segurança — e ele afirma que a Tesla não enviou nenhum processo contra suas revelações.
Apesar de ser chamado de “FSD”, esse software da Tesla é classificado como nível 2, ou seja, “Full Self‑Driving (Supervised)” exige vigilância constante do motorista. A própria Tesla destaca em sua documentação que o condutor deve manter as mãos no volante e estar pronto para intervir a qualquer momento.
Entretanto, críticos apontam que o uso do termo “Full Self‑Driving” pode gerar falsa sensação de autonomia total. Organizações reguladoras — como NHTSA (EUA) e NTSB — têm criticado a falta de limitações no uso de ADAS (Sistemas Avançados de Assistência ao Motorista), incluindo o FSD da Tesla.

O teste com mannequin ocorre após outros episódios preocupantes:
Em 2023, Tillman Mitchell, um estudante do norte da Carolina, sofreu “lesões com risco de vida” ao ser atropelado por um Tesla que saiu de um ônibus escolar. Oficialmente, se investigou se o FSD estava ativo.
Em janeiro de 2025, o CEO de uma empresa de tecnologia, Jesse Lyu, relatou que seu Tesla equipado com FSD se moveu na direção de uma linha de trem e o obrigou a forçar um sinal vermelho — quase causando uma colisão com um trem.
Testes de engenheiros como Mark Rober revelaram que o FSD também falha em identificar obstáculos inusitados, como “paredes” falsas pintadas no asfalto.
Esses eventos ilustram a recorrência de falhas do sistema quando confrontado com situações não usuais — fenômenos chamados de “edge cases”.
A circulação dessas falhas acendeu debates sobre a proximidade entre a ambição tecnológica e a segurança real. A Tesla prepara o lançamento de uma frota de robotáxis em Austin, com FSD sem supervisão humana, e o incidente acende um alerta sobre os limites atuais do software.
Enquanto isso, empresas como a Waymo já operam veículos autônomos em várias cidades, com sistemas baseados em LiDAR, muitos sensores redundantes e tecnologia de nível 4, considerada por especialistas mais segura e robusta para ambientes urbanos complexos.
A Tesla afirmou que seus robotáxis serão geofenced, isto é, confinados a áreas bem mapeadas e com menor complexidade de direção. Elon Musk afirmou que farão trajetórias apenas em zonas seguras e que a expansão da frota será gradual.
O teste conduzido em Austin com o boneco infantil evidencia falhas concretas no comportamento do FSD (versão 13.2.9) quando confrontado com situações críticas envolvendo ônibus escolares e pedestres — precisamente os cenários que sistemas autônomos devem saber lidar com segurança. O incidente reforça críticas sobre a nomenclatura enganosa, a necessidade de supervisão constante e a urgência de mais regulamentos, validações externas e sensores redundantes para garantir que futuras frotas robótaxi não coloquem vidas em risco.