Funcionários da Tesla relatam os horrores do projeto interno “Rodeo”: deixar o sistema autônomo funcionar o maior tempo possível, quase acertando pedestres, ciclistas e outros carros

Um dos trabalhos mais desafiadores e perigosos da Tesla envolve uma equipe interna chamada de Project Rodeo.

Esses motoristas são encarregados de testar os limites do software de direção autônoma da montadora, presente em modelos como o Model 3 e Model S.

Treinados para esperar o máximo possível antes de intervir, eles seguem com o teste mesmo quando antecipam um possível acidente, tudo para avaliar a capacidade do sistema.

Em parte das ocasiões, esses testes incluem pedestres desavisados em ruas públicas, inclusive pessoas alcoolizadas à noite.

Segundo a Business Insider, que conversou com nove atuais e ex-motoristas do Project Rodeo, o nome faz alusão à missão de “domar” o carro pelo maior tempo possível antes de assumir o controle. A justificativa para essa prática é que quanto mais tempo o veículo opera sozinho, mais dados a equipe consegue coletar.

Embora esse tipo de teste possa fazer sentido em pistas fechadas, onde os obstáculos são controlados e os pedestres são manequins, o cenário muda drasticamente nas vias públicas, onde motoristas, ciclistas e pedestres reais podem ser colocados em risco sem seu conhecimento.

Os motoristas envolvidos relataram situações perigosas.

Um deles contou que dirigia pela região de bares da cidade durante a madrugada para observar como o software FSD da Tesla reagia a pedestres bêbados. Outro lembrou de testes em faixas de pedestres no campus da Universidade de Stanford, onde o software foi levado ao extremo.

A pressão para testar o sistema ao máximo é intensa, segundo relatos. Alguns motoristas disseram que, embora não fossem instruídos a violar leis, recebiam críticas se os supervisores achassem que intervieram cedo demais.

Houve casos em que os motoristas permitiram que o carro passasse por sinais amarelos ou dirigisse abaixo do limite de velocidade em vias expressas, tudo para manter o software em controle.

Um motorista descreveu um momento em que o carro avançou em direção a um ciclista em uma rotatória, levando o homem a pular da bicicleta assustado. “Tudo o que pude fazer foi pisar nos freios”, relatou.

Ezoic
O supervisor elogiou o comportamento, dizendo que foi “perfeito” e era exatamente isso que queriam.
Ezoic

Especialistas em segurança, como Mark Rosekind, ex-administrador da NHTSA, destacaram a falta de regulamentações rigorosas sobre testes de veículos autônomos e a dependência de relatórios das próprias empresas.

Philip Koopman, da Carnegie Mellon University, classificou a abordagem da Tesla como “irresponsável”, argumentando que tais cenários deveriam ocorrer em pistas fechadas.

Ele ressaltou que essa prática impõe riscos a terceiros que não consentiram em servir como cobaias.

Embora a Tesla instrua seus motoristas de teste a manter o carro no controle o máximo possível, sua própria documentação lembra aos consumidores que as funcionalidades do FSD exigem supervisão ativa e não tornam o veículo totalmente autônomo.

Notícias Automotivas

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *