A Tesla O proprietário está culpando o recurso Full Self-Driving de seu veículo por desviar em direção a um trem que se aproxima antes que ele pudesse intervir.
Craig Doty II, de Ohioestava dirigindo por uma estrada à noite no início deste mês, quando imagens da câmera mostraram seu Tesla se aproximando rapidamente de um trem que passava, sem nenhum sinal de desaceleração.
Ele alegou que seu veículo estava em Modo Full Self-Driving (FSD) na época e não diminuiu a velocidade apesar do trem atravessar a rua – mas não especificou a marca ou modelo do carro.
No vídeo, o maquinista parece ter sido forçado a intervir, desviando para a direita através do sinal de cruzamento ferroviário e parando a poucos metros do trem em movimento.
Tesla enfrentou vários processos judiciais de proprietários que alegaram que o recurso FSD ou piloto automático os causou um acidente porque não parou para outro veículo ou desviou para um objeto, em alguns casos ceifando a vida dos motoristas envolvidos.
O motorista do Tesla afirmou que seu veículo estava no modo Full Self-Driving (FSD), mas não diminuiu a velocidade ao se aproximar de um trem que atravessava a estrada. No vídeo, o motorista foi supostamente forçado a desviar da estrada para evitar a colisão com o trem. Na foto: O veículo Tesla após a quase colisão
Em abril de 2024, os sistemas de piloto automático Tesla modelos Y, X, S e 3 foram envolvido em um total de 17 mortes e 736 acidentes desde 2019, de acordo com a Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA).
Doty relatado a questão no site do Tesla Motors Club, dizendo que ele é dono do carro há menos de um ano, mas “nos últimos seis meses, ele tentou duas vezes colidir diretamente com um trem que passava enquanto estava no modo FSD”.
Ele teria tentado relatar o incidente e encontrar casos semelhantes ao seu, mas não encontrou um advogado que aceitasse seu caso porque ele não sofreu ferimentos significativos – apenas dores nas costas e um hematoma, disse Doty.
DailyMail.com entrou em contato com Tesla e Doty para comentar.
Tesla cuidados os motoristas contra o uso do sistema FSD em condições de pouca luz ou condições climáticas adversas, como chuva, neve, luz solar direta e neblina, que podem 'degradar significativamente o desempenho'.
Isso ocorre porque as condições interferem na operação do sensor do Tesla, que inclui sensores ultrassônicos que usam ondas sonoras de alta frequência para ricochetear em objetos próximos.
Ele também usa sistemas de radar que produzem baixas frequências de luz para determinar se há um carro por perto e câmeras de 360 graus.
Esses sistemas coletam coletivamente dados sobre a área circundante, incluindo as condições das estradas, o tráfego e os objetos próximos, mas em condições de baixa visibilidade, os sistemas não são capazes de detectar com precisão as condições ao seu redor.
Craig Doty II relatou que possuía seu veículo Tesla há menos de um ano, mas o recurso completo de direção autônoma já havia causado quase dois acidentes. Na foto: O Tesla se aproxima do trem, mas não desacelera nem para
A Tesla está enfrentando vários processos judiciais de proprietários que alegaram que o recurso FSD ou piloto automático causou sua queda. Na foto: o carro de Craig Doty II saindo da estrada para evitar o trem
Quando questionado sobre por que continuou a usar o sistema FSD após a primeira quase colisão, Doty disse que confiava que funcionaria corretamente porque não tinha outros problemas há algum tempo.
“Depois de usar o sistema FSD por um tempo, você tende a confiar que ele funcionará corretamente, assim como faria com o controle de cruzeiro adaptativo”, disse ele.
'Você presume que o veículo irá desacelerar ao se aproximar de um carro mais lento na frente, até que isso não aconteça, e de repente você é forçado a assumir o controle.
'Esta complacência pode aumentar ao longo do tempo devido ao sistema normalmente funcionar conforme o esperado, tornando incidentes como este particularmente preocupantes.'
O manual de Tesla faz avisar os motoristas contra confiar apenas no recurso FSD, dizendo que eles precisam manter as mãos no volante o tempo todo, 'estar atentos às condições da estrada e ao tráfego ao redor, prestar atenção aos pedestres e ciclistas e estar sempre preparados para tomar medidas imediatas'.
O sistema Autopilot da Tesla foi acusado de causar um acidente de fogo que matou um homem do Colorado enquanto ele voltava do campo de golfe para casa, de acordo com uma ação movida em 3 de maio.
A família de Hans Von Ohain alegou que ele era usando o sistema de piloto automático do Tesla Model 3 2021 em 16 de maio de 2022, quando ele desviou bruscamente para a direita fora da estradamas Erik Rossiter, que era passageiro, disse que o motorista estava fortemente embriagado no momento do acidente.
Ohain tentou recuperar o controle do veículo, mas não conseguiu e morreu quando o carro colidiu com uma árvore e pegou fogo.
Um relatório de autópsia revelou mais tarde que ele tinha três vezes o limite legal de álcool em seu organismo quando morreu.
Um homem da Flórida também foi morto em 2019, quando o piloto automático do Tesla Model 3 não freou quando um caminhão entrou na estrada, fazendo com que o carro deslizasse sob o trailer – o homem morreu instantaneamente.
Em outubro do ano passado, a Tesla ganhou seu primeiro processo por alegações de que o recurso Autopilot levou à morte de um homem de Los Angeles quando o Model 3 saiu da rodovia e bateu em uma palmeira antes de pegar fogo.
A NHTSA investigou os acidentes associado ao recurso Autopilot e disse que um “sistema fraco de engajamento do motorista” contribuiu para os acidentes de carro.
O recurso Autopilot 'levou ao uso indevido previsível e acidentes evitáveis', a NHTSA relatório disse, acrescentando que o sistema não 'garantiu suficientemente a atenção do motorista e o uso adequado'.
Tesla emitiu uma atualização de software over-the-air em dezembro para dois milhões de veículos nos EUA que deveriam melhorar o piloto automático dos sistemas FSD do veículo, mas a NHTSA agora sugeriu que a atualização provavelmente não foi suficiente devido a mais acidentes.
Elon Musk não comentou o relatório da NHTSA, mas anteriormente elogiou a eficácia dos sistemas de direção autônoma da Tesla, afirmando em um relatório de 2021 publicar no X que as pessoas que usaram o recurso Piloto Automático tinham 10 vezes menos probabilidade de sofrer um acidente do que a média dos veículos.
“Pessoas estão morrendo devido à confiança equivocada nas capacidades do Tesla Autopilot. Mesmo passos simples podem melhorar a segurança”, disse Philip Koopman, pesquisador de segurança automotiva e professor de engenharia da computação na Universidade Carnegie Mellon. CNBC.
“A Tesla poderia restringir automaticamente o uso do piloto automático às estradas pretendidas com base nos dados do mapa já existentes no veículo”, continuou ele.