Uma investigação federal divulgada hoje revela que o Autopilot da Tesla, junto com o recurso de direção autônoma completa Full Self-Driving (FSD), estão associados a centenas de acidentes e dezenas de mortes.
De acordo com os relatórios, a tecnologia da empres de Elon Musk não garantiu que os motoristas mantivessem a atenção na estrada, levando a situações perigosas e até mesmo fatais.
Segundo o The Verge, o estudo - que examinou 956 acidentes ocorridos entre janeiro de 2018 e agosto de 2023 - descobriu que muitos dos motoristas utilizando o Autopilot ou FSD não estavam suficientemente envolvidos na tarefa de dirigir. Isso resultou em 29 mortes e 49 feridos em acidentes nos quais os veículos da Tesla colidiram frontalmente com outros veículos ou obstáculos.
Os relatórios indicam que o Autopilot muitas vezes falhava em detectar veículos de emergência parados na estrada durante a noite, ignorando sinais de controle de cena, como luzes de aviso e cones. A falta de resposta rápida dos motoristas contribuiu significativamente para a gravidade desses acidentes.
A Agência Nacional de Segurança no Trânsito (NHTSA) dos EUA também apontou que a nomenclatura "Autopilot" pode ser enganosa, sugerindo aos motoristas que eles não precisam controlar o veículo. A Tesla emitiu um recall voluntário e uma atualização de software para o Autopilot, mas a eficácia dessa medida ainda está sendo questionada.
As descobertas contradizem as afirmações de Elon Musk sobre a segurança dos veículos da Tesla e seu avanço em direção à direção autônoma total. O debate sobre a segurança e a eficácia dos sistemas de assistência à direção da Tesla continua enquanto a empresa segue em sua missão de lançar um veículo totalmente autônomo.
FIQUE POR DENTRO!