EUA investigarão o sistema ‘totalmente autônomo’ da Tesla após pedestre morto: NPR

O logotipo de um carro Tesla é retratado no Salão do Automóvel de Paris em 14 de outubro de 2024 em Paris.

O logotipo de um carro Tesla é retratado no Salão do Automóvel de Paris em 14 de outubro de 2024 em Paris.

Michael Euler/AP


Ocultar título

Alterar o título

Michael Euler/AP

DETROIT – A agência de segurança rodoviária do governo dos EUA está investigando o sistema de “condução totalmente autônoma” da Tesla depois de receber relatos de acidentes em situações de baixa visibilidade, incluindo um que matou um pedestre.

A Administração Nacional de Segurança de Tráfego Rodoviário disse em documentos que abriu uma investigação na quinta-feira depois que a empresa anunciou que quatro acidentes ocorreram quando Teslas encontraram luz solar, neblina e poeira transportada pelo ar.

Além da morte do pedestre, outro acidente resultou em feridos, disse a agência.

Os investigadores identificaram a capacidade de “condução totalmente autônoma” para “detectar e responder adequadamente às condições de visibilidade reduzida da estrada e, em caso afirmativo, às circunstâncias que contribuem para esses acidentes”.

A investigação cobre cerca de 2,4 milhões de Teslas nos anos modelo de 2016 a 2024.

Uma mensagem foi enviada na sexta-feira pedindo comentários da Tesla, que disse repetidamente que o computador não pode dirigir sozinho e que os motoristas humanos devem estar prontos para intervir em todos os momentos.

Na semana passada, a Tesla realizou um evento em um estúdio de Hollywood para revelar um robotáxi totalmente autônomo, sem volante ou pedais. Musk, que já havia prometido veículos autônomos, disse que a empresa planeja desenvolver os Modelos Y e 3 autônomos no próximo ano, que funcionarão sem motoristas humanos. Robotaxis sem volantes podem começar a ser implementados na Califórnia e no Texas até 2026, disse ele.

O impacto da investigação nas ambições de condução autônoma da Tesla não é claro. A NHTSA deve aprovar qualquer robotáxi sem pedais ou volante, e é improvável que isso aconteça enquanto a investigação estiver em andamento. Mas se a empresa tentar implantar veículos autônomos em seus modelos existentes, poderá enfrentar regulamentações estaduais. Não existem regulamentações federais que se concentrem especificamente em veículos autônomos, embora estes devam atender a regras amplas de segurança.

A NHTSA também disse que investigará se quaisquer outros acidentes envolvendo “condução totalmente autônoma” ocorreram em condições de baixa visibilidade e solicitará à empresa informações sobre se alguma atualização nessas condições afetou o desempenho do sistema.

“Especificamente, esta revisão avaliará o momento, o escopo e as capacidades de tais atualizações, bem como o impacto na segurança da Tesla”, afirmam os documentos.

A Tesla relatou todos os quatro acidentes à NHTSA sob o mandato da agência, que abrange todas as montadoras. Um pedestre foi morto em novembro de 2023 em Rimrock, Arizona, por um Tesla Model Y 2021. Rimrock fica a cerca de 161 quilômetros ao norte de Phoenix, diz o banco de dados da agência.

O Departamento de Segurança Pública do Arizona disse em um comunicado que o acidente aconteceu na Interestadual 17 em 27 de novembro, pouco depois das 17h. Dois veículos colidiram na rodovia, bloqueando a faixa da esquerda. Um Toyota 4Runner parou e duas pessoas desceram para ajudar a direcionar o trânsito. Um Tesla Model Y vermelho atingiu o 4Runner e uma das pessoas que saiu dele. Uma mulher de 71 anos de Mesa, Arizona, morreu no local.

A colisão ocorreu porque o motorista do Tesla tinha luz solar nos olhos, então o motorista do Tesla não foi acusado, disse Raul Garcia, oficial de informação pública do departamento. A luz solar também foi um fator na primeira colisão, acrescentou.

A Tesla retirou duas vezes a “condução totalmente autônoma” sob pressão da NHTSA, que em julho buscou informações das autoridades policiais e da empresa depois que um Tesla usou o sistema para atropelar e matar um motociclista perto de Seattle.

O recall ocorre porque o sistema está programado para operar semáforos em velocidades lentas e o sistema não viola outras leis de trânsito. Ambos os problemas devem ser corrigidos com atualizações de software online.

Os críticos disseram que o sistema da Tesla, que usa apenas câmeras para detectar perigos, carece dos sensores certos para uma direção totalmente autônoma. Todas as outras empresas que trabalham com veículos autônomos utilizam sensores de radar e laser, além de câmeras, para enxergar melhor no escuro ou em condições de pouca visibilidade.

Os humanos dirigem apenas com os olhos, disse Musk, então os carros podem ser dirigidos apenas com câmeras. Ele chamou o lidar (detecção e alcance de luz), que usa lasers para detectar objetos, de “absurdo”.

O sistema de piloto automático menos sofisticado da Tesla travou em emergências e outros veículos estacionados em rodovias, piscando várias luzes de alerta e levando a um recall de “condução totalmente autônoma” após um teste de três anos.

Essa investigação foi encerrada em abril passado, depois que a agência pressionou a Tesla a fazer recall de seus veículos para melhorar um sistema fraco que garante que os motoristas prestem atenção. Algumas semanas após o recall, a NHTSA começou a investigar se o recall foi eficaz.

A NHTSA lançou sua investigação de acidente de piloto automático em 2021 depois de receber 11 relatos de Teslas usando o piloto automático atingindo veículos de emergência estacionados. Em documentos que explicam por que a investigação foi encerrada, a NHTSA disse ter encontrado 54 feridos e 14 mortes em 467 acidentes envolvendo o piloto automático. O piloto automático é uma versão sofisticada do controle de cruzeiro, enquanto a “condução totalmente autônoma” é considerada por Musk como capaz de dirigir sem intervenção humana.

A investigação aberta quinta-feira entra em um novo território para a NHTSA, que anteriormente via os sistemas da Tesla como uma ajuda aos motoristas, em vez de conduzi-los. Com o novo estudo, a empresa está se concentrando em capacidades de “condução totalmente autônoma”, em vez de garantir que os motoristas estejam prestando atenção.

Michael Brooks, diretor executivo da organização sem fins lucrativos Center for Vehicle Safety, disse que uma investigação anterior sobre o piloto automático não analisou por que os Teslas não procuraram veículos de emergência e pararam.

“Antes que eles colocassem algum tipo de responsabilidade no motorista e não no carro”, disse ele. “Aqui eles dizem que esses sistemas não têm a capacidade de detectar adequadamente riscos à segurança, estejam os motoristas prestando atenção ou não”.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *