O piloto automático da Tesla está envolvido em mais uma polêmica. Para comprovar a capacidade da tecnologia do Full Self-Driving (FSD), o proprietário de um Model Y decidiu envolver seus próprios filhos em um teste arriscado.
Tudo começou com a ambição de Whole Mars Catalog por querer desmentir uma campanha publicitária que circulou nas redes sociais mostrando que o sistema da Tesla falhou e atropelou um manequim infantil.
publicidade
A ideia do homem era mostrar que o veículo elétrico pararia automaticamente ao se deparar com crianças atravessando a rua. O vídeo que mostra detalhes do teste feito com crianças reais foi banido do YouTube, mas ainda está disponível no Twitter.
Em entrevista ao portal CNBC, o homem afirmou que estava confiante de que o sistema detectaria as crianças e que, de qualquer modo, estaria no volante caso a tecnologia falhasse. Ele alegou também que não estava em alta velocidade.
Leia também:
A Administração Nacional de Tráfego e Segurança Rodoviária (NHTSA) condenou o experimento. “Os consumidores não devem criar seus próprios cenários de testes e não devem usar pessoas reais, especialmente crianças, para testar a capacidade da tecnologia veicular”.
Piloto automático da Tesla sofre investigação
Recentemente, a NHTSA anunciou que está examinando de perto dois acidentes fatais envolvendo veículos da Tesla. No primeiro, registrado em junho, uma pedestre foi morta por um Model 3 na Califórnia. O outro aconteceu no estado da Flórida, no dia 6 de julho. Os dois ocupantes do veículo, o motorista de 66 anos e um passageiro de 67, morreram.
Não ficou claro se o sistema de piloto automático estava acionado antes dos acidentes. Mas, os reguladores afirmam que vão reforçar as investigações sobre o ‘Tesla Autopilot’. Se forem constatados riscos de segurança que prejudiquem o motorista, as autoridades podem exigir um recall que envolveria 830 mil veículos.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital