
Nvidia CUDA vai processar imagens do Tesla Vision, a "visão" do Piloto Automático 2.0
A Tesla vai usar um sistema baseado em computação paralela CUDA da Nvidia para realizar o processamento de imagens do Tesla Vision, sua nova solução de sensores para a implementação do aguardado Piloto Automático 2.0 nos carros com função de direção autônoma da fabricante. O novo sistema, baseado em radar, chega para substituir o EyeQ3, da Mobileye, que equipam os modelos atuais da Tesla.
Site oficial da Tesla
Site oficial da Nvidia
O Tesla Vision, já confirmado pela companhia, vai ser o sistema de sensores que funciona de maneira conjunta para que o carro possa "ver". Enquanto o EyeQ3 realizava o processamento das imagens recebidas num SoC, informações não oficiais afirmam que o Tesla Vision vai usar um framework de visão computacional completo, construído com o Nvidia CUDA Ele vai usar treinamento em rede neural profunda e trabalhar de maneira unificada com a nova tecnologia de processamento de radar de autoria da própria Tesla para fazer a análise e processamento das imagens, com dados brutos obtidos pelos sensores e câmeras.
O interesse da Nvidia em direção autônoma foi reafirmado no mês passado com o anúncio do Tegra Xavier, na GTC 2016, um novo SoC desenvolvido especialmente para integrar este tipo de sistema. Além disso, Jen Hsung, o CEO da Nvidia, tem uma predileção pessoal por veículos da Tesla, praticamente os colecionando. Uma parceria entre as duas empresas não só é plausível, é aguardada.
Fonte: Guru3D