Vídeo: O Dilema Ético dos Carros Autônomos (Novembro 2024)
Não demorou muito tempo andando no carro autônomo do Google na semana passada para perceber que a tecnologia não está pronta apenas para a estrada, mas, em alguns casos, toma decisões melhores do que motoristas humanos - diminuindo a velocidade e cedendo aos ciclistas, por exemplo.
Como exemplo, a tecnologia autônoma acrescenta uma nova reviravolta ao dilema filosófico centenário conhecido como "problema do carrinho". Nesse cenário, uma pessoa precisa decidir se puxa uma alavanca no cruzamento Y e passa por cima de uma pessoa que está ligada à pista, a fim de salvar cinco pessoas ligadas à pista adjacente.
Para carros autônomos, isso foi reformulado como o "problema do túnel". Imagine que um veículo autônomo esteja viajando em uma estrada de montanha de pista única e prestes a entrar em um túnel, quando uma criança inadvertidamente cruza seu caminho logo dentro da entrada para que o carro tome uma decisão em uma fração de segundo. Continua reto e bate na criança? Ou ele desvia e atinge o túnel, ferindo ou matando os ocupantes do carro?
No dia seguinte a uma carona no carro autônomo do Google em Mountain View, Califórnia, participei de um evento nas instalações norte-americanas de P&D da Mercedes-Benz, nas proximidades de Sunnyvale. Entre os vários tópicos abordados ao longo do dia, o professor de Stanford e chefe do programa de Revs da universidade, Chris Gerdes, fez uma apresentação que se aprofundou no assunto de ética e carros autônomos.
Gerdes revelou que a Revs tem colaborado com o departamento de filosofia de Stanford em questões éticas envolvendo veículos autônomos, enquanto a universidade também começou a executar uma série de testes para determinar que tipo de decisão um carro robótico pode tomar em situações críticas.
Quando a filosofia assume o controle
Como parte de sua apresentação, Gerdes argumentou por que precisamos de filósofos para ajudar a estudar essas questões. Ele ressaltou que questões éticas com carros autônomos são um alvo em movimento e "não têm limites", embora seja responsabilidade dos engenheiros "limitar o problema".
Para fazer isso e mover a ética da tecnologia autônoma para além de uma mera discussão acadêmica, Revs está realizando experimentos com o veículo de teste x1 de Stanford, colocando obstáculos na estrada. Ele observou que colocar prioridades diferentes no programa de software dos veículos levou a "comportamentos muito diferentes".
Gerdes afirmou que essa programação nascente de software autônomo baseada em ética poderia se tornar um "requisito essencial" para a tecnologia - e não algo que acabamos de discutir nas torres de marfim. E acrescentou que a ética não é algo que as montadoras possam obter de um fornecedor de "nível 1", como, por exemplo, uma bomba de combustível ou uma tela no painel. O recente escândalo da VW Dieselgate certamente mostrou isso.
Motoristas humanos experientes são programados há anos para lidar com decisões em frações de segundo - e nem sempre tomam as decisões certas. Mas depois de ver como os veículos autônomos do Google reagem às decisões cotidianas e ouvir o trabalho que Stanford Revs e o departamento de filosofia da escola estão realizando, aposto que os carros tomarão decisões mais inteligentes.