Lar Pareceres Acidente automobilístico do Uber: ai nos falhou?

Acidente automobilístico do Uber: ai nos falhou?

Índice:

Vídeo: UBER Passageiro CAUSOU ACIDENTE: O que fazer? 🚨 (Outubro 2024)

Vídeo: UBER Passageiro CAUSOU ACIDENTE: O que fazer? 🚨 (Outubro 2024)
Anonim

Em 12 de março, o MIT Technology Review publicou uma história que começou assim: "É o ano de 2023 e os carros autônomos estão finalmente navegando pelas ruas da cidade. Pela primeira vez, um deles atingiu e matou um pedestre, com enorme cobertura da mídia. É provável que haja uma ação de alto nível, mas que leis devem ser aplicadas?"

Tudo sobre a previsão estava certo, exceto a data. Exatamente uma semana após a publicação do artigo, um Uber autônomo atingiu e matou um pedestre em Tempe, Arizona, enquanto funcionava no modo autônomo.

Embora o incidente ainda esteja sendo investigado, a comoção que se seguiu é uma indicação de quão longe estamos de integrar com sucesso a inteligência artificial em nossas tarefas e decisões críticas.

Em muitos casos, o problema não está na IA, mas em nossas expectativas e compreensão. Segundo a Wired , quase 40.000 pessoas morreram em incidentes nas estradas no ano passado, somente nos EUA - 6.000 delas eram pedestres. Mas muito poucos (se houver) chegaram às manchetes como o incidente do Uber.

Uma das razões pelas quais a queda do Uber causou tanta comoção é que geralmente temos grandes expectativas de novas tecnologias, mesmo quando elas ainda estão em desenvolvimento. Sob a ilusão de que a matemática pura impulsiona os algoritmos de IA, tendemos a confiar em suas decisões e ficamos chocados quando cometem erros.

Até os motoristas de segurança atrás do volante de carros autônomos baixam a guarda. Imagens do incidente do Uber mostraram que o motorista estava distraído, olhando segundos antes do acidente.

Em 2016, o motorista de um Tesla S Model operando no modo Autopilot morreu após o veículo colidir com um caminhão. Uma investigação descobriu que o motorista pode estar assistindo a um filme de Harry Potter no momento da colisão.

As expectativas de perfeição são altas e as decepções são poderosas. Os críticos foram rápidos em questionar todo o projeto de carro autônomo da Uber após o incidente; a empresa suspendeu temporariamente os testes de carros autônomos depois disso.

A IA não é humana

Uma das críticas que se seguiram ao acidente foi que um motorista humano teria evitado facilmente o incidente.

"não estava pulando fora dos arbustos. Ela estava fazendo um progresso claro em várias faixas de tráfego, que deveriam estar disponíveis para o sistema", disse um especialista à CNN.

Ela está certa. Um motorista humano experiente provavelmente a teria visto. Mas os algoritmos de IA não são humanos.

Os algoritmos de aprendizado profundo encontrados em carros autônomos usam vários exemplos para "aprender" as regras de seu domínio. Enquanto passam o tempo na estrada, eles classificam as informações que coletam e aprendem a lidar com diferentes situações. Mas isso não significa necessariamente que eles usem o mesmo processo de tomada de decisão que os motoristas humanos. É por isso que eles podem ter um desempenho melhor que os humanos em algumas situações e falhar naqueles que parecem triviais para os humanos.

Um exemplo perfeito é o algoritmo de classificação de imagens, que aprende a reconhecer imagens analisando milhões de fotos rotuladas. Ao longo dos anos, a classificação da imagem tornou-se supereficiente e supera os seres humanos em muitos ambientes. Isso não significa que os algoritmos entendam o contexto das imagens da mesma maneira que os humanos.

Por exemplo, pesquisas de especialistas da Microsoft e da Universidade de Stanford descobriram que um algoritmo de aprendizado profundo treinado com imagens de gatos brancos acreditava com um alto grau de convicção que a foto de um cachorro branco representava um gato, um erro que uma criança humana poderia facilmente evitar. E, em um caso infame, o algoritmo de classificação de imagens do Google classificou erroneamente pessoas de cor escura da pele como gorilas.

Esses são chamados de "casos extremos", situações que os algoritmos de IA não foram treinados para lidar, geralmente devido à falta de dados. O acidente do Uber ainda está sob investigação, mas alguns especialistas em IA sugerem que poderia ser outro caso de ponta.

O aprendizado profundo tem muitos desafios a serem superados antes de poder ser aplicado em situações críticas. Mas suas falhas não devem nos deter. Devemos ajustar nossas percepções e expectativas e abraçar a realidade de que toda grande tecnologia falha durante sua evolução. AI não é diferente.

Acidente automobilístico do Uber: ai nos falhou?