Índice:
- 1 Anúncios questionáveis do Instagram
- 2 Anúncios racistas segmentados
- 3 Ano do Facebook em Desgraça
- 4 Tesla Autopilot Crash
- 5 Tay, a IA racista da Microsoft
- 6 Parabéns pelo seu bebê (não existente)!
- 7 Amazon recomenda bombas de materiais
- 8 Google Maps fica racista
- 9 Google Tags Humanos como gorilas
- Segurança de 10 robôs atinge criança e mata-se
Vídeo: Algoritmos gulosos e Problema das Tarefas Compatíveis (Novembro 2024)
A tecnologia não é apenas para geeks, é para todos, e é muita gente. Com apenas um punhado de empresas controlando a maioria dos hardwares e softwares - da Apple e Amazon ao Facebook, Microsoft e Google -, elas podem fazer tanto para controlar sua carteira e olhos. O que uma corporação pobre e gigante deve fazer? Confie em algoritmos para tomar algumas das decisões importantes.
O Oxford Living Dictionaries define algoritmo como "um processo ou conjunto de regras a serem seguidas em cálculos ou outras operações de solução de problemas, especialmente por um computador". Um exemplo perfeito é o Feed de notícias do Facebook. Ninguém sabe como funciona que algumas de suas postagens aparecem no Feed de notícias de algumas pessoas ou não, mas o Facebook sim. Ou a Amazon mostra livros relacionados? Pesquisas relacionadas no Google? Todos esses são segredos bem guardados que fazem muito trabalho para a empresa e podem ter um grande impacto em sua vida.
Mas algoritmos não são perfeitos. Eles falham e alguns falham espetacularmente. Adicione o brilho das mídias sociais, e uma pequena falha pode se transformar em um pesadelo de relações públicas rapidamente. Raramente é malicioso; estes tendem a ser o que o New York Times chama de "Momentos Frankenstein", onde a criatura que alguém criou se transforma em um monstro. Mas isso acontece, e compilamos alguns dos exemplos recentes mais flagrantes abaixo. Deixe-nos saber seus favoritos nos comentários abaixo.
-
4 Tesla Autopilot Crash
A maioria dos ataques algorítmicos está longe de ser fatal, mas o mundo dos carros autônomos trará um novo nível de perigo. Isso já aconteceu pelo menos uma vez. Um proprietário de Tesla em uma rodovia da Flórida usou o modo semi-autônomo (piloto automático) e colidiu com um reboque de trator que o interrompeu. Tesla emitiu rapidamente atualizações, mas foi realmente culpa do modo de piloto automático? A Administração Nacional de Segurança no Trânsito nas Rodovias diz que talvez não, já que o sistema exige que o motorista fique alerta para problemas, como você pode ver no vídeo acima. Agora, Tesla impede o piloto automático de se envolver, mesmo que o motorista não responda primeiro às indicações visuais.
1 Anúncios questionáveis do Instagram
Conforme relatado pelo The Guardian , o Facebook gosta de exibir anúncios para seu serviço Instagram com postagens de seus próprios usuários. Mas o algoritmo escolheu a "foto" errada para enviar aos amigos de Olivia Solon, repórter do The Guardian , selecionando uma captura de tela de um ano que ela tirou de um e-mail ameaçador.
2 Anúncios racistas segmentados
Na semana passada, o ProPublica informou que o Facebook permitia que os anunciantes segmentassem categorias ofensivas de pessoas, como "odiadores de judeus". O site pagou US $ 30 por um anúncio (acima) que visava um público que responderia positivamente a coisas como "por que os judeus arruinam o mundo" e "Hitler não fez nada errado". Foi aprovado em 15 minutos.
Slate encontrou categorias similarmente ofensivas, e tornou-se outra na longa lista de itens que o Facebook não apenas pediu desculpas, mas promete consertar com alguma supervisão humana. Você sabe, como quando colocou US $ 100.000 em anúncios eleitorais para a Rússia.
Em uma publicação no Facebook, a diretora de operações Sheryl Sandberg disse que estava "enojada e decepcionada com essas palavras" e anunciou mudanças em suas ferramentas de publicidade.
O BuzzFeed verificou como o Google lidaria com coisas semelhantes e descobriu que era fácil também configurar anúncios direcionados para serem vistos por racistas e fanáticos. O Daily Beast deu uma olhada no Twitter e encontrou milhões de anúncios usando termos como "nazista", "wetback" e a palavra N.
3 Ano do Facebook em Desgraça
Se você está no Facebook, sem dúvida viu seus vídeos gerados por algoritmos de final de ano com destaques dos últimos 12 meses. Ou, para alguns, as luzes baixas. Em 2014, um pai viu uma foto de sua falecida filha, enquanto outro viu instantâneos de sua casa em chamas. Outros exemplos incluem pessoas vendo seus animais de estimação atrasados, urnas cheias das cinzas dos pais e amigos falecidos. Até 2015, o Facebook prometeu filtrar lembranças tristes.
5 Tay, a IA racista da Microsoft
Há alguns anos, os bots de bate-papo deveriam conquistar o mundo, substituindo os representantes de atendimento ao cliente e tornando o mundo on-line um lugar de bate-papo para obter informações. A Microsoft respondeu em março de 2016 lançando uma IA chamada Tay com a qual as pessoas, especificamente entre 18 e 24 anos, poderiam interagir no Twitter. Tay, por sua vez, faria tweets públicos para as massas. Mas em menos de 24 horas, aprendendo com as massas de boca suja, Tay tornou-se um racista completo. A Microsoft puxou o Tay para baixo instantaneamente; ela voltou como uma nova IA chamada Zo em dezembro de 2016, com "fortes controles e balanços para protegê-la da exploração".
6 Parabéns pelo seu bebê (não existente)!
Divulgação completa: Enquanto escrevo isso, minha esposa está realmente grávida. Nós dois recebemos esse e-mail da Amazon dizendo que alguém havia comprado algo para nós em nosso registro de bebês. Ainda não o tornamos público, mas não foi tão chocante. Enquanto isso, vários milhões de outros clientes da Amazon também receberam a mesma nota, incluindo alguns sem registro… ou um bebê a caminho. Poderia ter sido parte de um esquema de phishing, mas não era. A Amazon detectou o erro e enviou um email de desculpas de acompanhamento. Até então, muitos haviam reclamado que isso era inapropriado ou insensível. Isso era menos algoritmo do que um servidor de e-mail defeituoso, mas mostra que é sempre fácil ofender.
7 Amazon recomenda bombas de materiais
Todo mundo pulou nessa depois que foi noticiado pelo Channel 4 News do Reino Unido, da Fox News ao The New York Times . Ele supostamente descobriu que o recurso "frequentemente comprado juntos" da Amazon mostraria às pessoas o que elas precisam para construir uma bomba, se elas começassem com um dos ingredientes, que o site não mencionaria (era nitrato de potássio).
O que o algoritmo da Amazon realmente fez foi mostrar aos compradores os ingredientes para fazer pó preto em pequenas quantidades, o que é totalmente legal no Reino Unido e é usado para todo tipo de coisas - como fogos de artifício -, como foi rapidamente apontado em um incrivelmente bem pensado. no blog Idle Words. Em vez disso, todos os relatórios são sobre como a Amazon está investigando, porque é isso que eles têm a dizer que estão fazendo em um mundo com medo do terrorismo e da lógica.
8 Google Maps fica racista
Em 2015, o Google teve que se desculpar quando o Google Maps pesquisou "n ***** king" e "n *** a house", levando à Casa Branca, que ainda era ocupada por Barack Obama na época. Isso foi resultado de um "Googlebomb", em que um termo usado repetidamente é escolhido pelo mecanismo de pesquisa e marcado como "popular" para que os resultados cheguem ao topo da pesquisa. Foi assim que a palavra "Santorum" recebeu sua nova definição.
9 Google Tags Humanos como gorilas
O Google Fotos é um aplicativo / serviço incrível que armazena todas as suas fotos e muito mais. Uma dessas coisas é marcar automaticamente as pessoas e as coisas nas fotos. Ele usa o reconhecimento facial para que as pessoas as reduzam à pessoa correta. Até tenho uma pasta com todos os meus cães e não os rotulei. Por mais que funcione, foi notório quando em 2015 o Google teve que se desculpar com o programador de computador Jacky Alciné quando ele e um amigo - ambos negros - foram identificados pelo serviço como gorilas. "Estamos chocados e realmente lamentamos que isso tenha acontecido", disse o Google à PCMag.
Segurança de 10 robôs atinge criança e mata-se
A Knightscope cria robôs de segurança autônomos chamados K5 para patrulhar escolas, shoppings e bairros. Os cones sobre rodas, de um metro e meio de altura, do tipo Dalek - que, para crédito deles, ainda estão em testes beta - tendem a ser notícia não por impedir crimes, mas por falhas.
Por exemplo, em julho de 2016, o K5 no Stanford Shopping Center, em Palo Alto, atropelou uma criança de 16 meses e a Knightscope precisou se desculpar formalmente. O mesmo local - talvez o mesmo dróide - teve uma briga em um estacionamento com um bêbado, mas pelo menos isso não foi culpa do K5. O júri ainda está na unidade K5 em Georgetown Waterfront, complexo de escritórios / compras em Washington DC… que supostamente tropeçou algumas escadas em uma fonte de água depois de apenas uma semana no trabalho. Não parece bom para o exército da Skynet.