Lar Pareceres Por que empresas de tecnologia estão usando humanos para ajudar ai | Ben Dickson

Por que empresas de tecnologia estão usando humanos para ajudar ai | Ben Dickson

Índice:

Vídeo: 🤯 Las Oportunidades de Negocio con la Inteligencia Artificial (Outubro 2024)

Vídeo: 🤯 Las Oportunidades de Negocio con la Inteligencia Artificial (Outubro 2024)
Anonim

"Andrew Ingram" é um assistente digital que verifica seus e-mails, fornece idéias de agendamento para as reuniões e compromissos que você discute com seus colegas de trabalho, configura tarefas e envia convites para as partes relevantes com muito pouca assistência. Ele usa os avançados recursos de inteligência artificial do X.ai, um novo Baseado em York startup especializada no desenvolvimento de assistentes de IA. Os problemas resolvidos podem economizar muito tempo e frustração para pessoas (como eu) que têm uma agenda bagunçada.

Mas, de acordo com uma história da Wired publicada em maio, a inteligência por trás de Andrew Ingram não é totalmente artificial. É apoiado por um grupo de 40 filipinos em um prédio altamente seguro nos arredores de Manila que monitoram o comportamento da IA ​​e assumem o controle sempre que o assistente se deparar com um caso que ele não pode lidar.

Embora a ideia de que seus emails sejam digitalizados por pessoas reais possa parecer assustadora, tornou-se uma prática comum entre muitas empresas que fornecem serviços de IA para seus clientes. Um artigo recente do The Wall Street Journal expôs várias empresas que permitem que seus funcionários acessem e leiam e-mails de clientes para criar novos recursos e treinar sua IA em casos que nunca haviam visto antes.

Chamada de técnica "Mágico de Oz" ou pseudo-IA, a prática de usar seres humanos silenciosamente para compensar as deficiências dos algoritmos de IA lança luz sobre alguns dos desafios mais profundos que a indústria de IA enfrenta.

A IA não está pronta para problemas amplos

Por trás da maioria das inovações de IA nos últimos anos estão algoritmos de aprendizado profundo e redes neurais. As redes neurais profundas são muito eficientes na classificação de informações. Em muitos casos, como reconhecimento de voz e rosto ou identificação de câncer em exames de ressonância magnética e tomografia computadorizada, eles podem superar os seres humanos.

Mas isso não significa que o aprendizado profundo e as redes neurais possam realizar qualquer tarefa que os humanos possam realizar.

"O aprendizado profundo está nos permitindo resolver o problema de percepção. Isso é importante porque a percepção limitou a IA desde o seu início há mais de 60 anos", diz Jonathan Mugan, cofundador e CEO da DeepGrammar. "Resolver o problema de percepção finalmente tornou a IA útil para coisas como reconhecimento de voz e robótica".

No entanto, observa Mugan, a percepção não é o único problema. A aprendizagem profunda luta onde o raciocínio e a compreensão do senso comum estão envolvidos.

"O aprendizado profundo não nos ajuda com esse problema", diz ele. "Fizemos algum progresso na PNL (processamento de linguagem natural) tratando a linguagem como um problema de percepção; isto é, convertendo palavras e frases em vetores. Isso nos permitiu representar melhor o texto para classificação e tradução automática (quando há muito dados), mas não ajuda no raciocínio de senso comum. É por isso que os chatbots falharam amplamente ".

Um dos principais problemas que todos os aplicativos de aprendizado profundo enfrentam é o de coletar os dados corretos para treinar seus modelos de IA. O esforço e os dados necessários para treinar uma rede neural para executar uma tarefa dependem de quão amplo é o espaço do problema e de qual nível de precisão é necessário.

Por exemplo, um aplicativo de classificação de imagens, como o aplicativo Not Hotdog, do Vale do Silício da HBO, executa uma tarefa muito restrita e específica: informa se a câmera do smartphone está mostrando um hotdog ou não. Com imagens de cachorro-quente suficientes, a IA do aplicativo pode desempenhar sua função muito importante com um alto nível de precisão. E mesmo que cometa um erro de vez em quando, não machucará ninguém.

Mas outros aplicativos de IA, como o que o X.ai está construindo, estão enfrentando problemas muito mais amplos, o que significa que eles exigem muitos exemplos de qualidade. Além disso, sua tolerância a erros é muito menor. Há uma grande diferença entre confundir um pepino com cachorro-quente e agendar uma importante reunião de negócios no momento errado.

Infelizmente, dados de qualidade não são uma mercadoria que todas as empresas possuem.

"A regra geral é que, quanto mais geral um problema uma IA está tentando resolver, mais casos extremos ou comportamentos incomuns podem ocorrer. Isso inevitavelmente significa que você precisa de muito mais exemplos de treinamento para cobrir tudo", diz o Dr. Steve Marsh, CTO da Geospock. "As startups geralmente não têm acesso a grandes quantidades de dados de treinamento; portanto, os modelos que eles podem criar serão muito nicho e quebradiços, que geralmente não atendem às suas expectativas".

Essa riqueza de informações está na posse apenas de grandes empresas como o Facebook e o Google, que coletam os dados de bilhões de usuários há anos. As empresas menores precisam pagar grandes quantias para obter ou criar dados de treinamento, o que atrasa o lançamento de seus aplicativos. A alternativa é iniciar de qualquer maneira e começar a treinar sua IA em tempo real, usando treinadores humanos e dados ao vivo do cliente e esperando que, eventualmente, a IA se torne menos dependente de humanos.

Por exemplo, a Edison Software, uma empresa da Califórnia que desenvolve aplicativos para gerenciar e-mails, fez seus funcionários lerem os e-mails de seus clientes para desenvolver um recurso de "resposta inteligente" porque eles não tinham dados suficientes para treinar o algoritmo, a empresa O CEO disse ao Wall Street Journal. Criar respostas inteligentes é uma tarefa ampla e desafiadora. Até o Google, que tem acesso aos e-mails de bilhões de usuários, fornece respostas inteligentes para casos muito restritos.

Mas o uso de humanos para treinar a IA com dados do usuário ao vivo não se limita a empresas menores.

Em 2015, o Facebook lançou o M, um chatbot de IA que podia entender e responder a diferentes nuances de conversas e realizar muitas tarefas. O Facebook disponibilizou o M para um número limitado de usuários na Califórnia e criou uma equipe de operadores humanos que monitorariam o desempenho da IA ​​e interviriam para corrigi-la quando não entendesse uma solicitação do usuário. O plano original era que os operadores humanos ajudassem o assistente a responder a casos extremos que não haviam visto antes. Com o tempo, M seria capaz de operar sem a ajuda de humanos.

Um objetivo inatingível?

Não está claro quanto tempo levará para a Edison Software, X.ai e outras empresas que lançaram sistemas human-in-the-loop para tornar sua IA totalmente automatizada. Também há dúvidas se as tendências atuais da IA ​​podem chegar ao ponto de se envolver em domínios mais amplos.

Em 2018, o Facebook desligou o M sem implementá-lo oficialmente. A empresa não compartilhou detalhes, mas é claro que é muito difícil criar um chatbot que possa se envolver em amplas conversas. E disponibilizar M para todos os dois bilhões de usuários do Facebook sem antes torná-lo totalmente capaz de responder automaticamente a todos os tipos de conversas exigiria que o gigante da mídia social contratasse uma enorme equipe de humanos para preencher as lacunas de M.

Mugan, da DeepGrammar, acredita que, eventualmente, seremos capazes de criar IA que possa resolver o raciocínio de senso comum, o que os outros classificam como IA geral. Mas isso não vai acontecer tão cedo. "Atualmente, não existem métodos no horizonte que permitam ao computador entender o que uma criança pequena sabe", diz Mugan. "Sem esse entendimento básico, os computadores não serão capazes de executar muitas tarefas 100% das vezes."

Para colocar isso em perspectiva, os especialistas da OpenAI desenvolveram recentemente o Dactyl, uma mão robótica capaz de manipular objetos. Esta é uma tarefa que qualquer criança humana aprende a executar subconscientemente em tenra idade. Mas foram necessários 6.144 CPUs e 8 GPUs e aproximadamente cem anos de experiência para desenvolver as mesmas habilidades. Embora seja uma conquista fascinante, também destaca as grandes diferenças entre a IA estreita e a maneira como o cérebro humano funciona.

"Estamos muito longe de termos inteligência geral artificial e, muito provavelmente, a AGI será a combinação e coordenação de muitos tipos diferentes de IAs restritas ou específicas de aplicativos", diz Marsh. "Acredito que exista uma tendência a sobrescrever os recursos da IA ​​no momento, mas também vejo um enorme valor em apenas dar os primeiros passos iniciais e implementar os modelos tradicionais de aprendizado de máquina".

Outro inverno da IA ​​está chegando?

Em 1984, a Associação Americana de Inteligência Artificial (mais tarde renomeada para Associação para o Avanço da Inteligência Artificial) alertou a comunidade empresarial que o hype e o entusiasmo em torno da IA ​​acabariam por levar à decepção. Logo depois, o investimento e o interesse na IA entraram em colapso, levando a uma era mais conhecida como "inverno da IA".

Desde o início da década de 2010, o interesse e o investimento no campo têm aumentado novamente. Alguns especialistas temem que, se os aplicativos de IA apresentarem um desempenho abaixo do esperado e não atenderem às expectativas, outro inverno de IA acontecerá. Mas os especialistas com quem conversamos acreditam que a IA já se tornou muito integrada em nossas vidas para refazer seus passos.

"Não acho que corremos o risco de um inverno de IA como o anterior, porque agora a IA está fornecendo valor real, não apenas hipotético", diz Mugan. "No entanto, se continuarmos a dizer ao público em geral que os computadores são inteligentes como seres humanos, corremos o risco de uma reação. Não voltaremos a não usar o aprendizado profundo para a percepção, mas o termo 'IA' pode ser manchado, e nós teria que chamá-lo de outra coisa."

O certo é que, pelo menos, uma era de desilusão está diante de nós. Estamos prestes a aprender até que ponto podemos confiar nas misturas atuais de IA em diferentes campos.

"O que espero ver é que algumas empresas ficam agradavelmente surpreendidas com a rapidez com que podem fornecer uma IA para um serviço anteriormente manual e caro, e que outras empresas vão descobrir que leva mais tempo do que o esperado para coletar dados suficientes para se tornar financeiramente viável ", diz James Bergstra, co-fundador e chefe de pesquisa da Kindred.ai. "Se houver muitos desses últimos e não o suficiente, isso poderá desencadear outro inverno de IA entre os investidores".

  • A inteligência artificial tem um problema de viés e é nossa falha A inteligência artificial tem um problema de viés e é nossa falha
  • Por que ensinar IA para jogar é importante Por que ensinar IA para jogar é importante
  • AI oferece enorme potencial, mas não vai acontecer da noite para o dia AI oferece enorme potencial, mas não vai acontecer da noite para o dia

Marsh, da Geospock, prevê que, embora o financiamento não diminua, haverá alguns ajustes em sua dinâmica. À medida que os investidores percebem que a verdadeira experiência é rara e apenas aqueles com acesso a dados para treinar os modelos serão diferenciados no setor, haverá uma grande consolidação no mercado e muito menos startups receberão financiamento.

"Para muitas startups de IA sem um aplicativo de nicho de mercado ou grandes quantidades de dados: o inverno está chegando", conclui Marsh.

Por que empresas de tecnologia estão usando humanos para ajudar ai | Ben Dickson