Índice:
- Os assistentes de IA podem servir para fins malignos?
- Preocupações com a privacidade
- Falhas funcionais
Vídeo: O que América do Sul deve fazer para ser vista no mundo (e ter trabalhos como o de JJ reconhecidos) (Novembro 2024)
O Google recentemente reformou o Duplex para revelar explicitamente aos anfitriões de restaurantes e funcionários do salão que eles estão conversando com o Assistente do Google e estão sendo gravados.
Ajustando o Duplex, o Google deixa de lado algumas dessas críticas. Mas por que é tão importante que as empresas sejam transparentes quanto à identidade de seus agentes de IA?
Os assistentes de IA podem servir para fins malignos?
"Há uma expectativa crescente de que, ao enviar mensagens para uma empresa, você possa interagir com um chatbot com inteligência artificial. Mas quando você realmente ouve um ser humano falando, geralmente espera que seja uma pessoa real", diz Joshua March, CEO de Coversocial.
March diz que estamos no início de pessoas que têm interações significativas com a IA regularmente, e os avanços no campo criaram o medo de que os hackers possam explorar os agentes da IA com propósitos maliciosos.
"Na melhor das hipóteses, bots de IA com intenções maliciosas podem ofender as pessoas", diz Marcio Avillez, vice-presidente sênior de redes da Cujo AI. Mas Marcio acrescenta que podemos enfrentar ameaças mais terríveis. Por exemplo, a IA pode aprender padrões lingüísticos específicos, facilitando a adaptação da tecnologia para manipular pessoas, personificar vítimas e encenar ataques de vishing (phishing de voz) e atividades similares.
Muitos especialistas concordam que a ameaça é real. Em uma coluna para CIO, Steven Brykman expôs as diferentes maneiras pelas quais uma tecnologia como o Duplex pode ser explorada: "Pelo menos com humanos chamando humanos, ainda há um fator limitante - um humano só pode fazer tantas ligações por hora, por dia. Os seres humanos precisam ser pagos, fazer pausas e assim por diante. Mas um chatbot de IA pode literalmente fazer um número ilimitado de chamadas para um número ilimitado de pessoas de várias maneiras ilimitadas!"
Nesse estágio, quase tudo que ouvimos é especulação; ainda não sabemos a extensão e a gravidade das ameaças que podem surgir com o advento dos assistentes de voz. Mas muitos dos ataques em potencial que envolvem assistentes baseados em voz podem ser neutralizados se a empresa que fornece a tecnologia se comunicar explicitamente com os usuários quando eles estiverem interagindo com um agente de IA.
Preocupações com a privacidade
Outro problema que envolve o uso de tecnologias como o Duplex é o risco potencial à privacidade. Os sistemas com inteligência artificial precisam de dados do usuário para treinar e aprimorar seus algoritmos, e o Duplex não é exceção. Como ele armazenará, protegerá e usará esses dados é muito importante.
Estão surgindo novos regulamentos que exigem que as empresas obtenham o consentimento explícito dos usuários quando desejam coletar suas informações, mas foram projetadas principalmente para cobrir tecnologias nas quais os usuários iniciam intencionalmente interações. Isso faz sentido para assistentes de IA, como Siri e Alexa, que são ativados pelo usuário. Mas não está claro como as novas regras se aplicariam aos assistentes de IA que alcançam os usuários sem serem acionados.
Em seu artigo, Brykman enfatiza a necessidade de estabelecer salvaguardas regulatórias, como leis que exigem que as empresas declarem a presença de um agente de IA - ou uma lei que quando você pergunta a um chatbot se é um chatbot, é necessário dizer: "Sim, Eu sou um chatbot. " Tais medidas dariam ao interlocutor humano a chance de desengatar ou pelo menos decidir se desejam interagir com um sistema de IA que registra sua voz.
Mesmo com essas leis, as preocupações com a privacidade não desaparecem. "O maior risco que eu prevejo na encarnação atual da tecnologia é que ela forneça ao Google ainda mais dados sobre nossas vidas privadas que ainda não possuía. Até esse momento, eles só conheciam nossas comunicações on-line; agora obterão informações reais sobre nossas conversas no mundo real ", diz Vian Chinner, fundador e CEO da Xineoh.
Escândalos recentes de privacidade envolvendo grandes empresas de tecnologia, nos quais eles usaram dados de usuários de maneiras questionáveis para seus próprios ganhos, criaram uma sensação de desconfiança em dar a eles mais janelas em nossas vidas. "As pessoas em geral sentem que as grandes empresas do Vale do Silício as estão vendo como inventário em vez de clientes e têm um alto grau de desconfiança em relação a quase tudo o que fazem, independentemente de quão inovadoras e transformadoras acabem sendo", diz Chinner.
Falhas funcionais
Apesar de ter uma voz e tom naturais e usar sons semelhantes a humanos como "mmhm" e "ummm", o Duplex não é diferente de outras tecnologias contemporâneas de IA e sofre das mesmas limitações.
Se voz ou texto é usado como interface, os agentes de IA são bons para resolver problemas específicos. É por isso que os chamamos de "IA restrita" (em oposição à "IA geral") - o tipo de inteligência artificial que pode se engajar na solução geral de problemas, como a mente humana. Embora a IA estreita possa ser excepcionalmente boa em executar as tarefas para as quais está programada, ela pode falhar espetacularmente quando recebe um cenário que se desvia do domínio do problema.
"Se o consumidor achar que está falando com um humano, provavelmente perguntará algo que está fora do script normal da IA e obterá uma resposta frustrante quando o bot não entender", diz March, da Conversocial.
Por outro lado, quando uma pessoa sabe que está conversando com uma IA que foi treinada para reservar mesas em um restaurante, tentará evitar o uso de linguagem que confunda a IA e fará com que ela se comporte de maneiras inesperadas, especialmente se estiver trazendo eles um cliente.
"Os funcionários que recebem ligações do Duplex também devem receber uma introdução direta de que essa não é uma pessoa real. Isso ajudaria a comunicação entre a equipe e a IA a ser mais conservadora e clara", diz Avillez.
Por esse motivo, até que (e se) desenvolvamos a IA que possa funcionar em pé de igualdade com a inteligência humana, é do interesse das próprias empresas ser transparentes quanto ao uso da IA.
No final das contas, parte do medo de assistentes de voz como o Duplex é causada pelo fato de serem novos, e ainda estamos nos acostumando a encontrá-los em novas configurações e casos de uso. "Pelo menos algumas pessoas parecem muito desconfortáveis com a idéia de conversar com um robô sem saber, então, por enquanto, provavelmente isso deve ser divulgado às contrapartes na conversa", diz Chinner.
- AI é (também) uma força para o bem AI é (também) uma força para o bem
- Quando a AI desfoca a linha entre realidade e ficção Quando a AI desfoca a linha entre realidade e ficção
- A inteligência artificial tem um problema de viés e é nossa falha A inteligência artificial tem um problema de viés e é nossa falha
Mas, a longo prazo, nos acostumaremos a interagir com agentes de inteligência artificial que são mais inteligentes e mais capazes de executar tarefas que antes eram consideradas domínio exclusivo de operadores humanos.
"A próxima geração não se importará se estiver falando com uma IA ou um ser humano quando entrar em contato com uma empresa. Eles só querem obter sua resposta de maneira rápida e fácil, e eles cresceram falando com Alexa. segurar para falar com um ser humano será muito mais frustrante do que apenas interagir com um bot ", diz March, da Conversocial.