Lar Visão de futuro Conferência de código: executivos do youtube, facebook e twitter sobre redução de conteúdo ruim

Conferência de código: executivos do youtube, facebook e twitter sobre redução de conteúdo ruim

Índice:

Vídeo: Sabrina Carpenter - Sue Me (Outubro 2024)

Vídeo: Sabrina Carpenter - Sue Me (Outubro 2024)
Anonim

Seguindo os passos de outras conferências de tecnologia, a Code Conference deste ano focou-se na desvantagem da tecnologia, e particularmente das mídias sociais, com os líderes do Instagram, Twitter e YouTube discutindo suas políticas para derrubar ou não divulgar conteúdo questionável.

Todos esses executivos pareciam ter alguma variação da seguinte conversa: Sim, há coisas ruins em nossa plataforma. Deveríamos saber antes. Estamos tentando melhorar as coisas. Mas é difícil. Lamentamos se você ficou ofendido.

Tudo faz sentido, mas não apazigua todos os críticos, ou silencia as vozes que pedem a separação ou, pelo menos, mais regulamentação das grandes plataformas de tecnologia. Aqui está o que alguns executivos e alguns críticos disseram no show.

Youtube

Susan Wojcicki, CEO do YouTube, descreveu mudanças na política da plataforma sobre discurso de ódio, dizendo que se um vídeo agora alegar que algum grupo (como raça ou religião) é superior, isso não será mais permitido; nem vídeos que alegam que outro grupo é inferior. Ela disse que a empresa também adicionou mais grupos à lista de protegidos, incluindo castas na Índia e vítimas de eventos violentos verificados (como o Holocausto). Ela disse que essas são apenas algumas das muitas mudanças políticas que a empresa fez no ano passado. Ela também falou sobre a limitação da distribuição de "conteúdo limite", para que alguns vídeos que não sejam bloqueados não sejam incluídos nas recomendações do YouTube e não estejam disponíveis para monetização. Ela diz que reduziu sua visão em 80%.

Mas ela reconheceu que tudo isso continuou a gerar polêmica, iniciando sua entrevista se desculpando com a comunidade LGBTQ e dizendo que entendia que suas decisões eram prejudiciais para a comunidade, mas essa não era a intenção. A polêmica diz respeito à decisão do YouTube de permitir que vídeos de Stephen Crowder permaneçam no site, apesar das reclamações de Carlos Maza, da Vox, de que Crowder o estava assediando e a outros com comentários anti-LGBTQ. (A Vox organiza a conferência do Código.)

"O contexto realmente importa", disse Wojcicki, dizendo que, antes de a empresa remover um vídeo, ele considera se um vídeo é dedicado ao assédio ou um vídeo de uma hora com insulto racial, se é uma figura pública e se é malicioso. na intenção. Ela disse que determinar que algo é malicioso é um obstáculo para a empresa, dizendo que precisa aplicar as políticas de forma consistente, porque sempre haveria vídeos sobre os quais as pessoas reclamam. Ela observou que você pode encontrar muitos insultos raciais e comentários sexistas em coisas como canções de rap, conversas noturnas e muito humor. Ela disse que a empresa quer trabalhar para mudar as políticas, em vez de ter uma reação "instintiva" a uma instância individual.

No final, ela disse que a empresa decidiu que esses vídeos não eram assédio e não violava as políticas, e disse que era a decisão certa. Mas ela disse que a empresa estava suspendendo a monetização - fazendo o criador do vídeo lucrar com os anúncios exibidos no vídeo.

Ela disse que, se o YouTube retirasse o vídeo, haveria tanto outro conteúdo que seria necessário remover. Mas ela disse que a empresa vai derrubar as coisas e que muitas das mudanças feitas na política de ódio serão realmente benéficas para a comunidade LGBTQ e resultarão na retirada de vídeos. E ela repetiu um pedido de desculpas pelo dano que poderia ter causado.

Perguntado pelo apresentador da conferência Peter Kafka, se a escala do YouTube - com 2 bilhões de usuários e 500 horas de vídeo carregadas a cada minuto - significa que você nunca pode resolver o problema, Wojcicki disse: "Podemos definitivamente melhorar a forma como gerenciamos a plataforma e vejo como quanto melhoramos. " Ela observou que a empresa teve uma redução de 50% na quantidade de conteúdo violento nos últimos dois anos e tem mais de 10.000 pessoas trabalhando no conteúdo. Mas ela voltou a se concentrar nas coisas ruins da plataforma, observando que havia muito conteúdo excelente também. "Toda a preocupação é com esse um por cento fracionário do conteúdo", disse ela. Mas ela reconheceu que há muito trabalho a fazer para lidar com esse conteúdo e disse que a empresa está investindo em ferramentas e trabalhando duro para resolver isso.

Ela deixou de lado uma sugestão de que poderia haver uma barreira para o upload de vídeos, dizendo "perderíamos muitas vozes". Mas ela falou sobre ter mais "camadas confiáveis" de vídeos para que qualquer pessoa possa começar a enviar coisas, mas precisaria cumprir certas regras para obter uma distribuição mais ampla.

"Vemos todos esses benefícios da abertura", disse ela, mas observou que o YouTube tem a responsabilidade de entender o conteúdo e decidir o que deve ser recomendado e o que deve ser promovido.

Wojcicki disse acreditar que o YouTube e o Google enfrentarão mais regulamentação, apontando para novos regulamentos de direitos autorais na Europa, mas disse que é importante que os reguladores entendam como implementar essas coisas de maneiras razoáveis, devido ao potencial de conseqüências não intencionais.

Perguntado por Kevin Roose, do The New York Times, sobre se o YouTube contribuiu para a radicalização da política, (com base em uma história recente que ele fez), Wojcicki disse que o site levou muito a sério as preocupações com a radicalização e fez várias mudanças em janeiro que reduziram as recomendações. de "conteúdo limítrofe" em 50%.

Ela disse que o YouTube quer oferecer uma ampla gama de opiniões, com os usuários escolhendo o que quer ver, mas estava preocupada, e disse que acha que essas mudanças nas políticas e nas recomendações farão a diferença.

Instagram e Facebook

Dois executivos do Facebook conversaram sobre como o Facebook, em particular o Instagram, estava lidando com as críticas.

Adam Mosseri, que chefia o Instagram, disse que estamos vendo "uma mudança de paradigma em direção a formas mais privadas de comunicação", observando que todo o crescimento no Instagram veio de histórias e mensagens. Ele observou que as histórias são passageiras, enquanto o feed é melhor se você quiser coisas que estão por aí para sempre. Ele observou que as histórias não são sobre "mensagens de utilidade", mas sobre "iniciantes em conversação".

Mosseri disse que a empresa tem "muitos debates acalorados", pois há uma tensão real entre privacidade e segurança. Ele disse: "Colocamos em jogo que as mensagens deveriam ser absolutamente privadas", mas concordamos que a empresa precisa de tempo para trabalhar e tempo para descobrir soluções alternativas de segurança.

Andrew Bosworth, que supervisiona a realidade artificial, a realidade virtual e outros projetos avançados do Facebook, observou que privacidade às vezes significa privacidade do Facebook, mas outros querem privacidade do governo ou do dispositivo. Historicamente, ele disse que a privacidade no Facebook significa controle sobre os dados e quem pode vê-los. Mas ele observou que está ocorrendo de maneiras diferentes e disse que "a conversa global não terá uma resposta", pois mercados diferentes têm visões diferentes de controle do governo versus segurança.

Questionado por Casey Newton, da Verge , sobre se quebrar o Facebook e tornar o Instagram uma empresa separada seria bom, Mosseri disse: "isso pode facilitar muito a minha vida e provavelmente seria benéfico para mim como indivíduo, mas Eu apenas acho que é uma péssima ideia ". Ele disse que em questões como integridade eleitoral e discurso de ódio, apenas tornaria exponencialmente mais difícil para o Instagram manter seus usuários seguros. Ele disse que originalmente prometeu manter o Instagram independente do Facebook, mas quebrou essa promessa no que diz respeito aos recursos de segurança, porque o Facebook tem mais pessoas trabalhando em segurança e integridade do que o número total de pessoas que trabalham no Instagram.

Mosseri disse que é fundamentalmente saudável passar pelo pedido de prestação de contas, e o Facebook cometeu um erro ao não se concentrar atentamente nas consequências não intencionais nos primeiros anos. "Precisamos fazer mais para nutrir e cultivar o bem e resolver o mal", disse ele.

Bosworth disse que, quando um site é pequeno, todo o conteúdo pode ser revisado, embora isso nos traga preocupações com a privacidade. Quando fica maior, você não pode revisar manualmente todo o conteúdo, mas obtém mais recursos e uma "economia de escala". Ele concordou que o Facebook estava "massivamente atrasado", mas disse que a empresa estava investindo maciçamente, dizendo que achava um problema solucionável e que a empresa estava trabalhando em soluções técnicas e com reguladores sobre como responder. Você não se aproxima de resolvê-los dividindo-se em equipes e dando a cada equipe menos recursos, acrescentou.

Questionado se o Facebook não pode resolver esses problemas porque oferece serviços suportados por anúncios, disse Bosworth, "nos custa muito mais ter algum desse conteúdo marginal na plataforma". Ele disse que o Facebook tinha dezenas de milhares de pessoas revisando conteúdo. Se a empresa fosse cruel e se livrasse de todo discurso controverso, ele disse, isso seria mais eficaz.

Mosseri disse que devemos ter orgulho de poder usar esse serviço gratuitamente. A empresa disse que a publicidade é o que permite que a empresa forneça isso, e é paga principalmente por pessoas que podem pagar. Se você corta a publicidade, você corta as pessoas.

Uma mudança que o Instagram está testando está ocultando "curtidas" no sistema. Mosseri disse que não queremos que o Instagram seja "um ambiente pressurizado" e observa como os gostos podem ser competição. Ele era otimista em fazer gostos e contas pessoais, mas disse que é apenas um experimento.

Mosseri também falou sobre o dispositivo Portal da empresa, que ele disse especificamente "deixou a funcionalidade da mesa", eliminando a gravação de conversas. Ele disse que estamos vendo uma nova geração de hardware com alto-falantes inteligentes, mas que o Facebook quer garantir que "a conexão humana seja um uso primordial", mas com a privacidade incorporada.

Bosworth observou que o Facebook vê a VR como "uma oportunidade de ir mais fundo" e tem experiências significativas mesmo quando você não pode estar lá

Twitter

Dois executivos do Twitter abordaram questões semelhantes, confrontando a alegação do co-presidente da conferência, Kara Swisher, de que a plataforma é uma "fossa" construída sobre pessoas que podem dizer o que quiserem e depois dizer coisas terríveis.

O Twitter é "fundamentalmente baseado em deixar as pessoas falarem em público", disse Kayvon Beykpour, líder de produto. Ele disse que o objetivo do site é "servir à conversa pública", que "ajuda as pessoas a aprender, ajuda as pessoas a resolver problemas e ajuda as pessoas a perceber que nós estamos juntos nisso. "Esse é o ponto de partida, mas ele disse que há uma" crise existencial "porque, se a conversa não for saudável, as pessoas não vão querer participar.

Beykpour observou que a maioria das pessoas no Twitter não tem grandes plataformas, mas sim dezenas ou centenas de seguidores, e que as pessoas usam o serviço para encontrar pessoas que têm interesses semelhantes.

Vijaya Gadde, que é a líder legal, de políticas públicas e de segurança do Twitter, disse que a empresa originalmente defendia a liberdade de expressão, mas agora estava mais ciente do impacto que estamos tendo. Ela disse que a empresa tem uma estrutura política focada em direitos humanos fundamentais, como segurança e liberdade de expressão.

Ela observou que a empresa agora estava lidando com falta de confiança e desinformação na plataforma. Em abril, no contexto de eleições na Índia e na Europa, ela disse que a empresa lançou novas políticas destinadas a conter as informações erradas sobre como se registrar para votar ou onde votar. Ela disse que ainda era um processo de aprendizado, observando, por exemplo, que algumas piadas foram excluídas. Em outras áreas, ela disse que, se você procurar informações sobre vacinas, será direcionado para fontes confiáveis. O objetivo é principalmente evitar "danos offline" às ​​pessoas.

Gadde observou que o Twitter tem uma "preferência histórica de não ser árbitro da verdade", mas admitiu que é difícil fazer isso em escala. Em vez disso, ela disse, a empresa estava tentando ampliar o conteúdo que vem de fontes respeitáveis. Com o tempo, ela disse, a empresa terá que fazer mais e disse que estava observando o que outras plataformas estão fazendo.

Beykpour disse que, historicamente, o Twitter "girou demais" ao tentar resolver por meio de políticas e aplicação, e não por produtos e tecnologia. Ele disse que a empresa fez progressos em questões de saúde e fará mais. Ele observou que a empresa acaba de lançar uma nova política simplificada que era mais fácil de ler e isso permitiria uma melhor aplicação. Atualmente, ele disse, 40% dos tweets das "ações" da empresa são feitos de forma proativa, em oposição a reclamações.

Ele disse que a empresa está des-amplificando o conteúdo e que novas políticas reduziram a quantidade de abusos relatados em 45%; e o número de bloqueios de conta em 30%. Além disso, ele observou que a empresa agora desafia e bloqueia mais logins para tentar impedir a inscrição de contas mal-intencionadas; mas ainda enfrenta problemas como adivinhação de senha bruta.

Questionado sobre os temores de que as plataformas de mídia social estejam levando a uma radicalização crescente, Gadde admitiu que era uma preocupação. "Eu acho que existe conteúdo no Twitter e todas as plataformas que contribuem para a radicalização", disse ela. Mas ela acrescentou que a empresa possui muitos mecanismos e políticas para combater isso. Ela disse que 90% de todo o conteúdo de terrorismo é retirado imediatamente e baniu 110 grupos extremistas violentos.

Gadde disse que as regras do Twitter "são um documento vivo", com novas pesquisas respondendo a novos danos, aconselhando a empresa se há mais do que podemos fazer. Ela observou que "coisas ruins acontecem em plataformas privadas" também. Como o Twitter é completamente aberto, ela disse, todos podem ver e responder. Mas ela observou que ser aberto pode ser uma desvantagem, pois oferece às pessoas uma plataforma. Ela disse que a empresa estava tentando encontrar o equilíbrio certo entre o interesse público e a capacidade de visualizar e responder e os problemas que o conteúdo poderia causar. Ela observou que a empresa precisa trabalhar em soluções globais, já que 80% de seus usuários não estavam nos EUA.

Ela falou sobre a importância da transparência e foi muito clara sobre quais são as regras. Mas ela também mencionou a notoriedade do conteúdo, observando que, com figuras públicas, mesmo que o Twitter excluísse um tweet, esse conteúdo chamaria atenção.

Em resposta a uma pergunta da audiência, Gadde disse que o Twitter estava "muito, muito focado na radicalização", dizendo que se você reivindica uma associação com grupos extremistas violentos, não pode estar no Twitter. Mas ela disse que a empresa tem trabalho a fazer para entender como fazer mais, e que mudanças virão. Respondendo a outra pergunta sobre abuso direcionado a mulheres, ela disse que permitir que o Twitter seja mais proativo fará uma grande diferença. Mas ela disse estar preocupada com o silenciamento de vozes, principalmente as de grupos minoritários e mulheres.

Beykpour disse que uma solução possível era dar aos clientes mais controle sobre como eles podem se sentir mais seguros na plataforma, como dar aos autores a capacidade de moderar respostas em um segmento de conversa. Ele também falou sobre novos tipos de conversas, observando que o Twitter atual é basicamente apenas Tweets públicos que vivem para sempre e direcionam mensagens. Ele observou que, no meio, a empresa não apóia - mas está considerando - coisas como uma conversa pública que pode ser limitada a quatro pessoas.

Médio

Ev Williams, CEO da Medium e cofundador do Blogger e do Twitter, concentrou-se mais no Medium, um serviço de assinatura que, segundo ele, está crescendo em um ritmo saudável, mas não dá números. Ele disse que as pessoas se inscrevem no serviço para obter idéias e perspectivas, em tópicos de saúde, JavaScript e escrita literária.

Ele discutiu como a agregação de conteúdo pode ser importante. Ele disse que é "muito otimista em assinaturas de conteúdo editorial", mas que pode ser difícil para muitos sites. "Não assinamos programas de TV ou artistas de música individualmente". Em vez disso, com o Medium, ele está tentando criar uma plataforma que inclua sites próprios e operados, além da diversidade de outros sites. Ele disse que o Medium tem centenas de milhares de pessoas escrevendo todo mês.

Ele estava convencido de que o conteúdo agregado terá sucesso e disse que não havia concorrentes diretos, embora qualquer site que possua uma assinatura e algo como o Apple News + com seu pacote de revistas concorra.

Williams disse que as políticas do Medium mudaram com o tempo e que sua moderação de conteúdo agora é "bastante agressiva" no que está disposto a derrubar. No Medium, ele disse, "tudo o que recomendamos é primeiro aprovado por um ser humano". Ele reconheceu que isso significa que o site nunca será tão grande quanto as mídias sociais, mas ele disse que a "troca de valor" da empresa que coloca seu conteúdo em um curador, mas atrás de um paywall, será escalável.

Embora ele tenha se concentrado no Medium, Williams discutiu mídias sociais e blogs. Ele disse que sente falta dos blogs, como algo entre pensamentos extremamente casuais nas mídias sociais e artigos longos. Ele disse que, nos blogs, as coisas podem "marinar" em oposição ao "vício em feedback de curto prazo que é prejudicial ao pensamento".

O problema, ele disse, é que "o feedback instantâneo provavelmente é confuso para conversas saudáveis". Ele observou que as pessoas ficam viciadas em feedback de curto prazo, como a exibição pública de seguidores ou curtidas em um post. Ele disse que é impossível viver naquele ambiente e não mudar seu comportamento. Outros sistemas com feedback mais lento, como boletins ou podcasts, permitem mais contexto e melhores conversas, afirmou. "Se cada comunicação tiver que ser independente, você perde a capacidade de se aprofundar", disse ele.

Ele disse que a conversa política é "mais barulhenta do que nunca" e isso dificulta, mesmo se você quiser ouvir muitas perspectivas. Mas ele disse que existem pontos positivos.

"A razão pela qual fiquei empolgado com a web em primeiro lugar é que pensei que isso nos tornaria mais inteligentes", disse Williams. Ele achava que, se as pessoas pudessem divulgar idéias, o mundo faria escolhas mais inteligentes. Mas ele disse que não foi assim por causa de sistemas e incentivos de feedback. "Parte disso é o limite do tempo de atenção humana", disse ele, observando que mais informações não nos tornam mais inteligentes se não soubermos digeri-la ou contextualizá-la, principalmente se houver indústrias tentando fazer você comprar coisas.

Essa é uma das razões pelas quais ele começou a trabalhar no Medium há 7 anos. Ele observou que, com um serviço de assinatura, os clientes estão pagando, então você precisa criar um produto pelo qual alguém considere valioso o suficiente para pagar. Ele disse que isso era melhor do que a publicidade, focada em quão barato você pode obter a atenção de alguém.

Um painel de críticos

Obviamente, as grandes plataformas também tiveram muitos críticos no show. Em particular, um painel incluiu Nicole Wong, ex-vice-diretora de tecnologia dos EUA e ex-vice-assessora geral do Google; Jessica Powell, ex-vice-presidente de comunicações do Google e autora de The Big Disruption ; e Antonio García Martínez, ex-Facebook e autor de Chaos Monkeys.

"Esses não são problemas novos, eles estão lá desde o início", disse Powell, observando que se preocupa com "consequências não intencionais" e que o monitoramento de conteúdo é difícil. Ela disse que é ótimo que as plataformas estejam tendo políticas mais rígidas ", mas deveriam ter estado lá muito antes".

Wong observou que, na primeira era da Internet, "estávamos construindo tecnologia e pensando em mudar o mundo para sempre". Ela disse que isso é incrível e ainda existe, e que as pessoas em tecnologia estão lá para fazer o bem. Mas ela disse que as pessoas têm preguiça de não reconhecer que a tecnologia não é inerentemente boa. Ela disse que agora sabemos como é ver uma "internet armada" e precisamos criar sistemas para dar conta disso. "Ninguém nos deve uma internet aberta e gratuita projetada para o nosso bem, e temos que construir isso".

García Martínez disse que se alguém vai regular o discurso no Facebook, deve ser o governo. "Uma democracia é a estrutura em que você obtém responsabilidade, não uma corporação", disse ele. Mas ele disse que achava que o Facebook deveria ser dividido de qualquer maneira, com o Instagram e o What's App separados, dizendo que se você elevar a fasquia da moderação de conteúdo, poderá obter uma vantagem competitiva.

Powell disse que havia um argumento credível de que, se você tiver mais dados, poderá treinar melhor os modelos de IA, para que precise de menos moderação humana. Mas ela sugeriu que o setor pudesse criar uma maneira de reunir informações para todos os participantes, dizendo que isso já é feito para a exploração infantil e que devemos ser capazes de descobrir como fazê-lo para o bullying. No geral, ela disse que qualquer regulamentação precisa abordar questões de controle e transparência, dizendo que é errado que uma startup hoje tenha que se preocupar com o caminho a ser adquirido.

García Martínez disse que sempre há uma troca entre privacidade, conveniência e segurança e disse que tudo bem se você souber quais trocas você está fazendo. Mas ele sugeriu se livrar de agregadores de dados de terceiros.

Em outra sessão, o comediante e crítico Baratunde Thurston promoveu sua própria plataforma de "nove maneiras de não estragar o futuro". Esses itens incluem pontuações de transparência e confiança, alterando o padrão para o fechamento de conversas; e propriedade e portabilidade dos dados. Mas ele recebeu mais atenção ao descrever o Facebook como um "serviço de desculpas baseado em nuvem" que oferece "Desculpas como um serviço".

Além disso, o professor Scott Galloway, da NYU Stern, conhecido por seu livro Os Quatro: O DNA Oculto da Amazon, Apple, Facebook e Google , fez várias previsões para o próximo ano. Incluídas nessas previsões, um funcionário sênior do Facebook será preso e detido em solo estrangeiro e que haverá mais regulamentação das grandes empresas de tecnologia. Ele disse que acha que, por meio de cisões e separações, a Big Tech agregará mais valor do que a capitalização total da Boeing e Airbus nos próximos seis meses.

Conferência de código: executivos do youtube, facebook e twitter sobre redução de conteúdo ruim