YouTube preocupado com novas regras europeias. “Filtrar demasiado pode ter impacto na liberdade”
As declarações surgem duas semanas depois do jornal francês Le Point publicar documentos internos da Google em que a empresa delineava uma estratégia para “encontrar aliados” para lutar contra a legislação que Bruxelas está a preparar.
A semanas da Comissão Europeia definir novas regras para o mundo digital, a Google falou publicamente sobre as suas preocupações com as medidas na plataforma de vídeos YouTube. O maior receio da empresa (dona do YouTube) é que regras excessivas para impedir desinformação e conteúdo ofensivo de circularem possam obrigar as empresas a criar sistemas artificiais excessivamente zelosos que barrem o discurso dos utilizadores e os afastem da plataforma.
“Vimos isto a acontecer durante o começo da pandemia da covid-19 quando tivemos de enviar muitos dos nossos moderadores humanos para casa e programar as máquinas a filtrar por excesso”, alertou Marco Pancini, responsável de políticas públicas do YouTube para a região europeia, numa conversa com jornalistas europeus em que o PÚBLICO participou.
As declarações surgem duas semanas depois do jornal francês Le Point publicar documentos internos da Google em que a empresa delineava uma estratégia para “encontrar aliados” para lutar contra a legislação que Bruxelas está a preparar.
O novo Acto de Serviços Digitais, que será apresentado no começo de Dezembro, deve reformular a forma como grandes plataformas ― Facebook, YouTube, TikTok e outras ― funcionam. É a primeira grande mudança às leis do mundo digital desde 2000. O objectivo é responsabilizar as grandes tecnológicas pelo conteúdo do que é publicado online (criando sanções para empresas que demoram a remover conteúdo de ódio ou violento), barrar práticas anticoncorrenciais que impeçam pequenas empresas de crescer e obrigar as empresas a explicar o funcionamento dos seus algoritmos.
Esta quinta-feira, Pancini frisou que “o YouTube apoia a missão da Comissão Europeia criar uma Internet mais responsável”, mas que as regras devem ser flexíveis e não devem impedir “a capacidade de as plataformas inovarem”. A plataforma explica que já toma várias medidas para impedir a proliferação e a recomendação de vídeos problemáticos, nomeadamente ao impedir vídeos “no limite” (que não desrespeitam as regras, mas estão perto de o fazer) sejam partilhados e apareçam nas recomendações.
“O que nos preocupa é a possibilidade de se criarem regras excessivamente rígidas que influenciem a forma como removemos conteúdo”, sublinhou Pancini em resposta a questões do PÚBLICO.
“Coisas como definir um tempo de resposta preciso [para remover conteúdo] e deixar de falar em conteúdo ilegal para falar em conteúdo nocivo, podem obrigar as empresas a criar mecanismos para barrar conteúdo em larga escala para garantir que cumprem as regras”, explica o responsável pela política do YouTube. Obrigar as empresas a detectar e remover conteúdo terrorista em 60 minutos, por exemplo, pode levar a uma maior dependência em algoritmos de inteligência artificial, em vez de humanos que se ocupam de analisar o contexto de cada publicação.
“No YouTube, trabalhamos com vídeo. Há vídeos que usam excertos de vídeos com teorias da conspiração para falar sobre elas”, lembra Pancini. “Como vimos com a covid-19, se as máquinas estão programadas para detectar e remover mais conteúdo e mais rapidamente, o risco das máquinas se enganarem aumenta drasticamente.”
YouTube retira 7,87 milhões de vídeos em três meses
Mais de 11 milhões de vídeos foram removidos do YouTube entre Abril e Junho de 2020. O valor, que é o dobro do normal para a plataforma, coincide com o período em que muitos moderadores humanos tiveram de sair dos escritórios do YouTube devido à pandemia. Isto levou a empresa a depender mais dos sistemas automáticos, tornando-os menos flexíveis para garantir que desinformação e conteúdo ilegal não circulava. Só que isto levou a que vídeos de comentário ou crítica que mencionavam, por exemplo, teorias da conspiração, também fossem removidos. O Facebook passou por problemas semelhantes.
Entre Julho e Setembro, e com os humanos de volta à equipa, o YouTube removeu 7,87 milhões de vídeos. “O valor fora da norma são os 11 milhões”, clarifica Pancini. E repete: “levar as empresas a filtrar demasiado pode ter um impacto preocupante na liberdade de expressão.”
A Comissão Europeia, reforça, porém, que o novo Acto dos Serviços Digitais foi criado para promover a transparência. No final de Outubro, a comissária europeia da Concorrência, Margrethe Vestager, revelou a lógica por detrás de algumas das mudanças. “Quando os sistemas de recomendação escolhem quais as informações que promovem e o que escondem, afectam profundamente o que sabemos sobre o mundo. Naturalmente assumimos que as coisas que vemos primeiro são as mais importantes”, notou Vestager num discurso. “E as coisas que são escondidas, ou completamente removidas por sistemas de moderação de conteúdo ― bem, essas coisas podem muito bem não existir. Isso é uma boa notícia, claro, se estivermos a falar de conteúdo ilegal. Mas, muitas vezes, isso significa que os sistemas estão a escolher quais argumentos e ideias legítimas vemos.”
Com isto: “As [plataformas] terão de começar dizer como é que decidem a informação e produtos que recomendam e dar ao utilizador a capacidade de influenciar essas decisões”, sublinhou Vestager.
Uma versão inicial do novo Acto de Serviços Digitais deve ser apresentada em Dezembro.