É um desenvolvimento contra-corrente: usar a tecnologia para atenuar divisões, reduzir a polarização, ajudar a encontrar pontos comuns num debate, e criar consensos ou, pelo menos, posições de compromisso. Em suma, usar a tecnologia para produzir o oposto do que as tecnologias de informação têm produzido nas últimas duas décadas e a que podemos genericamente chamar o enorme dano colateral das plataformas online. 

Criar este tipo de tecnologia bem-intencionada foi o que fez recentemente um grupo de 11 investigadores da Google DeepMind, que recorreu a um sistema de IA generativa para obter textos que conciliavam diferentes pontos de vista expressos em discussões sobre temas fracturantes.

O sistema informático, concluíram os investigadores num estudo publicado na sexta-feira na Science, foi mais eficaz do que humanos a redigir textos conciliatórios e que os participantes na discussão consideravam mais justos e equilibrados. 

Os investigadores chamaram àquele sistema a Máquina de Habermas, uma referência ao filósofo alemão cujas ideias sobre a formação de opinião e a esfera pública são obrigatórias em qualquer disciplina de teorias da comunicação, como as que muitos jornalistas (incluindo o autor desta newsletter) tiveram de frequentar.

O nome é apropriado: este foi um trabalho sobretudo teórico. Não se vislumbra que a tecnologia tenha aplicação prática em breve e os próprios investigadores mostraram-se conscientes das limitações da ideia. Só por exemplo, frisaram que uma discussão entre pessoas que seja mediada e rematada por uma máquina é uma oportunidade perdida para se criarem relações pessoais entre quem discute. 

E, no entanto, a investigação não é apenas interessante do ponto de vista teórico: tem uma importante lição prática, mesmo que um chatbot não venha a ser usado já amanhã para redigir posições parlamentares, comunicados do G20 ou sequer para dirimir discussões de condomínio.

Vamos primeiro ao que a Máquina de Habermas foi capaz de fazer.

Os investigadores formaram grupos de pessoas (no total, foram cinco mil participantes, todos adultos do Reino Unido) e fizeram-nas debater questões polarizadoras: o Brexit, a imigração, a idade da reforma, as alterações climáticas, e vários outras. Entre as questões colocadas aos grupos, estavam perguntas como "Devemos baixar a idade de voto para 16 anos?" ou "Deve o Serviço Nacional de Saúde ser privatizado?".

Qualquer pessoa que tenha visto estes temas a serem aflorados num jantar já viu também o olhar imediatamente aterrado de muitos dos convivas: excepção feita aos jantares em que as pessoas se dão suficientemente bem para discutirem aos gritos sem que daí venham problemas, estes temas de conversa são hoje receita para uma noite mal passada. As discrepâncias políticas e ideológicas tornaram-se até uma questão na gestão de relações amorosas. Se passámos anos a escrever "aos berros" nas redes sociais, é difícil ganhar (ou recuperar) os hábitos de auto-controlo para uma discussão civilizada cara a cara.

Nas experiências descritas no estudo, os participantes, tipicamente em grupos de cinco pessoas, discutiam três questões sucessivas, durante cerca de uma hora. O processo era muito estruturado. Implicava que cada um começasse por escrever as respectivas posições e argumentos. Depois, num processo iterativo e de críticas mútuas, tentavam chegar a uma "declaração de grupo".

Tudo isto era mediado por uma pessoa, que tinha um incentivo financeiro para aproximar posições e produzir uma declaração final abrangente: quanto mais consensual fosse este texto, mais dinheiro recebia. O material que ia sendo produzido era também usado para alimentar um modelo de linguagem, que escrevia a sua versão da declaração de grupo.

No final, quando questionados, os participantes tendiam a preferir a versão da máquina. Além disso, havia um sentimento real de aproximação: depois de lerem os textos da IA, os participantes tendiam a sentir que tinham ficado mais próximos das posições dos outros do que quando liam os textos escritos por humanos.

Esta é uma experiência intrincada que foi aqui destilada em resumo. Mas a lição é simples e não é nova.

Há poucos anos, ficámos a saber que os funcionários das campanhas políticas nos EUA publicavam conteúdo polémico nas redes sociais porque era isso que os algoritmos recompensavam. Criar esses algoritmos foi uma escolha. Só podemos imaginar como seria o mundo se Mark Zuckerberg e companhia tivessem optado por uma qualquer versão de "algoritmos de Habermas", capazes de promover a aproximação racional na troca de ideias ou, no mínimo, capazes de mitigar a polarização. 

Essa bifurcação do caminho está ultrapassada. Mas vamos muito a tempo para tomar as opções certas em relação ao que aí vem. A ciência até prova que isso é possível. Em teoria.