A minha rica saúde
Ao fazer compras online ou ao pôr um “like” no Facebook, expomos a nossa identidade e privacidade a uma reserva gigantesca de dados. Sim, há aí um enorme potencial para a humanidade. Mas há também uma série de ameaças para as quais temos de estar atentos. Quarto de uma série de dez textos sobre os riscos da “revolução digital”.
As pressões sobre os sistemas de saúde são várias e frequentemente deparamo-nos com falta de pessoal médico especializado e longos tempos de espera. Será que a ciência de dados e a inteligência artificial podem ajudar? A resposta é o clássico “sim, mas…”
Os dados de saúde que podem ser facilmente recolhidos em formato digital são múltiplos e o modo como a tecnologia pode melhorar a nossa saúde passa também por vários níveis. Primeiro, a centralização de dados permite que o nosso historial médico seja imediatamente acessível se, por exemplo, chegarmos inconscientes a um serviço de urgência. Estes dados podem incluir alergias a medicamentos, boletim de vacinas, exames ou até a sequência do nosso genoma. Segundo, existe um grande potencial para a utilização de de sensores quer fixos (como câmaras), quer portáteis (como telemóveis), quer “vestíveis” (wearables, como smart watches) que medem um sem número de sinais, desde o número de passos que damos, ao ritmo do nosso coração, ou ao número de horas que dormimos. Existem também aplicações que nos permitem gravar o que comemos de modo a regular a nossa dieta, outras que seguem a gravidez. Estes sensores, que fazem parte da chamada internet das coisas médicas, podem também lembrar-nos quando tomar medicação (ou dar-nos essa medicação automaticamente, como no caso das bombas de insulina para diabéticos). Serão, no futuro, indispensáveis na prevenção, diagnóstico e tratamento atempado de doenças. Num terceiro nível, mais complexo, existem ferramentas de diagnóstico que analisam imagens de raio-X, fotografias de lesões de pele, ecografias, sequências de ADN, entre muitos outros dados de diagnóstico, e sugerem ao médico se o doente tem ou não um problema. Ao nível terapêutico existem também novidades muito promissoras como os robots que servem de companhia e encorajam a socialização.
Finalmente, conseguem-se extrair dados epidemiológicos a partir do tipo de pesquisas que são feitas na internet e estados de saúde individuais do que é escrito (ou do que não é escrito) nas redes sociais. Esta informação, dada muitas vezes de forma inconsciente, permite inferir estados depressivos, obesidade ou até estudar possíveis efeitos secundários de medicamentos.
Mais do que isso, estes algoritmos são capazes de integrar informação de múltiplas fontes de um modo quase instantâneo. Robots poderão eventualmente evoluir para máquinas de diagnóstico automático, substituindo ou apoiando de forma cada vez mais profunda os médicos. Num mundo em que a procura de profissionais de saúde excede a oferta, principalmente nos países em desenvolvimento, esta pode ser a única maneira de todos termos acesso a saúde de qualidade.
No entanto, toda esta informação é talvez a mais íntima que pode existir. O que pode ser feito com ela? Isto leva-nos ao “mas”.
A principal questão que se coloca é quem tem (ou deve ter) acesso a estes dados. Se estivermos a falar de dados de diagnóstico nas mãos dos hospitais e profissionais de saúde, o problema não é diferente do atual. Embora tenham havido alguns problemas, existem várias maneiras de assegurar a anonimização e a segurança dos dados. Neste caso, o importante é que todas as entidades, especialmente as governamentais, conheçam os riscos e a necessidade de absoluta anonimização da informação e a garantam.
O problema maior está nos dados dispersos por várias plataformas, como é o caso dos telemóveis, ou dados que podem não ser considerados sensíveis, como pesquisas no Google. Conforme descrito em cima, quando usamos o Google para procurar os nossos sintomas, estamos a dar uma indicação de possíveis doenças que temos. Esta informação é atualmente usada para fazer epidemiologia digital, quer pela própria Google, quer por cientistas. Por exemplo, o grupo de investigação que coordena esta série de artigos, no qual me incluo, usou pesquisas no Google e dados anonimizados de chamadas telefónicas para a linha SNS24 para estimar com maior antecedência quando começa a época da gripe. Esta informação é fundamental para os serviços de saúde se prepararem antecipadamente, mas também pode ser muito útil para farmacêuticas ou supermercados desenharem publicidade dirigida (a antigripais ou a sumo de laranja).
A captura de informação médica, quer a nível pessoal quer a nível populacional pode ser ainda mais subtil. Consegue-se, por exemplo, diagnosticar depressão através de posts no Facebook, ou através do modo como interagimos com o teclado. Uma companhia de seguros consegue usar esta informação para alterar o que lhe pagamos; um empregador pode excluir candidatos em função de diagnósticos feitos por inteligência artificial. E mesmo que exista legislação anti-discriminação ou de protecção de dados que limite a sua utilização não temos, neste momento, mecanismos de fiscalização que o previnam.
Ao nível do diagnóstico médico, as questões que se levantam são outras. Se houver um diagnóstico errado, quem é responsável? O médico que seguiu a recomendação do algoritmo ou o programador que o escreveu? E se soubermos que os nossos médicos estão a tomar decisões baseadas simplesmente em carregar nalguns botões no computador, vamos ter a mesma confiança neles?
Muitos destes algoritmos são “caixas negras”, mesmo para quem os programa. Isto quer dizer que aceitam dados de entrada (ex. imagens de ecografias, eletrocardiogramas e batimentos cardíacos) e devolvem um resultado (ex. risco de enfarte). Como é que aquele número foi calculado? Muitas vezes ninguém sabe.
Para além disso, e como foi explicado num artigo anterior desta série, estes sistemas de inteligência artificial baseiam-se em dados agregados de milhares ou milhões de pessoas, que tentam depois prever riscos ou comportamentos individuais. Se o algoritmo foi testado na população americana, por exemplo, qual a probabilidade de se adequar à portuguesa ou à angolana? E dentro da mesma população, será que funciona melhor para as etnias mais frequentes nessa população, simplesmente porque existe mais informação sobre estas? Isto pode levar a graves desigualdades na qualidade dos cuidados prestados. O mesmo se pode dizer das aplicações de telemóvel que nos recomendam fazer uma pausa, ou dar 10 000 passos por dia. Em que se baseiam essas recomendações? Será que são mesmo benéficas para mim, individualmente? Os algoritmos que nos dão recomendações, especialmente os da saúde, devem ser interpretáveis. Ou seja, devemos conseguir explicá-los aos utilizadores de modo a serem eles a tomar as suas decisões. Eu sei que não posso comer fast food todos os dias, mas se calhar tenho de fazê-lo de modo a ter tempo para brincar com os meus filhos. São escolhas que fazemos e que dependem de muito mais do que do impacto esperado na nossa saúde.
Isto leva-nos a uma última questão importante: as tentações de optimização não só a nível individual mas também societal. Combinando informação sobre os nossos hábitos, começam a existir aplicações que nos dão recomendações (“está na hora da sua medicação”), sensores que confirmam o nosso comportamento (“ainda não tomou a sua medicação”) e que podem facilmente evoluir para sistemas de penalização, muito tentadores para estados totalitários e com pouco respeito pelo livre arbítrio.
Mas mesmo em regimes democráticos aceitamos como sociedade que exista imposto sobre o tabaco, em parte porque fumadores serão tendencialmente mais caros ao sistema nacional de saúde. Tendo informação sobre comportamentos individuais devemos taxar mais alguém que não dê pelo menos os tais 10 000 passos por dia? Os seguros de saúde devem ser mais baratos para vegetarianos que consigam manter baixos níveis de colesterol e prová-lo dando acesso aos seus wearables? E se sim, estes sistemas não irão penalizar ainda mais famílias pobres, para quem comer bem e ter tempo para fazer desporto é um verdadeiro luxo, aumentando a desigualdade?
Mais uma vez, informação e recomendações podem ser extremamente úteis para nós (lembrando-nos que excedemos em muito a nossa dose diária de açúcar) e para os profissionais que nos acompanham, mas até que ponto desejamos que estejam fora do controlo individual e possam ser utilizados como um sistema de controlo social, ou apenas para garantir lucros maiores para as empresas que tenham acesso a eles?
Precisamos de criar mecanismos de controlo dos “mas”, minimizando-os sem que percamos as inúmeras vantagens dos “sim”. Pela nossa rica saúde.
A autora escreve segundo o novo acordo ortográfico
Esta série, às segundas-feiras, está a cargo do grupo de investigação em Data Science and Policy, da Nova School of Business and Economics (http://scienceandpolicy.eu)
Na próxima segunda-feira: “Contar o tempo ou fazer com que o tempo conte?”