A manhã desta quinta (23/09) foi dedicada ao debate sobre ética no uso de dados para políticas públicas de saúde e para pesquisas científicas. A primeira mesa do dia no seminário virtual “LGPD na Saúde”, realizado pelo Conselho Nacional de Saúde (CNS) e Fundação Oswaldo Cruz (Fiocruz), discutiu a coleta de informações anônimas como estratégia de privacidade e confidenciabilidade dos dados de saúde dos cidadãos. O debate foi mediado por Renata Mielli, representante do Fórum Nacional pela Democratização da Comunicação (FNDC) e da Coalizão Direitos na Rede.
Para Bruno Bioni, fundador do DataPrivacy Brasil, “é impossível você ter um banco de dados 100% anonimizado e 100% útil”. Ele explicou que o processo de anonimização é reversível e acrescentou que se o esforço para reverter o processo for razoável, este banco se caracteriza como “pseudoanonimizado” e deve ser considerado de dados pessoais, conforme a própria Lei Geral de Proteção de Dados (LGPD). O pesquisador ainda alertou que este processo de análise deve ser contínuo, em função do avanço constante de tecnologias.
Já Fernando Augusto Bozza, pesquisador titular da Fiocruz, partiu da experiência atual da pandemia no Brasil para refletir sobre as possibilidades de manutenção da privacidade e confidencialidade dos dados de saúde no cenário pós-Covid. Bozza apresentou diferentes pesquisas, realizadas com dados anonimizados, pseudoanonimizados e com dados individualizados, incidindo de diferentes maneiras no estabelecimento de estratégias e políticas de saúde. Para ele, o desafio é constituir sistemas de saúde resilientes, preparados para crises, considerando desigualdades e iniquidades, sempre no sentido de garantir acesso a todos e todas ao direito à saúde.
Racismo algorítmico
Primeiro debatedor da mesa sobre racismo algorítmico, Alexandre Chiavegatto Filho, da Faculdade de Saúde Pública da Universidade de São Paulo (USP), afirmou que “algoritmo em si não cria preconceitos, mas pode repetir preconceitos”, uma vez que aprende com as decisões de seres humanos. Sua proposta é superar decisões com base em preconceitos por meio da inteligência artificial, o que exige maior presença de mulheres e pessoas negras na elaboração de estratégias de treinamento de algoritmos por processos de aprendizado de máquinas (em inglês, machine learning).
“Trabalho publicado em junho deste ano por pesquisadores da Universidade de Chicago descobriu que os algoritmos utilizados em bancos de dados de pacientes podem causar danos em pacientes de etnias minorizadas”, denunciou o jornalista e doutor em Comunicação Paulo Victor de Melo. Ele explicou que o algoritmo se baseava em previsões de custo para medir os cuidados em saúde, identificando pacientes negros e negras como uma pequena parcela do total.
Entretanto, ao mudar a análise para o risco da doença ao invés do parâmetro econômico, a situação se invertia. Paulo Victor relatou alguns casos, ressaltou o fato da violência obstétrica no Brasil ser maior contra mulheres negras e alertou que o estabelecimento de parâmetros econômicos em sociedades com desigualdades históricas como a nossa configura prática racista.
Listadas as contradições entre o racismo e o machismo estruturais e o uso de inteligência artificial, a mesa caminhou para o debate sobre regulamentação com a professora em Direito e Tecnologia Bianca Kremer. A advogada afirmou, com base nas elaborações de Silvio Almeida, que o Direito serviu para legitimar o racismo estrutural, mas pode ser também ferramenta de combate a essas mesmas violências, ressaltando que há obstáculos.
A exemplo da opacidade algorítmica e dificuldade de treinamento dessas tecnologias, além da “intencionalidade ou o silêncio eloquente das dinâmicas de poder presentes nos institutos jurídicos”, os quais seguem replicando lógicas que reforçam as desigualdades e iniquidades na nossa estrutura social. Claudio de Farias, professor na área de Informática da Universidade Federal do Rio de Janeiro (UFRJ), e Maria da Conceição Silva, conselheira nacional de Saúde representante da União de Negros pela Igualdade (Unegro), mediaram o debate sobre o tema.
Comitês de ética e LGPD
A última mesa do período da manhã foi protagonizada por Bethânia Almeida, do Centro de Integração de Dados e Conhecimentos para Saúde da Fiocruz Bahia. Ela ressaltou que “a crescente produção e uso de dados em um mundo cada vez mais digitalizado no contexto do Big Data e da Ciência Aberta fez emergir novas formas de produção de conhecimento”. Ela apresentou algumas experiências no campo da ciência aberta, explicando que há diferentes formas de acesso a dados, considerando questões éticas e de pesquisa, destacando o Grupo Nacional da RDA no Brasil (Research Data Alliance).
A representante da Fiocruz salientou que pesquisas que envolvem seres humanos tradicionalmente utilizam dados sensíveis, de forma que a gestão de dados para garantir proteções estabelecidas pela LGPD exige “infraestrutura adequada, pessoal especializado e governança de dados” na instituição que os processa. Por fim, discutiu os desafios do Sistema CEP/Conep, vinculado à Comissão Nacional de Ética em Pesquisa (Conep), do CNS, que reúne os comitês de ética em pesquisa do país, em termos de adequações da ética em pesquisa que envolve seres humanos às definições da LGPD. Jorge Venâncio, coordenador da Conep/CNS, e Francisco Pedroza, da Universidade Federal da Bahia (UFBA), também participaram do debate.
- Saiba mais sobre o evento
- Assista o debate da Mesa 5 na íntegra
- Assista o debate da Mesa 6 na íntegra
- Assista ao debate da Mesa 7 na íntegra
Foto: Freepik
Por Luana Meneguelli Bonone
Colaboradora da Ascom CNS e Ascom Fiocruz