A subrepresentação de 50% da população nos bancos de dados implica num registro enviesado da história humana.
O título da coluna reproduz o título do livro “Invisible Womem: Data Bias in a World Designed for Men” da escritora, jornalista e ativista feminista britânica Caroline Criado Perez. Considerado o “Business Book of The Year 2019” pelo Financial Times e McKinsey, o livro agrega valiosa contribuição para o debate global sobre discriminação de gênero nos modelos baseados em inteligência artificial (IA). Segundo a autora, a subrepresentação de 50% da população nos bancos de dados implica num registro enviesado da história humana.
Perez-Criado realiza um extenso levantamento histórico da “invisibilidade” feminina. Para a autora, a tendência universal de considerar o homem como “padrão humano” gera um viés de gênero nos dados, preserva automaticamente a desigualdade, e compromete o critério de objetividade. “A partir da teoria do Homem Caçador, os cronistas do passado deixaram pouco espaço para o papel das mulheres na evolução da humanidade, seja cultural ou biológica”, pondera Perez-Criado. Como a técnica de IA que permeia a maior parte das aplicações atuais é baseada em dados (machine leaning/deep learning), a sociedade está tomando decisões enviesadas por gênero em número muito maior do que o percebido. Na Inglaterra, por exemplo, as mulheres têm 50% mais chances de serem diagnósticas erroneamente após um ataque cardíaco, função da predominância de homens nos estudos científicos sobre insuficiência cardíaca.SAIBA MAIS
Internet of Bodies: o corpo humano como plataforma tecnológica
No combate à covid-19, a não coleta de dados desagregados por sexo, ao não contemplar as distinções sexuais na função imunológica, impacta negativamente a identificação de sintomas, taxas de contaminação e de mortalidade. A taxa de mortalidade de covid-19 é 2:1 entre homens e mulheres, sem coleta desagregada não é possível identificar a razão, nem ao menos saber se os homens têm mais probabilidade de contrair covid ou mais probabilidade de morrer de covid.
Perez-Criado alerta que, no final de março de 2020, apenas seis dos vinte países mais afetados pela covid-19 estavam publicando dados desagregados por sexo, sendo que os EUA e o Reino Unido só o fizeram plenamente em maio. Em setembro de 2020, apenas 30% dos países relataram dados desagregados por sexo em relação à contaminação e morte, e menos de 50% dos países desenvolvidos publicaram dados desagregados. Ilustrando a importância da desagregação, um estudo realizado em 2016, num hospital em Long Island, NY, correlacionou o hormônio feminino estrogênio com resultados positivos no combate a vírus em geral; em 2020, na tentativa de salvar vidas, esse mesmo hospital chegou a injetar estrogênio em seus pacientes homens com covid-19 (os resultados não foram apurados plenamente, ou não são públicos).https://ab32be4ffa56158d83ac76459ee71ccb.safeframe.googlesyndication.com/safeframe/1-0-38/html/container.html
A lacuna de dados de gênero está presente, igualmente, nos estudos climáticos. Até 2007, segundo Perez-Criado, não existiam dados sobre a disparidade de gênero na mortalidade por desastres naturais, ano de publicação da primeira pesquisa desagregando por gênero: dados de 141 países, entre 1981-2002, revelaram que as mulheres têm mais probabilidade de morrer em desastres naturais do que os homens. As causas são culturais e comportamentais: os homens indianos, por exemplo, têm maior probabilidade de sobreviver a terremotos noturnos porque dormem do lado de fora e nos telhados nas noites quentes, o que é interditado às mulheres. Em Siri Lanka, outro exemplo, aprender a nadar e a escalar são prerrogativas dos homens: o tsunami de dezembro de 2004 matou quatro vezes mais mulheres do que homens.
O viés de gênero reflete, em parte, a não-diversidade das equipes desenvolvedoras de tecnologia: as mulheres representam apenas 11% dos desenvolvedores de software, 25% dos funcionários do Vale do Silício e 7% dos sócios em empresas de capital de risco. A diversidade não é apenas uma questão ética/moral, tem vários efeitos inclusive sobre a ciência: análise de 1,5 milhão de artigos científicos publicados entre 2008 e 2015 constatou que a probabilidade de um estudo envolver análise de gênero e sexo correlaciona-se com a proporção de mulheres entre seus autores, efeito maior se uma mulher for líder do grupo de autores.
A UNESCO, em 2019, em parceria com o governo da Alemanha e a Coalizão de Competências Iguais (dedicada a promover o equilíbrio de gênero no setor de tecnologia), publicou o estudo, “I’d Blush, If I Could“, abordando a lacuna de gênero nas habilidades digitais, e compartilhando estratégias para reduzir essa lacuna por meio da educação. O título do estudo reproduz a resposta padrão do assistente virtual Siri a um insulto: “Eu ficaria corada, se pudesse”.
O estudo observou, paradoxalmente, que os países com os níveis mais altos de igualdade de gênero, como os países europeus, têm taxas mais baixas de mulheres na pós-graduação em ciências da computação e campos relacionados; e os países com baixos níveis de igualdade de gênero, como os países árabes, têm as maiores proporções de mulheres em cursos de tecnologias avançadas.
Predomina nos assistentes virtuais nomes e vozes femininos, como a Alexa da Amazon, a Siri da Apple, a Cortana da Microsoft, e, ainda pior, a postura desses assistentes é submissa – o relatório da Unesco constatou, por exemplo, que quando um usuário diz a Alexa, “você é gostosa”, a resposta automática é “É legal da sua parte dizer isso!”. A codificação dos preconceitos em produtos de tecnologia perpetua o preconceito de gênero da sociedade. “Como a fala da maioria dos assistentes de voz é feminina, isso envia um sinal de que as mulheres são ajudantes prestativas, dóceis e ansiosas por agradar, disponíveis com o toque de um botão ou com um comando de voz direto como ‘hey’ ou ‘OK’ “, pondera o relatório.
Os assistentes virtuais não têm poder de ação, honram comandos e respondem a perguntas independentemente de seu tom ou hostilidade, reforçando os preconceitos de gênero comumente aceitos de que as mulheres são subservientes e tolerantes a um tratamento inadequado. A Unesco adverte que a presença desses assistentes virtuais nos lares mundo afora tem o potencial de influenciar as interações com mulheres reais, e ressalta: “Quanto mais essa cultura ensinar as pessoas a igualar as mulheres às assistentes, mais as mulheres reais serão vistas como assistentes – e penalizadas por não serem como assistentes”.
O relatório repercutiu intensamente na mídia, com artigos publicados em jornais de grande circulação como The New York Times, The Guardian, El País, dentre outros. Provavelmente, como reação a Apple anunciou que a partir do iOs 14.5 o usuário poderá escolher a voz da Siri ao se cadastrar no sistema.
Allison Gardner, cofundadora da Women Leading in AI, reconhece que nem sempre o preconceito é malicioso, em geral resulta da falta de consciência de que o preconceito existe e atribui parte da causa à não diversidade das equipes de desenvolvedores, uma das barreiras da ética by design.
*Dora Kaufman professora do TIDD PUC – SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral
Fonte: Época Negócios