Coded Bias, da Netflix, traz reflexão sobre a importância do respeito aos direitos humanos no uso de IA

DO TEXTO: Mas por que é importante que o governo estabeleça princípios éticos e de respeito aos direitos humanos e à diversidade para o uso de IA?
O governo federal criou, neste abril, a Estratégia Brasileira de Inteligência Artificial - EBIA - com diretrizes para guiar políticas públicas no desenvolvimento e no uso de inteligência artificial.


Por: Alexandre Resende*


O governo federal criou, neste abril, a Estratégia Brasileira de Inteligência Artificial - EBIA - com diretrizes para guiar políticas públicas no desenvolvimento e no uso de inteligência artificial. A iniciativa é do Ministério da Ciência, Tecnologia e Inovações e foi instituída pela Portaria MCTI nº 4.617, de 6 de abril de 2021. Se você está se perguntando como funcionará na prática e qual o impacto disso na sua vida, digo que ainda é muito cedo para algumas respostas, mas te convido a conhecer uma pouco mais a respeito e a refletirmos juntos sobre alguns aspectos. 


Segundo o texto publicado no Diário Oficial da União, as principais finalidades da Estratégia são: nortear as ações do país em prol do fortalecimento da pesquisa, desenvolvimento e inovações de soluções em Inteligência Artificial, bem como, seu uso ético, nos campos de equidade/não-discriminação, responsabilidade/prestação de contas e transparência para um futuro melhor; e garantir a inovação no ambiente produtivo e social na área de Inteligência Artificial, capaz de enfrentar os desafios associados ao desenvolvimento do País.


Mas por que é importante que o governo estabeleça princípios éticos e de respeito aos direitos humanos e à diversidade para o uso de IA? Para compor minha reflexão, trago alguns fatos que me chamaram atenção no excelente documentário Coded Bias, recém-lançado pela Netflix, que aborda como o uso de IA sem supervisão pode ser negativamente tendencioso com aspectos raciais e sociais, prejudicando direitos civis nos tempos atuais.


O documentário faz um levantamento sobre o viés nos algoritmos depois que a pesquisadora Joy Buolamwini, do MIT, descobriu falhas na tecnologia de reconhecimento facial. A partir daí, ela começou a se questionar se as pessoas por trás da criação dessas tecnologias incorporam seus vieses nos algoritmos. Em seu experimento, Joy testou softwares das gigantes de tecnologia dos EUA e concluiu que o reconhecimento facial funcionou melhor com rostos masculinos do que femininos e tiveram melhor desempenho com rostos claros do que escuros. Segundo ela, usamos dados para ensinar máquinas a identificar diferentes padrões, ou seja, se adotamos dados distorcidos para treinar sistemas, consequentemente, trará resultados distorcidos, uma vez que IA se baseia em dados e dados são reflexos da história, da sociedade.


Na minha opinião, se as pessoas são discriminadas, sentindo os reflexos de um certo “mau uso” da aplicação de inteligência artificial no dia a dia, no trabalho, na vida cotidiana, estes algoritmos adotados são prejudiciais, já que eles ganham muito poder quando usados na tomada de decisão. Concordam? E o que preocupa outra pesquisadora do documentário é entender quem é o dono desse código/algoritmo e se o empregarão sobre outras pessoas de forma simétrica, padronizada e tendenciosa. Ela destaca que temos que estar sempre alerta, buscando perceber vieses em qualquer processo. Eu concordo.


Vejam esse exemplo: em Londres, na Inglaterra, a polícia usa reconhecimento facial nas ruas. Quando os cidadãos passam pelas câmeras, os rostos são escaneados e o sistema alerta a polícia sobre terem possíveis relações com pessoas foragidas, após cruzar as informações com um banco de dados. Será que funciona bem?  A ONG de direitos humanos Big Brother Watch conduz uma campanha para liberdade de informação por lá, contra essas tecnologias de reconhecimento facial, e descobriu que 98% das correlações de dados identificaram erroneamente as pessoas. O documentário mostra um policial abordando um jovem negro de 14 anos que foi – mais uma – vítima de um erro do algoritmo. Fazendo alusão ao nome Coded Bias, seria um viés codificado?


Na China, já se usa o reconhecimento facial em muitos aspectos da vida: para fazer compras no supermercado, entrar no condomínio, usar o trem. Lá existe um “score de crédito social”. Eles deixam claro para o cidadão chinês que estão rastreando-o, e criticar o partido comunista, por exemplo, o afetará. O recado: você sabe que está sendo monitorado, então comporte-se. É como um treino de obediência ao algoritmo.


Nos EUA, mais de 117 milhões de pessoas têm o rosto em redes de reconhecimento facial que a polícia pode acessar de forma injustificada e com algoritmos de precisão duvidosa. Tão duvidosa que, em 25 de junho de 2020, parlamentares americanos apresentaram projeto de lei proibindo o uso federal de reconhecimento facial.


Enfim, esses exemplos ajudam a compreender como a IA já funciona em outras localidades, mas sabemos que o reconhecimento facial é uma pequena parte da imensa gama de suas utilizações. Pelo que se sabe até o momento, a EBIA se propõe a atuar em importantes áreas: Educação; Força de trabalho e capacitação; PD&I e empreendedorismo; Aplicação nos setores produtivos; Aplicação no poder público; Segurança pública.


Ainda não há legislação regulamentando os algoritmos nos EUA, nem aqui no Brasil, mas quando os códigos não tomam decisões éticas, apenas matemáticas, replicando as distorções que existem no mundo real, é preciso ficarmos de olho. Algoritmos podem propagar vieses que tanta gente luta para combater. Assim, regulamentar faz a diferença. Precisamos de lei e de frentes que nos guiem nesse caminho de priorizar e compreender nossas diferenças como indivíduos para criar sistemas mais inclusivos. E o primeiro de seis objetivos listados da EBIA é contribuir para a elaboração de princípios éticos para o desenvolvimento e uso de IA responsáveis.


Portanto, a EBIA é mais do que necessária.


*Alexandre Resende é CEO da Contact One e CIO da Sercom. 


POSTS RELACIONADOS:
Enviar um comentário

Comentários