A inteligência artificial contribui para a igualdade de género?

1 semana atrás 48

Portugal ocupa o 32º lugar, entre os 146 países a nível mundial, em termos de igualdade de género, tendo descido três posições face ao mesmo relatório do ano anterior. Se olharmos apenas para a Europa (não apenas União Europeia), está em 18º lugar entre 36 países analisados.

Uma dolorosa realidade certificada pelo Global Gender Gap Report do Fórum Económico Mundial, que baseia a sua classificação na presença das mulheres em setores-chave como a economia, a política, a educação e a saúde. Um deles é, obviamente, o setor da tecnologia, talvez aquele que está a ter o maior impacto na definição do nosso presente e futuro.

Se olharmos especificamente para Portugal, dados oficiais recentes sobre as pessoas matriculadas no ensino superior nas áreas de tecnologia, apenas 12% são mulheres – uma realidade que pouco ou nada se alterou em quase 40 anos com vários programas de incentivo.

A lógica é simples: num mundo moldado por um setor maioritariamente masculino – a tecnologia – será um mundo moldado por uma perspetiva predominantemente masculina.

Tomemos por exemplo uma das áreas da tecnologia que mais cresce e tem maior impacto: a inteligência artificial (IA). O potencial transformador desta tecnologia exige que garantamos que o seu desenvolvimento se realiza no quadro de um compromisso ético e de uma vocação para o bem comum. Não é possível ter uma IA ética sem uma IA igualitária.

Nos últimos anos, as principais objeções aos sistemas de IA têm estado associadas a casos de discriminação causados ​​por algoritmos tendenciosos. Há alguns anos, a Amazon teve de retirar o sistema de IA responsável por apoiar as contratações porque favorecia os homens em detrimento das mulheres.

Se perguntarmos hoje ao ChatGPT se tem preconceito de género, o próprio sistema admite que as suas respostas podem ser influenciadas por preconceitos se os dados contiverem preconceitos ou se forem feitas perguntas tendenciosas ou baseadas em informações tendenciosas.

Sem dúvida que é urgente refletir sobre os dados que capacitam e treinam os nossos sistemas. Um estudo recente do “The Guardian” mostrou como os sistemas de inteligência artificial treinados com imagens presentes nas redes sociais tendem a ‘objetificar’ os corpos e a identificar mais os corpos das mulheres do que os dos homens como conteúdos com conotações parciais ou explicitamente sexuais.

Trabalhar para uma IA igualitária requer, portanto, a análise de dados e a correção de preconceitos na fonte. Mas não só. É importante não esquecer duas outras chaves fundamentais, relacionadas com o controlo e projeto de algoritmos.

Primeiro: a IA ética requer controlo democrático, tanto por parte da sociedade civil como das instituições, o que, por sua vez, requer sistemas que sejam transparentes na sua conceção, assim como explicáveis. Hoje, a maioria dos algoritmos de Inteligência Artificial são para nós “caixas pretas” que sofrem de falta de “explicabilidade” na sua lógica e funcionamento, o que limita drasticamente o seu controlo real.

Em segundo lugar, para além dos dados, devemos também colocar-nos questões relacionadas com a conceção de sistemas de inteligência artificial, ou seja, a finalidade para a qual os sistemas foram concebidos e os possíveis usos (e abusos) que podem ser feitos.

Não devem ser descurados os temas relacionados com os dados e a forma como estes são utilizados para basear o sistema, ou ainda se são de confiança, imparciais ou estruturados de forma completa. Importa refletir, por exemplo, se existirá um mecanismo que permita compensar eventuais preconceitos de género nos dados que capacitam a tecnologia. Ou mesmo compreender qual a origem e o objetivo da criação e desenvolvimento dos algoritmos e se o sistema está orientado para o serviço geral da comunidade e para o bem comum.

São temas pertinentes e precisamos de lhes dedicar tempo, enquanto sociedade, para conseguirmos (ou tentarmos) responder à questão crucial: será que a IA está a ajudar a combater a desigualdade de género ou a perpetuá-la?

Ler artigo completo