Texto e foto de Lana Novais

Bauru, 21/08/2024. Essa foi uma das falas ditas por Marcelo Sabbatini, pesquisador da Universidade Federal de Pernambuco (UFPE), citando o amigo Sérgio Amadeu, durante sua apresentação no XVII Congresso Latino-Americano de Comunicação, o ALAIC, que este ano está ocorrendo na Universidade Estadual Paulista (UNESP), do câmpus de Bauru.

Em conjunto com Marcelo, a pesquisadora da Faculdade de Ciências Humanas (ESUDA), Betania Maciel, apresentou uma pesquisa sobre o tema “A face feminina da Inteligência Artificial: um olhar crítico sobre a representação de gênero em ferramentas de geração de imagens”.

Durante sua apresentação, os pesquisadores disseram ter escolhido esse tema por suspeitarem da presença de um viés de gênero presente em ferramentas geradoras de imagens. Para eles, as IAs podem ser consideradas disseminadoras de problemáticas existentes na sociedade envolvendo a discriminação de gênero, principalmente por serem alimentadas constantemente com dados e algoritmos. Para Marcelo, isso reforça estereótipos e evidencia outros problemas.

 Para Betania, olhar para essas inteligências é olhar para a própria sociedade que a consome e também a alimenta, é entender de que forma ela enxerga diferentes gêneros, principalmente o feminino. “Qual a imagem que a sociedade tem da mulher?”.

Com intuito de desenvolver o tema, a metodologia implementada pelos pesquisadores foi utilizar uma breve descrição em inglês, buscando ser a mais neutra possível, solicitando para a I.A que ela gerasse diferentes profissionais em dez categorias diferentes. As inteligências utilizadas foram a DALL- E, a Microsoft Design e a DeviantArt Dream Up.

Betania Maciel e Marcelo Sabbatini em sua apresentação de pesquisa

Após analisarem as imagens, foi possível notar que em todas as ferramentas utilizadas, o número de mulheres representadas era bem menor que o de homens. Além disso, Betania e Marcelo afirmam que também foi possível identificar a presença de vieses de gênero em profissões que envolviam liderança e controle, sendo elas, majoritariamente representadas como figuras masculinas, enquanto em profissões atreladas ao cuidado, como enfermagem por exemplo, a representação era associada ao feminino.

Tendo em vista os resultados encontrados, os pesquisadores afirmam que há a  presença de uma base de dados que incorpora e acrescenta, nos sistemas de funcionamento desses programas, perspectivas discriminatórias repletas de estereótipos. Para os pesquisadores, é necessário repensar dados de treinamento, para se desenvolver uma Inteligência Artificial  mais inclusiva e ética.

Deixe um comentário