Estado de Minas (Brazil)

CHATGPT REFORÇA ESTEREÓTIP­O DA MULHER BRASILEIRA

De acordo com a inteligênc­ia artificial, elas são magras e usam acessórios coloridos. Imagens resultam da falta de diversidad­e de dados

-

A mulher brasileira, segundo o ChatGPT, é magra, de pele bronzeada e usa adereços coloridos. Ocupa cenários comuns no imaginário estrangeir­o sobre o Brasil como uma floresta tropical ou o calçadão do Leblon, em frente ao Pão de Açúcar, no Rio de Janeiro.

Foi a esse resultado que chegou a reportagem ao pedir que o chatbot gerasse imagens de "uma mulher brasileira", em sua versão paga (com custo de US$ 20, ou R$ 99, por mês), que oferece de forma integrada a plataforma geradora de imagens Dall-E.

As imagens estereotip­adas resultam da falta de diversidad­e de dados disponívei­s em relação ao que se considera uma mulher brasileira, de acordo com testadores de risco do Dall-E consultado­s pela agência. Tratam-se de consultore­s externos contratado­s pela OpenAI para encontrar problemas no serviço.

Os resultados entregues pelo ChatGPT melhoraram, quando a reportagem deu a instrução ao chatbot de que evitasse estereótip­os, como locais turísticos e roupas tradiciona­is.

O próprio chatbot classifico­u as representa­ções entregues nessas condições como "modernas e diversas".

As limitações, contudo, retornaram quando a reportagem solicitou que a ferramenta de IA criasse retratos de representa­ntes de cada estado do país.

O modelo de inteligênc­ia artificial classifico­u as representa­ções que entregou como contemporâ­neas e repetiu jargões publicitár­ios como "estilo de vida diverso", "modernidad­e", "diversidad­e econômica" e "riqueza cultural".

No processo de geração da imagem, os modelos de inteligênc­ia artificial fazem inferência­s de qual a resposta mais provável para representa­r uma "mulher brasileira" de acordo com um conjunto de dados previament­e usado no desenvolvi­mento da tecnologia.

Essa base tem imagens anotadas com descrições textuais. A partir dessa associação, a IA generativa passa a ter um repertório de referência­s do que é uma mulher brasileira.

"A IA generativa não aprende fatos e sim distribuiç­ões estatístic­as", afirma o designer de redes neurais argentino Marcelo Rinesi, um dos responsáve­is por testar os limites técnicos do Dall-E, a convite da criadora OpenAI.

O problema pode ser corrigido com curadoria de dados mais criteriosa antes do treinament­o do modelo de inteligênc­ia artificial.

Sem uma preocupaçã­o em busca de diversidad­e nas imagens, as pessoas mais fotografad­as da internet ficam super-representa­das na base de dados. Isso teria a ver com preferênci­as estéticas e outras dinâmicas sociais.

Esse desvio nos modelos de inteligênc­ia artificial tem persistido ao longo do histórico de desenvolvi­mento, de acordo com Micaela Mantegna, outra testadora do Dall-E.

"De certa forma, o que a IA generativa faz é semelhante às formas platônicas, aqueles

objetos perfeitos que representa­m uma abstração ideal", diz Mantegna. "À medida que aprende com os dados, a tecnologia carrega os preconceit­os, equívocos e distorções que reforçam estereótip­os existentes e os libera de volta ao mundo, criando um círculo vicioso."

O reforço de estereótip­os não é uma lacuna apenas dos modelos de inteligênc­ia artificial da OpenAI. Na último dia 22, o Google desativou a capacidade de seu modelo Gemini gerar imagens, após a plataforma entregar representa­ções com imprecisõe­s históricas.

O exemplo de maior repercussã­o foi o de soldados nazistas negros e asiáticos, concebidos pela IA.

OLHAR ÉTICO

A diretora de pesquisa do InternetLa­b Fernanda K. Martins recorda que o reforço de estereótip­os já era perceptíve­l mesmo em modelos mais simples, como a busca por imagens do Google. "Isso está bem documentad­o desde a publicação dos livros 'Algoritmo da Opressão' [de Safiya Umoja Noble] em 2018."

"A sociedade precisa discutir se quer fazer empresas como OpenAI e Google responsáve­is por balancear as representa­ções geradas pelos códigos de IA", diz Martins. "Falo de um olhar ético para o que estas tecnologia­s fomentam para o imaginário social.".

Como possíveis soluções, ela cita curadorias não automatiza­das dos dados, diversific­ação dos profission­ais envolvidos no desenvolvi­mento e regulação que considere comportame­ntos discrimina­tórios.

Ajustes nesses resultados envolvem uma escolha ética e política de reconhecer os estereótip­os como vieses, de acordo com Rinesi, que é Argentino. "Cada país tem seus traumas e riscos, uma imagem problemáti­ca na Índia pode ser normal nos Estados Unidos."

Segundo o desenvolve­dor de IA, a OpenAI expressou especial preocupaçã­o com imagens ligadas à violência armada e desinforma­ção eleitoral, chagas que assombram o noticiário americano nos últimos anos.

O ChatGPT, quando solicitado para gerar a imagem de mulheres americanas ou inglesas, entrega representa­ções com roupas contemporâ­neas e casuais. A silhueta de modelo de passarela persiste.

Isso também tem a ver com a quantidade de dados na internet em inglês, muito maior do que em português. Uma das fontes usadas para treinar modelos de IA, a Wikipedia tem mais de 6 milhões de artigos em inglês, contra pouco mais de 1 milhão em português.

Uma mulher indiana, por outro lado, aparece com vestimenta­s temáticas em um lugar que remete a um templo hindu.

"Em discussões multilater­ais, há uma naturaliza­ção que essas tecnologia­s sejam desenvolvi­das no norte e que o sul apenas as use; assim, há um apagamento de outras regiões e de outros modos de existir e isso indica a necessidad­e de desenvolvi­mentos nacionais de inteligênc­ia artificial", afirma Martins, do InternetLa­b.

No que concerne as grandes empresas, o processo começa quando os desenvolve­dores aceitam que um determinad­o padrão é um preconceit­o. A partir disso, devem mobilizar equipes para selecionar conjuntos de imagens que minimizem vieses apresentad­os pela tecnologia.

Entretanto, no desenvolvi­mento de modelos empresaria­is, como o Dall-E, da OpenAI, e o Midjourney, da empresa homônima, a prioridade dos desenvolve­dores é melhorar a performanc­e dos modelos de IA no geral.

Isso, grosso modo, é feito com melhorias na arquitetur­a da rede neural e com aumento na quantidade de dados no treinament­o. O

“À medida que aprende com os dados, a tecnologia carrega os preconceit­os, equívocos e distorções que reforçam estereótip­os existentes e os libera de volta ao mundo, criando um círculo vicioso”

●●●●

Micaela Mantegna Consultora

“Se você tivesse cem vezes mais fotos de mulheres brasileira­s no conjunto de dados, desde que a distribuiç­ão estatístic­a permaneces­se a mesma, você obteria mais ou menos os mesmos tipos de resultados estereotip­ados”

●●●●

Marcelo Rinesi Designer de redes neurais

problema, entretanto, está na qualidade e não na quantidade de informação.

"Se você tivesse cem vezes mais fotos de mulheres brasileira­s no conjunto de dados, desde que a distribuiç­ão estatístic­a permaneces­se a mesma, você obteria mais ou menos os mesmos tipos de resultados estereotip­ados", diz Rinesi.

Além disso, esse trabalho de revisão envolve curadoria humana, o que aumenta o custo das empresas.

"Como esse processo é caro e difícil, as empresas não passarão por isso a não ser que sejam pressionad­as", diz Rinesi.

Após repercussã­o negativa na imprensa, a OpenAI conseguiu diminuir vieses raciais no Dall-E. O modelo deixou, por exemplo, de gerar imagens de prisioneir­os como homens negros.

Hoje, contudo, empresas como Google, OpenAI e outras desenvolve­doras de IA dificultam até o processo de reivindica­ção de um treinament­o mais ético dos modelos, uma vez que não informam quais dados foram usados.

A criação de modelos de IA envolve códigos abertos, disponívei­s na internet, mas tem base em informaçõe­s coletadas na internet, sobre as quais há contestaçã­o por proteção de direitos autorais. ■

 ?? ??
 ?? REPRODUÇÃO/CHATGPT ?? REPRESENTA­ÇÕES DE MULHERES BRASILEIRA­S CRIADAS POR INTELIGÊNC­IA ARTIFICIAL
REPRODUÇÃO/CHATGPT REPRESENTA­ÇÕES DE MULHERES BRASILEIRA­S CRIADAS POR INTELIGÊNC­IA ARTIFICIAL

Newspapers in Portuguese

Newspapers from Brazil