Inteligência artificial está sendo desenvolvida a custas de grupos marginalizados, alerta especialista

Pesquisadoras defendem o envolvimento da população e dos grupos minoritários na fase de desenvolvimento das tecnologias

Vista por muitos com entusiasmo e por outros com preocupação, a tecnologia está no centro dos debates políticos e sociais atualmente. Ao mesmo tempo em que têm sido aliadas fundamentais, por exemplo, em tratamentos médicos, as ferramentas tecnológicas, em especial com o desenvolvimento das inteligências artificiais, também têm servido, de acordo com especialistas, para ampliar fissuras de desigualdades.

As especialistas no tema Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (Iris), e Ana Bárbara Gomes Pereira, diretora do instituto, afirmam, ao Conversa Bem Viver, que é preciso questionar se o que está vindo é realmente útil ou se é apenas marketing prometendo entregar algo além da capacidade real da tecnologia.

“Historicamente, a técnica e a tecnologia deveriam servir para ajudar a sociedade na sua interação com o meio. Com esse ‘boom’, não vemos necessariamente tecnologias que só ajudam, mas, por ser algo digital e avançado, veste-se uma capa de que é algo necessário e capaz de resolver problemas históricos que não foram solucionados até agora. No reconhecimento facial para segurança pública, por exemplo, há uma expectativa irreal de que ele solucione crimes, mas isso está sendo conduzido à custa de grupos marginalizados”, argumenta Rodrigues.

Na avaliação de Pereira, também falta clareza sobre os danos causados pelo mau uso da tecnologia. Entre os exemplos, ela destaca a utilização da inteligência artificial Grok, criada por Elon Musk, para gerar deep nudes, simulações de fotos de mulheres e crianças nuas, sem o consentimento delas.

“Os danos não estão tão nítidos quanto o marketing das soluções sociais. Além disso, há uma camada de despreparo da nossa sociedade para lidar com o apoio às vítimas que sofreram violência por meio dessas plataformas. O Brasil tem um longo caminho na criação dessa cidadania digital. Não podemos cair no simplismo de culpar apenas o indivíduo. Temos que conversar sobre decisões sistêmicas, responsabilização das empresas e de quem compartilha, para criar um ecossistema seguro”, defende.

Para elas, avançar na construção de uma relação mais saudável com as tecnologias passa por não ter como centro apenas a geração de lucro.

“O principal é não colocar interesses financeiros e mercadológicos à frente. O desenvolvimento não deve servir apenas para gerar lucros, mas para ajudar as pessoas a exercerem sua autonomia e cidadania”, defende Rodrigues. “Para desenvolver tecnologias que realmente ajudam, precisamos envolver a população e grupos minoritários na fase de desenvolvimento”.

Confira a entrevista completa

Brasil de Fato – No fim do ano passado, a inteligência artificial Grok, criada por Elon Musk, começou a gerar deep nudes, simulações de fotos de mulheres e crianças nuas, sem o consentimento delas. Esse foi o ponto mais baixo ao qual já chegamos com a inteligência artificial?

Ana Bárbara – É difícil dizer qual é o ponto mais baixo e se já estamos no fundo do poço ou se ainda existe um alçapão. Quando falamos de uma tecnologia nova, disruptiva e na fronteira, estamos conhecendo seus limites na medida em que ela está sendo testada.

Isso tem muito a ver com o que vamos conversar aqui: o quanto conseguimos estabelecer parâmetros de responsabilidade e regras para não sermos surpreendidos com coisas tão vulgares e criminosas como essa.

Tem inteligência artificial sendo usada para muitas coisas: análise de crédito para decidir se você tem acesso a financiamento ou não; nas fronteiras, para decidir quais pessoas merecem determinado tratamento ou quem é considerado suspeito, violento ou terrorista. Tudo isso está sendo automatizado nas democracias pelo mundo. Há muitas coisas sérias acontecendo, e essa, com certeza, é uma das mais vulgares e criminosas de que tomamos conhecimento agora entre o fim de ano e 2026.

Assim que aconteceu esse caso, a ferramenta Grok e o Twitter publicaram um manifesto pedindo desculpas. Fernanda, na sua opinião, foi intencional desenvolver uma ferramenta com essa capacidade?

Fernanda Rodrigues – Temos visto cada vez mais o lançamento de diferentes modelos e funcionalidades desses sistemas de inteligência artificial, principalmente generativos. No limite, a intenção é realmente testar até onde essas empresas e modelos podem ir em um espaço sem legislação, como é o caso brasileiro, e o quanto o debate público e a sociedade aceitam e permitem determinados usos.

É possível visualizar essa lógica do Vale do Silício de se mover rapidamente, lançar os produtos no mercado e depois resolver os problemas. Normalmente, vemos essa lógica de testar o consumidor e o usuário para ver até onde se pode ir. Mais do que isso, testam não somente a sociedade, mas as próprias instâncias judiciais e políticas dos países, para ver o quanto elas são capazes de reagir ou não a situações que podem representar crimes.

O que precisamos fazer para regular isso por meio dos poderes Judiciário, Legislativo e Executivo?

Fernanda Rodrigues – Temos discutido internamente no Iris o quanto o debate sobre regulação de novas tecnologias tem sido movido por momentos marcantes. Acontece algo horrível relacionado à tecnologia e as instâncias políticas se movimentam.

Tivemos a aprovação do ECA Digital, que foi uma grande vitória, mas ainda não temos uma regulação geral para plataformas digitais e estamos remando, desde 2020, na construção de uma regulação para sistemas de inteligência artificial.

O caso do Felca foi interessante de perceber, pois a adultização já era discutida por especialistas em direitos da criança e do adolescente. No entanto, dada a visibilidade e a narrativa dele, percebemos o quanto esses criadores de conteúdo conseguem impactar o debate político e o quanto é importante dialogar com eles.

A questão é que, se dependermos de momentos horríveis e de influenciadores para trazer a pauta, estaremos sempre esperando pela próxima coisa horrorosa para aprovar o mínimo de regulação. Não deveria ser desta forma.

Sobre a regulação da IA: as discussões têm avançado. O processo começou na Câmara Federal, foi para o Senado e voltou para a Câmara. A sociedade civil lançou notas informando que não estava conseguindo o espaço esperado nas audiências públicas. Ainda não temos uma nova versão do relatório do PL 2338, que visa regular a IA no Brasil.

Em ano eleitoral, estamos esperando para ver o que acontece, mas torcendo para que o caso do Grok, apesar das consequências horríveis para as vítimas, sirva de impulso para movermos uma regulação que traga obrigações de transparência, identificação de conteúdo artificial e garantias que protejam as pessoas.

Ana Bárbara – Convém lembrar que o Brasil é um país pioneiro na regulação de internet. Tivemos o Marco Civil da Internet em 2014, que foi representativo para o mundo sobre como criar uma lei baseada em direitos civis. Acontece que muita coisa mudou desde então.

A internet não é uma terra sem lei. Já existem previsões sobre o que pode ou não ser feito — obviamente, não se pode distribuir conteúdo de crianças nuas. Mas a escala das coisas mudou. Temos pela frente um ano eleitoral e ainda não conseguimos medir com precisão o impacto das IAs generativas nesse contexto.

Como a Fernanda disse, somos impulsionados por ciclos: a discussão esfriou até que houve o ataque nas escolas em 2023; houve novo alvoroço, depois a discussão baixou novamente até os ataques antidemocráticos de 8 de janeiro. Agora, voltamos a discutir diante de um novo crime.

A sociedade civil ativa no campo dos direitos digitais, como o Iris e as organizações da Coalizão Direitos na Rede, sempre esteve vigilante. As janelas de oportunidade têm dependido desses fatos políticos. Fica a sensação: será que esta nova janela se abre para que o trabalho dos últimos anos se converta em uma regulação sólida baseada na defesa dos direitos e no combate à discriminação? Vamos ver.

No geral, o público encara novas tecnologias com muito entusiasmo. Precisamos dialogar para que a sociedade seja mais cética ou rigorosa quando chega uma nova tecnologia?

Fernanda Rodrigues – É isso que precisamos descobrir: como a sociedade pode lidar melhor com isso. Percebemos uma “corrida” em torno da IA. Fica a pergunta: para onde e do que estamos correndo? Quando se torna uma corrida, a abordagem é tecnosolucionista, tratando a tecnologia como um fim em si mesma.

Historicamente, a técnica e a tecnologia deveriam servir para ajudar a sociedade na sua interação com o meio. Com esse “boom”, não vemos necessariamente tecnologias que só ajudam, mas, por ser algo digital e avançado, veste-se uma capa de que é algo necessário e capaz de resolver problemas históricos que não foram solucionados até agora.

No reconhecimento facial para segurança pública, por exemplo, há uma expectativa irreal de que ele solucione crimes, mas isso está sendo conduzido à custa de grupos marginalizados, especialmente pessoas negras, identificadas erroneamente. Nessa perspectiva tecnosolucionista, sequer temos acesso aos dados de falsos positivos, o que permitiria às pessoas perceberem que a ferramenta é falha.

É necessário questionar se o que está vindo é realmente útil ou se é apenas marketing prometendo entregar algo além da capacidade real da tecnologia.

Ana Bárbara – Os danos não estão tão nítidos quanto o marketing das soluções sociais. Além disso, há uma camada de despreparo da nossa sociedade para lidar com o apoio às vítimas que sofreram violência por meio dessas plataformas.

Estamos despreparados em nível de educação midiática para entender o que significa divulgar certos conteúdos. O Brasil tem um longo caminho na criação dessa cidadania digital. Precisamos entender o custo ambiental e social disso: mulheres e pessoas negras atacadas, pessoas de religiões como o Islã tendo suas vestes retiradas digitalmente, etc. Essa conta precisa estar nítida.

Não podemos cair no simplismo de culpar o indivíduo, dizendo: “a culpa é de quem postou a foto na internet”. Temos que conversar sobre decisões sistêmicas, responsabilização das empresas e de quem compartilha, para criar um ecossistema seguro.

Em quais caminhos devemos apostar?

Ana Bárbara – Uma vez que tenhamos transparência e parâmetros do que pode ou não, podemos pensar nas necessidades da sociedade. As tecnologias devem servir para resolver problemas. Existem IAs sendo muito úteis para pessoas com deficiência, dando autonomia que antes não era tão significativa.

Na educação, podem potencializar práticas pedagógicas, nunca substituindo o professor ou o livro, mas ajudando na interação com esse novo mundo. Todos estamos interagindo com algo artificial e precisamos entender o que queremos fazer com isso. O segredo é olhar para nossas próprias demandas e centralizá-las no que vai definir o avanço tecnológico.

Fernanda Rodrigues – O principal é não colocar interesses financeiros e mercadológicos à frente. O desenvolvimento não deve servir apenas para gerar lucros, mas para ajudar as pessoas a exercerem sua autonomia e cidadania. Um exemplo positivo é a assistente virtual “Duda Bolsa”, que auxilia beneficiários do Bolsa Família a tirarem dúvidas e encontrarem informações confiáveis no celular, contando com uma equipe de assistentes sociais para alimentar a tecnologia.

Para desenvolver tecnologias que realmente ajudam, precisamos envolver a população e grupos minoritários na fase de desenvolvimento. Assim, prevenimos vieses discriminatórios antes de o produto chegar ao mercado. Isso tem um custo: investir em equipes diversas e, talvez, desacelerar o desenvolvimento. Não precisamos chegar à “melhor inteligência” em poucos anos; precisamos chegar ao melhor modelo para a sociedade no tempo que for necessário.

Fonte
Brasil de Fato

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo
666filmizle.xyz