Inteligência artificial pode gerar mais riscos que vantagens às pessoas LGBTI+

Um dos eventos mais assistidos do ano fez Cynthia Weber perguntar: será que o uso da inteligência artificial (IA) pela Sky News no casamento do Príncipe Harry e Meghan Markle é uma coisa boa?

Pela primeira vez na história, uma emissora de notícias usou a tecnologia de IA para reconhecimento facial durante uma transmissão ao vivo. Cynthia, professora de Relações Internacionais e Estudos de Gênero na Universidade de Sussex, explicou que o uso de softwares para nomear convidados de casamentos pode ser um truque elegante, mas há preocupações sobre as implicações.

“Há quem afirme que essa tecnologia pode identificar a orientação sexual de uma pessoa,” disse Weber durante um evento no Dia Internacional contra a Homofobia, Transfobia e Bifobia, em Genebra, na sede do UNAIDS.

Weber referia-se a um estudo da Universidade de Stanford que analisou, em um site norte-americano de relacionamentos, mais de 35 mil imagens de pessoas brancas, sem deficiências físicas, de 18 a 40 anos. Os pesquisadores compararam as orientações sexuais fornecidas pelos sistemas de inteligência artificial com as orientações sexuais encontradas nos perfis pessoais. O estudo afirmou que a tecnologia de IA de reconhecimento facial pode determinar a orientação sexual de alguém com uma precisão até 30% melhor do que as pessoas.

Cynthia disse que as organizações de advocacy por direitos LGBTI+ rotularam o estudo como pseudocientífico, ou uma “ciência sucateada”—o estudo usou uma amostragem enviesada em termos de raça e idade e equiparou orientação sexual com atividade sexual. “O resultado é que o algoritmo de inteligência artificial do estudo só encontra o que foi programado para encontrar: estereótipos sobre heterossexuais, gays e lésbicas,” disse Cynthia.

Cynthia acredita que o conhecimento da IA pode gerar oportunidades em muitos campos, mas vê muito mais riscos e perigos do que vantagens para as pessoas LGBTI+.

Quando a IA é combinada à tecnologia de reconhecimento facial e um algoritmo de orientação sexual, pelo menos quatro questões surgem. Primeiro, a privacidade. Em legislações domésticas e internacionais, o rosto de uma pessoa não é protegido por leis de privacidade. Isso permite que os rostos sejam escaneados e lidos por todos, desde governos até o Sky News.

Em segundo lugar, precisão. “Em um mundo além do casamento real, a tecnologia de inteligência artificial e reconhecimento facial está longe de ser perfeita, mesmo quando tenta apenas combinar nomes com rostos, e muito menos quando tenta combinar orientações sexuais presumidas com rostos,” disse Cynthia.

Para Cynthia, a questão principal é o conhecimento. Como um algoritmo de orientação sexual pode conhecer melhor a sexualidade de alguém do que a própria pessoa? Cynthia considera que a abordagem binária de código e dados legíveis para computadores não é compatível com o vasto espectro de gênero e sexualidade.

Além disso, o uso das informações de IA preocupa Cynthia. “Deixe a Sky News usá-la para comentários sobre casamentos, mas e se a polícia as utilizar em países onde a homossexualidade é criminalizada?”, perguntou Cynthia.

Para Cynthia, inteligência artificial e orientação sexual não são necessariamente benéficas uma a outra. Cynthia entende que a IA influencia a imaginação e impulsiona a inovação, mas acredita que a categorização de pessoas geralmente introduz mais danos que benefícios.

Cynthia concluiu dizendo: “As pessoas precisam se certificar que a inteligência artificial seja orientada pela ética, e não apenas pela tecnologia.”

O evento foi organizado com a Associação Suíça LGBTI Pride@Work e a UN Globe, uma organização LGBTI+ das Nações Unidas, e foi realizado em 16 de maio.

Verified by MonsterInsights