Como qualquer nova tecnologia, a inteligência artificial é capaz de resultados extremamente positivos ou negativos. O público parece estar cada vez mais focado no lado negativo, principalmente quando se trata de potencial de preconceitos na IA. Essa preocupação está bem fundamentada e bem documentada. Mas, afinal de contas, o que é IA? É a simulação de processos humanos realizados por máquinas. Esse medo de IA com preconceitos ignora um fator essencial: a fonte mais profunda e enraizada dos preconceitos com a IA nada mais é do que o comportamento humano que ela simula. É o conjunto de dados com viés que costumam entrar no treinamento do algoritmo. Se você não gosta do que a IA faz, com certeza você não está satisfeito com o que os humanos fazem, visto que a IA está simplesmente aprendendo com as pessoas.
Vamos nos concentrar em contratação. O status quo da contratação é extremamente falho e francamente tem um caráter distópico por três razões principais.
O preconceito humano inconsciente torna a contratação injusta. A maneira típica de analisar candidatos antes de uma entrevista é através de recrutadores que analisam currículos. Vários estudos demonstraram que esse processo produz preconceitos inconscientes contra mulheres, minorias e trabalhadores mais velhos.
Grandes parcelas de candidatos são ignoradas. O LinkedIn e outras plataformas de contratação têm tido tanto sucesso que, em média, 250 pessoas se candidatam a qualquer cargo em aberto. Isso se traduz em milhões de candidatos para alguns milhares de funções em aberto. Esse processo obviamente não pode ser administrado manualmente. Portanto, os recrutadores limitam suas análises do pool de candidatos a 10% a 20% que eles acreditam se mostrarão mais promissores: pessoas saídas dos campi da Ivy League, candidatos passivos de concorrentes das empresas que buscam preencher cargos ou programas de indicação de funcionários. Mas, adivinhem! Grandes universidades e programas de indicação de funcionários são muito menos diversificados do que o pool mais amplo de candidatos que enviam currículos.
As ferramentas tradicionais de contratação já têm vieses embutidos. Isso é permitido por uma brecha na legislação americana: O regulamento federal afirma que uma ferramenta de contratação pode ter um viés desde que seja relacionado ao trabalho. “Relacionado ao trabalho” significa que as pessoas que são bem-sucedidas em uma função mostram certas características. Mas se todos os “funcionários de sucesso” forem homens brancos, devido a um histórico de viés nas práticas humanas de contratação, então é quase certo que sua avaliação de contratação relacionada ao trabalho terá um viés a favor dos homens e um viés contra as mulheres e as minorias. Uma mulher afro-americana de uma faculdade não pertencente à Ivy League que tenha a sorte de se tornar parte da lista de candidatos a uma vaga, cujo currículo é analisado e que passa pelo recrutador humano que o avalia, pode passar por uma avaliação tendenciosa.
É alguma surpresa que tenhamos dificuldade em contratar uma força de trabalho diversificada? O que nos levou à falta crônica de diversidade hoje e o que continuará a impedir a diversidade são os paradigmas humanos perpetuados até hoje, não a IA.
A IA acena com a grande promessa de eliminação dos preconceitos na contratação por dois motivos básico:
1. A IA pode eliminar o preconceito humano inconsciente. Muitas ferramentas atuais de IA para recrutamento possuem falhas, mas estas podem ser solucionadas. A beleza da IA é que podemos projetá-la para atender algumas especificações benéficas. Um movimento entre os praticantes de IA como o OpenAI e o Future of Life Institute já coloca em prática um conjunto de princípios de projeto para produzir uma IA ética e justa (ou seja, benéfica para todos). Um dos princípios-chave é que a IA deva ser projetada de forma a ser auditada e de maneira que o viés encontrado na ferramenta possa ser excluído. Uma auditoria de IA deve funcionar exatamente como um teste de segurança de um novo carro antes que alguém comece a dirigi-lo. Se as normas não forem atendidas, a tecnologia defeituosa deve ser corrigida antes de entrar em produção.
2. A IA pode avaliar todo o pipeline de candidatos, em vez de forçar humanos com restrição de tempo a implementar processos tendenciosos para encolher o pipeline desde o início. Somente usando um processo do tipo “topo de funil” verdadeiramente automatizado podemos eliminar o viés devido à redução do pipeline inicial, para que a capacidade do recrutador manual possa lidar com isso. É chocante que as empresas hoje admitam descaradamente como apenas os currículos de uma pequena parcela dos milhões de candidatos que se inscrevem são analisados. Tecnólogos e legisladores deveriam trabalhar juntos para criar ferramentas e políticas que tornem possível e obrigatório que todo o pipeline seja analisado.
Além disso, esse foco na justiça da IA deveria nos fazer analisar, com os mesmos padrões, as avaliações pré-contratação existentes. A Comissão de Igualdade de Oportunidades de Emprego (na sigla em inglês, EEOC) redigiu na década de 1970 os atuais regulamentos de contratação justa – antes do advento da internet pública e da explosão no número de candidatos para cada emprego. A EEOC não previu os algoritmos modernos que são menos tendenciosos que humanos além de poderem avaliar um pipeline bem maior e mais diversificado. Precisamos atualizar e esclarecer esses regulamentos para realmente incentivar a igualdade de oportunidades na contratação e permitir o uso de sistemas de recrutamento algorítmico que atendam a critérios claros. Algumas quebras nos padrões já ocorreram. A Assembleia do Estado da Califórnia aprovou uma resolução para usar tecnologia imparcial a fim de promover a diversidade nas contratações, e o promotor público de São Francisco está usando IA para proferir “sentença cega” em processos criminais.
Os mesmos padrões devem ser aplicados às ferramentas de contratação existentes. A Amazon foi criticada em âmbito nacional por meses devido ao seu algoritmo de contratação tendencioso e direcionado aos homens. Ainda hoje, nos Estados Unidos, os empregadores têm permissão legal para usar avaliações tradicionais e tendenciosas que discriminam mulheres ou minorias. Como isso pode acontecer? Provavelmente porque a maioria das pessoas não tem consciência de que as avaliações tendenciosas são usadas de forma proeminente (e de forma legal). Se vamos lançar mão de uma IA imparcial – o que certamente deveríamos – devemos também solicitar a eliminação de todas as avaliações tradicionais tendenciosas.
É impossível corrigir os preconceitos humanos, mas ficou demonstrado que é possível identificar e corrigir os vieses na IA. Se tomarmos medidas essenciais para lidar com as questões que são levantadas, podemos realmente aproveitar a tecnologia para diversificar o local de trabalho.
Frida Polli, neurocientista cognitiva, é cofundadora e CEO da Pymetrics, uma plataforma que usa a ciência do comportamento e a IA para combinar pessoas e cargos de maneira precisa e justa.
Fonte HBR