Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas também ordená-los conforme a afinidade dos candidatos com a vaga. A IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.
“A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação”, explica Bianca Ximenes, diretora de inteligência artificial na Gupy – desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas. “A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção”, diz.
Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, “traduzindo” a fotografia para texto legível no computador.
A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma “pontuação” de cada pessoa candidata a partir de afinidades predefinidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições – motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizar a plataforma.
A dica da companhia para “hackear” seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.
ÉTICA
O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas, a IA pode repetir padrões comportamentais prejudiciais da sociedade – o aprendizado de máquina reproduz o que foi ensinado pelos humanos.
Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos – tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.
Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo ela, a Gaia foi treinada para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical – ou seja, “engenheir”, “advogad” e “médic”.
Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida “em casa” – ou seja, não usa algoritmos e bancos de dados produzidos por outras empresas. “Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos”, afirma ela.
O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.
“Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça”, disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.
Em 2018, por exemplo, a Amazon abandonou uma IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar candidatas mulheres.
Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta que fuja de vieses, o processo deve sempre ser concluído por humanos.
“No final, não é a IA que toma a decisão da contratação, mas, sim, os humanos”, diz.
As informações são do jornal O Estado de S. Paulo.