Estamos prontos para adotar a IA no mercado de trabalho?

Empresas ao redor do mundo têm apostado na inteligência artificial para agilizar a busca por candidatos, filtrar currículos, avaliar perfis e até prever o desempenho futuro dos profissionais.

A promessa é clara: mais eficiência na identificação de talentos e maior democratização do acesso ao emprego, ampliando oportunidades para candidatos que, de outra forma, poderiam ser ignorados. Mas será que essa tecnologia tem tornado o processo seletivo mais justo e eficaz?

Conheça o JOTA PRO Trabalhista, solução corporativa que antecipa as movimentações trabalhistas no Judiciário, Legislativo e Executivo

Em um experimento realizado em uma feira de empregos no Brasil, investigamos a reação dos empregadores a candidatos recomendados por IA em comparação com aqueles indicados por especialistas em recursos humanos. Os resultados revelaram um aspecto intrigante: empregadores que preferiam recomendações de algoritmos avaliaram melhor os candidatos sugeridos pela tecnologia, enquanto aqueles que preferiam decisões humanas mostraram resistência a esses mesmos candidatos.

Esse resultado nos leva a uma questão central: a adoção da IA não ocorre no vácuo. Ela é influenciada por crenças e preconceitos humanos, e não apenas por sua eficácia. No mercado de trabalho, a IA não substitui o julgamento humano, mas pode otimizar tarefas repetitivas e fornece recomendações que ainda serão avaliadas por humanos.

Assim, a maneira como interagimos com a IA importa tanto quanto a eficácia do próprio sistema. O problema surge quando há uma confiança cega em algoritmos, levando empregadores a aceitarem suas decisões sem um entendimento crítico de suas limitações, como possíveis vieses e erros.

Para evitar esse cenário, a adoção da IA no mercado de trabalho depende não apenas do aprimoramento da tecnologia, mas também de uma melhor interação entre humanos e algoritmos. É essencial garantir transparência nos processos de desenvolvimento e uso dos algoritmos, além de mecanismos de rastreabilidade para compreender como as decisões são tomadas.

O PL 2338/2023, que propõe um novo marco regulatório para a IA no Brasil, aponta nessa direção, exigindo mais controle e responsabilidade no uso da tecnologia.

No entanto, transparência por si só não basta. É necessário um investimento significativo em educação, especialmente em matemática e ciências, para que mais pessoas possam compreender e utilizar a IA de maneira crítica. O último relatório do Programa Internacional de Avaliação de Alunos (Pisa) revelou que o Brasil está entre os 20 piores países nessas áreas, um obstáculo significativo para o uso informado dessa tecnologia.

A IA não deve substituir o julgamento humano, mas pode torná-lo mais eficiente. É fundamental garantir que sua adoção no mercado de trabalho – e em outras áreas sensíveis, como justiça e educação – ocorra de maneira consciente e crítica. É um desafio complexo, mas precisamos estar preparados.

Adicionar aos favoritos o Link permanente.