IA para decidir quem é contratado: justiça dos EUA avalia se algoritmos de contratação da Microsoft e Salesforce são injustos e violam leis de proteção ao consumidor
Além de um suposto "sistema de crédito", grupos minoritários seriam tratados com marginalização
Uma ação judicial coletiva (disponível em pdf) protocolada na Califórnia pode mudar drasticamente a forma como as empresas utilizam inteligência artificial para selecionar candidatos. A Eightfold AI, uma plataforma utilizada por gigantes como Microsoft, Salesforce, PayPal e Bayer, está sendo acusada de gerar relatórios detalhados sobre candidatos sem o consentimento deles — uma prática que, segundo os autores do processo, viola leis federais de proteção ao consumidor.
O ponto central da disputa é se os algoritmos de contratação devem ser regulados da mesma forma que as agências de pontuação de crédito (como o Serasa ou o SPC, no Brasil). O processo alega que a Eightfold viola o Fair Credit Reporting Act (FCRA), uma lei de 1970 que exige transparência e o direito de correção em relatórios que decidem o futuro financeiro ou profissional de um indivíduo.
O "Score de Crédito" dos trabalhadores
A Eightfold utiliza uma base de dados massiva, com mais de um bilhão de perfis profissionais e um catálogo vasto de habilidades, para ranquear candidatos de forma mais eficiente que recrutadores humanos. No entanto, o processo revela que o sistema faz muito mais do que apenas ler currículos:
- O sistema cria "perfis" que descrevem traços de personalidade, como introversão ou capacidade de trabalho em equipe.
- A IA tenta prever quais cargos o candidato ocupará no futuro e avalia seu histórico educacional de forma automatizada.
- O resultado final é destilado em um "score" que decide se o ...
Matérias relacionadas
O começo do fim para o ChatGPT? 4 motivos para acreditar que a OpenAI vai perder a corrida da IA