Fabiano Rangel destaca os desafios dos líderes, não com a tecnologia em si, mas com as formas como elas são programadas, aplicadas e governadas
No artigo anterior, falamos de forma mais abrangente sobre a evolução da inteligência artificial, os impactos que ela já vem provocando no mercado de trabalho e os desafios que impõe às lideranças. Agora, a proposta é aprofundar algumas vertentes específicas do tema e começamos pela essência: os dilemas éticos na aplicação da IA nas organizações.
Especialmente no campo da IA aplicada à gestão de pessoas, é nítido, crescente e irreversível o movimento de ampliação do uso dessas tecnologias. E, ao mesmo tempo em que ganhamos ferramentas poderosas, nos aproximamos de dilemas éticos fundamentais que não podem ficar à margem do processo. Essas ferramentas já moldam decisões que afetam diretamente o futuro profissional das pessoas e a forma como as pessoas nas organizações escolhem usá-las fará toda a diferença na cultura organizacional e demais camadas de gestão.
A IA traz ganhos reais de escala, precisão e agilidade. Mas junto com o avanço tecnológico vêm os desafios, não com a tecnologia em si, mas com as formas como a programamos, aplicamos e as governamos.
Um estudo recente da Anthropic — uma das principais concorrentes da OpenAI e referência em segurança na aplicação da IA generativa — revelou que modelos podem “herdar comportamentos malignos” de sistemas anteriores, mesmo quando treinados com dados aparentemente neutros. Isso ocorre porque a IA aprende por padrões que nem sempre são transparentes, éticos ou desejáveis por definição.
Esse alerta, embora técnico, tem implicações diretas para quem lidera pessoas ou desenvolve soluções voltadas à gestão de talentos. Estamos falando de decisões automatizadas que tocam a vida real de profissionais: contratações, promoções, treinamentos, reconhecimentos, remunerações, benefícios, estruturas organizacionais e desligamentos.
A grande pergunta é: estamos preparados para garantir que essas decisões — quando mediadas por algoritmos — sejam éticas, justas e transparentes? Se isso já era desafiador quando as relações eram predominantemente humanas, agora, com a presença de uma inteligência programática no centro do processo decisório, o dilema ganha uma nova escala.
A ética da IA nas organizações não é responsabilidade apenas do time de TI ou de fornecedores externos. Ela demanda a atuação coordenada de dois grupos críticos:
- Líderes organizacionais, que devem estabelecer diretrizes claras sobre o que é aceitável, exigir transparência nos algoritmos utilizados, supervisionar fornecedores e integrar a ética à cultura digital da empresa;
- Desenvolvedores e fornecedores de soluções para RH, que precisam incorporar desde a concepção dos produtos princípios como segurança, auditabilidade, imparcialidade e diversidade de dados. Isso inclui testes de vieses ocultos, validações cruzadas e simulações adversariais.
Cinco áreas críticas de atenção: onde ética e IA se cruzam no RH
Sem a pretensão de esgotar o tema, destaco cinco subsistemas do RH em que o uso da IA já está consolidado — e onde os riscos éticos exigem vigilância redobrada.
1. Recrutamento e Seleção
Soluções automatizadas de triagem de currículos ou análise comportamental são cada vez mais comuns. Embora acelerem processos, carregam alto risco de reprodução de vieses históricos ligados a gênero, raça, escolaridade, idade, região entre outros.
- Risco: exclusão automática de perfis com base em padrões não explicáveis.
- Exemplo prático: algoritmos que priorizam candidatos de determinados grupos ou universidades, com base em dados enviesados, disfarçando essa priorização como “probabilidade de sucesso”.
- Caminho ético: manter revisão humana qualificada, diversificar os datasets, testar a equidade dos outputs com prompts provocativos e revisar periodicamente os critérios de ranqueamento.
2. Treinamento e Desenvolvimento
A IA pode recomendar trilhas de aprendizagem personalizadas, mas também pode reforçar preconceitos de carreira ou limitar o acesso de alguns perfis a conteúdos estratégicos.
- Risco: reforço de estereótipos (ex: homens em conteúdos técnicos, mulheres em temas comportamentais).
- Exemplo prático: sistema que evita recomendar conteúdos de liderança para quem veio de funções operacionais.
- Caminho ético: combinar curadoria humana, validação cruzada, e medir o impacto das recomendações sob a ótica da diversidade e inclusão.
3. Avaliação de Performance
Modelos que avaliam produtividade e engajamento ajudam a escalar a gestão, mas podem desumanizar decisões críticas como promoções e bônus.
- Risco: julgamento puramente quantitativo, ignorando contexto pessoal, histórico de entrega ou fatores invisíveis.
- Exemplo prático: profissional penalizado por “queda de performance” sem que o sistema reconheça questões internas e situacionais da própria organização, como luto familiar, enfermidade, transições traumáticas ou mesmo, sobrecarga externa.
- Caminho ético: incluir variáveis qualitativas, considerar múltiplas fontes e preparar os líderes para questionar e complementar as leituras da IA.
4. Desenho Organizacional
IA já é usada para sugerir reestruturações e redesenhar organogramas com base em dados de produtividade e custo.
- Risco: decisões baseadas exclusivamente em correlação estatística, sem considerar o papel humano e cultural de certos cargos.
- Exemplo prático: sugestão de eliminar uma função considerada “baixa em output” que, na prática, exerce papel-chave na cultura e coesão da equipe.
- Caminho ético: uso da IA como ferramenta de simulação, não como decisão final. Validar com múltiplos olhares e critérios organizacionais mais amplos.
5. Remuneração e Benefícios
Modelos de IA podem ser usados para comparar faixas salariais, sugerir ajustes e personalizar pacotes de benefícios com base no perfil e no momento de vida de cada colaborador.
- Risco: decisões excessivamente baseadas em benchmarks de mercado, que ignoram contexto estratégico ou histórico interno e acabam por cristalizar desigualdades.
- Exemplo prático: IA sugere congelar salários em uma área com baixa atratividade externa, sem reconhecer que aquela equipe está liderando uma agenda estratégica de transformação.
- Caminho ético: combinar análise externa com variáveis internas e institucionais, permitir alguma flexibilidade com critérios claros, e garantir a equidade na distribuição dos recursos de forma estrutural.
Reflexões para onde acreditamos que podemos caminhar
Modelos como o proposto pela Anthropic, buscam em alguma medida “vacinar” sistemas de IA contra comportamentos maliciosos ao expô-los intencionalmente a vetores problemáticos e demonstram, que a tecnologia pode ser treinada para o bem. Mas os critérios do que é “bem” ou “mal” jamais poderão ser definidos apenas por máquinas.
A ética está nas escolhas. Está nas reuniões de liderança que decidem qual ferramenta comprar. Está nos parâmetros que o RH aceita validar. Está nas linhas de código que um desenvolvedor escreve e nas que ele opta por não escrever.
A inteligência artificial será, cada vez mais, parte estrutural da gestão de pessoas. Mas ética não se automatiza. Ela precisa ser construída, tensionada, discutida e sustentada por pessoas. Com critérios claros, com responsabilização real e com um compromisso coletivo de garantir que a tecnologia avance, sem que percamos de vista aquilo que nos torna humanos.