BlogaRH

Ética com inteligência: os dilemas invisíveis da IA nas práticas de RH

Fabiano Rangel destaca os desafios dos líderes, não com a tecnologia em si, mas com as formas como elas são programadas, aplicadas e governadas

de Fabiano Rangel em 4 de setembro de 2025
Imagem gerada por Inteligência Artificial

Fabiano Rangel destaca os desafios dos líderes, não com a tecnologia em si, mas com as formas como elas são programadas, aplicadas e governadas

No artigo anterior, falamos de forma mais abrangente sobre a evolução da inteligência artificial, os impactos que ela já vem provocando no mercado de trabalho e os desafios que impõe às lideranças. Agora, a proposta é aprofundar algumas vertentes específicas do tema e começamos pela essência: os dilemas éticos na aplicação da IA nas organizações.

Especialmente no campo da IA aplicada à gestão de pessoas, é nítido, crescente e irreversível o movimento de ampliação do uso dessas tecnologias. E, ao mesmo tempo em que ganhamos ferramentas poderosas, nos aproximamos de dilemas éticos fundamentais que não podem ficar à margem do processo. Essas ferramentas já moldam decisões que afetam diretamente o futuro profissional das pessoas e a forma como as pessoas nas organizações escolhem usá-las fará toda a diferença na cultura organizacional e demais camadas de gestão.

A IA traz ganhos reais de escala, precisão e agilidade. Mas junto com o avanço tecnológico vêm os desafios, não com a tecnologia em si, mas com as formas como a programamos, aplicamos e as governamos.

Um estudo recente da Anthropic — uma das principais concorrentes da OpenAI e referência em segurança na aplicação da IA generativa — revelou que modelos podem “herdar comportamentos malignos” de sistemas anteriores, mesmo quando treinados com dados aparentemente neutros. Isso ocorre porque a IA aprende por padrões que nem sempre são transparentes, éticos ou desejáveis por definição.

Esse alerta, embora técnico, tem implicações diretas para quem lidera pessoas ou desenvolve soluções voltadas à gestão de talentos. Estamos falando de decisões automatizadas que tocam a vida real de profissionais: contratações, promoções, treinamentos, reconhecimentos, remunerações, benefícios, estruturas organizacionais e desligamentos.

A grande pergunta é: estamos preparados para garantir que essas decisões — quando mediadas por algoritmos — sejam éticas, justas e transparentes? Se isso já era desafiador quando as relações eram predominantemente humanas, agora, com a presença de uma inteligência programática no centro do processo decisório, o dilema ganha uma nova escala.

A ética da IA nas organizações não é responsabilidade apenas do time de TI ou de fornecedores externos. Ela demanda a atuação coordenada de dois grupos críticos:

  • Líderes organizacionais, que devem estabelecer diretrizes claras sobre o que é aceitável, exigir transparência nos algoritmos utilizados, supervisionar fornecedores e integrar a ética à cultura digital da empresa;
  • Desenvolvedores e fornecedores de soluções para RH, que precisam incorporar desde a concepção dos produtos princípios como segurança, auditabilidade, imparcialidade e diversidade de dados. Isso inclui testes de vieses ocultos, validações cruzadas e simulações adversariais.

Cinco áreas críticas de atenção: onde ética e IA se cruzam no RH

Sem a pretensão de esgotar o tema, destaco cinco subsistemas do RH em que o uso da IA já está consolidado — e onde os riscos éticos exigem vigilância redobrada.

1. Recrutamento e Seleção

Soluções automatizadas de triagem de currículos ou análise comportamental são cada vez mais comuns. Embora acelerem processos, carregam alto risco de reprodução de vieses históricos ligados a gênero, raça, escolaridade, idade, região entre outros.

  • Risco: exclusão automática de perfis com base em padrões não explicáveis.
  • Exemplo prático: algoritmos que priorizam candidatos de determinados grupos ou universidades, com base em dados enviesados, disfarçando essa priorização como “probabilidade de sucesso”.
  • Caminho ético: manter revisão humana qualificada, diversificar os datasets, testar a equidade dos outputs com prompts provocativos e revisar periodicamente os critérios de ranqueamento.

2. Treinamento e Desenvolvimento

A IA pode recomendar trilhas de aprendizagem personalizadas, mas também pode reforçar preconceitos de carreira ou limitar o acesso de alguns perfis a conteúdos estratégicos.

  • Risco: reforço de estereótipos (ex: homens em conteúdos técnicos, mulheres em temas comportamentais).
  • Exemplo prático: sistema que evita recomendar conteúdos de liderança para quem veio de funções operacionais.
  • Caminho ético: combinar curadoria humana, validação cruzada, e medir o impacto das recomendações sob a ótica da diversidade e inclusão.

3. Avaliação de Performance

Modelos que avaliam produtividade e engajamento ajudam a escalar a gestão, mas podem desumanizar decisões críticas como promoções e bônus.

  • Risco: julgamento puramente quantitativo, ignorando contexto pessoal, histórico de entrega ou fatores invisíveis.
  • Exemplo prático: profissional penalizado por “queda de performance” sem que o sistema reconheça questões internas e situacionais da própria organização, como luto familiar, enfermidade, transições traumáticas ou mesmo, sobrecarga externa.
  • Caminho ético: incluir variáveis qualitativas, considerar múltiplas fontes e preparar os líderes para questionar e complementar as leituras da IA.

4. Desenho Organizacional

IA já é usada para sugerir reestruturações e redesenhar organogramas com base em dados de produtividade e custo.

  • Risco: decisões baseadas exclusivamente em correlação estatística, sem considerar o papel humano e cultural de certos cargos.
  • Exemplo prático: sugestão de eliminar uma função considerada “baixa em output” que, na prática, exerce papel-chave na cultura e coesão da equipe.
  • Caminho ético: uso da IA como ferramenta de simulação, não como decisão final. Validar com múltiplos olhares e critérios organizacionais mais amplos.

5. Remuneração e Benefícios

Modelos de IA podem ser usados para comparar faixas salariais, sugerir ajustes e personalizar pacotes de benefícios com base no perfil e no momento de vida de cada colaborador.

  • Risco: decisões excessivamente baseadas em benchmarks de mercado, que ignoram contexto estratégico ou histórico interno e acabam por cristalizar desigualdades.
  • Exemplo prático: IA sugere congelar salários em uma área com baixa atratividade externa, sem reconhecer que aquela equipe está liderando uma agenda estratégica de transformação.
  • Caminho ético: combinar análise externa com variáveis internas e institucionais, permitir alguma flexibilidade com critérios claros, e garantir a equidade na distribuição dos recursos de forma estrutural.

Reflexões para onde acreditamos que podemos caminhar

Modelos como o proposto pela Anthropic, buscam em alguma medida “vacinar” sistemas de IA contra comportamentos maliciosos ao expô-los intencionalmente a vetores problemáticos e demonstram, que a tecnologia pode ser treinada para o bem. Mas os critérios do que é “bem” ou “mal” jamais poderão ser definidos apenas por máquinas.

A ética está nas escolhas. Está nas reuniões de liderança que decidem qual ferramenta comprar. Está nos parâmetros que o RH aceita validar. Está nas linhas de código que um desenvolvedor escreve e nas que ele opta por não escrever.

A inteligência artificial será, cada vez mais, parte estrutural da gestão de pessoas. Mas ética não se automatiza. Ela precisa ser construída, tensionada, discutida e sustentada por pessoas. Com critérios claros, com responsabilização real e com um compromisso coletivo de garantir que a tecnologia avance, sem que percamos de vista aquilo que nos torna humanos.

Compartilhe nas redes sociais!

Enviar por e-mail


Fabiano Rangel

Profissional com larga experiência em consultoria e vida executiva contribuindo em organizações multinacionais e nacionais como: Fundação BankBoston; Banco ABN AMRO Real; CPFL Energia e Leão Alimentos e Bebidas (joint venture do Sistema Coca-Cola Brasil), em áreas de RH, D&I, ESG, Governança, Relações Institucionais e Governamentais, Ética & Compliance, Direitos Humanos, Gestão de mudanças e transformação organizacional; Jurídico; Ética & Compliance e Tecnologia e informação, incluindo os processos de transformação digital; Gestão de Riscos Corporativos, Q+EHS (Qualidade, Saúde e Segurança Ocupacional e Meio Ambiente). Formado em direito, pós-graduado em Meio Ambiente e Sociedade, Especialista em Gestão de Mudanças e Transformação Digital e com MBA em Marketing e Inovação.