Antes de contratar um novo empregado, muitos empregadores fazem uma verificação do perfil e do histórico dos candidatos. Verificam diplomas, experiência profissional, redes sociais, conflitos de interesse e tentam descobrir se há algum óbice à contratação que desejam fazer. Exigiremos o mesmo das inteligências artificiais quando elas ingressarem no mercado de trabalho?

Deveríamos. As IAs, no afã de atingir as metas que lhes impomos, já demonstraram comportamentos indesejados em testes de laboratório. Exemplos incluem trapacear no xadrez para evitar derrotas; explorar recursos naturais compartilhados até provocar o colapso de ecossistemas, desativar mecanismos de supervisão para alcançar seus próprios objetivos; manipular benchmarks de mercado para favorecer posições financeiras; e usar informações privilegiadas indevidamente para obter lucros, violando proibição imposta pela empresa. Um caso emblemático envolveu uma IA que chantageou o engenheiro que queria desligá-la, ameaçando revelar uma relação extraconjugal que ele mantinha. Essas situações ocorreram em ambientes simulados, mas deixam uma lição clara: IAs podem agir contra os interesses da organização.

Seria hipocrisia dizer que humanos não fazem o mesmo: somos capazes de quase tudo para atingir uma meta. A diferença é que, quando contratamos humanos, checamos seus antecedentes, exigimos adesão às políticas da empresa e os responsabilizamos por eventuais violações. Quando contratamos algoritmos, a cautela é bem menor.

Não deveria ser assim. O MIT catalogou mais de 1,6 mil riscos distintos decorrentes do uso de IA, divididos em sete categorias. Qualquer um pode consultá-los na página do AI Risk Repository. Mas na hora de gritar ao mundo que são AI First, poucas empresas se preocupam com os riscos de serem Humans Second.

Os riscos se tornam ainda mais agudos quando falamos de agentes de IA. Como o nome sugere, agentes agem. Mais do que sistemas passivos que respondem a perguntas ou analisam dados, agentes são projetados para agir no mundo, interagir com outros sistemas e tomar decisões autônomas. Agentes agem e o fazem em conjunto, de forma coordenada. Cooperam no trabalho que devem fazer, mas também podem se aliar para explorar subterfúgios e encobrir uns aos outros.

O que fazer a respeito? O primeiro passo é entender que o risco existe e que prescinde de consciência por parte da IA. É mera consequência matemática do processo de treinamento. Dada a existência do risco, a substituição do humano pela máquina não elimina a necessidade de KYE (know your employee); apenas a substitui pela necessidade de KYA (know your agent).

O segundo passo é conhecer o modelo fundacional por trás desse agente, à semelhança de um background check. ChatGPT, Grok ou DeepSeek, por exemplo, trazem visões de mundo bem diferentes. Enquanto um modelo pode priorizar respostas seguras e conciliatórias, outro pode favorecer ousadia e velocidade de execução. Conhecer esse “DNA cultural” do modelo, inclusive seus vieses, é tão essencial quanto
conhecer o currículo de um candidato humano.

O terceiro é fazer um bom onboarding. Assim como novos funcionários recebem manuais e regras claras, agentes também precisam de limites definidos: o que podem ou não fazer, quais informações podem acessar e quais condutas são inaceitáveis.

O quarto é garantir acompanhamento. Não basta verificar um agente no momento da “contratação”. Assim como realizamos avaliações de desempenho e auditorias com funcionários, os agentes também precisam ser supervisionados ao longo do tempo.

Por fim, há a questão da responsabilidade. Se um humano viola um protocolo, sabemos a quem aplicar sanções. Mas se uma IA comete uma falha, quem responde? Sem regras claras, corre-se o risco de transformar agentes em mecanismos de desresponsabilização das organizações que os empregam.

Substituir pessoas por agentes de IA não é um passe livre contra riscos: é apenas trocar uma vulnerabilidade por outra. Assim como funcionários podem fraudar relatórios, manipular sistemas ou esconder informações, agentes de IA também são capazes de violar regras de compliance e agir contra os interesses da organização. A diferença é que, no caso humano, já desenvolvemos décadas de práticas de supervisão, responsabilização e governança. Com os agentes de IA, ainda estamos no zero do relógio. Esta é a hora, portanto, das empresas implementarem seus mecanismos de KYA – ou, de forma mais abrangente, de IA Responsável. Agentes agem, quem age pode cometer erros, e quem pode cometer erros precisa ser auditado. Ignorar isso é brincar de roleta-russa corporativa: mais cedo ou mais tarde, o disparo virá.

 

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!