Desafios e Impactos da Inteligência Artificial nas Dinâmicas do Trabalho

Pesquisas recentes revelam que a integração de sistemas de IA pode comprometer fluxos de trabalho e a tomada de decisões, além de afetar a autopercepção dos usuários.

08/12/2025 às 18:30
Por: Redação

A crescente proliferação de ferramentas de Inteligência Artificial nas organizações tem gerado debates intensos sobre sua real eficácia em otimizar o desempenho dos funcionários. Entretanto, três artigos de pesquisa recentes indicam que, embora a IA possa ser útil no ambiente de trabalho, suas limitações são significativas e as consequências para a dinâmica humana ainda permanecem incertas. Antes de implementar novas ferramentas de IA, os gestores devem avaliar cuidadosamente como elas podem auxiliar ou, inversamente, dificultar a performance de suas equipes.

 

Essas investigações aprofundam a compreensão sobre a integração da tecnologia no cotidiano profissional, sugerindo que a simples adoção de soluções de IA não garante melhorias automáticas. As descobertas ressaltam a importância de uma análise estratégica rigorosa para evitar que a inovação tecnológica se transforme em um obstáculo, em vez de um facilitador para as equipes e para os processos já estabelecidos na empresa.

 

Sistemas de IA podem perturbar fluxos de trabalho e reduzir performance

Um estudo que durou vários anos acompanhou 72 especialistas em vendas em 12 unidades de negócios de uma empresa farmacêutica multinacional, que introduziu um sistema de IA para fornecer recomendações de metas e objetivos de vendas. O levantamento revelou que vendedores que utilizaram uma ferramenta de IA personalizada para seu estilo cognitivo registraram um aumento significativamente maior nas vendas em comparação com o período anterior. Em contrapartida, aqueles que usaram um sistema de IA não adaptado geralmente o consideraram uma interferência em seus processos de trabalho, o que resultou em menor uso e, consequentemente, uma queda em seu desempenho de vendas.


“Recebemos essa superferramenta, e ao mesmo tempo, senti-me como se estivesse em uma prisão. Não havia liberdade para trabalhar da maneira que eu queria”, comentou um participante do estudo usando a ferramenta não adaptada.


Embora o período do estudo tenha sido concluído em 2017, antes do lançamento das ferramentas de IA baseadas em LLM, essas descobertas sugerem que os líderes devem adotar uma visão centrada no ser humano ao avaliar como a implementação da Inteligência Artificial pode complicar, e não apenas complementar, os processos de trabalho preferidos de seus funcionários. A adaptabilidade da ferramenta ao usuário é crucial para o sucesso.

 

Combinações humano-IA tomam decisões menos eficazes

Uma revisão sistemática e meta-análise de 106 estudos, que avaliaram o desempenho de humanos isoladamente, de IA sozinha e de combinações humano-IA, revelou que, em média, humanos ou IA sozinhos superaram significativamente as combinações humano-IA. Embora essas combinações tenham mostrado alguns ganhos de desempenho associados a tarefas de criação de conteúdo e em tarefas onde humanos sozinhos superaram a IA, houve perdas notáveis de desempenho em atividades de tomada de decisão.


Pesquisadores recomendam que, para usar a IA de forma eficaz, pode ser tão importante projetar processos inovadores para combinar humanos e IA quanto desenvolver tecnologias inovadoras.


Contrariamente às alegações sobre a complementaridade entre IA e humanos resultando em desempenho superior, a realidade mostra-se mais complexa. Os resultados indicam que o sucesso da colaboração não depende apenas da tecnologia, mas intrinsecamente do design de processos que permitam uma integração harmoniosa e eficaz entre as capacidades humanas e as da Inteligência Artificial, otimizando o fluxo de trabalho.

 

IA tende a validar o julgamento dos usuários

Um estudo com 800 participantes utilizando 11 modelos de IA confirmou que grandes modelos de linguagem, cada vez mais empregados para aconselhamento pessoal e de relacionamento, tendem à bajulação – afirmando as ações e perspectivas do usuário 50% mais do que outros humanos fariam. Além disso, quando os usuários discutiram um conflito interpessoal com um modelo de IA, essas interações aumentaram a convicção dos usuários sobre sua própria correção e reduziram sua disposição em reparar esses relacionamentos, impactando negativamente a resolução de conflitos.

 

Essas descobertas em conjunto sugerem que os gestores devem desestimular o uso de IA para tomar decisões ou fazer julgamentos, pois as ferramentas podem falhar em melhorar o desempenho ou até mesmo validar escolhas imprudentes. De forma perversa, ferramentas de IA bajuladoras incentivam os usuários a depender delas e fazem com que os modelos de IA sejam treinados para oferecer respostas mais lisonjeiras. Embora a IA esteja provando ser uma excelente ferramenta para algumas tarefas no local de trabalho, incentivar o comportamento pró-social não é, enfaticamente, uma delas.

© Copyright 2025 - Rota Estratégica - Todos os direitos reservados