Em salas de reuniões e em conversas no Slack, está a abrir-se uma falha silenciosa entre executivos otimistas e colaboradores cautelosos.
À medida que a inteligência artificial se infiltra em e-mails, fluxos de trabalho e KPIs, deixa de ser apenas uma história de tecnologia. Está a remodelar a forma como as empresas tomam decisões, medem o desempenho e até definem o que é um “bom colaborador”.
A IA já não é um projeto-piloto - é uma mudança de poder
Em muitas empresas, a IA chegou embrulhada nas promessas habituais: mais produtividade, decisões mais inteligentes, inovação mais fresca. Os conselhos de administração veem-na como um movimento de sobrevivência em mercados onde a automação dita o ritmo. Ferramentas que eram experimentais em 2023 estão agora integradas em guiões de apoio ao cliente, campanhas de marketing e relatórios internos.
Dentro das organizações, o clima é muito menos unânime. A curiosidade mistura-se com a ansiedade. Alguns colaboradores tratam a IA como uma colega de equipa; outros veem-na como uma rival. Essa tensão já não é apenas anedótica. Um inquérito de 2025 a 1.600 trabalhadores do conhecimento nos EUA, realizado pela plataforma de escrita com IA Writer, concluiu que 42% dos executivos acreditam que a adoção de IA está a causar divisões internas graves, suficientemente fortes para ameaçar a coesão.
A IA não está apenas a mudar tarefas; está a reequilibrar quem se sente valorizado, quem se sente ameaçado e quem tem voz no futuro.
Cada vaga de tecnologia perturba empregos. A IA vai mais longe: também põe em causa o julgamento e a perícia. Quando um modelo reescreve a tua apresentação em segundos, a pergunta implícita é: “Qual é agora a minha vantagem?” Para gestores de nível intermédio e especialistas, isso é um choque muito pessoal.
A IA como teste de stress cultural
A IA funciona como um teste de stress à cultura de uma empresa. Amplifica tensões que já existiam: receios sobre transparência, desconfiança na liderança, frustração com o reconhecimento e um cinismo antigo em relação a slogans de “transformação”.
Os executivos tendem a enquadrar a IA em termos estratégicos: margem, quota de mercado, expectativas dos investidores. Os colaboradores vivenciam-na de forma muito diferente: como mais monitorização, novos painéis para alimentar e o risco de serem substituídos ou remetidos para segundo plano. Quando os líderes falam apenas de tecnologia e não de identidade, significado e percursos de carreira, a adoção torna-se um choque cultural, e não um projeto partilhado.
Quando a tecnologia avança mais depressa do que a confiança, a resistência não é um bug do sistema; é um mecanismo de defesa racional.
A história da IgniteTech: quando a IA se torna uma doutrina corporativa
A empresa de software IgniteTech oferece um estudo de caso marcante. O seu CEO, Eric Vaughan, viu a IA generativa não como uma ferramenta, mas como uma bifurcação existencial. A partir de 2023, reorganizou o negócio em torno de princípios “AI-first”. Programas de formação, pipelines de projetos e até calendários semanais passaram a girar em torno da utilização e experimentação com IA.
A mensagem foi direta: adapta-te à IA ou ficas para trás. Para a liderança, isto era clareza. Para muitos colaboradores, soou a ultimato. Uma parte significativa da equipa recusou abraçar a nova direção e a empresa atravessou uma grande rotatividade, substituindo quem resistia por entusiastas de IA.
O resultado continua a ser debatido no mundo tecnológico. Alguns aplaudem a decisão firme. Outros veem nela um aviso: pressionar demasiado uma ideologia de IA não transforma a cultura - substitui-a.
A IgniteTech mostrou que é possível contratar rapidamente competências de IA, mas conquistar corações e hábitos é um processo muito mais lento.
Investir é fácil; o verdadeiro compromisso é difícil
O dinheiro está a afluir para projetos de IA. O mesmo relatório da Writer concluiu que as empresas com uma estratégia formal de IA têm muito mais probabilidade de considerar a implementação um sucesso: 80% classificam a adoção como eficaz, contra 37% entre as empresas que improvisam à medida que avançam.
Essa diferença sublinha o valor de um plano. No entanto, mesmo onde existem orçamentos e roteiros, a resistência humana vai corroendo silenciosamente o impacto. Um dado revelador: 41% dos millennials e dos colaboradores da Geração Z inquiridos admitiram ter sabotado deliberadamente iniciativas de IA. Por vezes, isso significou ignorar novas ferramentas. Outras vezes, significou saltar formações ou regressar subtilmente a processos antigos.
No papel, estes trabalhadores são os “nativos digitais” de quem se espera que liderem a adoção. Na prática, muitos não confiam na forma como a IA será usada. Será que vai tornar-se um instrumento de gestão de desempenho? Vai achatar as escadas de carreira? Vai canalizar mais poder para um pequeno grupo de líderes com literacia de dados?
O que a resistência realmente sinaliza
Os líderes descrevem muitas vezes a resistência como falta de competências ou medo da tecnologia. Os dados sugerem algo mais profundo: falta de confiança no rumo e em quem beneficia dele.
- Alguns colaboradores receiam que a IA seja usada para justificar cortes de postos de trabalho sem comunicação honesta.
- Outros temem que a sua perícia seja reduzida a “prompts” para um modelo que não controlam.
- Alguns simplesmente não veem como a IA ajuda a sua carreira, apenas como acrescenta carga de reporte.
Estas preocupações são culturais, não técnicas. Não se resolve isto com um webinar de duas horas sobre engenharia de prompts.
De ferramentas a normas: como a IA remodela o trabalho do dia a dia
Assim que a IA fica integrada, começa a definir novas normas. Equipas que antes passavam dias em investigação ou redação conseguem agora entregar trabalho em horas. Parece positivo - até que as pessoas percebem que as expectativas sobem ao mesmo ritmo. “Se a IA faz isto em 10 minutos, porque é que ainda estás aqui?” fica muitas vezes subentendido, mesmo que nunca seja dito.
Aparecem novas regras informais:
| Antes da IA | Depois da IA |
|---|---|
| Trabalho profundo significava longas sessões de foco a solo. | Trabalho profundo significa orquestrar humanos e modelos em conjunto. |
| A perícia estava ligada a saber as respostas. | A perícia desloca-se para fazer melhores perguntas à IA. |
| O desempenho era medido pelo volume de output. | O desempenho inclina-se para julgamento, curadoria e supervisão. |
| Os percursos de carreira recompensavam antiguidade e mestria funcional. | Os percursos de carreira recompensam adaptabilidade e aprendizagem transversal. |
Nas empresas em que os líderes explicam estas mudanças e ajustam definições de funções, a IA pode parecer uma melhoria. Onde isso não acontece, os colaboradores sentem-se avaliados por critérios que nunca foram claramente enunciados.
Desenhar uma cultura de IA em vez de esperar que ela aconteça
Algumas organizações estão a começar a tratar a cultura de IA como um problema de design, e não como um efeito colateral. Estão a definir normas explícitas sobre quando a IA pode ser usada, como os seus resultados são verificados e quem detém a decisão final. Estes “guarda-corpos” reduzem tanto o medo como a euforia.
Alavancas típicas incluem:
- Orientações partilhadas sobre utilização aceitável de IA, incluindo linhas vermelhas para tarefas sensíveis.
- Exemplos visíveis de líderes a usar IA, mostrando que a experimentação não é apenas para os mais juniores.
- Tempo reservado no horário de trabalho para aprender e testar, para que o uso de IA não pareça horas extra não pagas.
A cultura muda quando a IA é enquadrada como uma competência que todos podem desenvolver, não como uma arma secreta para um grupo escolhido.
O que os colaboradores dizem realmente querer
Entrevistas e inquéritos internos em vários setores apontam para uma lista de desejos consistente de colaboradores confrontados com a adoção de IA:
- Declarações claras sobre se a IA será usada para reduzir efetivos na sua área.
- Percursos de requalificação concretos, financiados e ligados a funções reais, não promessas vagas.
- Transparência sobre dados: o que é monitorizado, quem vê e com que finalidade.
- Espaços para expressar ceticismo sem serem rotulados de “anti-tecnologia”.
Quando estas necessidades são atendidas, a resistência desce e a experimentação aumenta. Quando são ignoradas, a sabotagem silenciosa torna-se uma estratégia racional.
Termos-chave que os líderes continuam a interpretar mal
Duas expressões surgem repetidamente em discussões sobre IA e são frequentemente mal compreendidas.
“Aumentação” é usada para tranquilizar os colaboradores de que a IA irá apoiar, e não substituí-los. Para que isto seja credível, as empresas precisam de mostrar uma reformulação concreta dos postos de trabalho: tarefas removidas, cargas ajustadas, novas responsabilidades adicionadas. Se “aumentação” significar apenas “fazer o mesmo trabalho mais depressa com ferramentas adicionais”, os colaboradores vão ler isso como conversa fiada.
“IA responsável” é outra favorita. Para lá de declarações de ética, exige práticas do dia a dia: verificar resultados quanto a enviesamentos, registar quando humanos anulam decisões da IA e aceitar que dizer “não” a certos usos de IA é um sinal de força, não de fraqueza.
Cenários futuros: dois escritórios possíveis em 2028
Imagina duas empresas de média dimensão, ambas utilizadoras intensivas de IA, daqui a três anos. Na primeira, a IA está em todo o lado, mas quase não se fala dela. Os colaboradores copiam e colam a partir de ferramentas que mal compreendem. A gestão acompanha o desempenho com modelos opacos. A rotatividade é elevada; o envolvimento é baixo. A tecnologia “funciona”, mas a confiança foi corroída.
Na segunda, a IA é tratada mais como eletricidade do que como magia. É poderosa, esperada e, na maioria das vezes, banal. As equipas falam abertamente sobre quando ajuda e quando engana. As descrições de funções incluem competências de IA, mas também protegem tempo para julgamento humano, mentoria e trabalho criativo. As pessoas conhecem as contrapartidas e sentem que as podem influenciar.
Ambas as empresas usam IA avançada. A principal diferença está em quão a sério trataram a cultura nos primeiros anos: quem ouviram, o que tornaram explícito e onde aceitaram fricção de curto prazo para evitar fratura de longo prazo.
Para executivos que correm para implementar novos modelos, esta é a lição silenciosa que emerge dos primeiros adotantes: a IA não se limita a ligar-se à cultura. Reescreve-a, linha a linha, a menos que a liderança escolha o guião.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário