Saltar para o conteúdo

A IA transforma tudo, até a cultura das empresas.

Grupo de pessoas em reunião, discutindo gráficos coloridos sobre a mesa, com um portátil ao fundo.

Em salas de reuniões e em conversas no Slack, está a abrir-se uma falha silenciosa entre executivos otimistas e colaboradores cautelosos.

À medida que a inteligência artificial se infiltra em e-mails, fluxos de trabalho e KPIs, deixa de ser apenas uma história de tecnologia. Está a remodelar a forma como as empresas tomam decisões, medem o desempenho e até definem o que é um “bom colaborador”.

A IA já não é um projeto-piloto - é uma mudança de poder

Em muitas empresas, a IA chegou embrulhada nas promessas habituais: mais produtividade, decisões mais inteligentes, inovação mais fresca. Os conselhos de administração veem-na como um movimento de sobrevivência em mercados onde a automação dita o ritmo. Ferramentas que eram experimentais em 2023 estão agora integradas em guiões de apoio ao cliente, campanhas de marketing e relatórios internos.

Dentro das organizações, o clima é muito menos unânime. A curiosidade mistura-se com a ansiedade. Alguns colaboradores tratam a IA como uma colega de equipa; outros veem-na como uma rival. Essa tensão já não é apenas anedótica. Um inquérito de 2025 a 1.600 trabalhadores do conhecimento nos EUA, realizado pela plataforma de escrita com IA Writer, concluiu que 42% dos executivos acreditam que a adoção de IA está a causar divisões internas graves, suficientemente fortes para ameaçar a coesão.

A IA não está apenas a mudar tarefas; está a reequilibrar quem se sente valorizado, quem se sente ameaçado e quem tem voz no futuro.

Cada vaga de tecnologia perturba empregos. A IA vai mais longe: também põe em causa o julgamento e a perícia. Quando um modelo reescreve a tua apresentação em segundos, a pergunta implícita é: “Qual é agora a minha vantagem?” Para gestores de nível intermédio e especialistas, isso é um choque muito pessoal.

A IA como teste de stress cultural

A IA funciona como um teste de stress à cultura de uma empresa. Amplifica tensões que já existiam: receios sobre transparência, desconfiança na liderança, frustração com o reconhecimento e um cinismo antigo em relação a slogans de “transformação”.

Os executivos tendem a enquadrar a IA em termos estratégicos: margem, quota de mercado, expectativas dos investidores. Os colaboradores vivenciam-na de forma muito diferente: como mais monitorização, novos painéis para alimentar e o risco de serem substituídos ou remetidos para segundo plano. Quando os líderes falam apenas de tecnologia e não de identidade, significado e percursos de carreira, a adoção torna-se um choque cultural, e não um projeto partilhado.

Quando a tecnologia avança mais depressa do que a confiança, a resistência não é um bug do sistema; é um mecanismo de defesa racional.

A história da IgniteTech: quando a IA se torna uma doutrina corporativa

A empresa de software IgniteTech oferece um estudo de caso marcante. O seu CEO, Eric Vaughan, viu a IA generativa não como uma ferramenta, mas como uma bifurcação existencial. A partir de 2023, reorganizou o negócio em torno de princípios “AI-first”. Programas de formação, pipelines de projetos e até calendários semanais passaram a girar em torno da utilização e experimentação com IA.

A mensagem foi direta: adapta-te à IA ou ficas para trás. Para a liderança, isto era clareza. Para muitos colaboradores, soou a ultimato. Uma parte significativa da equipa recusou abraçar a nova direção e a empresa atravessou uma grande rotatividade, substituindo quem resistia por entusiastas de IA.

O resultado continua a ser debatido no mundo tecnológico. Alguns aplaudem a decisão firme. Outros veem nela um aviso: pressionar demasiado uma ideologia de IA não transforma a cultura - substitui-a.

A IgniteTech mostrou que é possível contratar rapidamente competências de IA, mas conquistar corações e hábitos é um processo muito mais lento.

Investir é fácil; o verdadeiro compromisso é difícil

O dinheiro está a afluir para projetos de IA. O mesmo relatório da Writer concluiu que as empresas com uma estratégia formal de IA têm muito mais probabilidade de considerar a implementação um sucesso: 80% classificam a adoção como eficaz, contra 37% entre as empresas que improvisam à medida que avançam.

Essa diferença sublinha o valor de um plano. No entanto, mesmo onde existem orçamentos e roteiros, a resistência humana vai corroendo silenciosamente o impacto. Um dado revelador: 41% dos millennials e dos colaboradores da Geração Z inquiridos admitiram ter sabotado deliberadamente iniciativas de IA. Por vezes, isso significou ignorar novas ferramentas. Outras vezes, significou saltar formações ou regressar subtilmente a processos antigos.

No papel, estes trabalhadores são os “nativos digitais” de quem se espera que liderem a adoção. Na prática, muitos não confiam na forma como a IA será usada. Será que vai tornar-se um instrumento de gestão de desempenho? Vai achatar as escadas de carreira? Vai canalizar mais poder para um pequeno grupo de líderes com literacia de dados?

O que a resistência realmente sinaliza

Os líderes descrevem muitas vezes a resistência como falta de competências ou medo da tecnologia. Os dados sugerem algo mais profundo: falta de confiança no rumo e em quem beneficia dele.

  • Alguns colaboradores receiam que a IA seja usada para justificar cortes de postos de trabalho sem comunicação honesta.
  • Outros temem que a sua perícia seja reduzida a “prompts” para um modelo que não controlam.
  • Alguns simplesmente não veem como a IA ajuda a sua carreira, apenas como acrescenta carga de reporte.

Estas preocupações são culturais, não técnicas. Não se resolve isto com um webinar de duas horas sobre engenharia de prompts.

De ferramentas a normas: como a IA remodela o trabalho do dia a dia

Assim que a IA fica integrada, começa a definir novas normas. Equipas que antes passavam dias em investigação ou redação conseguem agora entregar trabalho em horas. Parece positivo - até que as pessoas percebem que as expectativas sobem ao mesmo ritmo. “Se a IA faz isto em 10 minutos, porque é que ainda estás aqui?” fica muitas vezes subentendido, mesmo que nunca seja dito.

Aparecem novas regras informais:

Antes da IA Depois da IA
Trabalho profundo significava longas sessões de foco a solo. Trabalho profundo significa orquestrar humanos e modelos em conjunto.
A perícia estava ligada a saber as respostas. A perícia desloca-se para fazer melhores perguntas à IA.
O desempenho era medido pelo volume de output. O desempenho inclina-se para julgamento, curadoria e supervisão.
Os percursos de carreira recompensavam antiguidade e mestria funcional. Os percursos de carreira recompensam adaptabilidade e aprendizagem transversal.

Nas empresas em que os líderes explicam estas mudanças e ajustam definições de funções, a IA pode parecer uma melhoria. Onde isso não acontece, os colaboradores sentem-se avaliados por critérios que nunca foram claramente enunciados.

Desenhar uma cultura de IA em vez de esperar que ela aconteça

Algumas organizações estão a começar a tratar a cultura de IA como um problema de design, e não como um efeito colateral. Estão a definir normas explícitas sobre quando a IA pode ser usada, como os seus resultados são verificados e quem detém a decisão final. Estes “guarda-corpos” reduzem tanto o medo como a euforia.

Alavancas típicas incluem:

  • Orientações partilhadas sobre utilização aceitável de IA, incluindo linhas vermelhas para tarefas sensíveis.
  • Exemplos visíveis de líderes a usar IA, mostrando que a experimentação não é apenas para os mais juniores.
  • Tempo reservado no horário de trabalho para aprender e testar, para que o uso de IA não pareça horas extra não pagas.

A cultura muda quando a IA é enquadrada como uma competência que todos podem desenvolver, não como uma arma secreta para um grupo escolhido.

O que os colaboradores dizem realmente querer

Entrevistas e inquéritos internos em vários setores apontam para uma lista de desejos consistente de colaboradores confrontados com a adoção de IA:

  • Declarações claras sobre se a IA será usada para reduzir efetivos na sua área.
  • Percursos de requalificação concretos, financiados e ligados a funções reais, não promessas vagas.
  • Transparência sobre dados: o que é monitorizado, quem vê e com que finalidade.
  • Espaços para expressar ceticismo sem serem rotulados de “anti-tecnologia”.

Quando estas necessidades são atendidas, a resistência desce e a experimentação aumenta. Quando são ignoradas, a sabotagem silenciosa torna-se uma estratégia racional.

Termos-chave que os líderes continuam a interpretar mal

Duas expressões surgem repetidamente em discussões sobre IA e são frequentemente mal compreendidas.

“Aumentação” é usada para tranquilizar os colaboradores de que a IA irá apoiar, e não substituí-los. Para que isto seja credível, as empresas precisam de mostrar uma reformulação concreta dos postos de trabalho: tarefas removidas, cargas ajustadas, novas responsabilidades adicionadas. Se “aumentação” significar apenas “fazer o mesmo trabalho mais depressa com ferramentas adicionais”, os colaboradores vão ler isso como conversa fiada.

“IA responsável” é outra favorita. Para lá de declarações de ética, exige práticas do dia a dia: verificar resultados quanto a enviesamentos, registar quando humanos anulam decisões da IA e aceitar que dizer “não” a certos usos de IA é um sinal de força, não de fraqueza.

Cenários futuros: dois escritórios possíveis em 2028

Imagina duas empresas de média dimensão, ambas utilizadoras intensivas de IA, daqui a três anos. Na primeira, a IA está em todo o lado, mas quase não se fala dela. Os colaboradores copiam e colam a partir de ferramentas que mal compreendem. A gestão acompanha o desempenho com modelos opacos. A rotatividade é elevada; o envolvimento é baixo. A tecnologia “funciona”, mas a confiança foi corroída.

Na segunda, a IA é tratada mais como eletricidade do que como magia. É poderosa, esperada e, na maioria das vezes, banal. As equipas falam abertamente sobre quando ajuda e quando engana. As descrições de funções incluem competências de IA, mas também protegem tempo para julgamento humano, mentoria e trabalho criativo. As pessoas conhecem as contrapartidas e sentem que as podem influenciar.

Ambas as empresas usam IA avançada. A principal diferença está em quão a sério trataram a cultura nos primeiros anos: quem ouviram, o que tornaram explícito e onde aceitaram fricção de curto prazo para evitar fratura de longo prazo.

Para executivos que correm para implementar novos modelos, esta é a lição silenciosa que emerge dos primeiros adotantes: a IA não se limita a ligar-se à cultura. Reescreve-a, linha a linha, a menos que a liderança escolha o guião.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário