Predictable SurprisesEscrevi recentemente sobre a dificuldade que alguns líderes encontram em se comunicar com suas equipes, no que se convencionou chamar de Maldição do Conhecimento.

Tais falhas ocorrem, no mais das vezes, por um descasamento entre as visões de mundo de cada uma das partes (emissor/chefe e receptor/subordinado), fazendo com que um não entenda o que o outro está dizendo, gerando ruídos na transmissão da mensagem.

Mas problemas ocorrem, também, no sentido inverso: de baixo para cima, ou do subordinado para o chefe. Neste caso, no entanto, na maioria das vezes não há falha na interpretação da mensagem mas, em bom Português, sabotagem pura e simples. Senão vejamos:

No excelente Predictable Surprises, Max Bazerman e Michael Watkins explicam por que algumas coisas dão tão errado, mesmo quando há várias pistas sugerindo que um desastre é iminente. Dos atentados de 11 de setembro1 aos escândalos financeiro-contábeis da Enron e Arthur Andersen2, os autores acreditam que havia indícios suficientes de que, inevitavelmente, alguma coisa ali daria muito errado.

Analisando a história por trás de cada um destes e de outros casos, Bazerman e Watkins identificam alguns traços em comum que, juntos, justificam o paradoxal título Surpresas Previsíveis – definidas por eles como “um evento ou série de eventos que surpreendem um indivíduo ou um grupo, apesar do prévio conhecimento de toda a informação necessária para a antecipação do acontecimento e suas consequências”.

Um destes traços seria a tendência que as pessoas têm em filtrar a informação na medida em que ela sobe na escada hierárquica da empresa. “A tentação de represar ou embaralhar informações sensíveis, confusas ou embaraçosas é grande”, advertem Bazerman e Watkins. E isto acaba fazendo com que “aqueles no topo inevitavelmente recebam dados incompletos ou distorcidos”, completam os autores.

Por que razão, então, uma pessoa sabotaria sua própria empresa, passando adiante informações sabidamente incorretas ou sonegando outras de caráter vital? Um dos motivos seria evitar transparecer alguma incompetência e, assim, escapar da punição a ela associada. O resultado é que o problema omitido toma proporções bem maiores e, ao se transformar num desastre, fica difícil rastrear sua verdadeira causa. A verdade é que, na maioria das vezes, as organizações guardam todas as informações necessárias para reconhecer e evitar problemas emergentes, mas falham em ligar os pontos entre pessoas e departamentos.

Mais comuns do que podemos imaginar, estas situações ocorrem em ambientes onde as pessoas não têm permissão para tentar nem liberdade para errar. Chefes muito rigorosos e intolerantes criam equipes medrosas e formam times covardes, onde vale tudo para evitar ser castigado – inclusive mentir.

Prevenir Surpresas Previsíveis requer, então, algumas mudanças nas tradicionais formas de encarar os problemas, especialmente quando eles ainda não apareceram. Para evitar que a informação fique represada e fazer com que seu fluxo natural traga valor para a empresa – ou ao menos não lhe tire – é preciso cultivar um ambiente de integração e confiança. Deve-se mostrar que é seguro errar e que é melhor consertar pequenos desvios do que lamentar grandes catástrofes. E nunca, nunca mesmo, atirar no mensageiro.

O fato é que um ambiente onde as pessoas podem admitir seus erros e falhas contribui para a consolidação de um forte espírito de equipe, em que as pessoas se ajudam mutuamente e crescem juntas (quando uma pessoa espontaneamente confessa um erro ou uma mentira, o seu nível de confiança nela aumenta ou diminui?).

Para animar os comentários: alguma vez você já represou informação ou já sentiu que não lhe contaram toda a verdade? O que você faz para que o seu ambiente de trabalho seja honesto e as pessoas possam falar de seus erros com a mesma liberdade com que contam seus acertos? E que Surpresas Previsíveis você acha que dormem sorrateiras naquele empoeirado armário da sua empresa…?

__________

1. A maioria das medidas de segurança proposta pela Comissão Gore, em 1996 – como verificar se o passageiro que embarcou tal mala realmente está no avião, melhorar o scan de bagagens de mão (simulações mostraram que 13% das armas escondidas em malas passavam pelos raios-X), ou ter equipes de segurança melhores (naquela época as contratações eram baseadas em custos e, via de regra, um funcionário de segurança ganhava menos que um balconista do McDonald’s do próprio aeroporto e, frequentemente, não tinha seus antecedentes criminais checados) – simplesmente foi barrada pelo Congresso, motivada pelo forte lobbying da Indústria da Aviação.

2. Segundo Bazereman e Watkins, desde a criação da obrigatoriedade de auditoria de empresas públicas em 1934 através do SEC, armou-se uma bomba-relógio no mercado financeiro: “(…) as firmas de contabilidade/auditoria competiam umas com as outras por clientes baseadas, tipicamente, em reputação, escopo de serviços e honorários. Este erro fatal – dar às companhias o poder de manter ou demitir seus auditores – era uma bomba relógio no coração do sistema” (… accounting firms competed with each other for clients, typically on the basis of reputatiom, scope of services, and audit fee. This fatal flaw – giving companies the power to retain or fire their auditors – was a ticking bomb at the heart of the system. p. 46).

De 1993 a 1999 as receitas provenientes de consultorias nas Big Five (A. Andersen, Deloitte, KPMG, PriceWaterhouse e Ernest & Young) passaram de 54% para 70% dos seus faturamentos ao passo que, no mesmo período, as retificações de balanços de companhias americanas subiram de 32 para 207, num dos momentos de maiores euforias das bolsas mundiais.