Por Maria Luiza Reis, DSC.
Uma recente tragédia noticiada nos jornais – a morte de uma criança devido a um erro de prescrição médica – vai além de uma falha clínica isolada. A médica reconheceu o equívoco, e a técnica de enfermagem admitiu ter estranhado a dosagem, mas aplicou-a mesmo assim por seguir ordens. Este caso, para além das investigações cabíveis, serve como um alerta severo sobre a cultura do trabalho em equipe na sociedade moderna.
A premissa fundamental de qualquer sistema coletivo é a de que pessoas falham. O antídoto para essa falibilidade inerente não é a infalibilidade individual, mas a vigilância colaborativa.
Trabalhamos em grupo justamente para que um olho critique o outro, para que uma percepção diferente intercepte um erro antes que se torne uma tragédia. A pergunta crucial é: ainda sabemos trabalhar assim?
Há uma sensação crescente de que o individualismo está corroendo este princípio. Muitas vezes, profissionais reduzem seu escopo de responsabilidade a uma lista fechada de tarefas, como se seu compromisso ético e intelectual terminasse nas bordas de sua função. “Não é minha função” ou “Já tenho problemas suficientes” tornam-se mantras que isolam e fragilizam todo o sistema.
Este comportamento tem um custo altíssimo. Equipes ou instituições que veem com desdém questionamentos e críticas construtivas criam uma cultura do silêncio. Neste ambiente, evitar constrangimentos ou conflitos torna-se mais importante do que evitar desastres. O profissional com visão crítica, essencial para a resiliência do grupo, é tolhido ou marginalizado.
Aqui reside um paradoxo perigoso: ao nos comportarmos como robôs – executando ordens sem questionar, focando apenas em processos predefinidos –, nós mesmos pavimentamos o caminho para nossa substituição. A automação e a IA avançam exatamente em tarefas repetitivas, baseadas em regras e com escopo limitado.
Mas a tragédia citada expõe justamente o que máquinas não podem oferecer: responsabilidade ética, empatia e julgamento contextual. Um robô pode acumular todo o conhecimento médico do mundo e ser infinitamente rápido, mas:
– Ele não pode assumir responsabilidade por um erro, apenas apontar sua possível ocorrência;
– Ele não sente o desconforto da empatia que faz uma técnica estranhar uma dose anormal para uma criança;
– Ele não busca soluções para problemas fora de seu escopo inicial porque não tem um “escopo moral”, apenas um técnico.
Pior: podemos estar criando um precedente absurdo. Um robô pode errar tanto ou mais que um humano, mas a culpa, por definição, sempre recairá sobre um ser humano – o programador, o supervisor, a instituição. Esta transferência de responsabilidade não torna o sistema mais seguro; ela dilui a accountability e afasta dos postos de liderança justamente aqueles que teriam a coragem de assumir a responsabilidade pelo todo.
O verdadeiro antídoto, portanto, não é mais tecnologia cega, mas a reafirmação corajosa do que nos faz humanos no trabalho: a coragem de questionar, o compromisso com o resultado coletivo (e não apenas com a tarefa individual) e a empatia que nos faz nos importar com as consequências de nossos atos – e dos atos dos nossos colegas.
A máxima perigosa não é “robôs vão substituir pessoas”, mas “pessoas que se comportam como robôs já se tornaram substituíveis”. Nosso valor futuro não estará em executar ordens, mas em ter o discernimento para, quando necessário, quistioná-las em nome de um bem maior. É essa humanidade, intransferível e complexa, que ainda nos torna insubstituíveis e capazes de evitar as tragédias mais evitáveis.

Maria Luiza Reis é CEO da Maps245, VP Confederação Assespro, VP Assespro RJ, Conselheira ABES Software e Diretora da ABEINFO.
*Artigo originalmente publicado no IT Portal em 26 de dezembro de 2025



