Et si le problème n’était pas l’irrationnel… mais l’excès de rationalité ?
Pendant la guerre du Vietnam, les États-Unis ont misé sur les chiffres, les modèles, les tableaux de bord. Ils ont tout rationalisé, jusqu’au QI des populations locales. Résultat : un désastre militaire, stratégique et humain.
Derrière cet échec se cache un piège bien plus courant qu’on ne le pense — celui de croire que l’intelligence suffit pour bien décider.
La guerre du Vietnam : la guerre des chiffres
Robert McNamara, ancien président de Ford devenu secrétaire à la Défense sous Kennedy, était un homme de chiffres. Il croyait qu’avec assez de données, tout pouvait être prévisible, maîtrisé, calculable — même une guerre.
Au Vietnam, son approche était simple : transformer le conflit en équation.
Il mesure, quantifie, modélise. Il traque les indicateurs : nombre d’ennemis tués, ratio pertes/coûts, kilomètres de territoires « sécurisés », pourcentage de villages « pacifiés ». Même les capacités intellectuelles supposées des populations vietnamiennes sont prises en compte — en particulier à travers des mesures indirectes de QI et d’alphabétisation, servant à anticiper leur réaction « rationnelle » face à la puissance américaine.
Mais à force de réduire la guerre à des paramètres, McNamara oublie une chose : les humains ne sont pas des lignes de code.
Les biais d’une pensée « parfaite »
Ce que McNamara incarne, c’est une série de biais cognitifs massifs, déguisés en rigueur intellectuelle :
1. Le biais de simplification
Transformer un conflit asymétrique, culturel et idéologique en tableau Excel, c’est ignorer tout ce qui ne se compte pas : la peur, l’humiliation, l’attachement au territoire, les traumatismes historiques, la complexité des alliances tribales.
2. L’illusion de contrôle
Plus on mesure, plus on croit maîtriser. Mais mesurer n’est pas comprendre. Et dans un contexte chaotique, les indicateurs deviennent des leurres. Ils rassurent… tout en masquant l’échec.
3. La déshumanisation cognitive
En traitant l’ennemi comme une variable à optimiser, McNamara perd le lien avec la réalité humaine du terrain. Les Vietnamiens n’ont jamais réagi « rationnellement » selon les projections américaines — parce que la rationalité n’est pas universelle, et surtout pas neutre.
4. Le biais de surconfiance
McNamara, diplômé de Harvard, archétype du « smart guy », surestime sa capacité à comprendre une guerre à travers un prisme intellectuel occidental. L’échec devient inévitable dès lors que l’on pense que « penser fort » suffit.
La guerre du Vietnam : une leçon toujours ignorée
Ce qui s’est joué pendant la guerre du Vietnam ne concerne pas seulement les militaires.
C’est une leçon pour chaque dirigeant, chaque expert, chaque individu qui pense pouvoir « piloter » la complexité humaine par la seule logique.
Aujourd’hui encore, dans les grandes entreprises, dans les politiques publiques, dans les stratégies marketing, on retrouve le syndrome McNamara : trop de données, pas assez d’écoute ; trop de prédictions, pas assez d’humilité ; trop de cerveaux brillants, pas assez d’ancrage dans le réel.
Penser mieux, ce n’est pas penser plus
McNamara n’était pas bête. Il était brillant. C’est justement le problème.
Le cerveau humain a cette tendance toxique à croire qu’il peut décoder le monde à force d’intelligence.
Mais penser mieux, ce n’est pas penser plus fort. C’est apprendre à douter de ses modèles. C’est accepter que certaines vérités n’entrent pas dans une matrice. Et surtout, c’est ne jamais oublier que ce qu’on comprend le moins… ce sont les humains eux-mêmes.
Tu veux apprendre à voir ces biais dans tes propres décisions ?
Lis aussi :
Laisser un commentaire