Mois : avril 2013

De l’administration des batailles: les fonctions historiques et contemporaines de l’état-major général

Introduction

L’état-major général constitue en quelque sorte le « cerveau » d’une armée sur les champs de bataille. Ayant pris des formes plus ou moins improvisées depuis l’Antiquité, à une époque où les sources nous révèlent les premières grandes manifestations collectives de la pratique de la guerre, l’état-major général fut érigé en un véritable système à l’ère des guerres napoléoniennes. Dès lors, l’état-major général évolua rapidement, mais disons que de tout temps, il consista en un corps de spécialistes qui se consacrèrent à la planification et à l’exécution d’opérations à différents échelons de l’appareil militaire.

Les plus anciennes traces de la pratique de la guerre démontrent ce besoin quasi inné des hommes, et en particulier des « chefs », de se consulter avant, pendant et même après avoir affronté un groupe ennemi, dans la victoire comme dans la défaite. Les grands commandants de l’époque antique jusqu’à la Renaissance disposèrent de ce que l’on appelle de nos jours un « état-major général ». Par contre, ces militaires qui assistèrent leurs chefs furent la plupart du temps des spécialistes du ravitaillement, des ingénieurs, des messagers et des clercs, bref, des soldats qui furent essentiellement des exécutants et non pas des théoriciens de l’art de la guerre. Souvent, il ne s’agissait même pas de militaires, mais de civils se trouvant temporairement au service des armées du monarque.

Le contexte napoléonien: contrôler les armées

Ce type d’organisation de l’état-major général survécut sans trop de modifications importantes jusqu’au XIXe siècle. Cependant, les conséquences politiques et militaires de l’époque des Lumières et de la Révolution à la fin du XVIIIe et au début du XIXe siècle engendrèrent une complexification accrue de l’art de la guerre, ce qui mit conséquemment davantage de pression sur les généraux et les manières avec lesquelles ils exercèrent leur leadership en pleine bataille. Dans les faits, aucun général de l’époque, même parmi les plus grands comme Napoléon Bonaparte, n’échappa à cette règle voulant que pour réussir sur les champs de bataille, il fallût étudier, étudier et encore étudier.

Avec l’introduction de la conscription nationale, dans le cadre d’une levée en masse (la nation en armes), la taille des armées de campagne augmenta dramatiquement. Sans trop exagérer, de l’époque antique jusqu’à celle des Lumières en Occident, il était rare que les forces rassemblées par une nation ou un royaume pour une campagne particulière dépassent les 40,000 ou 50,000 combattants. Or, il s’avéra que Napoléon prit en 1812 la direction d’une armée d’environ 600,000 hommes pour sa campagne en Russie. L’un des points à retenir de cet épisode est le suivant: Napoléon perdit le contrôle de sa gigantesque armée.

Auparavant, une armée de campagne aux effectifs « raisonnables » signifiait que toutes ses unités se trouvaient dans le champ de vision de son commandant, si bien que sa direction et la gestion de ses communications pouvaient se faire de vive voix, au son du clairon, avec des bannières ou par l’entremise d’estafettes. Par contre, pour des raisons logistiques évidentes, les grandes armées de l’époque napoléonienne durent marcher en corps séparés, d’une distance maximale d’un jour de marche (20-30 kilomètres) afin de maintenir une liaison minimale. Ces corps avancèrent sur différents réseaux routiers afin de minimiser les effets du trafic et de trouver davantage de sources de ravitaillement. Lorsque le commandant jugea venu le moment de livrer bataille, il dut s’assurer que toutes ses unités soient fraîches et disposes, qu’elles soient déployées dans la bonne séquence et au bon endroit, tout en prenant soin de communiquer efficacement à tous les commandants subordonnés les informations pertinentes sur le dispositif ennemi.

Malade et fatigué le jour de la bataille de Borodino (1812), Napoléon put néanmoins compter sur une équipe d’officiers de son état-major qui l’assistèrent dans l’analyse de la bataille en cours et des décisions à prendre. L’administration de grandes armées soulève toujours des contraintes récurrentes, comme le déplacement d’unités, la gestion des communications, le ravitaillement, etc. La bataille met aussi à rude épreuve les nerfs des officiers d’état-major, ne serait-ce que pour garder son calme sous le feu ennemi tout en analysant la situation.

Par ailleurs, plusieurs organisations militaires à travers l’Histoire, que ce soit de l’époque d’Alexandre le Grand jusqu’à celle de Napoléon, durent affronter un problème qui vexa et déconcentra l’attention du plus brillant des généraux, à savoir la dualité politico-militaire de leurs fonctions, qu’il soit sur le champ de bataille ou non. Des chefs d’État en campagne durent effectivement gérer les affaires domestiques, tout en demeurant attentifs aux opérations en cours, d’où l’importance d’avoir une équipe de gens compétents pour les seconder dans le difficile exercice du commandement.

De l’administration des batailles: l’école prussienne

La majorité des puissances européennes maintinrent de larges armées au lendemain des guerres napoléoniennes. Le potentiel en bassin d’hommes offert par l’augmentation de leur population respective signifia que les futures confrontations de grande ampleur verraient la marche de millions d’individus sous les drapeaux. Comme on peut l’imaginer désormais, la conscription, l’entraînement, l’équipement et l’enrégimentement de telles quantités d’hommes, combinés aux dispositions relatives à leur transport et à leur ravitaillement, représentèrent un défi de taille pour l’état-major général de chaque armée.

Dans cette optique, le fait que la Prusse fut le premier État à avoir résolu de tels problèmes s’explique en grande partie par ses contraintes géostratégiques. Face à des ennemis représentant au moins deux fois sa puissance et localisés sur trois fronts distincts, la Prusse fut « habituée » à affronter de tels dilemmes stratégiques. En imposant un service militaire obligatoire sur une plus courte durée, elle put entretenir une plus large (et moins coûteuse) armée de réserve qui put atténuer le déséquilibre de puissance évoqué.

Cela dit, les progrès techniques en matière de transports et de communications, nés de l’avènement du chemin de fer et du télégraphe, rendirent théoriquement possible le rappel massif des réservistes de leurs dépôts à travers le pays, pour ensuite transporter leurs régiments vers des zones de rassemblement aux frontières, former des corps d’armée, et maintenir leur ravitaillement pour les opérations à entamer. Tout cela, il fallut le faire en l’espace de quelques jours. C’est ainsi que l’étude scientifique des horaires des chemins de fer, par des officiers formés dans l’art de la mobilisation et du rassemblement des troupes en prévision de campagnes, devint une branche spécialisée de l’état-major général.

Une fois mise en mouvement, l’armée de campagne avait toujours besoin de moyens de commandement et de contrôle, si elle voulait être en mesure de manœuvrer et de combattre avec cohésion sur le champ de bataille. Les carences en entraînement observées à la mobilisation parmi les hommes du rang et les officiers des unités de réserve, qui souvent quittèrent du jour au lendemain la vie civile pour vêtir à nouveau l’uniforme, firent en sorte qu’il fallut établir une doctrine standard et des règles uniformes à toute l’armée. Ainsi, les idiosyncrasies se limiteraient au style de leadership des commandants de hauts rangs, mais les missions et les mouvements de chaque unité devraient en tout temps se conformer aux plans préétablis par l’état-major général. L’émission effective, la coordination et l’interprétation des ordres jouèrent toutes en faveur de l’accroissement du nombre d’officiers spécialisés dans des tâches d’état-major. L’idée n’étant pas de tuer l’esprit d’initiative des officiers les plus industrieux (nécessité faisant loi parfois), mais bien d’éviter de faire cavalier seul.

Dans ce contexte, le cas prussien demeure une fois de plus précurseur. Les officiers de l’armée qui apparurent les plus talentueux se firent temporairement retirer leurs commandements auprès de leurs troupes afin de suivre des cours intensifs d’état-major général à la Kriegsakademie. En clair, les jeunes officiers qui sortiraient de l’académie de guerre deviendraient, pour nombre d’entre eux, les futurs généraux de l’armée prussienne (allemande). Revenus dans leurs unités, tout en alternant l’exercice du commandement avec d’autres séjours à l’académie, ces officiers mettraient à jour leurs connaissances, que ce soit en matière de tactiques ou du maintien des connaissances générales nécessaires pour le travail au sein d’états-majors. En cas de mobilisation et de déclaration de guerre, plusieurs officiers de l’état-major général seraient affectés à des fonctions importantes, comme celles de chefs d’état-major, ou officiers chargés des opérations au sein de grandes unités de l’armée prussienne (et plus tard de l’armée allemande).

Par conséquent, chaque commandant sur le terrain avait à sa disposition une équipe d’officiers spécialisés dans des tâches d’état-major, des officiers capables de lire, de discuter, d’expliquer et de transmettre les ordres les plus détaillés et complexes, laissant ainsi le commandant libre d’exercer son leadership et ses habiletés de commandement tactique. Au plus haut échelon de l’organisation militaire, le chef d’état-major général accompagnait le monarque, le commandant en chef titulaire, en lui servant de principal conseiller. Le rôle du chef d’état-major général était de voir à ce que les ordres soient cohérents, conformes avec la doctrine militaire du moment et allant de pair avec les compétences des officiers à les rendre intelligibles.

L’état-major général allemand au tournant du XXe siècle. Titulaire du poste de commandant suprême de par son titre royal, l’empereur Guillaume II se fia davantage aux compétences et à l’expérience de ses généraux dans l’administration et le commandement de ses armées lorsqu’éclata la Première Guerre mondiale en 1914.

Contrairement à ce qui est véhiculé parfois dans une certaine littérature, l’organisation de l’état-major général n’était pas si rigide, au point d’élaborer des plans militaires ne faisant aucune place à l’imprévu. Les futurs officiers d’état-major qui fréquentèrent les académies de guerre apprirent également certaines notions relatives à la chance, à l’imprévu et à l’importance de se donner une marge de manœuvre en cas de pépins dans la conduite des campagnes. Tout cela s’inspirait directement des enseignements de Carl von Clausewitz.

Par contre, il était évident que les officiers affectés à l’état-major général devaient faire preuve de discipline et de méthodologie dans leur travail consistant à administrer une grande armée en campagne. D’une autre manière, leurs expertises et façons de faire constituèrent une sorte de « révolution administrative » dans l’organisation du travail, révolution qui s’inscrivit dans l’ère industrielle du XIXe siècle. Ayant ainsi été en campagne avec un tel état-major général professionnel, l’armée prussienne livra une série de guerres aux conclusions victorieuses de 1864 à 1871, mettant ainsi à genou trois pays voisins et permettant la naissance d’un nouvel empire allemand. Lors de chaque conflit, l’habileté des Prussiens à mobiliser et déplacer une armée en campagne plus rapidement que leurs adversaires leur conféra un avantage énorme. De plus, toujours sur le terrain, la plus forte cohésion obtenue par la transmission rapide et l’interprétation adéquate des ordres permit aux manœuvres opérationnelles de se dérouler avec moins de difficultés pour les commandants prussiens (malgré certaines erreurs difficilement évitables).

Et il faut dire que l’habileté déconcertante avec laquelle l’armée prussienne performa lors des guerres d’unification de l’Allemagne illustra la nécessité pour l’ensemble des armées du monde de l’époque de procéder à une réforme urgente de leurs états-majors généraux respectifs, même au sein des plus petites armées éloignées de la poudrière européenne comme celle des États-Unis. D’ailleurs, le haut degré d’efficacité de l’état-major général allemand fut remarqué à maintes reprises par les Alliés lors de la Première Guerre mondiale, si bien que ces derniers, vainqueurs, allèrent même jusqu’à interdire son existence dans le traité ayant mis fin aux hostilités.

Dans les faits, et plus sérieusement, toutes les armées adoptèrent le principe, sinon la copie conforme, du modèle d’état-major général allemand. Le lecteur aura également compris que notre analyse fit essentiellement allusion à la branche terrestre des armées. Curieusement, il n’y a pas eu d’équivalents réels de développements d’un état-major général pour les marines de guerre, et ce, même si celles-ci disposèrent de réserves mobilisables avant la guerre de 1914-1918, qu’elles pratiquèrent des manœuvres et qu’elles envoyèrent leurs officiers dans des académies militaires.

Conclusion

Ce fut surtout à partir de la Seconde Guerre mondiale que les armées des grandes puissances envisagèrent la fusion des différents états-majors généraux en un seul, que ce soit en combinant des services pour des raisons d’économies ou dans l’optique de développer l’approche interarmes. Dans ce contexte particulier, la formation d’une coalition multinationale chez les Alliés leur donna un avantage supplémentaire, dans la mesure où il leur fut plus commode d’élaborer une direction stratégique d’ensemble, ce que les puissances de l’Axe ne purent accomplir avec succès.

De nos jours, dans une époque qui nous semble bien lointaine de celles des guerres totales et des luttes à finir entre civilisations, les états-majors généraux, ceux qui étaient sur les champs de bataille, dans le bruit, la poussière et la fureur, et bien ces mêmes corps évoluèrent à leur tour. Les armées professionnelles modernes ont moins d’effectifs en temps de paix, mais les avancées technologiques maintiennent ce besoin d’avoir des officiers formés pour l’accomplissement de tâches d’état-major. Certes, les armées se sont « bureaucratisées », mais il ne faut pas y voir une tare. Après tout, chaque militaire, peu importe sa fonction, est un combattant à la base.

Publicités

L’Homme et son arme : brève histoire des technologies de l’armement (2e partie)

 (Première partie)

L’ère de l’industrialisation : XIXe siècle

Les travaux de l’Écossais James Watt fournirent la poussée nécessaire à l’avancement des technologies de l’armement dans une optique d’une association claire entre la standardisation et l’industrialisation. Source: old-print.com

L’ère de l’industrialisation en matière d’armements, que nous faisons vulgairement commencer au début du XIXe siècle, doit prendre en compte ce problème de périodisation entre le dernier quart du XVIIIe siècle jusqu’au premier quart du siècle suivant. Les historiens s’entendent généralement pour dire qu’on assiste à une certaine « industrialisation », voire une proto-industrialisation de l’Angleterre dès le milieu du XVIIIe siècle, en particulier avec l’introduction de la machine à vapeur. Cependant, en matière d’armements, la vapeur eut certes un impact majeur, mais elle ne doit pas être associée automatiquement à une standardisation de la production d’armes militaires. Voilà pourquoi, à notre avis, il est plus difficile de couper au couteau la fin et le début de deux périodes de l’Histoire qui virent d’importantes réalisations.

Cela dit, les travaux de l’Écossais James Watt à la fin du XVIIIe siècle fournirent la poussée nécessaire à l’avancement des technologies de l’armement dans une optique d’une association claire entre la standardisation et l’industrialisation. Au départ, la vapeur servait essentiellement à des fins civiles comme le pompage de l’eau des mines. Par la suite, la vapeur fut mise à contribution dans la fabrication du tour à fileter à l’arsenal de Woolwich, sous la direction d’Henry Maudslay. Cette dernière invention allait avoir un impact décisif dans la production de masse d’armes à feu et de pièces d’artillerie. En mer, la seconde moitié du XIXe siècle vit également la vapeur remplacer progressivement la voile comme source primaire de propulsion des navires de guerre, les libérant ainsi de leur dépendance aux caprices des vents.

Donc, au lendemain des Guerres napoléoniennes, toutes ces innovations technologiques et industrielles auront des impacts majeurs sur les pratiques de la guerre future. En matière de transport des troupes, la locomotive inventée par George Stephenson facilita les déploiements rapides des hommes et du ravitaillement sur de vastes distances grâce aux chemins de fer. D’ailleurs, les observateurs européens témoins de l’établissement de la première ligne de chemin de fer reliant Liverpool à Manchester en 1830 comprirent rapidement tout le potentiel du train à vapeur à des fins militaires. Même chose en mer, où Robert Fulton inventa la première véritable canonnière en 1807 patrouillant la rivière Hudson jusqu’à Albany dans l’État de New York aux États-Unis.

Toujours en Amérique, les communications aux fins militaires bénéficieront de l’invention de Samuel Morse et de son télégraphe mis au point en 1837. Pour sa part, la science de la métallurgie ne fut pas en reste au XIXe siècle avec l’introduction de nouveaux alliages plus résistants. De plus, vers 1850, des modèles de canons à chargement par la culasse firent leur apparition, tout comme des canons rayés en acier avec de premiers mécanismes d’absorption du recul furent introduits dans les artilleries européennes. Parallèlement, les fusils et armes de poing connurent des développements similaires, en particulier au niveau de l’amélioration de leurs cadences de tir et de leurs portées, à un point tel que la Guerre civile américaine est fréquemment considérée par les historiens comme le premier véritable conflit de type « industriel », sinon « moderne ».

Probablement le conflit le plus meurtrier en Occident au XIXe siècle, la Guerre de Sécession aux États-Unis fut un choc pour les contemporains au niveau de l’ampleur des pertes humaines, certes, mais particulièrement face à une implicite prise de conscience à l’effet que l’on vit concrètement les effets d’armes qui, au fond, étaient en développement depuis quelques décennies, mais dont la relative paix en Europe suivant la chute de Napoléon amena un certain dénigrement de ces technologies. Par exemple, l’armurier et inventeur Johann Nicolaus von Dreyse travailla dès les années 1820 sur un fusil à percussion à aiguille rechargeable par une culasse, mais dont le premier modèle ne fut adopté comme arme d’ordonnance par l’armée prussienne qu’en 1841.

Les manufacturiers d’armes du début de l’ère de l’industrialisation au XIXe siècle avaient toujours comme préoccupation la puissance et la portée effective de leurs produits. Cependant, d’autres facteurs finirent par s’inviter, comme le besoin d’armées toujours plus nombreuses de fournir la dotation nécessaire d’armes à leurs troupes, en plus de voir à la standardisation de ces outils. Le concept même d’interchangeabilité est partie intégrante de la réflexion au XIXe siècle en matière d’armements.

Sur un plan plus politique, notons qu’en dépit d’une paix post-napoléonienne relative, les différentes révolutions de 1848 en Europe amenèrent les États à investir davantage dans la recherche et les technologies de l’armement. L’idée étant, non sans surprise, pour les États de posséder des armes de technologie supérieure à celles des insurgés.

Mais le qualificatif de « relatif » afin de décrire la paix européenne du milieu du XIXe siècle trahit certaines réalités, où les puissances cherchèrent néanmoins à s’affronter, entre autres pour tester par la bande des technologies dont les preuves restèrent à faire. La bataille navale de Sinope du 30 novembre 1853 entre les flottes russe et ottomane vit la terrible efficacité des canons russes utilisant de véritables obus. Ce premier épisode de la Guerre de Crimée fut suivi par d’autres où la France et l’Angleterre durent intervenir et où leurs armées apprirent de douloureuses leçons. Par exemple, la Guerre de Crimée fit clairement la démonstration que désormais, la cavalerie ne parvînt plus à percer ou briser une formation d’infanterie bien équipée et disciplinée. En mer, les Français introduisirent des batteries d’artillerie flottantes qui, bien que n’étant pas de véritables navires de guerre selon une définition moderne, amenèrent les marines européennes à se doter graduellement de bâtiments métalliques propulsés par la vapeur.

Mais comme nous le mentionnions, ce fut la Guerre de Sécession aux États-Unis qui retint l’attention comme étant apparemment le premier conflit de l’ère industrielle, d’après l’ensemble des paramètres évoqués au début de cette section (vapeur, industrie, standardisation, etc.). En fait, disons que certains incidents nous amènent à une telle conclusion. Le premier affrontement connu entre deux navires cuirassés à coque en fer se déroula dans les eaux de Hampton Roads près de la Virginie en 1862. Considérée comme un match nul, la bataille représente une victoire incontestée du fer et de la vapeur sur le bois et la voile traditionnels.

Considérée parmi les premiers conflits majeurs de l’ère industrielle, la Guerre civile américaine de 1861 à 1865 peut presque être qualifiée de « totale » si l’on considère l’ampleur des ressources humaines, financières et matérielles y ayant été investies. Dans le cas qui nous intéresse, la capacité pour les belligérants de livrer à temps et en nombre suffisant des armes efficaces aux pièces standardisées fit souvent la différence entre la victoire et la défaite.

Sur terre, la Guerre civile américaine en fut également une de déplacements de troupes sur de longues distances en chemin de fer, parfois même en terrain difficile. À noter par contre qu’à lui seul, le chemin de fer ne suffisait pas à garantir l’efficacité des déploiements. L’usage du train devait se faire en conjonction avec le télégraphe, si bien que des campagnes militaires pouvaient se gagner ou se perdre presque uniquement en raison de considérations logistiques, où le temps devenait un élément qui avait nettement remonté dans la liste des priorités stratégiques et tactiques des commandants.

L’autre difficulté constatée pendant la Guerre civile américaine est que, justement, les généraux se trouvèrent à commander des armées aux effectifs beaucoup plus larges, même plus importants qu’au plus fort des Guerres napoléoniennes par exemple. Ce conflit en fut également un où l’introduction de fusils et de canons rayés modifia en profondeur les équations tactiques. La cadence rapide et la puissance décuplée du feu firent en sorte qu’il devenait désormais suicidaire pour une force d’infanterie de se tenir en rangs serrés face à l’ennemi.

Au plan stratégique, cette industrialisation du conflit dicte une autre variable, à savoir qu’à terme, le camp qui possède la plus importante force industrielle devrait normalement l’emporter. Disposant davantage d’infrastructures industrielles que le Sud à l’économie plus agraire, le Nord avait de fortes chances de l’emporter, pour autant que ses armées puissent contenir celles de l’ennemi aux endroits stratégiques. La fin de la Guerre civile américaine vit aussi la mise en service d’un prototype de mitrailleuse, la Gatling. Bien que n’ayant pas eu de véritables impacts, car elle fut introduite sur le tard, elle inspira d’autres inventeurs. L’un d’eux fut Hiram Maxim qui s’en inspira et conçut en 1885 sa propre mitrailleuse automatique portant son nom (la Gatling fonctionnant par l’action d’une manivelle). La Maxim et ses dérivés figurent parmi les armes les plus destructives jusqu’à ce jour.

Pour paraphraser un ami de Sir Hiram Maxim: « Si tu veux faire de l’argent, invente une machine qui permettra aux Européens de s’entretuer. » C’est ce qu’il fit. Ici, Hiram Maxim posant avec sa mitrailleuse dans les années 1880. Il est considéré comme l’inventeur de la première mitrailleuse automatique telle qu’on la connaît de nos jours.

Observée par de nombreux militaires européens sur place, la Guerre de Sécession amena les puissances du Vieux Continent à investir de plus en plus en recherche dans le dernier quart du XIXe siècle. De gros joueurs industriels tels Vickers en Angleterre, Schneider-Creusot en France et Krupp en Allemagne réalisèrent d’énormes profits au cours de cette période qualifiée de « paix armée », à savoir la période suivant la fin de la Guerre franco-prussienne en 1871 jusqu’au début de la Première Guerre mondiale en 1914. Ce que l’on peut appeler de nos jours le « complexe militaro-industriel » est véritablement né à cette époque. Autrement dit, on a à faire à des États qui dépendent de plus en plus des corporations qui elles, en retour, dépendent des contrats gouvernementaux.

Les technologies : de la « paix armée » à la guerre totale (1871-1945)

Les quelques décennies qui marquèrent la fin de la Guerre franco-prussienne (1870-1871) jusqu’à la Seconde Guerre mondiale connurent des développements encore plus importants. D’abord, cette période voit la confirmation de la vapeur comme mode principal de propulsion des navires de guerre, tout comme l’acier fait son chemin et devient une matière privilégiée dans la fabrication d’armements, supplantant ainsi des matériaux moins résistants comme le bois. D’ailleurs, les avancées scientifiques permirent de meilleurs coulages de l’acier, le rendant plus résistant, notamment en raison de la disponibilité accrue de métaux tel le nickel.

Ce fut également une période, du moins jusqu’à la fin de la guerre de 1914-1918, où les principales puissances mondiales cherchèrent à mettre en service les meilleurs marines de guerre pour le contrôle des mers, si bien que, comme nous le mentionnions, des consortiums se formèrent pour vendre leurs ressources métallurgiques et technologiques aux plus offrants. Par exemple, l’industrie put offrir aux États et à leurs marines militaires de puissants canons rayés à rechargement par la culasse, augmentant ainsi leur portée de tir et leur puissance de feu. Naturellement, les coûts de ces nouvelles technologies étaient exorbitants et seules les grandes puissances de l’époque purent se procurer de tels équipements, tout en investissant dans la recherche et autres coûts de production.

Un exemple de cuirassé britannique de type Dreadnought modèle 1906. Symbole par excellence de puissance navale, il fut à l’origine d’une véritable course à l’armement entre les grandes puissances à partir de la dernière décennie du XIXe siècle en particulier jusqu’au début de la Première Guerre mondiale.

Dans notre esprit, le tournant du XXe siècle fut extrêmement innovateur en matière d’armements et le domaine naval retient la plupart du temps l’attention. Rappelons que la Grande-Bretagne mit en service son célèbre H.M.S. Dreadnought en 1906, qui révolutionna littéralement le petit monde de la guerre navale. Vers la même époque, le développement de l’arme sous-marine connut d’intéressantes percées, entre autres grâce aux travaux de l’Américain John Holland. Contrairement aux embarcations de surface, il semble que les puissances de l’époque prirent un certain temps à réaliser tout le potentiel du sous-marin à des fins offensives, même que les Allemands rejetèrent l’idée, dans un premier temps, d’inclure cet engin à leur arsenal naval. Ce ne fut qu’avec l’introduction de la torpille de l’ingénieur anglais Robert Whitehead que l’on réalisa tout le potentiel du sous-marin comme arme offensive. Là encore, son utilisation stratégique et tactique n’était pas claire. Pas assez puissant pour couler des navires de type Dreadnought, jugea-t-on, l’utilisation du sous-marin pour l’attaque de navires commerciaux ne fut guère envisagée avant le début de la guerre de 1914-1918. Pourtant, l’on savait que le sous-marin pouvait être furtif et qu’il pouvait lancer une torpille au moment opportun, et ce, sans que la cible ne puisse faire à temps des manœuvres évasives.

Dans les airs, la décennie précédant le début de la Première Guerre mondiale vit le développement de l’aviation, quoique là encore, il fallut attendre les années de guerre pour y constater une véritable envolée, sans mauvais jeu de mots. Au commencement, les Allemands préférèrent des embarcations plus légères que l’air comme le Zeppelin et leur argument pouvait se tenir, car le Zeppelin pouvait parcourir des distances nettement plus grandes que l’avion et que sa capacité de transport de bombes et autres projectiles ne se comparait même pas aux engins plus lourds que l’air. Cependant, les dirigeables et leur cargaison d’hydrogène les rendaient hautement inflammables et il était possible de les détruire soit par une version improvisée d’artillerie antiaérienne (là encore, cela restait à développer), mais sinon, de manière plus efficace, en envoyant des avions pour tenter de les abattre. Bref, le plus lourd que l’air finit par dominer le ciel.

Et lorsque éclata la guerre de 1914-1918, la confrontation entre les armes modernes et les tactiques issues du précédent quart de siècle fut terrible. La doctrine de l’offensive en rangs serrés pour l’infanterie et la cavalerie, face à un ennemi bien retranché et équipé de mitrailleuses et d’artillerie à tir rapide, ne fonctionna tout simplement pas. Le problème est bien connu, mais ce que l’on retient de la Première Guerre mondiale, dans l’optique de ce papier, c’est de voir à quel point elle fut un véritable laboratoire d’expérimentations. Bref, la mitrailleuse pouvait tuer ou blesser des milliers d’hommes en l’espace de quelques heures.

Dans les airs, la première utilisation de l’aviation à des fins militaires s’était vue lors de la Guerre italo-turque de 1911-1912, où quelques avions et dirigeables avaient été utilisés essentiellement à des fins de reconnaissance. Plus tard, lorsque équipés de mitrailleuses et de bombes, les avions pouvaient à leur tour répandre la mort, tout en préservant naturellement leurs fonctions de reconnaissance des positions et des déplacements ennemis.

Reproduction d’un appareil français de type Blériot XI tel qu’utilisé par les Italiens lors de vols de reconnaissance au-dessus des lignes turques pendant la Guerre italo-turque de 1911-1912.

L’air en lui-même devint aussi un instrument de mort avec l’introduction des gaz de combat, où des milliers de soldats moururent asphyxiés ou du moins aux prises avec de sérieuses difficultés respiratoires pour le restant de leurs jours. La guerre de 1914-1918 vit également l’introduction du lance-flammes, une arme essentiellement utilisée pour terminer le « nettoyage » d’une tranchée ennemie lorsque la première vague d’assaut d’infanterie poursuivit son avance.

Bref, la guerre de 1914-1918 fit la claire démonstration que des tactiques du XIXe siècle ne cadrèrent tout simplement pas avec la puissance de feu d’armes modernes. L’artillerie fut de loin l’arme la plus mortelle, responsable à elle seule de la moitié des pertes du conflit. Des canons de calibres auparavant jamais vus pouvaient détruire en l’espace de quelques jours de puissantes forteresses qui avaient coûté des fortunes aux différents trésors publics. Le siège de Liège en août 1914 constitue l’exemple classique à cet égard. Des obus hautement explosifs pouvaient également pulvériser en un rien de temps des tranchées finement élaborées. Paradoxalement, l’intensité des barrages d’artillerie censés tout détruire et ouvrir le chemin à une infanterie attaquante s’avéra souvent inefficace à briser le système défensif adverse.

Et au sortir de 1918, face à l’ampleur du carnage et des dévastations, le monde aurait pu naïvement croire que cette guerre de quatre ans aurait été la dernière, la « der des ders », et du coup mettre un frein à toute évolution en matière d’armements. Dans les faits, c’est exactement le contraire qui se passa. Un certain pacifisme d’entre-deux-guerres ne fit littéralement pas le poids devant la créativité des inventeurs et surtout face aux désirs des gouvernements de poursuivre la modernisation de leurs armées, et ce, même si des discours officiels d’époque pouvaient laisser croire le contraire étant donné que les budgets de défense avaient été considérablement réduits. Lorsque débuta la Seconde Guerre mondiale en 1939, le monde vit l’apparition de nouvelles armes encore plus destructrices que celles des décennies précédentes.

Dans l’entre-deux-guerres, notons le perfectionnement de technologies telles que le porte-avions, ce qui permit à ses utilisateurs d’atteindre des cibles navales et terrestres à partir de la mer. L’attaque japonaise contre la base navale américaine de Pearl Harbor en décembre 1941 en constitue le premier exemple classique. Par ailleurs, alors que le cuirasser avait pendant longtemps été le bâtiment naval de prédilection des grandes puissances, il fut progressivement relégué au second rang par le porte-avions en termes d’« importance tactique ». Autrement dit, pendant un engagement naval, la priorité était de protéger les porte-avions et naturellement détruire ceux de l’adversaire. Les affrontements navals de la guerre de 1939-1945 virent également se développer de nouvelles technologies des communications telles le radar et le sonar, fort utiles pendant les opérations sur de vastes océans. Certes, il ne s’agit pas d’armements, mais ces inventions furent toutes aussi utiles afin d’atteindre des objectifs primordiaux consistant généralement à la destruction de l’ennemi ou du moins sa volonté de combattre.

Sur terre, les chars d’assaut développés au cours de la Première Guerre mondiale, sur une échelle somme toute limitée, connurent leurs heures de gloire vingt ans plus tard. Ayant été cruellement à court de ces engins en 1914-1918, les Allemands profitèrent de la période de l’entre-deux-guerres pour les étudier d’un point de vue tactique et d’en améliorer la conception. Certains épisodes de la guerre dite « éclair » de 1939 à 1941 virent cette coopération chars-avions atteindre des sommets à peine envisageables pendant la guerre de 1914-1918. Pourvus d’un armement relativement léger au début du conflit, les chars d’assaut de la Seconde Guerre mondiale seront équipés de canons de plus larges calibres et de blindages plus épais. Tactiquement parlant, les belligérants iront sur les champs de bataille en utilisant la tactique chars-avions.

Symbole fort de la Seconde Guerre mondiale, le char d’assaut (ici un char allemand Tigre I) représente une arme de destruction redoutable qui révolutionna les pratiques de la guerre, forçant les attaquants et les défenseurs à revoir en profondeur leurs tactiques pour mieux s’adapter face à ces monstres d’acier.

Dans les airs, la Seconde Guerre mondiale fut aussi celle de l’apogée du bombardement stratégique, avec certaines exceptions notables et épisodiques comme en Corée et au Vietnam plus tard. L’idée étant de bombarder massivement des cibles éloignées afin d’anéantir les capacités industrielles de l’adversaire. Comme l’avaient auparavant envisagé des théoriciens de l’arme aérienne, notant sous la plume de l’Italien Giulio Douhet, le bombardement stratégique ne devait pas uniquement s’en prendre à des cibles militaires, mais également aux cibles industrielles de même qu’aux populations civiles. La théorie de Douhet impliquait donc qu’une campagne aérienne de grande envergure aurait pour effet, à terme, de détruire les capacités industrielles et le moral de l’ennemi, ce qui signifierait en fin de compte des hostilités de plus courte durée. Séduisante sur le principe, il s’avéra cependant que la théorie de Douhet ne semble pas avoir résisté au test de la réalité en ce sens où les populations civiles firent preuve d’une ténacité étonnante.

Sur ce point, les civils britanniques furent parmi les premiers à goûter à cette médecine du bombardement stratégique lors du « Blitz » de 1940. Massifs en principe, ces bombardements stratégiques des Allemands sur la Grande-Bretagne ne furent rien en comparaison de la réplique des bombes américano-britanniques qui allèrent s’abattre sur l’Allemagne, de même que sur le Japon. En plus de s’en prendre à des cibles militaires, les bombardements alliés contre ces deux nations eurent également et clairement pour objectifs les populations civiles. D’ailleurs, cette idée de s’en prendre aux populations civiles atteignit probablement son paroxysme avec le Projet Manhattan, où les Américains lâchèrent deux bombes atomiques sur le Japon en août 1945, marquant du coup l’avènement de l’âge du nucléaire.

Détruire des cibles militaires? Anéantir le moral des populations civiles? Les objectifs du bombardements stratégiques n’apparaissent jamais totalement clairs, hormis qu’ils envoient le message que la mort peut être déversée du ciel et sur de vastes distances. En à peine une trentaine d’années entre le premier vol des frères Wright en 1903 jusqu’au largage d’une bombe atomique en 1945, la science se mit au service du domaine militaire afin d’en arriver à la victoire par tous les moyens.

Conclusion : du nucléaire à l’électronique

En guise de conclusion, rappelons simplement quelques éléments sur l’évolution des technologies de l’armement au lendemain de la Seconde Guerre mondiale. Marquant clairement une rupture avec les armes plus conventionnelles du passé, la bombe atomique fit place elle aussi à de nouvelles technologies. Notons que dans les années 1950 fut créée la bombe à hydrogène, qui avait comme particularité la fusion plutôt que la fission de l’atome.

Cette différente manière de fracturer la matière eut comme résultat que les nouvelles bombes seraient environ cent fois plus puissantes que ne l’avaient été celles larguées sur Hiroshima et Nagasaki. Dans les esprits de certains, ces armes nucléaires rendirent quasiment obsolète le concept même de la guerre, avec ses prémisses tactiques et stratégiques. Devenue désormais encore plus terrible que ce qu’elle n’avait été auparavant en matière de destruction, la guerre à l’âge du nucléaire impliquerait désormais l’attaquant et le défenseur seraient simultanément détruits, et ce, peu importe lequel des deux démarrerait les hostilités.

Cette idée de « destruction mutuelle assurée » alla de pair avec celle des conflits de plus faible intensité qui caractérisèrent la période de la Guerre froide (1945-1991). En d’autres termes, et vulgairement résumé, des conflits de niveau régional verraient l’épée de Damoclès du nucléaire pendre au-dessus des têtes des belligérants, mais simultanément, les armes plus conventionnelles en leur possession viseraient, comme ce fut toujours le cas dans le passé, disons, à infliger des destructions maximales à l’adversaire.

Chaque soldat serait désormais armé d’un fusil d’assaut automatique et aurait à évoluer dans un environnement où son adversaire serait tenté d’utiliser des armes de types chimiques et bactériologiques. L’amélioration continue des communications signifierait aussi que ce même soldat en saurait davantage sur les intentions de son adversaire et que le contraire serait aussi très possible.

Actuellement, la fin du XXe siècle et le début du siècle suivant nous ont déjà fait voir de nombreuses améliorations. Des matériaux plus légers et robustes font partie de l’armement du soldat, si bien qu’outre le canon de son fusil d’assaut, le restant des matériaux n’est plus constitué de pièces métalliques ou de bois. Des conflits comme la Guerre du Golfe de 1991 nous firent aussi réaliser tout le potentiel de l’électronique dans la détection et la destruction d’une cible, malgré que des « ratés » en la matière existent et font toujours l’objet de fortes couvertures médiatiques dans ce qu’il est convenu d’appeler « dommages collatéraux ».

Mais ces évolutions technologiques ne signifient pas que le fantassin part à la bataille le dos plus léger. Au contraire, en plus de son fusil, il doit transporter des équipements électroniques, des lunettes de vision de nuit, des GPS, et ainsi de suite. Autrefois destinées essentiellement aux troupes d’élite et à diverses forces spéciales, tous ces équipements font désormais partie de l’attirail de n’importe quel fantassin évoluant dans n’importe quelle armée dite « moderne ».

Bref, depuis la nuit des temps, l’Homme chercha constamment à améliorer son armement, que ce fût pour la chasse ou pour la guerre. Les équipements à la disposition des soldats en ce début du XXIe siècle seront probablement dépassés d’ici à peine quelques décennies. Ce qui nous amène à penser qu’au fond, le pire « ennemi » des armements est le temps.