L’ère de l’industrialisation : XIXe siècle

L’ère de l’industrialisation en matière d’armements, que nous faisons vulgairement commencer au début du XIXe siècle, doit prendre en compte ce problème de périodisation entre le dernier quart du XVIIIe siècle jusqu’au premier quart du siècle suivant. Les historiens s’entendent généralement pour dire qu’on assiste à une certaine « industrialisation », voire une proto-industrialisation de l’Angleterre dès le milieu du XVIIIe siècle, en particulier avec l’introduction de la machine à vapeur. Cependant, en matière d’armements, la vapeur eut certes un impact majeur, mais elle ne doit pas être associée automatiquement à une standardisation de la production d’armes militaires. Voilà pourquoi, à notre avis, il est plus difficile de couper au couteau la fin et le début de deux périodes de l’Histoire qui virent d’importantes réalisations.
Cela dit, les travaux de l’Écossais James Watt à la fin du XVIIIe siècle fournirent la poussée nécessaire à l’avancement des technologies de l’armement dans une optique d’une association claire entre la standardisation et l’industrialisation. Au départ, la vapeur servait essentiellement à des fins civiles comme le pompage de l’eau des mines. Par la suite, la vapeur fut mise à contribution dans la fabrication du tour à fileter à l’arsenal de Woolwich, sous la direction d’Henry Maudslay. Cette dernière invention allait avoir un impact décisif dans la production de masse d’armes à feu et de pièces d’artillerie. En mer, la seconde moitié du XIXe siècle vit également la vapeur remplacer progressivement la voile comme source primaire de propulsion des navires de guerre, les libérant ainsi de leur dépendance aux caprices des vents.
Donc, au lendemain des Guerres napoléoniennes, toutes ces innovations technologiques et industrielles auront des impacts majeurs sur les pratiques de la guerre future. En matière de transport des troupes, la locomotive inventée par George Stephenson facilita les déploiements rapides des hommes et du ravitaillement sur de vastes distances grâce aux chemins de fer. D’ailleurs, les observateurs européens témoins de l’établissement de la première ligne de chemin de fer reliant Liverpool à Manchester en 1830 comprirent rapidement tout le potentiel du train à vapeur à des fins militaires. Même chose en mer, où Robert Fulton inventa la première véritable canonnière en 1807 patrouillant la rivière Hudson jusqu’à Albany dans l’État de New York aux États-Unis.
Toujours en Amérique, les communications aux fins militaires bénéficieront de l’invention de Samuel Morse et de son télégraphe mis au point en 1837. Pour sa part, la science de la métallurgie ne fut pas en reste au XIXe siècle avec l’introduction de nouveaux alliages plus résistants. De plus, vers 1850, des modèles de canons à chargement par la culasse firent leur apparition, tout comme des canons rayés en acier avec de premiers mécanismes d’absorption du recul furent introduits dans les artilleries européennes. Parallèlement, les fusils et armes de poing connurent des développements similaires, en particulier au niveau de l’amélioration de leurs cadences de tir et de leurs portées, à un point tel que la Guerre civile américaine est fréquemment considérée par les historiens comme le premier véritable conflit de type « industriel », sinon « moderne ».
Probablement le conflit le plus meurtrier en Occident au XIXe siècle, la Guerre de Sécession aux États-Unis fut un choc pour les contemporains au niveau de l’ampleur des pertes humaines, certes, mais particulièrement face à une implicite prise de conscience à l’effet que l’on vit concrètement les effets d’armes qui, au fond, étaient en développement depuis quelques décennies, mais dont la relative paix en Europe suivant la chute de Napoléon amena un certain dénigrement de ces technologies. Par exemple, l’armurier et inventeur Johann Nicolaus von Dreyse travailla dès les années 1820 sur un fusil à percussion à aiguille rechargeable par une culasse, mais dont le premier modèle ne fut adopté comme arme d’ordonnance par l’armée prussienne qu’en 1841.

Sur un plan plus politique, notons qu’en dépit d’une paix post-napoléonienne relative, les différentes révolutions de 1848 en Europe amenèrent les États à investir davantage dans la recherche et les technologies de l’armement. L’idée étant, non sans surprise, pour les États de posséder des armes de technologie supérieure à celles des insurgés.
Mais le qualificatif de « relatif » afin de décrire la paix européenne du milieu du XIXe siècle trahit certaines réalités, où les puissances cherchèrent néanmoins à s’affronter, entre autres pour tester par la bande des technologies dont les preuves restèrent à faire. La bataille navale de Sinope du 30 novembre 1853 entre les flottes russe et ottomane vit la terrible efficacité des canons russes utilisant de véritables obus. Ce premier épisode de la Guerre de Crimée fut suivi par d’autres où la France et l’Angleterre durent intervenir et où leurs armées apprirent de douloureuses leçons. Par exemple, la Guerre de Crimée fit clairement la démonstration que désormais, la cavalerie ne parvînt plus à percer ou briser une formation d’infanterie bien équipée et disciplinée. En mer, les Français introduisirent des batteries d’artillerie flottantes qui, bien que n’étant pas de véritables navires de guerre selon une définition moderne, amenèrent les marines européennes à se doter graduellement de bâtiments métalliques propulsés par la vapeur.
Mais comme nous le mentionnions, ce fut la Guerre de Sécession aux États-Unis qui retint l’attention comme étant apparemment le premier conflit de l’ère industrielle, d’après l’ensemble des paramètres évoqués au début de cette section (vapeur, industrie, standardisation, etc.). En fait, disons que certains incidents nous amènent à une telle conclusion. Le premier affrontement connu entre deux navires cuirassés à coque en fer se déroula dans les eaux de Hampton Roads près de la Virginie en 1862. Considérée comme un match nul, la bataille représente une victoire incontestée du fer et de la vapeur sur le bois et la voile traditionnels.

Sur terre, la Guerre civile américaine en fut également une de déplacements de troupes sur de longues distances en chemin de fer, parfois même en terrain difficile. À noter par contre qu’à lui seul, le chemin de fer ne suffisait pas à garantir l’efficacité des déploiements. L’usage du train devait se faire en conjonction avec le télégraphe, si bien que des campagnes militaires pouvaient se gagner ou se perdre presque uniquement en raison de considérations logistiques, où le temps devenait un élément qui avait nettement remonté dans la liste des priorités stratégiques et tactiques des commandants.
L’autre difficulté constatée pendant la Guerre civile américaine est que, justement, les généraux se trouvèrent à commander des armées aux effectifs beaucoup plus larges, même plus importants qu’au plus fort des Guerres napoléoniennes par exemple. Ce conflit en fut également un où l’introduction de fusils et de canons rayés modifia en profondeur les équations tactiques. La cadence rapide et la puissance décuplée du feu firent en sorte qu’il devenait désormais suicidaire pour une force d’infanterie de se tenir en rangs serrés face à l’ennemi.
Au plan stratégique, cette industrialisation du conflit dicte une autre variable, à savoir qu’à terme, le camp qui possède la plus importante force industrielle devrait normalement l’emporter. Disposant davantage d’infrastructures industrielles que le Sud à l’économie plus agraire, le Nord avait de fortes chances de l’emporter, pour autant que ses armées puissent contenir celles de l’ennemi aux endroits stratégiques. La fin de la Guerre civile américaine vit aussi la mise en service d’un prototype de mitrailleuse, la Gatling. Bien que n’ayant pas eu de véritables impacts, car elle fut introduite sur le tard, elle inspira d’autres inventeurs. L’un d’eux fut Hiram Maxim qui s’en inspira et conçut en 1885 sa propre mitrailleuse automatique portant son nom (la Gatling fonctionnant par l’action d’une manivelle). La Maxim et ses dérivés figurent parmi les armes les plus destructives jusqu’à ce jour.

Observée par de nombreux militaires européens sur place, la Guerre de Sécession amena les puissances du Vieux Continent à investir de plus en plus en recherche dans le dernier quart du XIXe siècle. De gros joueurs industriels tels Vickers en Angleterre, Schneider-Creusot en France et Krupp en Allemagne réalisèrent d’énormes profits au cours de cette période qualifiée de « paix armée », à savoir la période suivant la fin de la Guerre franco-prussienne en 1871 jusqu’au début de la Première Guerre mondiale en 1914. Ce que l’on peut appeler de nos jours le « complexe militaro-industriel » est véritablement né à cette époque. Autrement dit, on a à faire à des États qui dépendent de plus en plus des corporations qui elles, en retour, dépendent des contrats gouvernementaux.
Les technologies : de la « paix armée » à la guerre totale (1871-1945)
Les quelques décennies qui marquèrent la fin de la Guerre franco-prussienne (1870-1871) jusqu’à la Seconde Guerre mondiale connurent des développements encore plus importants. D’abord, cette période voit la confirmation de la vapeur comme mode principal de propulsion des navires de guerre, tout comme l’acier fait son chemin et devient une matière privilégiée dans la fabrication d’armements, supplantant ainsi des matériaux moins résistants comme le bois. D’ailleurs, les avancées scientifiques permirent de meilleurs coulages de l’acier, le rendant plus résistant, notamment en raison de la disponibilité accrue de métaux tel le nickel.
Ce fut également une période, du moins jusqu’à la fin de la guerre de 1914-1918, où les principales puissances mondiales cherchèrent à mettre en service les meilleurs marines de guerre pour le contrôle des mers, si bien que, comme nous le mentionnions, des consortiums se formèrent pour vendre leurs ressources métallurgiques et technologiques aux plus offrants. Par exemple, l’industrie put offrir aux États et à leurs marines militaires de puissants canons rayés à rechargement par la culasse, augmentant ainsi leur portée de tir et leur puissance de feu. Naturellement, les coûts de ces nouvelles technologies étaient exorbitants et seules les grandes puissances de l’époque purent se procurer de tels équipements, tout en investissant dans la recherche et autres coûts de production.

Dans notre esprit, le tournant du XXe siècle fut extrêmement innovateur en matière d’armements et le domaine naval retient la plupart du temps l’attention. Rappelons que la Grande-Bretagne mit en service son célèbre H.M.S. Dreadnought en 1906, qui révolutionna littéralement le petit monde de la guerre navale. Vers la même époque, le développement de l’arme sous-marine connut d’intéressantes percées, entre autres grâce aux travaux de l’Américain John Holland. Contrairement aux embarcations de surface, il semble que les puissances de l’époque prirent un certain temps à réaliser tout le potentiel du sous-marin à des fins offensives, même que les Allemands rejetèrent l’idée, dans un premier temps, d’inclure cet engin à leur arsenal naval. Ce ne fut qu’avec l’introduction de la torpille de l’ingénieur anglais Robert Whitehead que l’on réalisa tout le potentiel du sous-marin comme arme offensive. Là encore, son utilisation stratégique et tactique n’était pas claire. Pas assez puissant pour couler des navires de type Dreadnought, jugea-t-on, l’utilisation du sous-marin pour l’attaque de navires commerciaux ne fut guère envisagée avant le début de la guerre de 1914-1918. Pourtant, l’on savait que le sous-marin pouvait être furtif et qu’il pouvait lancer une torpille au moment opportun, et ce, sans que la cible ne puisse faire à temps des manœuvres évasives.
Dans les airs, la décennie précédant le début de la Première Guerre mondiale vit le développement de l’aviation, quoique là encore, il fallut attendre les années de guerre pour y constater une véritable envolée, sans mauvais jeu de mots. Au commencement, les Allemands préférèrent des embarcations plus légères que l’air comme le Zeppelin et leur argument pouvait se tenir, car le Zeppelin pouvait parcourir des distances nettement plus grandes que l’avion et que sa capacité de transport de bombes et autres projectiles ne se comparait même pas aux engins plus lourds que l’air. Cependant, les dirigeables et leur cargaison d’hydrogène les rendaient hautement inflammables et il était possible de les détruire soit par une version improvisée d’artillerie antiaérienne (là encore, cela restait à développer), mais sinon, de manière plus efficace, en envoyant des avions pour tenter de les abattre. Bref, le plus lourd que l’air finit par dominer le ciel.
Et lorsque éclata la guerre de 1914-1918, la confrontation entre les armes modernes et les tactiques issues du précédent quart de siècle fut terrible. La doctrine de l’offensive en rangs serrés pour l’infanterie et la cavalerie, face à un ennemi bien retranché et équipé de mitrailleuses et d’artillerie à tir rapide, ne fonctionna tout simplement pas. Le problème est bien connu, mais ce que l’on retient de la Première Guerre mondiale, dans l’optique de ce papier, c’est de voir à quel point elle fut un véritable laboratoire d’expérimentations. Bref, la mitrailleuse pouvait tuer ou blesser des milliers d’hommes en l’espace de quelques heures.
Dans les airs, la première utilisation de l’aviation à des fins militaires s’était vue lors de la Guerre italo-turque de 1911-1912, où quelques avions et dirigeables avaient été utilisés essentiellement à des fins de reconnaissance. Plus tard, lorsque équipés de mitrailleuses et de bombes, les avions pouvaient à leur tour répandre la mort, tout en préservant naturellement leurs fonctions de reconnaissance des positions et des déplacements ennemis.

L’air en lui-même devint aussi un instrument de mort avec l’introduction des gaz de combat, où des milliers de soldats moururent asphyxiés ou du moins aux prises avec de sérieuses difficultés respiratoires pour le restant de leurs jours. La guerre de 1914-1918 vit également l’introduction du lance-flammes, une arme essentiellement utilisée pour terminer le « nettoyage » d’une tranchée ennemie lorsque la première vague d’assaut d’infanterie poursuivit son avance.
Bref, la guerre de 1914-1918 fit la claire démonstration que des tactiques du XIXe siècle ne cadrèrent tout simplement pas avec la puissance de feu d’armes modernes. L’artillerie fut de loin l’arme la plus mortelle, responsable à elle seule de la moitié des pertes du conflit. Des canons de calibres auparavant jamais vus pouvaient détruire en l’espace de quelques jours de puissantes forteresses qui avaient coûté des fortunes aux différents trésors publics. Le siège de Liège en août 1914 constitue l’exemple classique à cet égard. Des obus hautement explosifs pouvaient également pulvériser en un rien de temps des tranchées finement élaborées. Paradoxalement, l’intensité des barrages d’artillerie censés tout détruire et ouvrir le chemin à une infanterie attaquante s’avéra souvent inefficace à briser le système défensif adverse.
Et au sortir de 1918, face à l’ampleur du carnage et des dévastations, le monde aurait pu naïvement croire que cette guerre de quatre ans aurait été la dernière, la « der des ders », et du coup mettre un frein à toute évolution en matière d’armements. Dans les faits, c’est exactement le contraire qui se passa. Un certain pacifisme d’entre-deux-guerres ne fit littéralement pas le poids devant la créativité des inventeurs et surtout face aux désirs des gouvernements de poursuivre la modernisation de leurs armées, et ce, même si des discours officiels d’époque pouvaient laisser croire le contraire étant donné que les budgets de défense avaient été considérablement réduits. Lorsque débuta la Seconde Guerre mondiale en 1939, le monde vit l’apparition de nouvelles armes encore plus destructrices que celles des décennies précédentes.
Dans l’entre-deux-guerres, notons le perfectionnement de technologies telles que le porte-avions, ce qui permit à ses utilisateurs d’atteindre des cibles navales et terrestres à partir de la mer. L’attaque japonaise contre la base navale américaine de Pearl Harbor en décembre 1941 en constitue le premier exemple classique. Par ailleurs, alors que le cuirasser avait pendant longtemps été le bâtiment naval de prédilection des grandes puissances, il fut progressivement relégué au second rang par le porte-avions en termes d’« importance tactique ». Autrement dit, pendant un engagement naval, la priorité était de protéger les porte-avions et naturellement détruire ceux de l’adversaire. Les affrontements navals de la guerre de 1939-1945 virent également se développer de nouvelles technologies des communications telles le radar et le sonar, fort utiles pendant les opérations sur de vastes océans. Certes, il ne s’agit pas d’armements, mais ces inventions furent toutes aussi utiles afin d’atteindre des objectifs primordiaux consistant généralement à la destruction de l’ennemi ou du moins sa volonté de combattre.
Sur terre, les chars d’assaut développés au cours de la Première Guerre mondiale, sur une échelle somme toute limitée, connurent leurs heures de gloire vingt ans plus tard. Ayant été cruellement à court de ces engins en 1914-1918, les Allemands profitèrent de la période de l’entre-deux-guerres pour les étudier d’un point de vue tactique et d’en améliorer la conception. Certains épisodes de la guerre dite « éclair » de 1939 à 1941 virent cette coopération chars-avions atteindre des sommets à peine envisageables pendant la guerre de 1914-1918. Pourvus d’un armement relativement léger au début du conflit, les chars d’assaut de la Seconde Guerre mondiale seront équipés de canons de plus larges calibres et de blindages plus épais. Tactiquement parlant, les belligérants iront sur les champs de bataille en utilisant la tactique chars-avions.

Dans les airs, la Seconde Guerre mondiale fut aussi celle de l’apogée du bombardement stratégique, avec certaines exceptions notables et épisodiques comme en Corée et au Vietnam plus tard. L’idée étant de bombarder massivement des cibles éloignées afin d’anéantir les capacités industrielles de l’adversaire. Comme l’avaient auparavant envisagé des théoriciens de l’arme aérienne, notant sous la plume de l’Italien Giulio Douhet, le bombardement stratégique ne devait pas uniquement s’en prendre à des cibles militaires, mais également aux cibles industrielles de même qu’aux populations civiles. La théorie de Douhet impliquait donc qu’une campagne aérienne de grande envergure aurait pour effet, à terme, de détruire les capacités industrielles et le moral de l’ennemi, ce qui signifierait en fin de compte des hostilités de plus courte durée. Séduisante sur le principe, il s’avéra cependant que la théorie de Douhet ne semble pas avoir résisté au test de la réalité en ce sens où les populations civiles firent preuve d’une ténacité étonnante.
Sur ce point, les civils britanniques furent parmi les premiers à goûter à cette médecine du bombardement stratégique lors du « Blitz » de 1940. Massifs en principe, ces bombardements stratégiques des Allemands sur la Grande-Bretagne ne furent rien en comparaison de la réplique des bombes américano-britanniques qui allèrent s’abattre sur l’Allemagne, de même que sur le Japon. En plus de s’en prendre à des cibles militaires, les bombardements alliés contre ces deux nations eurent également et clairement pour objectifs les populations civiles. D’ailleurs, cette idée de s’en prendre aux populations civiles atteignit probablement son paroxysme avec le Projet Manhattan, où les Américains lâchèrent deux bombes atomiques sur le Japon en août 1945, marquant du coup l’avènement de l’âge du nucléaire.

Conclusion : du nucléaire à l’électronique
En guise de conclusion, rappelons simplement quelques éléments sur l’évolution des technologies de l’armement au lendemain de la Seconde Guerre mondiale. Marquant clairement une rupture avec les armes plus conventionnelles du passé, la bombe atomique fit place elle aussi à de nouvelles technologies. Notons que dans les années 1950 fut créée la bombe à hydrogène, qui avait comme particularité la fusion plutôt que la fission de l’atome.
Cette différente manière de fracturer la matière eut comme résultat que les nouvelles bombes seraient environ cent fois plus puissantes que ne l’avaient été celles larguées sur Hiroshima et Nagasaki. Dans les esprits de certains, ces armes nucléaires rendirent quasiment obsolète le concept même de la guerre, avec ses prémisses tactiques et stratégiques. Devenue désormais encore plus terrible que ce qu’elle n’avait été auparavant en matière de destruction, la guerre à l’âge du nucléaire impliquerait désormais l’attaquant et le défenseur seraient simultanément détruits, et ce, peu importe lequel des deux démarrerait les hostilités.
Cette idée de « destruction mutuelle assurée » alla de pair avec celle des conflits de plus faible intensité qui caractérisèrent la période de la Guerre froide (1945-1991). En d’autres termes, et vulgairement résumé, des conflits de niveau régional verraient l’épée de Damoclès du nucléaire pendre au-dessus des têtes des belligérants, mais simultanément, les armes plus conventionnelles en leur possession viseraient, comme ce fut toujours le cas dans le passé, disons, à infliger des destructions maximales à l’adversaire.
Chaque soldat serait désormais armé d’un fusil d’assaut automatique et aurait à évoluer dans un environnement où son adversaire serait tenté d’utiliser des armes de types chimiques et bactériologiques. L’amélioration continue des communications signifierait aussi que ce même soldat en saurait davantage sur les intentions de son adversaire et que le contraire serait aussi très possible.
Actuellement, la fin du XXe siècle et le début du siècle suivant nous ont déjà fait voir de nombreuses améliorations. Des matériaux plus légers et robustes font partie de l’armement du soldat, si bien qu’outre le canon de son fusil d’assaut, le restant des matériaux n’est plus constitué de pièces métalliques ou de bois. Des conflits comme la Guerre du Golfe de 1991 nous firent aussi réaliser tout le potentiel de l’électronique dans la détection et la destruction d’une cible, malgré que des « ratés » en la matière existent et font toujours l’objet de fortes couvertures médiatiques dans ce qu’il est convenu d’appeler « dommages collatéraux ».
Mais ces évolutions technologiques ne signifient pas que le fantassin part à la bataille le dos plus léger. Au contraire, en plus de son fusil, il doit transporter des équipements électroniques, des lunettes de vision de nuit, des GPS, et ainsi de suite. Autrefois destinées essentiellement aux troupes d’élite et à diverses forces spéciales, tous ces équipements font désormais partie de l’attirail de n’importe quel fantassin évoluant dans n’importe quelle armée dite « moderne ».
Bref, depuis la nuit des temps, l’Homme chercha constamment à améliorer son armement, que ce fût pour la chasse ou pour la guerre. Les équipements à la disposition des soldats en ce début du XXIe siècle seront probablement dépassés d’ici à peine quelques décennies. Ce qui nous amène à penser qu’au fond, le pire « ennemi » des armements est le temps.
Merci beaucoup pour ce super article! Je cheerche en ce moment des informations sur l’histoire de l’armement en France, en particulier l’histoire de l’institution responsable: la Direction Générale de l’Armement (DGA), auriez vous des pistes?
Je suis un pasionné d’histoire et j’aime ces chroniques surtout continu Carl…