lundi 31 décembre 2007

Cyberpirates et un meurtre politique

Le meurtre odieux de l'ancien premier ministre du Pakistan de retour d'exil, la charismatique Benazir Bhutto, est utilisé comme un prétexte par les malfaiteurs de la toile pour contaminer des internautes

Le 27 décembre 2007 restera a jamais gravé dans les mémoires et dans les archives historiques de ce pays comme le jour de l'assassinat, dans la banlieue de la capitale pakistanaise Islamabad, de Benazir Bhutto.


Et, une fois n'est pas coutume, ce sujet ayant occupé la une de l'actualité pendant plusieurs jours, des cybercriminels essayent d'utiliser ce thème pour contaminer des internautes.

Déjà, avant, pendant et après la coupe du monde de Rugby 2007, qui s'est déroulée en France, ou après le terrible tsunami de décembre 2004, les tentatives d'arnaque s'étaient multipliées

Selon l'éditeur de sécurité Websense Security, plusieurs sites Web essayent de capitaliser sur ce drame.



Dans les faits, ces pages Internet ont été créées par des cybercriminels pour berner les internautes qui s'intéressent à l'actualité ou cherchent des informations sur ce dramatique assassinat.

Plus inquiétant, comme le montre la capture d'écran ci-dessous, le site Web infecté par du code malveillant arrive en troisième position dans le classement des réponses les plus pertinentes dans le moteur de recherche Google et cela, en utilisant des mots-clés génériques à savoir "bhutto+assasinat" ou simplement "benazir" (comme dans l'exemple).


Du coup, les chercheurs de Websense estiment que ces pages Web doivent recevoir de nombreuses visites et représentent un grand danger.


Google a été informé de ces usurpations de pages Web légitimes et à l'heure de la rédaction de cette information le site Web incriminé n'est plus en ligne. Reste que le mal est fait et qu’il est inquiétant de constater qu’il est toujours très facile pour les cybercriminels d’utiliser cette technique.

Pour conclure, rappelons qu’un bon hacker utilisant des outils appropriés peut copier un site Web légitime en quelques minutes…

vendredi 28 décembre 2007

Dell acquiert The Networked Storage Company

Quelle meilleure solution pour un fabricant de solutions de stockage que d'accompagner, par ses conseils, ses prospects et ses clients lors de leur migration vers des solutions de stockage certifiées, simplifiées et efficaces, et si possible à moindre coût.

C'est là l'activité principale des consultants de The Networked Storage Company (TNWSC), une société britannique dont Dell vient d'annoncer l'acquisition, sans en révéléer les conditions.
C'est là l'expression d'une logique forte consistant à marier les deux activités. Car le marché du stockage est stratégique pour Dell et les coûts faibles sont un moteur pour le fabricant.

TNWSC propose une méthodologie "déposée" appelée Point of Proof qui identifie les processus de bout en bout pour évaluer, choisir et mettre en œuvre des solutions d'infrastructures informatiques éprouvées, robustes, simples et rentables...

Cette approche, principalement mise en œuvre avec le stockage en réseaux (NAS et SAN), peut être étendue à l'ensemble de l'environnement informatique, ce qui devrait contribuer à réduire les coûts globaux et la complexité de l'infrastructure de maintenance et de gestion.

"The Networked Storage Company dispose d'une équipe talentueuse qui a développé une approche industrielle permettant aux clients de simplifier et de valider leurs infrastructures informatiques", a déclaré Stephen Murdoch, vice-président Global Infrastructure Consulting Services de Dell.

jeudi 27 décembre 2007

Retour de bâton pour Google sur les brevets

Une cour d'appel américaine a partiellement rejeté un premier jugement en faveur du moteur de recherche.

Poursuivi par Hyperphase Technologies pour usurpation de quatre brevets sur ses outils publicitaires AdSense et la fonction AutoLink, Google avait gagné en première instance. Mais une cour d'appel américaine vient d'inverser en partie ce jugement.

Concernant Adsence, la publicité contextuelle, le juge a estimé que la technologie de Google n'enfreint pas les brevets d'Hyperphase. Cette première partie du procès est donc confirmée au profit du moteur de recherche.

En revanche, concernant la fonction de transformation de texte en lien Internet AutoLink, proposée sur la barre d'outils de Google, le juge n'a pas tranché, déclarant d'une part que le moteur n'a pas enfreint les deux brevets en cause, mais cassant d'autre part le premier jugement !

Une position difficile à gérer pour les deux protagonistes, cette mission incombera à un renvoi auprès d'un tribunal de District du Winsconsin.

mercredi 26 décembre 2007

NTT DoCoMo pourrait s'allier à Google dans la recherche sur i-mode

Dans le marché japonais de la recherche en ligne, Google reste depuis quelque temps déjà derrière son concurrent de toujours, Yahoo. Et pour tenter de remédier à la situation, Google entend au moins devenir le numéro un japonais de la recherche... mobile en ligne.

Le quotidien économique japonais Nikkei rapporte en effet que DoCoMo, le premier opérateur mobile local, s'apprête à proposer au sein de ses services « i-mode » les fonctions de recherche et d'emails de Google, ceci dans le cadre d'une partenariat plus global pouvant aboutir au développement de nouvelles fonctionnalités et terminaux associés.

Au printemps prochain, les mobinautes de DoCoMo devraient donc pouvoir accéder aux fonctions de recherche, de courriers électroniques, de calendrier et de photos (Picasa) via les services i-mode de l'opérateur. L'objectif pour Google est double, en permettant d'une part d'augmenter le chiffre d'affaire de sa division « mobilité » et en permettant enfin de générer des revenus publicitaires liés à la publicité mobile.

Immense base de données biométriques pour le FBI ?


Le FBI requiert l'autorisation d'assembler la plus importante base de données biométriques jamais conçue, de façon à disposer des informations nécessaires à l'identification de centaines de millions de personnes. D'après le Washington Post, un milliard de dollars pourrait être consacré sur les dix prochaines années à ce projet s'il est avalisé. Aujourd'hui, le Bureau détiendrait déjà les empreintes digitales de quelque 55 millions de personnes, auxquelles s'ajouteraient les données biométriques de plusieurs centaines de milliers de prisonniers iraquiens ou afghans. Un référencement systématique qui ne manque pas de soulever quelques craintes...

Sur le papier, cette base de données est l'arme absolue pour détecter les criminels, des prédateurs sexuels aux terroristes en puissance. Ceux qui s'en font les avocats rappellent que les informations détenues par le FBI ont d'ores et déjà permis de repérer certains suspects et, donc, d'éviter des crimes. Environ 900.000 agents des différents agences fédérales et nationales pourraient interroger cette base de données, indique le Washington Post.

En pratique, nombreux sont ceux qui craignent que cette accumulation systématique de données personnelles conduise à des abus relatifs au respect de la vie privée, voire à des erreurs. Le FBI aurait en effet l'intention de ne pas se contenter des empreintes digitales, mais d'également enregistrer des informations comme la forme du visage (reconnaissance faciale) ou l'empreinte de l'iris, qui reposent sur des technologies de reconnaissance encore imparfaites. Ainsi, un suspect pourrait être automatiquement reconnu lors de son passage sous l'oeil d'une caméra de surveillance.

En octobre 2006, le gouvernement allemand a fait conduire une étude sur l'utilisation des données biométriques. Ses résultats indiquent que les dernières systèmes de reconnaissance faciale en vigueur offrent un taux de réussite de seulement 60% en plein jour, contre 10 ou 20% la nuit. L'étude préconise que l'on ne mette en place de tels dispositifs que si la marge d'erreur, c'est à dire le taux de faux positifs qui requièrent un contrôle ultérieur, n'est que de 0,1%.

A la différence d'un numéro de carte de crédit ou de passeport, la rétine ou les empreintes digitales ne peuvent être modifiés ou remplacés dans une base de données. Aucune marge d'erreur ne peut donc être tolérée, expliquent les détracteurs de ce projet. Le FBI propose pour sa part de cumuler les technologies d'identification afin de limiter le risque.

dimanche 23 décembre 2007

Un 'trojan' exploite les liens sponsorisés de Google

Cette menace de cheval de Troie est révélée par Attila Balazs, chercheur de virus au service de Bit Defender, l'éditeur roumain spécialisé dans la lutte antivirus..

Les problèmes de sécurité dans les produits Google s'accumulent depuis quelques jours. Après la toolbar piégée, c'est au tour des liens sponsorisés d'afficher une menace. Pour l'instant, le niveau de propagation de ce maudit canasson nommé Qhost.WU est jugé faible par l'éditeur, le risque qu'il représente est, lui, qualifié de "moyen". Sa première détection par Balazs remonte au 17 décembre 2007. L'objectif de ce cheval de Troie: pirater les liens sponsorisés de Google pour les remplacer par d'autres provenant de divers autres sources.

Plusieurs symptômes permettent aux webmasters de détecter la présence de ce 'trojan'. D'abord, l'espace qui contient les liens sponsorisés Google peut s'arrêter de diffuser des messages publicitaires, ensuite les publicités qui s'affichent sur l'URL proviennent d'autres sources que Google.

Les fichiers hébergés utilisés pour associer un nom de domaine et un lieu de stockage des fichiers contiennent la ligne suivante: "page2.googlesyndication.com".

Rappelons que Google Adsense est un service de la firme de Moutain View qui permet de placer des liens sponsorisés sur des pages Web. Ces annonces sont ciblées, c'est à dire qu'elles doivent normalement être en adéquation avec le thème général du site.

Cela reste bien sûr du domaine théorique, car dans les faits, les publicités n'ont souvent rien à voir avec le sujet du site. Il suffit de se balader sur la Toile pour s'en rendre compte.

Les revenus générés par chaque clic sont partagés entre Google et le groupe propriétaire de la page Web.

Ces publicités sont placées sur le site Web par le biais d'un petit morceau de code HTML/JavaScript (ndlr: un code propriété de Google).

Ce code a ensuite pour mission de se mettre en relation avec les serveurs Adsense du géant de la recherche qui délivrent alors des liens sponsorisés et "contextuels".

Le code malveillant découvert par Bit Defender utilise les documents hébergés dans le dossier "%WINDIR%\System32\drivers\etc" pour rediriger la requête authentique vers un attaquant qui peut alors placer ce qu'il veut dans les liens.

Ce problème est nuisible tant pour Google que pour les sites Web. Google ne récupère plus d'argent et les webmasters également.

Comment vérifier si l'on est concerné par ce 'trojan'?

L'éditeur indique en marge de sa publication une méthode afin de détecter comment les webmasters peuvent vérifier qu'ils ne sont pas infectés.

À partir de la ligne de commandes «exécuter», envoyer la requête suivante: ping -t pagead2.googlesyndication.com

La réponse normale doit être la suivante : envoi d'une requête ping sur pagead2... avec 32 octets de données. Ce lien doit pointer normalement vers une adresse IP de la forme [6x.xxx.xxx.xxx], x, représente une suite de chiffres, par contre si le cheval de Troie est déjà à l’œuvre le premier chiffre sera un 9.

Carlyle met 1 milliard pour s'emparer de 35% de Numericable

Dans le câble, les grandes manoeuvres continuent et le groupe pourrait désormais faire ami-ami avec Free...

Le désormais unique câblo-opérateur français, Numericable, suscite bien des convoitises et de nombreux rebondissements financiers. Le géant du fonds d'investissement, l'américain Carlyle, annonce en effet qu'il vient de racheter la moitié de la participation de Cinven dans le groupe français pour un peu plus d'un milliard d'euros. Avec cette opération, Carlyle contrôlera 35% du câblo-opérateur.

Par effet de cascade, cette opération concerne aussi l'opérateur professionnel Completel, racheté cet été par Altice et Cinven.

Finalement, Carlyle et Cinven détiendront chacun 35% du capital de Numericable et Altice conservera les 30% restants.

Rappelons qu'en juin 2006, Cinven mettait finalement la main sur 90% du câble français en s'emparant de Noos pour plus d'un milliard d'euros après avoir repris NC Numericâble et France Télécom Câble.

"Avec une base actionnariale encore plus forte, Numericable est parée pour saisir les opportunités de consolidation à venir tant en France qu'en Europe", précise Nicolas Paulmier, partenaire de Cinven dans le communiqué.

Voila qui veut tout dire. Alors que le marché français se concentre de plus en plus (dernier épisode en date, le rachat de Neuf Cegetel par SFR-Vivendi), Numericable est en quête d'un partenaire ou d'une cible. Un accord avec Free avait d'ailleurs été déjà évoqué. L'enjeu : partagaer les colossaux investissements dans la fibre optique, marché où Numericable est en avance par rapport à ses concurrents télécoms et peser le plus possible face à Orange...

D'ailleurs, ce vendredi, Benoît Colas, responsable des activités françaises du fonds d'investissement Carlyle indique à Reuters : "Il y a clairement de synergies entre opérateurs et avec Iliad en particulier", ajoutant qu'un rapprochement "pourrait faire du sens". Il permettrait à Free de rattraper Neuf Cegetel qui a creusé l'écart avec le trublion de l'Internet grâce à ses multiples acquisitions (AOL, Club-Internet...).

L'investissement de Carlyle donne décidément des ailes à Numericable puisque le groupe envisage également de se porter candidat à la 4e licence 3G si un nouvel appel d'offres est lancé. Ce qui semble probable aujourd'hui. Jusqu'à aujourd'hui, seul Free avait fait acte de candidature.

Bref, le mouvement de consolidation dans le marché français des télécoms et de l'Internet est loin d'être achevé. A terme, seuls deux ou trois groupes contrôleront le marché. Les derniers 'petits' acteurs comme Alice ont du souci à se faire.

vendredi 21 décembre 2007

« Quelle défense face au pillage de nos entreprises: les réseaux Internet »

La DST est un service discret, mais non secret (comme on le croit trop souvent) sauf dans certaines de ses missions confidentielles. Son directeur est un Préfet et son sous-directeur un officier de police. Elle comporte, en plus de 2 directions logistique (moyens techniques, gestion, ressources humaines et finance) :

- une direction du contre espionnage chargée de la protection du secret défense (enquête de compromission) et de la lutte contre la prolifération des armes de destruction massive (NBC).

- une direction anti-terrorisme (extérieur).

- une direction de la protection du patrimoine en matière de technique industrielle (en préventif).

Les problèmes de sécurité dans l’entreprise sont transversaux : ils dépassent largement la compétence des seuls informaticiens mais relèvent des responsables au plus haut niveau : c’est la direction générale qui doit définir les risques, les objectifs et les responsabilités dans ce domaine. Tout commence au niveau de la prévention ! De la logique de rivalité Est-ouest, on est passé à la mondialisation, avec une menace multiforme la menace n’est plus seulement étatique, avec des agents essentiellement dans le personnel des ambassades, mais générale touchant tous les secteurs et non uniquement les domaine militaro-industriel ; et il existe dans le monde 83 sociétés privées de renseignement souvent plus puissantes que la DST !

Les pirates informatiques se classent en fonction de leurs compétences techniques et de leur moralité.

Risques: Le vol (surtout de PC portables, intéressants pour les données qu’ils contiennent) ; le cambriolage de disques durs (fichiers clients et fournisseurs, données techniques...) Les vols de données seules passent souvent inaperçus... La désinformation utilise très souvent Internet, magnifique outil de manipulation (y compris au niveau de la Bourse où la désinformation peut facilement faire varier le cours d’une action). Le sabotage peut être utilisé contre un concurrent ; exemple : une entreprise a dû interrompre trois mois une chaîne de montage détériorée par de l’acide.

Les cibles de la menace visent le plus souvent les données ou le personnel. Dans les données, l’information stratégique peut concerner tous les domaines, à tous les stades (émission, reproduction, conservation, diffusion, et même destruction : on peut trouver des informations capitales dans les poubelles!) Les produits convoités peuvent se trouver au niveau de la conception (cahier des charges, « design », tests « cliniques »...) ou du développement. Comment obtenir de telles informations : de façon légale ; c’est l’intelligence économique qui porte sur l’information ouverte, ou par méthodes déloyales ; c’est de l’ingérence économique qui peut utiliser des sources humaines ou techniques (réseaux Internet ou Intranet d’échange d’informations. Partout, les budgets de renseignement sont en augmentation : il importe donc de crypter les informations échangées, et par précaution, utiliser des outils de cryptage français ! Certes l’information circulante est de plus en plus volumineuse mais il existe des outils de tri performants et les pirates savent les utiliser ! La communication à visée commerciale peut renseigner la concurrence...

La protection de l’information est capitale pour l’entreprise: son système d’information est à la fois le cerveau, l’oeil et la moelle épinière de l’entreprise; ceci impose de hiérarchiser l’information de l’entreprise :

- blanche : 80 % de l’information est ouverte,

- grise : information semi-ouverte,

- noire : diffusion contrôlée : à ne jamais charger sur PC portable, ni sur ordinateur connecté à des réseaux extérieurs. Assurer la confidentialité et l’intégrité de l’information (sauvegarde), sa disponibilité (outils d’accès) et sa non répudiation (sous réserve de vérification des signatures des données ou commandes issues de réseaux) : donc mettre en place des contrôles d’accès (mot de passe d’au moins 8 caractères, strictement personnels et secrets). Il faut une traçabilité des mises à jour : à cet effet, mémoriser toutes les interventions sur les fichiers sensibles. Il faut encore disposer d’antivirus et de cryptographies fiables, et surtout, ne jamais sous-estimer la menace et retenir que 57 % des malveillances sont d’origine interne. La prévention du piratage est un problème de culture de l’entreprise.

Réponses aux questions : L’insécurité informatique double chaque année. Son surcoût est de 15 %. Souvent l’entreprise lésée ne s’en rend pas compte ou ne porte pas plainte pour ne pas porter atteinte à son image. Se méfier des entreprises privées de sécurité et des audits : ils peuvent introduire le loup dans la bergerie!

La DST s’efforce de prévenir en sensibilisant les entreprises par contacts réguliers, notamment avec les entreprises les plus sensibles, en formant les cadres (interventions dans les universités, organisations ou associations).

dimanche 16 décembre 2007

l'infosphère

Le terme « révolution de l’information » a été utilisé pour désigner le développement des technologies de l’information et ses conséquences sur la société. En incluant les progrès faits en terme de communication et d’influence, il a donné lieu à un véritable concept qui, avec la naissance d’Internet, est devenu une réalité accessible au grand public. Le développement de ces nouvelles technologies transforme la société en donnant au plus grand nombre, l’accès à toutes sortes d’informations auparavant réservées à des spécialistes. En quelques années, la mémoire collective de l’humanité s’est organisée, est consultable et s’enrichit chaque jour par l’apport permanent d’informations inédites. Ce bouleversement culturel induit une nouvelle manière d’appréhender le monde et d’y agir. Au cœur de cette révolution, la notion d’information est en train de changer pour devenir une nouvelle forme d’action, déjà utilisée en tant que telle dans de nombreux domaines.

L’information (ou le renseignement) a toujours été un des facteurs clés du succès des actions militaires. Désormais, dans des situations de crise dans lesquelles il n’y a pas forcément d’adversaire, le problème de l’information est encore plus crucial. On peut même dire que la crise est en soi un problème d’information entre les divers acteurs qui l’alimentent et que sa résolution passe impérativement par le rétablissement d’une communication entre ceux-ci. La crise impose donc un surcroît d’exigence informationnelle orienté d’une part vers le renseignement sur les acteurs de crise qui peuvent à certain moment de venir des adversaires potentiels, et, d’autre part, vers le retour de la communication entre ces acteurs et l’instauration du dialogue.

La vulgarisation du concept de l'âge de l'information a eu le grand mérite de faire percevoir le décalage important entre les problèmes posés à la collectivité humaine par l'évolution technique et l'état du débat collectif à ce sujet. Ce décalage tient essentiellement à la nature de la vision politique sur la connaissance qui reste liée à la pensée écrite. La connaissance est perçue comme tridimensionnelle, chronologique et factuelle. La multidimensionnalité, la projection dans l'avenir et la réalité virtuelle ne sont encore que des mots sans réalité expérimentale. Et pourtant, cette réalité est là, à l'aube du XXIe siècle. Ceux qui la saisiront pourront encore espérer maîtriser leur devenir. Les autres devront sans doute le subir. L’information et la communication non seulement donnent forme à la réalité, l’actualisent constamment, mais encore la transforment en permanence. Elles permettent la connaissance et l’action, mais sont elles-mêmes agissantes parce qu’elles modèlent continuellement systèmes d’idées, attitudes, comportements, décisions et, in fine, actions.

L’impératif de maîtrise de l’information étant admis, il devient nécessaire d’acquérir des concepts, méthodes et outils qui sont multidisciplinaires et valent autant aux niveaux les plus élevés des organisations qu’aux niveaux subordonnés, autant dans les secteurs de l’entreprise que dans ceux des organismes étatiques, internationaux ou des collectivités locales. On relève ainsi une des caractéristiques de la décennie qui est à la fois la nécessité d’élargir l’espace de la compréhension stratégique sous la pression des événements et de raccourcir les délais nécessaires à la décision.

La maîtrise de l’infosphère constitue donc une priorité absolue pour tout responsable en charge de projets et de stratégies. Il lui faut certes maîtriser les étapes de la décision que sont le recueil de l’information, la gestion du savoir, la création de la connaissance, l’anticipation et le choix stratégique, mais aussi maîtriser l’utilisation de l’information et de la communication par l’ensemble de l’organisme qu’il dirige.

Cette maîtrise concerne en premier lieu l’important domaine de ce que l’on peut appeler l’info-axiologie, c’est-à-dire la gestion des perceptions individuelles et collectives qui pose la question du sens à donner à l’action, du sens perçu et des procédés d’action dans les champs psychologiques. Elle touche en outre tout ce qui concerne les interventions dans les conflits et la gestion de l’environnement psychologique qui en découle.

La maîtrise de l’infosphère implique celle de l’info-réticulation, c’est-à-dire de la mise en synergie des informations par les systèmes d’information et de communication dans l’espace et le temps qui permettent l’existence et l’élargissement de l’infosphère. En effet, les NTIC ont décuplé les possibilités de la réticulation, engendrant ainsi des ambitions, des contraintes, des nécessités en terme de maîtrise technologique et organisationnelle. L’info-réticulation évolue en système fractal : Chaque réseau fait partie d’un autre réseau, lequel s’intègre en permanence ou par connexion momentanée à un réseau plus large, l’Internet. Certains réseaux restent protégés en raison de leur importance vitale pour la nation. Encore faut-il les avoir identifiés et proposer une politique spécifique concernant leur sécurité. Une place particulière est accordée à l’aspect militaire de l’info-réticulation, car elle permet la mise en œuvre d’une véritable vision stratégique de l’utilisation de l’information.

La maîtrise de l’infosphère intéresse également la façon dont l’information et la communication sont utilisées, préservées et protégées dans l’organisme. Si le réseau des réseaux est accessible aisément, l’exigence de confidentialité et d’intégrité est plus difficile à satisfaire, d’autant que les atteintes sont de plus en plus variées. Ce fait contraint les utilisateurs des systèmes d’information et de communication à faire face à une véritable guerre des réseaux. C’est sans doute l’aspect le plus paradoxal de l’arrivée de l’ère de l’information. L’information étant une valeur, son utilisation et sa diffusion doivent s’effectuer dans le cadre d’une stratégie réfléchie en vue d’atteindre l’objectif que l’on s’est fixé. L’info-sécurité constitue donc pour le responsable une priorité importante dans la conduite de son organisme.

Enfin le dernier chapitre consacré à l’infosphère et l’infostratégie souligne la nécessité de maîtriser l’information grâce à la cohérence et la synergie qu’apporte une intention à chaque niveau de réflexion et d’action, que ce soit dans les secteurs de l’entreprise, des organismes étatiques et internationaux ou des collectivités locales. Il insiste sur l’exigence nouvelle de s’intégrer dans la société de l’information en élaborant une véritable stratégie pour survivre, se développer et se faire connaître.

En s’adressant à un large public, l’auteur tente d’expliciter les différentes notions et de proposer de nouveaux concepts permettant de voir plus clair dans les activités d’information et de communication. Ce livre constitue avant tout une clé de compréhension, donne des méthodes et des outils afin de se forger une vision globale sur l’infosphère. Pour être parfaitement accomplie, cette vision aura vocation à être éclairée et motivée par un projet politique, une stratégie globale et une stratégie portant sur le développement de la société de l’information.

jeudi 13 décembre 2007

Les relations Entreprises/Développement Durable

Les relations Entreprises/Développement Durable

et Intelligence Economique

Dans quelle mesure l’Intelligence Economique peut-elle faire du développement durable un facteur de différenciation ? Quels peuvent être les apports de l’intelligence économique aux énergies renouvelables ?

Le développement durable est un concept qui prend en compte toutes les facettes de l’activité de l’homme et se décline aux échelles mondiales, régionales, nationales et locales.

En engageant la responsabilité de chacun, sa mise en œuvre repose sur l’interaction d’acteurs parties prenantes d’une même finalité : l’avenir écologique de la planète. Celui-ci doit se réaliser en prenant compte de manière équilibrée les enjeux économiques, sociaux et environnementaux. Le rôle de l’entreprise dans la mise en œuvre du développement durable a été défini à travers la notion de « Responsabilité Sociétale ». Elle repose sur une vision partagée de l’activité économique par l’entreprise et ses parties prenantes : actionnaires, communautés locales, syndicats et associations, fournisseurs et consommateurs.

Mais chacune de ces parties prenantes privilégie des points d’entrée différents sur les moyens d’actions et projette sa propre vision des règles issue de son prisme de lecture : l’équité, l’équilibre, l’éthique, la qualité, la rentabilité, etc.

On peut déterminer 7 leviers du développement durable qui sont les mêmes pour tous :

-la gouvernance : elle vise à organiser la prise de conscience et les changements collectifs, à articuler la mise en réseau des acteurs parties prenantes du développement durable malgré leurs différences.

-l’arbitrage : il s’agit de définir les codes, les institutions et les pratiques du développement durable. Son objet est la normalisation qui régit et incite le comportement des individus, des organisations et des entreprises.

-l’innovation : elle s’attache aux technologies et aux ressources naturelles durables qui peuvent être découvertes à l’avenir pour assurer le développement pérenne de nos sociétés

-la compétitivité : son enjeu est d’introduire des valeurs sociétales et environnementales dans la gestion d’une entreprise tout en préservant ses avantages économiques et financiers

-la communication : elle doit organiser la transparence sans risquer de mettre à jour la confidentialité de la structure

-l’identité : il s’agit de préserver un patrimoine tout en anticipant les enjeux à venir

Ces différents leviers peuvent être mobilisés par la politique d’intelligence économique de l’entreprise. Loin d’être condamnés à s’ignorer, les deux approches stratégiques du développement durable et de l’intelligence économique peuvent s’appuyer mutuellement.

Les veilles sociétales, technologiques, réglementaires sont des outils d’anticipation et de compréhension de l’avenir. La communication d’influence, la sécurité informationnelle, les stratégies-réseaux participent aussi au façonnage de l’environnement compétitif de demain. Il appartient aux dirigeants que celui-ci face converger le développement économique, social et écologique de l’entreprise.

Anciens pouvoirs et nouveaux pouvoirs de l'or noir

Anciens Pouvoirs et Nouveaux Pouvoirs de l’Or Noir

1- Anciens Pouvoirs de l’Or Noir

Livre : « Pétrole, Une guerre d’un siècle », William Engdhal, 17/09/07

Ce livre démontre le pourquoi vital du pétrole. En temps de paix comme en temps de guerre, il a été un vecteur d’un pouvoir sans pareil. Il est considéré comme un vecteur stratégique de premier poids.

Henry Kissinger l’a formulé de façon saisissante lors du premier choc pétrolier : « Contrôlez le pétrole et contrôlerez les nations ».

Quel rôle pour la France ?

Elle a toujours était partie prenante de ce jeux d’échec (« Grand Echiquier » de Zbigniew Brezinski). La date qui marque le tournant des relations France/Pétrole fut l’échec décisif de l’expédition du capitaine Marchand face aux troupes de Lord Kitchener à Fachoda (1898). Depuis cette date la France fut prise dans un réseau d’alliance dirigé contre l’Allemagne qui a aboutit à la boucherie que l’Histoire appelle la Grande Guerre.

Dans cette guerre, et dans toutes celles qui ont suivi jusqu’à l’occupation de l’Iraq par une soi disant « coalition des volontés », le pétrole a joué un rôle décisif, mais pas de premier ordre au niveau de l’opinion publique internationale.

La France a participé à presque toutes ces aventures, ainsi qu’à la ruée vers l’Or Noir. Dans le passé, les élites françaises ont toujours tenté de définir pour leur pays une politique aussi indépendante que possible de la « perfide Albion », comme le général de Gaulle se plaisait à appeler la Grande-Bretagne. De nos jours, une perfidie plus dangereuse que celle qui entraîna la Première Guerre Mondiale et ses lendemains tumultueux menace notre planète.

2-Nouveaux Pouvoirs de l’Or Noir

Aujourd’hui dans un contexte d’hyper-concurrence et de sauvegarde de notre habitat naturel, de nouveaux défis se posent pour les Etats et les Entreprises.

Les Etats doivent protéger leur activité économique. La récente fusion de Suez (Energie) et de Gaz de France illustre cet enjeu pour la France alors que les compagnies pétrolières traditionnelles perdent le contrôle des prix depuis les fortes hausses des matières premières en 2005. Pas un « 20 heures » sans des images alarmistes sur la flambée des prix du pétrole. Le prix du pétrole est lié à deux facteurs principaux (la baisse des réserves et la puissance de l’euro).

Dans ce discours deux questions permettent aussi d’éclairer le jeu qu’il existe dans le domaine du pétrole entre des compagnies pétrolières internationales et des compagnies pétrolières nationales qui possèdent « la terre du pétrole ». La maîtrise de l’énergie est toujours un enjeu souverain comme la maitrise de l’information. Mais aujourd’hui peut-on se poser la question du changement des rapports entre énergie et information, lequel permet de maitriser l’autre ?

Les énergies renouvelables sont entrain de se développer, même si l’on considère qu’il faudrait presque dix ans pour que celles-ci puissent s’implanter dans les différentes industries et chez les particuliers.

A l’heure actuelle notre économie est dépendante envers les énergies fossiles. Une coupure de gaz peut obérer toute activité économique d’un pays. Face à cet enjeu, les questions se posent aux traditionnels leaders américains (Chevron, Exxon, Shell, BP,…) : doivent-ils organiser ou non leurs propres services de sécurité armée, comme le géant Gazprom, pour protéger leurs employés menacés d’enlèvement ou de mort par des groupes terroristes ou tribaux qui prétendent contester leur présence et leur activité industrielle.

C’est le cas, notamment, au Nigéria, en Indonésie ou dans quelques petits pays arides qui ont retrouvé des frontières oubliées avec l’ex-Union soviétique. Aux marches de la Russie, une société quasi-étatique, GazProm, n’agit pas autrement depuis plus de 15 ans. Mais quels sont les boucliers face à cette menace ? Qui est dans la cible ? Qui agit, Où ? Et qui réplique ?

Pour anticiper, ressentir les signaux faibles, l’analyse des flux informationnels est devenue une différenciation indispensable à ces entreprises particulièrement exposées. Deux critères majeurs doivent être pris en compte : la rapidité du traitement de l’information, du signal et son exhaustivité. Tout ceci réside dans la constitution et l’exploitation d’une plateforme d’une veille stratégique performante.

mardi 11 décembre 2007

« L'évolution conceptuelle de la puissance aérienne des Etats-Unis et sa place dans la stratégie américaine de l'après-guerre froide »

Peu de puissances militaires ont été autant marquées que celle des Etats-Unis par la puissance aérienne, depuis un siècle que l'aviation existe, et à l'inverse, peu de puissances aériennes ont, autant que celle des Etats-Unis, marqué l'histoire de la puissance aérienne en général et même l'histoire militaire dans son ensemble durant ces 50 dernières années. Au fond même de l'inconscient collectif américain, les héros ne sont pas tant Rambo ou les Marines débarquant pour apporter la liberté, mais le pilote aux nerfs d'airain, au cœur chaud et au sang froid manœuvrant diaboliquement sa machine, symbole de la supériorité technologique américaine.

Or, après deux guerres mondiales et une guerre froide de 50 ans, les Etats-Unis abordent une ère nouvelle et redéfinissent un interventionnisme dans lequel il semble bien que leur puissance aérospatiale soit amenée à jouer un rôle toujours plus prépondérant, un rôle quasiment exclusif.

Avant toute chose, il nous faut brièvement revenir sur ce que l'on entend par puissance aérienne et puissance aérospatiale.

La puissance aérienne est avant tout une capacité; la capacité d'utiliser la troisième dimension à des fins militaires. Le plus difficile revient à borner précisément l'ensemble des outils pouvant revendiquer cette utilisation. L'US Air Force définit la puissance aérienne comme l'ensemble des plates-formes utilisant la troisième dimension ce qui est réducteur car laissant de côté un grand nombre d'engins n'étant pas des plates-formes et notamment les missiles surface-air ou surface-surface. A l'inverse, on peut considérer que les obus ou même les balles utilisent la troisième dimension, ces outils n'étant pourtant pas compris usuellement dans la puissance aérienne. Nous définirons celle-ci comme étant l'ensemble des outils capables de se mouvoir de façon autonome dans ou au travers de la troisième dimension à des fins militaires.

La puissance aérienne a cependant cédé le pas aujourd'hui à la puissance aérospatiale qui reprend la même définition. Certes, le milieu spatial offre des conditions d'emploi très spécifiques et fondamentalement différentes de celles caractérisant l'atmosphère, mais les deux milieux ont la même finalité et offre la même capacité opérationnelle: celle de pouvoir s'élever pour s'affranchir des obstacles de la terre, pour dominer et éventuellement frapper. Comme le stipule la doctrine de l'US Air Force, l'espace et l'atmosphère représente un tout indivisible.

Le concept de la puissance aérienne a émergé dans les années 1920 tout d'abord sous la forme d'une théorie synthétisant les idées de Douhet "le prophète" italien, Trenchard "le bâtisseur" britannique et Mitchell "le promoteur" américain. Cette théorie comprend trois axiomes initiaux:

1. la puissance aérienne doit, pour agir dans la troisième dimension, conquérir la maîtrise du ciel;

2. la puissance aérienne doit frapper de façon décisive au coeur du pays adverse;

3. pour ce faire, la puissance aérienne doit être contrôlée de façon indépendante et centralisée.

L'essence de la puissance aérienne est bien sur le second axiome - frapper décisivement au coeur du pays adverse.

Le cheminement conceptuel de l’Airpower : de la genèse à l’effondrement vietnamien

Nous reprenons pour développer cette partie, l’argumentation exposé par l’analyste de la Rand Corporation, Carl Builder, dans son remarquable ouvrage, The Icarus Syndrome, qui, lorsqu’il est paru en 1992, a provoqué une levée de bouclier de la part de beaucoup d’officiers de l’Air Force, qui, selon cet auteur, a abandonné la théorie de l’Airpower, a préféré les avions à leur mission fondamentale. Le concept de la puissance aérienne américaine, l'Airpower, ne naît pas avec Mitchell mais des années plus tard. Le bouillant officier mit en effet tellement d'ardeur et même d'agressivité à défendre les vertus de l'arme aérienne, que son discours et ses méthodes lui valurent l'inimitié de ses supérieures, qui le traînèrent en cours martiale lorsqu'à l'occasion d'un accident de dirigeable de l'US Navy, il les traita de criminels irresponsables. Ses compagnons d'armes reprirent le flambeau avec beaucoup plus de diplomatie. L'affaire n'était pas évidente, il est vrai, car reconnaître la théorie de la puissance aérienne revenait aussi, pour le haut-commandement de l'US Army, qui contrôlait les aviateurs, alors réunis dans l'US Army Air Corps, à admettre l'indépendance institutionnelle du corps.

La date charnière est sans aucun doute 1935 au moment où l'Army octroya à l'USAAC un Etat-major indépendant et où la Tactical Air School rédigea la première doctrine des forces aériennes américaines. Ce document colle véritablement à la théorie de la puissance aérienne dans ce sens qu'il affirme que la frappe décisive au coeur du pays adverse est le pilier de l'Airpower. Celle-ci est donc à ses débuts fondamentalement stratégique en partie parce que cette indépendance opérationnelle, la capacité de gagner une guerre seule, est la seule option viable permettant d'envisager l'indépendance institutionnelle. Elle est donc d'inspiration "douhettiste," d'une part parce que Douhet, plus que tout autre, prévoyait dans le futur que la puissance aérienne serait l'arme offensive et décisive unique et d'autre part parce que les bombardiers à long-rayon d'action étaient perçus comme les instruments nécessaires et suffisants de l’Airpower, rejoignant ainsi les descriptions des navires de bataille de Douhet. Elle est aussi d'inspiration "mitchellienne" en énonçant certaines spécificités américaines et notamment le bombardement diurne de précision sur les moyens de production, industriels ou agricoles, permettant à l'adversaire de soutenir son effort de guerre. Cette vision de la guerre très logisticienne, s'oppose, à l'époque, à l'autre grand concept tiré de la théorie de la puissance aérienne, celui des britanniques, très douhettiste, parce qu'envisageant la puissance aérienne comme outil de dissuasion et, si celle-ci échoue, comme arme de coercition stratégique par destruction des aires urbaines et industrielles.

Des voix s'élevèrent au sein de l'Army et du War Department contre cette doctrine reposant sur une théorie non validée. Toutefois, l'Airpower marquait des points et devenait de plus en plus reconnue. L'action de personnage comme Andrew, qui consuma sa carrière à défendre "ses" bombardiers B-17, et surtout celle de Henry "Hap" Arnold assurèrent la pérennité de l'Airpower. Arnold, le "père de l'USAF", devenant chef d'Etat-major de l'USAAC en 1938, parvint à convaincre le Général Marshall, chef d'Etat-major de l'Army, Harry Hopkins, conseiller du président Roosevelt puis le président lui-même que l'Airpower était une solution réellement avantageuse pour assurer la sécurité des Etats-Unis. Les programmes de bombardiers, lancés grâce à un accord provisoire avec la Navy concernant la défense côtière, furent donc sauvés lorsqu'Arnold réussit à leur faire attribuer la défense de l'hémisphère occidental, au titre de la doctrine Monroe.

La seconde guerre mondiale invalida nombre de concepts de l'Airpower et en valida d'autres. L'action anglo-américaine sur l'Allemagne Nazie débuta en 1943, chacune des forces aériennes respectant sa doctrine. Les Américains allèrent de désillusions en désillusions au début. Les bombardiers étaient incapables, de jour, de garder la maîtrise du ciel et leur escorte se révéla bientôt obligatoire, conformément d'ailleurs aux recommandations d'avant-guerre de Arnold. Les bombardements sur les usines ne purent briser l'effort de guerre allemand. Les succès furent obtenus de façon indirecte lorsque Eisenhower obtint que l'aviation stratégique fut employée à préparer Overlord. Les forteresses volantes détruisirent alors les dépôts d'hydrocarbures. Néanmoins, ce théâtre vit surtout le triomphe de l'aviation tactique. En effet, non seulement les appareils destinés à soutenir les forces terrestres réussirent dans les missions d'interdictions où avaient échoués les forces stratégiques, mais pour neutraliser la Luftwaffe, les bombardiers en furent réduit à jouer les appâts, les chasseurs d'escorte devenant les principaux instruments de cette victoire. Dans le Pacifique, les grandes batailles aéronavales consacrèrent dès le début l'aviation tactique. Dans la dernière année de la guerre, cependant, LeMay, qui dirigeait les forces aériennes stratégiques, tenta d'emporter la décision seule mais n'y parvint qu'à partir du moment où il reprit totalement les concepts douhettistes que son homologue anglais Harris avait expérimenté sur l'Allemagne, concepts qui triomphèrent sur le Japon, grâce aux bombardements atomiques, la terreur que ces derniers ont provoqué empêchant paradoxalement le renouvellement d'une telle victoire.

Les bombes atomiques furent conceptuellement assimilées comme de simples armes supplémentaires, trop coûteuses et peu nombreuses pour être employées en masse, ne remettant ainsi pas en cause les sacro-saintes grandes flottes de bombardiers stratégiques. Cette période, s'étalant de 1945 à la fin des années 1950, représenta l'âge d'or de l'Airpower. Le Strategic Air Command, créé en 1946, était, avec ses bombardiers et ses bombes atomiques, le coeur de l'US Air Force, créée en 1947, qui était elle-même le coeur des forces armées américaines.

Cet âge d'or fut à peine troublé par le conflit coréen et se poursuivit en fait jusqu'à l'avènement de Spoutnik. En 1957, les Américains s'aperçurent avec effroi que les Soviétiques les avaient dépassé dans la course à l'espace et possédaient avec le missile intercontinental l'arme ultime de l'Airpower. Cette situation révéla par contrecoup que l'Air Force était composé avant tout de pilotes, qui aimaient au bout du compte plus les moyens de l'Airpower, les avions, que les finalités, ce qui les avait amené, au cours de années précédentes, à négliger les programmes de recherche sur les missiles balistiques, considérés comme peu précis, moins flexibles que les bombardiers pilotés. Les exigences du président Eisenhower, le fait que les nouveaux bombardiers devaient afficher des performances presque impossibles à atteindre pour percer le système antiaérien soviétique émergent, amena l'Air Force à accepter les missiles comme adjonction aux bombardiers. Mais les autres services s'étaient déjà engouffré dans la brèche: l'Army contrôlait les missiles tactiques et la Navy déployait ses premiers SNLE. Les instruments de l'Airpower s'en trouvaient donc partagés et les luttes budgétaires interservices, relancées. Dans le même temps, au sein de l'USAF, profitant de la perte d'influence du SAC, les partisans de l'aviation tactique, longtemps sacrifiée sur l'autel de l'Airpower la plus orthodoxe, firent valoir leur droits. Ils finirent même, au début des années 1960, par prendre le contrôle d'une institution déchirée par ses querelles de clochers et qui oubliait sa finalité: se dévouer à l'application de l'Airpower.

Le fait que l'Air Force, née pour appliquer l'Airpower de façon stratégique - donc indépendante -, soit contrôlée par des aviateurs tactiques, dont la mission prioritaire est de soutenir les forces de surfaces, constituait un paradoxe qui fut contourné par une redéfinition de l'Airpower: dans le cadre d'une action interarmées de théâtre, celle-là pouvait revendiquer l'exclusivité de la victoire, par une action "stratégique". Le douhettisme était ainsi recréé, non plus au niveau stratégique, mais au niveau opératif. La malheureuse et sanglante aventure vietnamienne et notamment l'opération Rolling Thunder de "persuasion stratégique", menée de 1965 à 1968, jeta le discrédit en dehors et au sein même de l'Air Force, sur la capacité de l'Airpower à remporter seule la décision, même au niveau opératif. Le douhettisme était enterré pour 20 ans. Ainsi dix ans plus tard, au tournant des années 1980, l'Air Force s'associa avec l'Army pour développer AirLand Battle, signifiant conceptuellement l'asservissement de la première à la seconde qui, avec son concept de bataille en profondeur, récupérait la direction des opérations dans le domaine de l'interdiction rapprochée du champ de bataille.

Le renouveau conceptuel de la fin des années 1980 : l’émergence du douhettisme de théatre

L'Air Force durant les années 1980, traversa la plus grande crise existentielle de sa courte histoire, certains officiers allant même officieusement jusqu'à remettre en cause la légitimité de son existence en temps que service indépendant dans un document de 1989, A View of the Air Force Today, qui expliquait que la théorie de l'Airpower, et notamment ce que nous avons défini comme le second axiome, était fausse et qu'un service bâti sur cette théorie n'avait pas de raison d'être. Ce fut pourtant précisément à cette époque que les bases du renouveau conceptuel de l'Airpower furent jetées. Il existait en effet un groupe d'officiers, se qualifiant eux mêmes de "zélotes", qui considéraient que l'échec de la puissance aérienne stratégique n'était pas une fatalité. Parmi eux se trouvait Warden, un étudiant du National War College. Il décida d'écrire un ouvrage sur la puissance aérienne, avec une idée bien ancrée qui était que celle-ci, au Vietnam avait bien travaillé sur le plan tactique mais que son échec au niveau stratégique/opératif était dû au fait qu'elle avait été utilisée de mauvaise façon pour atteindre de mauvais objectifs.

Le draft de The Air Campaign: Planning For Combat fit grand bruit et pas seulement parce qu'il s'agissait du premier ouvrage depuis la seconde guerre mondiale traitant conceptuellement de la puissance aérienne dans son ensemble. Warden y déclina les grands principes de la guerre aérienne, les grands types de missions, mais surtout y affirma que le rôle de l'Airpower était de frapper les "centres de gravité" adverses - les points vitaux pour la conduite des opérations ou de la guerre dans son ensemble -, le plus important, le plus lucratif étant celui représenté par le C3. Cette approche tranchait avec le concept en vigueur qui faisait de la puissance aérienne un simple instrument d'appui des forces de surfaces.

Warden, devenu colonel, fut immédiatement placé sous le commandement du général Dugan, responsable du bureau du directoire pour les planifications de l'Air Force, au poste de directeur adjoint pour la stratégie, la doctrine et le combat, avec la mission informelle toute simple d'aider à changer la mentalité de l'Air Force (!) Là, il entrepris avec son équipe, sur la base de ses travaux antérieurs, de redéfinir les concepts opérationnelles afin de réécrire le manuel de base l'AFM 1-1. Il développa pour ce faire un modèle de puissance ennemie. Ce dernier, aujourd'hui très connu, a la forme de cinq cercles concentriques:

1. le premier cercle est celui des forces militaires déployées sur le terrain;

2. le second, celui de la population;

3. le troisième, celui des infrastructures telles que routes, ponts ou autres;

4. le quatrième, celui des productions clés comme l'énergie, les biens de production; et

5. le cinquième, le plus important, celui du leadership politique et militaire ( le C3I) de la puissance ennemie.

Le point important est que ce modèle vaut, avec quelques variantes, selon Warden, pour toutes les échelles de systèmes, de la nation au corps d'armée, et permet de raisonner en terme de centre de gravité. Notons néanmoins que si ce modèle hiérarchise les différents points à frapper, Warden n'en considère pas moins l'action de la puissance aérienne comme devant toucher l'ensemble du dispositif adverse y compris les éléments du cinquième cercle, en coopération avec les forces de surfaces amis, ce qui ne le fait donc pas se départir de la logique d'action opérative en vigueur depuis 20 ans.

La guerre du Golfe permit de mettre en pratique ce concept. Warden fut en effet, dans les jours qui suivirent l’invasion irakienne, placé à la tête du Checkmate, un organisme originellement chargé de réactualiser en permanence le wargame contre les Soviétiques et auquel on assigna tout naturellement la tâche de réaliser un plan de riposte aérienne contre Saddam Hussein. Ce plan, nommé Instant Thunder par opposition à Rolling Thunder, prévoyait une riposte immédiate et massive contre 80 cibles clés appartenant aux cercles intérieurs du modèle de Warden. Le général Schwarzkopf le modifia et surtout l’amenda pour que l’Airpower prenne en compte dans son action une offensive terrestre, ainsi que d’autres centres de gravité tels que la Garde Républicaine ou les armes de destruction massive. Il n’empêche que, pour la première fois depuis longtemps, l’Air Force avait imaginé un plan d’action exclusif, résolument douhettiste.

L’opération Desert Storm fut d’ailleurs une véritable thérapie pour l’Air Force qui s’avéra être le seul service capable d’assurer la planification et l’exécution de la majeure partie de l’opération. D’une part, l’Etat-major interarmées assurant le contrôle tactique des forces aériennes, le Joint Force Air Component Command, dirigé par le général Horner, était construit autour de l’Etat-major CENTAF - CENTral Air Force -, le commandement de l’Air Force pour la région centre. D’autre part, l’écrasante majorité des frappes contre les centres de gravité stratégiques irakiens furent menées par l’Air Force, seul service à disposer d’un stock de bombes guidées de précision suffisant et de plates-formes adaptées à la l’interdiction en profondeur furtive avec ses F-117, F-111 F ou F-15 E. L’USAF contrôlait aussi la majeure partie des capacités de projection de forces - ravitailleurs et transports - ou de soutien électronique - AWACS par exemple.

Un terme revient systématiquement pour qualifier le rôle de l’Airpower dans le Golfe : décisif. Quelques spécialistes ont cependant mis en relief l’inutilité du plan Instant Thunder, du fait de la totale domination tactique de l’Airpower, et ont mis en lumière les inefficacités, les échecs d’Instant Thunder, en premier lieu ceux de la décapitation du leadership adverse ou de la chasse au Scud.

Une nouvelle étape fut franchise avec la publication en mars 1990 du livre blanc Global Reach - Global Power qui est toujours actuellement le concept de base de l'Airpower, sur lequel l'Air Force continue de se baser, avec quelques amendements. Le titre est déjà en lui-même un programme. L'Air Force voit l'action de la puissance aérienne comme Global, c'est à dire mondiale. L'Airpower peut atteindre n'importe quel point du monde, peut appliquer la force partout dans le monde. Comme l'explique cependant Builder, ce document n'offre en rien une nouvelle mission unificatrice pour l'Air Force, mais se contente de réaffirmer les différentes missions de la puissance aérospatiale, missions qui à de rares exceptions prêt peuvent être accomplies par l'ensemble des services possédant une Airpower:

- assurer la dissuasion nucléaire;

- permettre "une conscience globale de la situation";

- procurer des forces de combat versatiles aux commandants régionaux et travailler en coopération avec les forces de surfaces;

- contrôler le High Ground, c'est à dire le C3I et l'espace.

L’autre inconvénient de ce concept réside dans la permanence de sa validité, étant donc dans une certaine mesure décalé par rapport aux risques et menaces émergents ces dernières années.

Voilà pourquoi l’Air Force, prenant acte de l’évolution de la structure des forces américaines et notamment de l’affaiblissement de la présence outre-mer, publia en 1995 un nouveau livre blanc, complétant Global Reach - Global Power : Global Presence. Ce document propose de remplacer la présence outre-mer réelle, physique, par une présence virtuelle, un peu comme on remplace le policier battant le pavé devant une banque par un système sophistiqué de surveillance et d’alarme relié au commissariat. l’Aerospace power est naturellement l’instrument privilégié capable d’assurer cette présence virtuelle, grâce principalement au développement dans les domaines clés de la Situational Awareness, du transport aérien, et de la létalité. Une fois encore, la mission de l’Aerospace power n’est pas redéfini par ce document, écrit sur le ton “voilà ce que nous pouvons faire pour...”. Par ailleurs, l’Air Force conçoit cette présence virtuelle comme une affaire d’équipe avec les autres composantes de la puissance aérospatiale américaine et même avec les forces de surface.

Tout semble ainsi se passer comme si l’USAF, ayant démontré ses capacités exclusives dans les sables du désert, n’éprouve plus le besoin de redéfinir une nouvelle mission pour la puissance aérospatiale et se contente d’exploiter celles existantes. La nécessité de cette redéfinition a pourtant été au centre d'un vif débat ayant secoué le Département de la Défense, le Congrès ou les centres d'analyses divers, à propos de la posture doctrinale que les forces armées dans leur ensemble devaient adopter vis à vis des opérations autres que la guerre. Ces dernières requérant de plus en plus de moyens et étant de plus en plus importantes numériquement, beaucoup ont défendu l'idée que les forces armées devaient doctrinalement leur accorder autant d'importance qu'à la guerre classique. La sécurité des Etats-Unis, dans l'ère post-guerre froide résidait dans cette adaptation. Les adversaires d'une telle évolution répliquaient qu'on ne pouvait, notamment en terme d'entraînement, se préparer à tout en même temps, que le plus important restait de pouvoir gagner les guerres de haute intensité, et que ces opérations autres que la guerre grevaient déjà beaucoup des fonds destinés à la Combat Readiness, la disponibilité opérationnelle pour le combat, de certaines unités. L'affaire de Mogadiscio et la Presidential Decision Directive 25 sur les opérations de paix, sur lesquelles nous reviendrons, ont mis un terme aux velléités de réforme.

Il convient toutefois de nuancer ces propos lorsque l’on prend en considération l’énoncé de la stratégie asymétrique fait par le général Fogleman en 1996. La stratégie asymétrique, qui consiste à frapper indirectement, à la façon de Zun-Tse, le maillon le plus faible du dispositif adverse pour provoquer l’écroulement de l’ensemble, est un concept assez nouveau dans les schémas stratégiques américains, qui modifie l’American Way of War, non pas quant à ses finalités qui sont de gagner rapidement et sans pertes inutiles, mais quant à sa méthode, reposant traditionnellement sur l’affrontement direct avec un maximum de puissance de feu, sur la guerre d’attrition. Ce modèle de guerre n’est, selon Fogleman, plus possible parce qu’il peut entraîner des pertes sensibles qui, grâce à “l’effet CNN,” peuvent provoquer un effondrement du soutien de la population américaine, et parce que les forces américaines n’ont tout simplement plus assez de capacités numériques, pour se permettre, en toute circonstance, de surclasser et d’écraser directement leur adversaire. Or, une stratégie asymétrique implique de concevoir une action dans toutes les dimensions possibles, une action de “contournement”. On en revient donc au concept de centres de gravité de Warden et évidemment, dans cette optique, rien ne peut être entrepris sans emprunter la troisième dimension, sans user de l’Aerospace power qui peut même, dans certains, cas représenter le seul instrument possible.

La portée de ce renouveau conceptuel reste donc globalement limitée, bornée et ce pour deux raisons majeures.

La première est que l’Air Force se refuse toujours à imaginer un douhettisme de niveau stratégique, par peur de l’échec en cas de guerre. La lecture du manuel de base de l'USAF est à cet égard révélateur. Il est en effet écrit que l'usage stratégique de l'Airpower a, à plusieurs reprises, montré ses limites par le passé. Le même discours est tenu dans le Gulf War Air Power Survey, écrit sous la direction d'Eliot Cohen, qui explique que l'inefficacité de l'Airpower au niveau stratégique est trop récurrente pour être mise sur le compte des circonstances stratégiques, politiques ou techniques propres à chaque conflit.

La seconde, qui est liée à la première, réside dans la Jointness, l’interarméïté, institutionnalisée par le Goldwater-Nichols Act de 1986. La Jointness existe depuis des décennies mais a toujours été utilisés dans des cadres d'action bien précis. Cette loi, en renforçant les pouvoirs du Joint Chiefs of Staff et des CINC - Commander IN Chief -, les commandants régionaux interarmées, la systématise. L’application pratique de la loi et des Joint Publications qui suivirent, a posé et pose toujours bien des problèmes entre les services eux mêmes ou entre eux et les CINC. Au cours de la guerre du Golfe, les forces aériennes étaient certes toutes commandées par le CINC mais le contrôle opérationnel restait au main des Etats-majors régionaux de service, le général Horner n’ayant que le contrôle tactique des forces. Il existe aujourd'hui une véritable culture émergente de l’interarméïté au sein des différents services, que certains aimeraient voir se développer plus encore, avec une plus grande flexibilité doctrinale de chaque service, une promotion des exercices interarmées. Si les rudes débats budgétaires sont le résultat de la volonté de chaque service d'assurer prioritairement telle ou telle mission, l'oecuménisme est donc de rigueur dans les documents officiels de chacun d'eux. Les livres blancs de l'USAF n'échappent pas à la règle, développant avec emphase les vertus du travail d'équipe, interarmées et même combiné Or cette interarméïté est à double tranchant: d'un côté, elle empêche chacun des services de se concevoir un rôle exclusif autre que le contrôle de son milieu de prédilection et de l'autre, en ce qui concerne l'Aerospace power, elle permet à l'USAF, au travers des JFACC qu'elle est la mieux placée pour diriger, de réhabiliter le troisième axiome de la théorie initiale, de récupérer le contrôle centralisé et - partiellement - indépendant des forces aériennes. C'est ce qui explique que l'Air Force soit le promoteur le plus chaud de l’interarméïté aérienne.

L'usage de l'outil militaire, et notamment l'usage de l'Aerospace power pour les Américains ne semble plus se concevoir que comme une action interarmées de théâtre même si ces dernières années une réelle ambition douhettiste, dans ce cadre opératif, refait son apparition.

L’aerospace power dans la stratégie américaine de l’après guerre froide

La reconceptualisation de l'Aerospace power semble donc devoir rester bridée au niveau opératif. Mais qu'en est-il de la place réelle qu'est en train d'acquérir la puissance aérospatiale dans la stratégie américaine. Pour répondre à cette question majeure, peut-être n'est-il pas inutile de revenir brièvement sur les évolutions de la stratégie américaine depuis 1990 et la fin de l'ordre bipolaire.

Avec la disparition de la menace communiste monobloc et l'émergence de risques et de menaces plus diffus, les Américains ont, comme tout le monde, dû redéfinir leur stratégie et leur interventionnisme. A la stratégie de sécurité du Containment de l'administration Bush a succédé celle de l'ère Clinton, Engagment & Enlargment, plus axée sur l'obtention de la sécurité par les voies économiques et de promotion de la démocratie. Les stratégies militaires énoncées par le DoD dans la foulée de ces doctrines ont, elles aussi, évolués: au Global Engagement de l'époque Cheney a succédé la stratégie de Flexible & Selective Engagement de Perry/ Aspin. Ces deux orientations n'en comportent pas moins plusieurs dénominateurs communs.

· le premier concerne la façon dont ces stratégies ont été définies, à savoir après qu'ont été examinés les moyens disponibles, ce qui est le propre d'un pays se sentant en paix, sans menace vis à vis de laquelle définir la posture de ses forces. Ainsi, c'est après la publication de Base Force, en 1991, qui établissait une structure de force minimale pour parer à un conflit régional d'envergure qu'à été écrit Global Engagement. De la même façon, c'est après la rédaction du BUR - le Bottom-Up Review - en 1993, qu'a été énoncé Flexible & Selective Engagement, en 1994.

· Le second concerne le contenu de ces NMS. Il s'agit de l'importance consacrée aux opérations autres que la guerre. L’engagement dans ce vaste ensemble d'activités, regroupant en fait tout ce qui n'est pas guerrier, était devenu l'une des modalités majeures de l'interventionnisme américain de l'après-guerre froide, ce qui est moins le cas aujourd'hui tout au moins pour les opérations les plus dangereuses ou au contour politico-militaire le plus flou.

· Le troisième, le plus important, est la nécessité pour les forces armées d'être prêtes à affronter et défaire deux adversaires régionaux type Irak ou Corée du Nord, presque simultanément. C'est autour de ce point que tourne l'ensemble de la stratégie militaire américaine depuis 6 ans. Les Américains n'ont en fait guère eu à attendre pour se désigner de nouveaux adversaires. Saddam Hussein est arrivé à point nommé, en plus de l'Iran ou la Corée du Nord, pour fournir aux Etats-Unis des adversaires-partenaires "coopératifs", parce qu'excellant dans leur rôle de backlash, d'Etats réactionnaires violents, contre lesquels ils peuvent poursuivre le Containment, et surtout, sur le plan pratique et financier, préparer leurs forces. Cependant, les variations de la notion de "quasi-simultanéité" des deux conflits régionaux à livrer, faisant référence à un laps de temps qui a tendance à devenir élastique, ou de celle des deux conflits eux-mêmes se transformant en un conflit et demi, sont là pour montrer que ces "menaces" tiennent plus de l'hypothèse de travail que d'autre chose, et que le vrai paramètre servant à fixer le niveau des forces est la quantité de billets verts disponibles.

L’Aerospace power représente “structurellement”, de fait, un instrument privilégié de l’engagement américain qu’il soit global ou sélectif et flexible, comme le montre tout particulièrement le triptyque conceptuel de l’USAF, Global Reach - Global Power - Global Presence. La puissance aérospatiale est en effet en mesure :

· d’assurer la majeure partie de la collecte de renseignement sur l’ensemble de la planète et à tous les niveaux de l’échelle stratégique - Global View ;

· d’assurer la projection de sa propre puissance ou celle des forces terrestres sur presque toutes les zones habitées de la planète - Global Reach ;

· d’appliquer partout dans le monde la force létale mais aussi non létale, comme la guerre électronique...- Global Power ; et

· de doser la lisibilité de son action, de ne pas forcément créer de dommages irréparables, mais d’être potentiellement partout présente, grâce à sa flexibilité, son ubiquité, le caractère éphémère de son action - Virtual Presence.

Plusieurs facteurs sont de nature à renforcer l’importance stratégique de l’Aerospace power, à rendre les capacités énoncées ci-dessus, nécessaires et suffisantes pour la réussite de bien des interventions.

La première est le choix opérationnel de la décapitation opéré depuis maintenant depuis dix ans. Cette décapitation du leadership que Warden définit dans ses travaux comme étant le centre de gravité le plus important du système ennemi, a été mis en œuvre à trois reprises ces dernières années : en 1986 contre le colonel Khadafi lors de l’opération El Dorado Canyon ; en 1991 contre Saddam Hussein et son entourage politique et militaire ; et en 1994 contre le “général” Aïdid et ses lieutenants durant Restore Hope. Ces diverses opérations montrent que la décapitation ne peut se concevoir que comme une action dans la troisième dimension, ou comme une intervention des forces spéciales, ou les deux. En effet, seuls ces deux composantes de l’outil militaire - si l’on s’en tient aux moyens conventionnels bien sur - peuvent par nature entreprendre ce type de mission caractérisé par la précision de la frappe et la pénétration en profondeur du dispositif adverse.

La seconde est le retrait de la présence outre-mer. L’effectif total des forces américaines a baissé de 25 % et celui des forces déployées outre-mer de plus de 40 %, le commandement européen, le plus important à l’époque de la guerre froide, servant de réservoir de forces projetables sur tout le bassin méditerranéen et le Proche-Orient, étant le plus touché. Ce retrait se fait donc au profit de la projection de force depuis le continent qui, si elle doit être rapide, ne peut que miser sur l’Airpower, sur le Global Reach permis par l’Airlift et les appareils de ravitaillement en vol.

La troisième est la moindre volonté des Américains d’engager directement leurs forces de surfaces. Ceci est particulièrement vrai pour les opérations de paix qui constituaient à l’époque du président Bush un des types d’intervention les plus en vogue. Deux facteurs ont cependant largement refroidi cet enthousiasme. Le premier était les conflits de compétence relatifs au commandement et au contrôle des forces entre l’ONU et les Américains qui n’acceptaient pas de voir leur troupes placées sous un commandement combiné recevant ses ordres des décideurs onusiens. Le contrôle limité semblait être la seule formule acceptable par eux. Le second facteur fut le fiasco somalien et notamment la catastrophe de l’hôtel Olympic, le 25 octobre 1994, où les Delta operators et les Rangers venus capturer Aïdid se retrouvèrent encerclés, après que leurs hélicoptères ont été abattus, et ne furent secourus par une colonne blindée qu’après des heures de fusillade. Cette affaire, qui coûta la vie à 18 GI’s, souleva un tollé dans l’opinion publique, au Congrès et aboutit finalement au retrait des Américains d’une aventure somalienne décidément mal engagée. Le président Clinton redéfinit les règles d’engagement des forces américaines dans les opérations de paix au travers de la Presidential Decision Directive PDD-25. Les forces armées ne devront plus être engagées dans une opération de paix que si celle-ci répond à toute une série de critères précis :

- la mise en cause de leurs intérêts ;

- un objectif, et une méthode pour l’atteindre bien cernés ;

- la mise au point préalable d’un calendrier précis ;

- des risques limités ;

- le soutien de l’opinion publique et du Congrès ;

- le commandement américain.

En cas d’implication dans une opération de Peace Enforcement, d’imposition de la paix avec une menace clairement identifiée et des risques de combat réels, les Américains veulent avoir un droit de regard sur l’ensemble du dispositif déployé et carte blanche pour prendre toutes les précautions qu’ils souhaitent. Des conditions aussi draconiennes ne peuvent que restreindre considérablement l’intervention des forces américaines terrestres, des forces de “contact”. L’Aerospace power est, elle, en mesure, grâce à son ubiquité, au rapport rapidité / portée de son action, de continuer à fournir un soutien logistique d’urgence sur l’ensemble de la planète aux forces alliées s’engageant sur le terrain. Elle peut de surcroît fournir l’élément intermédiaire entre l’inaction et l’intervention massive de ces forces de surface, grâce à sa souplesse , et permettre une action à distance de sécurité avec un risque de pertes nettement moindre. Le champ d’action des forces américaines est donc globalement restreint, mais pas celui de l’Aerospace power, qui, de ce fait, acquiert une plus grande importance stratégique.

Dans les faits, l’Aerospace power a été ces dernières années l’instrument militaire le plus employé par les Etats-Unis, le seul même, dans certaines opérations.

Ainsi, les seules actions de combat menées contres l’Irak depuis 1991, ont été des frappes aériennes qui avaient surtout pour but de permettre la poursuite sans risque de l’opération Southern Watch d’interdiction de survol du territoire irakien, manifestation militaire principale du Containment. Les sites visées furent en effet, dans leur grande majorité, des batteries de missile sol-air et seuls quelques objectifs de plus grande importance stratégique ont été pris à partie - un centre de recherche nucléaire fin 1993 et le QG des renseignements à Bagdad en juin 1994. Pour minimiser les risques, il faut noter le recours massif aux missiles de croisière Tomahawks de la Navy.

Deliberate Force, la principal action de guerre entreprise par les Américains depuis Tempête du Desert a été uniquement le fait de l’Aerospace power. Cette opération visant la destruction des ressources logistiques bosno-serbes afin d’amener M. Karadzic à renoncer au combat et à accepter des pourparlers a été un grand succès de la puissance aérienne américaine. Une fois la maîtrise du ciel assurée par la destruction des systèmes de la défense antiaérienne - batteries de missiles et C2 -, l’attaque des PC souterrains et des diverses dépôts de munitions s’est systématiquement poursuivi. Des missions de soutien rapproché au profit des casques bleus et en coordination avec la FRR ont été également entreprises. Le plus important reste cependant la neutralisation des centres de gravité et de cohérence du dispositif bosno-serbe. Ce n’est qu’après la signature des accords de Dayton que les troupes terrestres américaines ont été déployées pour participer à l’IFOR. Dans ce sens, on peut dire que l’ensemble de l’action des Etats-Unis en Bosnie représente le symbole de l’interventionnisme américain actuel.

L’Aerospace power s’est trouvé à maintes reprises être le seul moyen de fournir de l’aide humanitaire du fait sa capacité à atteindre tout les endroits de la planète. Qu’il suffise de se rappeler les hélicoptères ravitaillant les camps kurdes sur le plateau anatolien lors de Provide Comfort, ou les gros porteurs larguant les palettes de nourriture aux populations bosniaques enclavées. Dans les deux cas, le ravitaillement par voie terrestre s’était révélé impossible ou très insuffisant.

L’Aerospace power a donc été le seul outil militaire à faire parler la poudre américaine depuis 3 ans. Mieux encore, elle a défini un nouveau standard d’opération de paix : Peace-enforcement aérien par frappe de précision à distance de sécurité, aide humanitaire aérienne. L’une des mesures devenant également une classique de l’interventionnisme américain qu’il s’agisse d’opération de paix ou d’application du Containment est la zone d’interdiction de survol, retirant aux Etats ou groupes visés la maîtrise de leur espace aérien.

Les grands changements stratégiques subies ou opérées par les Etats-Unis depuis bientot une décennie semblent donc, de facto, conférer de nouveau, après une parenthèse de près de trente ans, une importance réellement douhettiste à l'Aerospace power.

La puce et l’aéronef comme déterminant de la future stratégie américaine ?

Pour aborder le futur de cette tendance et celui de l'Aerospace power dans son ensemble, il nous faut obligatoirement évoquer la RAM, la Révolution dans les Affaires Militaires. Le monde, les Etats-Unis en tête, seraient en effet, de l'avis de beaucoup, en train de vivre une RAM, c'est à dire un bouleversement technologique et doctrinale rendant obsolète la façon traditionnelle de faire la guerre, comparable à celles crées par l'irruption de l'arme à feu ou de la puissance aérienne elle même. Cette RAM trouve ses origines conceptuelles dans les écrits soviétiques du début des années 1980. et se serait manifestée pendant la guerre du Golfe, tout à la fois dernière guerre de l'ancienne époque et prototype des guerres de la nouvelle ère. Ses nombreux avocats pensent qu'il est nécessaire pour la sécurité des Etats-Unis, après en avoir déterminer les tenants et aboutissants, de planifier, de maîtriser son achèvement.

La RAM que vivrait les forces armées américaines serait fondamentalement liée à un bouleversement de société à savoir le passage de l'âge industriel à l'âge de l'information, une idée énoncée par des futurologues, les époux Toffler, et qui semble devenir un véritable paradigme de la pensée américaine civile ou militaire.

Les premiers principes de planification permettant de transcrire cette RAM dans les faits, ont été présenté en 1994, par Mazarr à un colloque de Carlisle Barracks, dans une synthèse: The Revolution in Military Affairs, a Framework for Defense Planning. Au même moment, un groupe de travail était lancé au Pentagone pour explorer le potentiel des nouvelles technologies et les concepts opérationnels envisageables.

Les principes de Mazarr laissent à penser que l'Aerospace power tend à devenir l'outil dominant voire exclusif de l'appareil de force américain et ce quelques soient les services la mettant en oeuvre.

1. Le premier et le plus important de ces principes est d'obtenir the informational dominance, la domination dans tous les domaines relatifs à l'information. Cette domination passe par deux tâches. D'une part, il s'agit éclaicir le brouillard de la guerre pour l'ennemi par sa décapitation et la supériorité sensorielle. Or nous avons vu que le rôle de l'Aerospace power dans la décapitation était essentiel et les senseurs, pour pouvoir opérér, ayant besoin d'employer la troisième dimensions, la bataille pour la supériorité sensorielle sera celle pour la supériorité aérienne ou plutôt aérospatiale. D'autre part, il faut le brouillard de la guerre pour les Etats-Unis grâce à la connaissance et à la rapidité. Cette connaissance ne peut s'obtenir qu'en employant la puissance aérospatiale pour collecter des renseignement et en aéroportant une partie des moyens de C4I, on accélère grandement le cycle acquisition-exploitation des informations.

2. Le combat sans engagement est l'autre grand principe de planification. Il faut entendre par là, combat sans contact de troupes de surfaces, par tir de précision à grande distance. Ce combat sans engagement, quelque soit le niveau d'action envisagé - stratégique, opératif ou tactique - ne peut se concevoir que grâce à l'emploi de la puissance aérienne. Les armes dites Stand - off, tirable à distance de sécurité sont une transcription tangible de ce principe.

Les deux autres principes de Mazarr sont la synergie, c'est à dire la fin de l'indépendance des services, et la civilianization, c'est à dire le recours systématique aux technologies civiles, moins chères et plus avancées que celles exclusivement prévues à des fins militaires, dans des domaines devenus vitaux mais restant de nature "neutre", comme les ordinateurs.

Krepinevich, un autre maître à pensée de la RAM, a identifié quatre domaines technologiques clés autour desquels elle s'articule:

1. les communications, qui, sans les satellites sont réduites à peu de chose;

2. les senseurs à propos desquels on peut fair la même remarque;

3. les engins propulsés, des lanceurs aux missiles, qui sont les éléments de l'Aerospace power; et

4. l'informatique, seul domaine qui pour ses performances ne dépend pas d'un milieu déterminé.

La RAM ne rend donc pas, sur le plan technique, la maîtrise et l'emploi de l'Aerospace power simplement utiles ou séduisants, elle les rend incontournable, obligé.

Plus encore que sur le plan technique, c'est sur celui de la philosophie d'action que la symbiose entre la RAM et l'Aerospace power est la plus forte.

La puissance aérienne trouve sa justification historique dans la volonté des belligérants d'éviter les longues, indécises et coûteuses luttes entre les forces de surface. C'est la finalité même de la théorie de l'Airpower, réactualisée ces dernières années par Warden et par l'énoncé de la stratégie asymétrique, quelque soit le niveau de l'échelle stratégique où se fixe cette reconceptualisation. La philosophie globale de la RAM, qui a d'ailleurs inspiré ce dernier concept, va dans le même sens. Le combat sans engagement, la domination de la sphère informationnelle qui fait peser sur l'adversaire une menace virtuelle de tous les instants, concourent à limiter voire à annuler la guerre de contact, d'attrition et ses pertes massives et parfois injustifiées.

Le peuple américain, sans être isolationniste, n'en habite pas moins une île-continent, et a besoin pour soutenir un effort de guerre, qui ne peut qu'être outre-mer, d'une solide motivation qui confine souvent à la croisade. Il a surtout une aspiration profonde et récurrente, à savoir que les hommes partis reviennent vite et entiers, une aspiration qui définit l'American Way of War. L'emploi conceptuellement réactualisé du médium aérospatiale et la RAM répondent à cette aspiration, renouvelle le contrat prévu dans l'American Way of War. Ce contrat a été bafoué dans les jungles du Vietnam, guerre "sale", meurtrière et inutile qui continue toujours à hanter l'inconscient collectif américain - qui n'a jamais entendu la célèbre antienne, juste avant les engagements qui suivirent cette guerre, " ce ne sera pas un nouveau Vietnam" -; il a été raffermi dans les sables du désert du Golfe, où l'Aerospace power a triomphé, où est né la RAM. Voilà pourquoi RAM et usage de l'Aerospace power sont indiciblement liés.

Il est donc peu surprenant de constater dans les points clés d'évolutions des forces, que les évolutions liées à la RAM, déjà perceptibles, concernent les instruments de l'Aerospace power. Ces points clés sont à l'heure actuelle:

· les munitions avancées - la plupart étant aéroportées ou étant des projectiles surface-surface stand-off;

· la surveillance du champ de bataille comprenant surtout les progrès dans le domaine des senseurs et les programmes de plates-formes pilotés, comme le J-STARS - Joint Surveillance TArgeting Radar System - (système radar de surveilllance et de ciblage), ou non-pilotés - les drones;

· la défense antibalistique;

· la mobilité stratégique avec comme composante essentielle le programme C-17;

· la disponibilité opérationnelle des réserves.

Il est tout aussi peu surprenant de voir que les conflits entre service sur l'attribution future des rôles et des missions des forces armées, enregistrés et hatisés par la commission White en 1995, concernent majoritairement l'Aerospace power et pas simplement parce que c'est la seule capacité partagée par tous les services. Ces principaux domaines de duplication des capacités devant entraîné prochainement de déchirants réajustements sont en effet les suivants:

1. la présence outre-mer, revendiqué par la Navy pour ses groupes aéronavales et l'Air Force pour son réseau de bases avancées et ses bombardiers à long-rayon d'action basés aux Etats-Unis;

2. l'espace, revendiqué par l'Air Force qui contrôle l'US Space Command mais qui doit tenir compte des priorités différentes de l'Army ou de la Navy;

3. l'organisation même de l'Airpower, que l'Air Force, résignée, admet comme devant rester partagé entre les services, celle des Marines étant néanmoins menacée;

4. la défense antibalistique de théâtre faisant l'objet de 7 programmes différents, plus ou moins complémentaires techniquement et largement concurrents financièrement;

5. le Close Air Support - le soutien aérien rapproché - que l'USAF voulait rétrocédé à l'Army, signe d'une volonté pour en revenir à une conception plus orthodoxe de l'Airpower;

6. la bataille en profondeur / les frappes conventionnelles de précision, qui, inversement, est revendiqué avec acharnement par l'Army pour ses hélicoptères et ses missiles tactiques et par l'Air Force pour son aviation tactique.

La RAM et le nouveau douhettisme concomitant acquit, de facto, par l'Aerospace power, ont-ils leur avenir gravé dans la pierre? Rien n'est moins sur. Trois grandes catégories de question se posent en effet.

La RAM s'est emparée du champ stratégique américain. Elle est en mesure d'imposer, pour reprendre le terme de M. Joxe, une "techno-stratégie" à l'Amérique, un interventionnisme dicté par les capacités des forces armées américaines. Or la RAM est issue de la guerre du Golfe et fait le choix du conventionnalisme. Certes, l'US Army avec Force XXI, le projet le plus achevé issu de la RAM, veut créer une armée versatile capable de se formater rapidement, sans à coups, pour traiter tous les types de menace. Mais Mazarr explique bien que la RAM ne peut se concevoir qu'avec une redéfinition des politiques d'alliances qui permettrait aux Etats-Unis de laisser à leurs partenaires les opérations que le savoir-faire militaire américain ne sait pas correctement traiter, des opérations ou l'American Way of War ne peut avoir cours. De ce fait, deux catégories d'adversaires potentiels échappent au champ d'interventionnisme américain tel qu'envisagé par les partisans de la RAM:

· les adversaires de nature intra-étatiques, qui n'ont pas de centres de gravité identifiables et destructibles;

· les adversaires plus spécifiquement situés en milieu urbain, où les frappes "chirurgicales" peuvent provoquer des dommages collatéraux trop importants, où la domination dans la sphère informationnelle peut se révéler aussi facile qu'inutile.

Or les risques de confrontation avec ces types d'adversaires sont aujourd'hui beaucoup plus grand qu'avant, du fait de l'érosion des pouvoirs de nombreuses structures étatiques, du fait des progrès de l'urbanisation. Notons que ces deux ensembles peuvent à bien des égards ne faire qu'un comme à Mogadiscio, où la puissance aérienne la plus sophistiquée n'a d'ailleurs servi à rien, mais ce n'est pas toujours le cas. En effet, durant la guerre du Golfe, il est probable que l'une des raisons pour lesquelles les forces américaines n'ont pas poursuivi la destruction des très conventionnelles unités de la Garde Républicaine, est que ces dernières s'étaient réfugiés dans les faubourgs de Bassora. La question fondamentale qu'il convient de poser dans cette optique est la suivante: les Américains peuvent-ils être sûr qu'ils ne seront plus jamais entraînés directement dans ce type de conflit? Rien ne le leur garanti. Les Etats-Unis sont une démocratie. "L'effet CNN" mobilisant l'opinion publique couplé avec la proximité d'une échéance électorale peut prendre en défaut la "techno-stratégie". Cette nouvelle croisade pourrait mener à l'engagement des forces américaines dans un style d'opération auquel les stratèges du Pentagone ont délibérément tourné le dos.. enfin, une majeure partie d'entr'eux mais pas tous, car ces critiques émanent avant tout des militaires eux-mêmes qui considèrent cette adaptation aux conflits non-conventionnels comme un défi que les Etats-Unis se doivent de relever.

Même si la techno-stratégie se révèle suffisament viable, les Américains sont-ils certains de garder leur supériorité dans les domaines qu'ils considèrent comme clés? Là encore, ce n'est pas certain. En effet, c'est ici le principe de civilianization qui est visé. Si les forces américaines font appel à des technologies civiles largement répandues, pourquoi leurs adversaires n'en feraient pas autant? A cette question qui trouble beaucoup de militaires, les partisans de la RAM répondent que si les technologies sont civiles, leur intégration en systèmes opérationnelle reste militaire et que certaines technologies continueront d'être soigneusement protégé. Une autre question est de savoir si les Américains sont en mesure de mener à bien tous leur projets technologiques en ces périodes de budgets "réduits". Une fois encore, l'affirmative n'est pas sûre. Enfin, même si l'écart avec les autres forces armées est énorme, la barre des capacités opérationnelles fixées pour considérer la RAM comme achevée est très élevée. L'image de la situation stratégique globale, actualisée en temps réel par l'intégration des données tous les senseurs, transmises au travers de réseau de communications à grande capacité et inviolables, des tirs de précison à distance de sécurité qui s'effectuent à un rythme confinant au tir à la hanche, une défense antibalistique efficace à près de 100 %, tout cela est en développement, parfois avancé, mais ne pourra se concrétiser que dans bien des années.

Il faut en dernier lieu reprendre les problèmes inhérents à l'Airpower elle-même et notamment son manque de résultats récurrent lorsqu'elle agit au niveau stratégique de l'adversaire. Auparavant, comme l'explique Robert Pape, l'Airpower usait globalement de deux stratégies: la coercition, excercé au niveau stratégique - les bombardements sur le Japon par exemple - ou au niveau opérationnel - les bombardements sur le Vietnam du Nord par exemple; et le combat, l'attrition, cette dernière de même que la coercition opérationnelle étant mise en oeuvre au travers des missions d'interdiction du champ de bataille aux forces adverses. Avec la guerre du Golfe ou Deliberate Force, les missions d'interdictions visent prioritairement à assurer la coercition opérationnelle, à contraindre l'ennemi à renoncer à ses opérations, plutôt qu'à détruire l'ensemble de ses forces. A ce niveau, l'action de l'Airpower se montre efficace. La coercition stratégique a, elle, cédé le pas à la décapitation. Or cette dernière n'a semblé réussir que contre les moyens de C3I parce qu'il s'agit d'infrastructures destructibles. La décapitation du leadership ennemi ou la décapitation de ses moyens de contrôle politique semblent difficilement réalisables, car, respectivement, les leaders sont les personnages les mieux protégés du dispositif et les agents de l'Etat ennemi trop nombreux pour être tous supprimés. Faire de la décapitation une des stratégies de base de l'Airpower semble donc un choix risqué et s'en servir pour mettre sur pied un concept de dissuasion conventionnelle semble encore plus risqué. Pour qu'une dissuasion puisse exister, son instrument a besoin par définition de faire peur et donc doit avoir enregistré un succès marquant, ce qui n'est toujours pas le cas des instruments aéroportées de la conventional deterrence...

l'Aerospace power est donc aujourd'hui en train de vivre une mutation extraordinaire et une période transitoire dans sa courte mais riche histoire. Cette période comme d'autres avant elle, se caractérise par un décalage entre les concepts et la réalité. Les premiers ont été renouvelés, certes, mais continuent de brider l’action de la puissance aérospatiale américaine au niveau opératif, alors que l'accélération des événements consacre, de fait, l’Aerospace power à nouveau comme l’outil exclusif de l’interventionnisme américain. Y aura-t-il alignement du concept sur cette nouvelle donne ? cela n’est pas sur. En effet, cette place de la puissance aérospatiale est étroitement dépendante du succès de la RAM, qui elle-même procède d’un choix stratégique précis et sélectif que les événements viendront peut-être plus tard condamner. D’autre part, si la RAM est un succès, l’achèvement de la reconceptualisation ne sera peut-être plus nécessaire. Une chose est sûre : les guerres américaines du futur proche seront majoritairement, prioritairement voire exclusivement aérospatiales ou ne seront pas. Seront-elles pour autant des victoires ?...