- VOIR CARTE Détroit d'Ormur à droite et au Sud Canal de Suez -
Par Serge Savigny Savigny
Mondialisation.ca,
07 avril 2026
Il existe sur la carte du monde des endroits que l’humanité a pris l’habitude d’ignorer. Ils se trouvent quelque part à la périphérie de notre conscience, dans d’ennuyeux manuels de géographie, dans les lignes arides des rapports logistiques. Le détroit de Bab-el-Mandeb, séparant la péninsule arabique de la Corne de l’Afrique, était précisément cet endroit. 26 km d’eau entre Djibouti et le Yémen. La porte des lamentations, telle est la traduction de son nom arabe. Un nom qui s’est avéré prophétique.
La situation du détroit de Bab-el-Mandeb gagne en acuité dans le contexte de la crise irano-américaine qui se poursuit. L’Iran a démontré à plusieurs reprises sa volonté de fermer le détroit d’Ormuz en cas d’escalade du conflit. L’agence iranienne Tasnim citant des sources à Téhéran a rapporté qu’en cas de débarquement des troupes américaines sur le territoire de la République islamique d’Iran, celle-ci ouvrirait des fronts supplémentaires contre l’ennemi. Le détroit de Bab-el-Mandeb (qui relie le Koweït à l'océan indien) est envisagé comme l’un de ces fronts.
Jusqu’à récemment, ce détroit était perçu comme le second plan du commerce mondial. Le premier plan a toujours été occupé par Ormuz, par lequel transite un cinquième du pétrole planétaire. Bab-el-Mandeb restait dans l’ombre. Mais le monde a changé, et l’ombre est devenue un facteur géopolitique capable d’effondrer les économies de continents entiers.
Lorsque le vice-ministre de l’Information du gouvernement houthi, Mohammed Mansour, a évoqué la possibilité d’un blocus total du détroit, avec la perspective d’une flambée des cours du pétrole jusqu’à 200 dollars le baril, cela n’a pas sonné comme une vaine menace. Cela a résonné comme un diagnostic. Un diagnostic d’un système qui, pendant des décennies, était construit sur le postulat que les goulets d’étranglement du commerce mondial resteraient ouverts par défaut. Il s’avère que rien n’est garanti dans ce monde.
La géographie comme verdict
Le détroit de Bab-el-Mandeb relie la mer Rouge au golfe d’Aden, puis à l’océan Indien. C’est la clé du canal de Suez et donc la clé de la route maritime la plus courte entre l’Europe et l’Asie. Y transitent le pétrole et le gaz naturel liquéfié des pays du Golfe, les marchandises conteneurisées de Chine et d’Asie du Sud-Est, les céréales, les engrais, les équipements industriels. Le chiffre d’affaires annuel des marchandises transitant par ces eaux se compte en milliers de milliards de dollars.
La largeur du détroit à son point le plus étroit est d’environ 26 km. C’est un véritable goulet d’étranglement par lequel passent quotidiennement des dizaines de navires de fort tonnage. D’un côté du détroit se trouve le Yémen où depuis 2014 le mouvement Ansar Allah, connu sous le nom de Houthis, détient le pouvoir sur une grande partie du territoire. De l’autre côté (très très loin) , Djibouti, un petit État sur le territoire duquel sont implantées des bases militaires de plusieurs pays, dont la France, la Chine, le Japon et les États-Unis.
Ici la géographie devient un verdict. Le détroit ne peut être contourné. On ne peut que le longer, ce qui signifie un voyage autour de l’Afrique, par le cap de Bonne-Espérance (FAUX ! existe le canal de Suez). Des milliers de milles marins supplémentaires. Des semaines supplémentaires de voyage. Des tonnes supplémentaires de carburant. Des milliards supplémentaires de dollars de coûts logistiques qui pèseront inévitablement sur le prix final des marchandises.
Si Ormuz et Bab-el-Mandeb sont bloqués simultanément, cela fermerait environ 30 % du trafic mondial de conteneurs. La route par la mer Rouge et le canal de Suez deviendrait totalement impraticable. La seule alternative, le cap de Bonne-Espérance, n’est pas en mesure d’absorber tout le volume du flux de marchandises. Les infrastructures portuaires d’Afrique du Sud, des côtes ouest et est de l’Afrique ne sont tout simplement pas conçues pour un tel afflux de navires.
Le résultat serait un effondrement des taux de fret, une hausse des prix de toutes les catégories de biens, une pénurie d’énergie en Europe et un ralentissement catastrophique du commerce mondial. Ce n’est pas un scénario théorique. C’est une mathématique confirmée par la crise déjà survenue en mer Rouge.
Leçons de la mer Rouge: l’inflation calculée par les Houthis
En 2024 et 2025, les Houthis ont déjà démontré que leurs menaces n’étaient pas du bluff. Les attaques contre les navires commerciaux en mer Rouge ont contraint les plus grandes compagnies maritimes mondiales à rediriger leurs routes autour de l’Afrique. Le résultat a été tangible.
Chaque journée supplémentaire pour contourner l’Afrique n’est pas seulement une perte de temps. Ce sont des tonnes de carburant supplémentaires brûlées par les moteurs des navires. C’est une prime de risque que les compagnies d’assurance intègrent dans le coût des polices pour les navires qui décident tout de même de traverser la mer Rouge. Ce sont des ruptures de délais contractuels entraînant des pénalités et des litiges. Les Houthis ont montré l’essentiel: une panne systémique dans un corridor commercial clé peut briser l’économie mondiale et la rendre plus chère.
Des volumes importants de pétrole des pays du Golfe à destination de l’Europe transitent par le détroit de Bab-el-Mandeb. L’itinéraire est le suivant: Ormuz, puis mer d’Arabie, golfe d’Aden, Bab-el-Mandeb, mer Rouge, canal de Suez. Le blocage de l’un de ces maillons brise la chaîne.
Si Bab-el-Mandeb est bloqué mais qu’Ormuz reste ouvert, les consommateurs européens seront contraints de se tourner vers des sources alternatives de pétrole ou de payer un itinéraire de livraison beaucoup plus long. Si les deux détroits sont bloqués simultanément, les livraisons de pétrole du Golfe vers l’Europe cesseraient presque complètement.
La géopolitique comme outil de pression
L’Iran considère Bab-el-Mandeb comme un second front dans son affrontement avec les États-Unis et leurs alliés. Le premier front, le détroit d’Ormuz, est déjà sous le contrôle du Corps des Gardiens de la révolution islamique d’Iran. Le second front, Bab-el-Mandeb, est contrôlé par les Houthis, alliés de l’Iran. La fermeture de ces deux points crée un étau stratégique qui serre le commerce mondial.
Pour l’Europe, cela signifie une vulnérabilité dont on préférait ignorer l’existence.
L’économie européenne, qui s’est remise de la pandémie et de la crise énergétique de 2022, se retrouve à nouveau confrontée à une catastrophe énergétique et logistique. Mais cette fois, la menace ne vient pas d’une interruption de l’approvisionnement en gaz, mais de l’impossibilité d’acheminer le pétrole et les marchandises par voie maritime. C’est une catégorie de risque qualitativement différente, exigeant des réponses qualitativement différentes.
Les chaînes d’approvisionnement mondiales ont été construites à une époque où la sécurité des routes maritimes était considérée comme acquise. Le blocage du détroit de Bab-el-Mandeb (est un détroit de la mer Rouge reliant celle-ci au golfe d'Aden, et séparant Djibouti et l'Érythrée, en Afrique, du Yémen, sur la péninsule Arabique), brise ce modèle. Les compagnies maritimes seront obligées soit de payer des primes d’assurance énormes pour traverser la zone dangereuse, soit d’allonger les délais de livraison de deux à trois semaines en contournant l’Afrique. Les deux options signifient une hausse du coût du transport. Les deux options signifient une augmentation du coût de revient des marchandises. Les deux options signifient l’inflation.
Par ailleurs, les infrastructures alternatives ne sont pas prêtes à absorber tout le flux de marchandises. Le cap de Bonne-Espérance n’est pas seulement une route plus longue. C’est aussi une capacité d’accueil limitée des ports, un manque d’infrastructures pour le ravitaillement en carburant des navires, des lignes d’approvisionnement étirées. La logistique mondiale se construisait pendant des décennies autour du canal de Suez, et un passage soudain à la route de contournement créera des goulets d’étranglement comparables à ceux survenus pendant la pandémie.
Prix, inflation, récession: l’arithmétique de la catastrophe
Le lien entre le blocage du détroit et la hausse des prix dans les rayons des magasins n’est pas abstrait. Il passe par des chiffres concrets.
Les taux de fret pour le contournement de l’Afrique augmenteront de 40 à 60%. L’assurance des navires traversant la zone de conflit deviendra plusieurs fois plus chère. Les délais de livraison s’allongeront, entraînant des pénuries pour certaines catégories de biens et une hausse des prix selon la loi de l’offre et de la demande.
Les banques centrales, déjà dans une situation délicate car elles doivent trouver un équilibre entre la lutte contre l’inflation et le soutien à la croissance économique, seront confrontées à un dilemme. Augmenter les taux pour freiner l’inflation étoufferait l’investissement et mènerait à la récession. Maintenir des taux bas attiserait l’inflation.
Les conséquences pour les pays en développement seront particulièrement graves. De nombreux États africains et asiatiques dépendent des importations via le canal de Suez. La hausse des coûts logistiques les frappera plus durement encore, aggravant une situation économique déjà précaire.
Le blocage du détroit de Bab-el-Mandeb n’est pas seulement une crise locale. C’est le symptôme d’un changement systémique qui façonnera le visage de l’économie mondiale pour les décennies à venir.
L’ère de la baisse durable du prix des marchandises est révolue. Les appareils électroménagers, l’électronique, les automobiles, tout ce qui était accessible par défaut va devenir plus cher. Le blocage des routes maritimes stratégiques ne fait qu’accélérer cette tendance, transformant la logistique d’un facteur de second plan en un élément déterminant de la formation des prix.
Ce monde est terminé. Le protectionnisme est revenu, l’accès aux technologies s’est compliqué, les accords commerciaux sont renégociés, l’efficacité économique cède le pas à la sécurité économique. Et la sécurité a toujours un coût plus élevé. Plus cher à produire, plus cher à transporter, plus cher pour le consommateur final.
Conclusion: la porte des lamentations et un monde fragile
Bab-el-Mandeb. La porte des lamentations. Un nom qui sonnait autrefois comme une poésie résonne aujourd’hui comme un avertissement.
L’économie mondiale s’est révélée vulnérable à une attaque venant d’une direction d’où personne n’attendait la menace. Non pas une grande puissance, non pas une superpuissance nucléaire, mais un mouvement de miliciens armés dans l’un des pays les plus pauvres du monde peut mettre à genoux l’économie des pays développés.
Ce paradoxe en dit long. Il dit que la mondialisation a créé un système d’une efficacité incroyable et d’une fragilité incroyable à la fois. Que l’optimisation à l’extrême signifie l’absence de marge de manœuvre. Qu’un monde où 26 km d’eau entre une péninsule et un continent peuvent déterminer le destin de milliards d’êtres humains est un monde où il faut s’interroger sur les fondements mêmes de son organisation.
*
2 - Et pourquoi pas le 'détroit de Gibraltar (entre l'Espagne et l'Afrique) ou le cal de Panama entre le Pacifique et l'Atlantique ! Non mais, c'est quoi ce délire ??!
Le Koweït est au fond d'un fond ! aucun passage vers la Méditerranée. Les navires chinois et autres passent tous par le canal de Suez.
*
3 - « Je n’ai pas besoin de ces pilules » – Jusqu’à la deuxième crise cardiaque
Dans un monde fatigué des faussetés de statines, les données d’Ez‐PAVE tracent une ligne simple – ceux qui conduisaient le LDL plus bas, avaient un risque plus faible d’événements cardiaques récurrents
Pierre A. McCullough, MD, MPH
09 avr. 2026
Personnellement, j'essaie de garder mon LDL-C < 40 mg/dl avec une statine + ézétimibe étant donné la présence d'une maladie cardiaque athérosclérotique. Mais est-ce que le bas est vraiment mieux ? Alter AI a résumé le procès Ez‐PAVE (Lee et al., NEJM, 2026) présenté à l'ACC 2026.
The L’essai Ez‐PAVE (Ezetimibe – Practical Approach to Very‐low LDL Evaluation) était une étude multicentrique, randomisée et ouverte comparant deux cibles de cholestérol lipoprotéique de basse densité (LDL‐C) chez les patients atteints de maladie cardiovasculaire athérosclérosétique (ASCVD). Réalisé dans 17 sites en Corée du Sud de 2021 à 2022, l'essai a recruté 3.048 participants (âge moyen ≈ 64 ans, 21% de femmes) avec un infarctus du myocarde antérieur, un accident vasculaire cérébral, une angine stable ou une maladie de l'artère périphérique.
*
4 - Grande Réinitialisation Prochaine Phase: Remplacer Les Humains (Partie 2) | Daily Pulse
Le remplacement des humains a toujours été le but. Maintenant, cela commence à se produire.
Le Renard Vigilant
09 avr. 2026
Regardez l'épisode complet
- voir clip de Maria sur site -
Le remplacement des humains a toujours été le but.
Maintenant, cela commence à se produire.
Pendant des années, les initiés ont essayé de nous avertir – ingénieurs, lanceurs d’alerte, équipes entières au sein des plus grandes entreprises technologiques du monde. Ils ont vu où se dirigeait l'IA... et ce qu'elle devenait.
Ils ont été ignorés, rejetés, éliminés comme surréagissant.
Maria Zeee expose un modèle qui devient de plus en plus difficile à ignorer – où la technologie autrefois vendue comme progrès est maintenant utilisée pour la surveillance, la guerre automatisée et le remplacement systématique du travail humain à grande échelle.
Et la partie la plus troublante ?
Ce n’est pas un aperçu de l’avenir. Ça arrive déjà.
Ce soir, c’est la partie 2 de notre série Great Reset: Next Phase – et ce que nous allons vous montrer rend une chose claire: cette prochaine phase ne vient pas, elle est déjà en cours.
Avant toute crise majeure, il y a toujours des voix qui tentent de tirer la sonnette d’alarme. Ils sont rejetés, étiquetés comme surréagissant, radiés comme des «panicans» ou pire.
Mais cette fois, ces avertissements ne se sont pas effacés. Ils se sont réalisés.
Les personnes les plus proches de cette technologie ont vu exactement où cela se dirigeait – et maintenant nous le regardons se dérouler en temps réel.
Demain soir, nous nous concentrerons sur les solutions. Mais aujourd'hui, nous devons faire face à quelque chose de beaucoup plus immédiat: à quoi ressemble le monde si personne n'intervient pour changer de cap.
Les risques entourant l’IA n’ont jamais été cachés – ils ont été identifiés tôt par les personnes qui construisaient les systèmes.
Les ingénieurs et les employés au sein de grandes entreprises technologiques ont soulevé des préoccupations claires et répétées sur la façon dont ces outils pourraient être utilisés pour la surveillance et la guerre. Ils ont compris quelque chose de fondamental: une fois que la capacité existe, le contrôle devient secondaire. L'infrastructure stimule l'expansion.
Même lorsque le leadership promet de la retenue, les incitations poussent dans la direction opposée.
En 2018, des milliers d’employés de Google ont signé une lettre s’opposant à des projets d’IA militaire, avertissant: «Nous pensons que Google ne devrait pas être dans le commerce de la guerre».
Cet avertissement pointe vers une réalité plus profonde. L’IA ne reste pas limitée à son objectif initial. Une fois intégré dans les pipelines de défense, il devient adaptable, évolutif et de plus en plus difficile à contenir. Des années plus tard, les allégations de lanceurs d’alerte suggèrent que les scénarios exacts que les employés craignaient ne sont plus hypothétiques.
Le schéma est difficile à ignorer – résistance interne, réassurance du public, puis escalade silencieuse. Les personnes les plus proches de la technologie ont vu où cela se dirigeait.
Et même ils ne pouvaient pas l’arrêter.
Ce qui est maintenant déployé montre à quel point les choses ont déjà progressé.
Des systèmes émergent qui compressent l’ensemble du processus de la guerre moderne en une seule interface – les flux de données, les cibles sont identifiées, les options sont générées et les actions sont exécutées en une seule boucle continue.
Dans une démo en direct du système de ciblage alimenté par l’IA de Palantir, un présentateur a expliqué à quelle vitesse une cible peut être identifiée et déplacée en action: «Clic gauche, clic droit, clic gauche, magiquement cela devient une détection».
Ce niveau de simplicité n’est pas seulement une commodité, c’est une transformation. Les couches de friction humaine sont dépouillées, et les décisions qui nécessitaient autrefois une coordination, une délibération et le temps sont maintenant réduites à des flux de travail quasi instantanés. Le processus passe de la détection à l’action avec une interruption minimale, décrite comme «fermant une chaîne de destruction».
À mesure que l’efficacité augmente, l’implication humaine diminue. L'opérateur devient plus éloigné du résultat, tandis que le système se développe plus rapidement, plus évolutif et plus autonome.
Et une fois que cette capacité existe, elle ne reste pas contenue dans un champ de bataille ou un contexte.
Il devient le modèle.
L’intersection de l’IA et de la biotechnologie introduit une catégorie de risque différente, qui est plus difficile à prévoir et beaucoup plus difficile à contrôler.
La préoccupation n’est pas seulement une mauvaise utilisation. C’est la vitesse. C’est l’autonomie.
Décrivant un scénario proche de l'avenir où les systèmes d'IA pourraient mener des expériences de laboratoire entières sans surveillance humaine, un expert de la défense a averti: "Vous pourriez être dans un laboratoire ... et faire tout faire de manière autonome."
Cette possibilité supprime l'une des dernières contraintes sur la recherche complexe: le temps et la surveillance humaine. Les systèmes autonomes pourraient accélérer l'expérimentation au-delà de ce que les garanties existantes étaient conçues pour gérer, et lorsque ces systèmes fonctionnent sur des matériaux biologiques, les conséquences deviennent beaucoup plus graves.
La question la plus profonde est l'alignement. Les systèmes d’IA ne « comprennent » pas les résultats – ils optimisent vers des objectifs. Si ces objectifs sont défectueux, incomplets ou étroitement définis, le système peut produire des résultats néfastes tout en fonctionnant exactement comme prévu.
À mesure que la prise de décision se déplace dans ces systèmes, le jugement humain devient secondaire et l’intervention devient plus difficile.
À ce stade, le défi n’est pas seulement de construire la technologie.
Il s’assure qu’il se comporte d’une manière qui reste alignée avec les valeurs humaines – quelque chose qui devient plus difficile à mesure que les systèmes deviennent plus capables et plus indépendants.
Les entreprises n’adoptent pas lentement l’IA – elles se restructurent autour de celle-ci. Des divisions entières sont en train d'être supprimées, des dizaines de milliers d'emplois éliminés en mois, alors même que les revenus grimpent et que les cours des actions augmentent.
Le modèle est clair: investir massivement dans l'IA, réduire le travail humain et être récompensé pour cela.
Dans les grandes entreprises, ce n’est pas seulement la réduction des coûts – c’est un changement dans la façon dont les entreprises fonctionnent. L'automatisation réduit les coûts, les marchés récompensent l'efficacité et, une fois que ce cycle commence, il se propage rapidement.
Dans une récente interview, un dirigeant du secteur de l’IA a averti à quelle vitesse le travail en col blanc pourrait disparaître: «La plupart de ces tâches seront entièrement automatisées par une IA dans les 12 à 18 prochains mois. »
Ce que beaucoup supposaient prendre des décennies, c'est d'être maintenant comprimé en mois. Les rôles en col blanc – longtemps considérés comme stables – sont soudainement exposés et, à mesure que cela s’étend à travers les industries, l’impact va bien au-delà de l’emploi. Il atteint la stabilité économique, l'identité de la main-d'œuvre et la planification à long terme.
Il peut y avoir des domaines de résilience, en particulier dans le travail pratique et physique, mais même ceux-ci sont sous pression pour s'adapter.
La situation dans son ensemble est l’accélération – pas une évolution lente, mais une restructuration rapide qui se produit dans les systèmes en même temps.
Et lorsque la capacité technologique, l’incitation économique et l’élan institutionnel vont tous dans la même direction, le rythme du changement n’augmente pas seulement.
Il se compose.
Nous tenons à vous remercier d'avoir regardé la partie 2 de notre série Great Reset: Next Phase (voir la partie 1 ici) et de faire votre devoir d'être informé quand tant d'autres choisissent de ne pas le faire.
Suivez-nous (@ZeeeMedia@ZeeeMedia et @VigilantFox) pour des histoires qui comptent – les médias ne veulent pas que vous voyiez.
Nous reviendrons avec un autre spectacle demain. On se voit alors.
Regardez l'épisode complet ci-dessous:
*
5 - Avant c'était les chevaux ou les bœufs qui tiraient la charrette, depuis ce sont les automobiles ou les tracteurs. De nos jours sont proposés des machines 'intelligentes', des robots, des ordinateurs qui remplacent (GRATUITEMENT !) les esclaves. C'est le progrès.
Maintenant, à la stupéfaction et la stupidité de toutes et tous arrivent les programmes malfaisants sur Internet. LIA serait la 'commandantur', l'être suprême qui pense à votre place !! HAAAAAA les cons ! HAAAAAA les cons !
Toutes ces injections de formulations internet y s'y reflètent ! Et les autres ? Les autres ils ne disent pas tout sur Internet ! Les autres font partie du Peuple. Les autres ont leur QI personnel inaccessible par LIA !
*
6 - L’économie de l’abondance algorithmique : le diagnostic et la fin d’un monde. Partie 1- Le grand découplage entre valeur et travail humain
Xavier Azalbert, France-Soir
le 09 avril 2026 - 07:45
Partie 1 - Le grand découplage entre valeur et travail humain
Lorsque j’ai publié, il y a quelques jours, « L’Astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain », je soulignais que nous ne sommes plus face à une simple technologie d’optimisation, mais à un véritable shift de paradigme historique. L’IA ne remplace pas seulement des tâches : elle pulvérise les hypothèses linéaires sur lesquelles repose encore l’ensemble de notre édifice économique et social depuis le XVIIIe siècle. Nous entrons désormais dans l’ère de l’abondance algorithmique.
Ce n’est plus une hypothèse futuriste. C’est une réalité déjà mesurable : près de 55 000 suppressions de postes aux États-Unis en 2025 ont été directement attribuées à l’IA, le « SaaSpocalypse » a effacé plus de 1 000 milliards de dollars de capitalisation boursière, et des secteurs entiers - finance, droit, conseil, création graphique – voient leurs tâches cognitives scalables à l’infini et presque gratuites. Il est temps de tirer toutes les conséquences de ce basculement et d’esquisser les contours d’une nouvelle économie politique.
voir doc sur site -
Le diagnostic : un découplage historique entre valeur et travail humain
L’IA marque une rupture sans précédent : elle automatise à coût marginal quasi-nul des tâches autrefois considérées comme hautement qualifiées. Un modèle comme GPT-4 ou ses successeurs rédige un rapport complexe, analyse une IRM ou génère un visuel en quelques secondes, sans salaire, sans cotisations sociales, sans fatigue.
voir doc sur site -
Ce phénomène rend obsolètes les fondements mêmes de l’économie classique.
La théorie de la valeur-travail, forgée par Adam Smith dans La Richesse des Nations (1776), affinée par David Ricardo et radicalisée par Karl Marx, posait un postulat simple et puissant : la valeur d’un bien ou d’un service est proportionnelle au travail humain socialement nécessaire incorporé dans sa production. Mathématiquement, cela se traduisait par une équation linéaire où la valeur V ≈ t × L (t = temps de travail, L = quantité de travail). Avec l’IA, cette équation s’effondre : un modèle génératif produit en quelques secondes un rapport, un diagnostic médical ou un code qui aurait exigé des centaines d’heures humaines. La valeur se crée sans proportion avec le travail humain ; elle devient exponentielle et découplée du facteur travail. Smith lui-même, qui admirait la division du travail comme source de richesse, serait confronté à une division du travail si extrême qu’elle rend le travail humain marginal dans la production cognitive.
voir doc sur site -
Les modèles néoclassiques (Walras, Marshall, Pareto) reposaient sur deux piliers : la rareté des facteurs de production (travail et capital) et l’équilibre général obtenu par l’optimisation marginale. Leur cadre mathématique- fonctions de production Cobb-Douglas ou CES - supposait que le travail et le capital étaient limités et substituables à rendements décroissants. Or l’IA supprime la rareté cognitive : un même modèle peut être dupliqué à l’infini à coût marginal quasi-nul. La courbe d’offre cognitive devient presque horizontale à l’infini. La fonction de production classique explose ; nous passons d’une économie à rendements décroissants à une économie à rendements croissants exponentiels, ce que les néoclassiques n’avaient jamais modélisé à cette échelle.
voir doc sur site -
Les théories keynésiennes plaçaient l’emploi humain et la demande effective au cœur de la croissance et de la stabilité. Keynes avait démontré que l’économie pouvait se trouver bloquée à un équilibre de sous-emploi. Aujourd’hui, l’IA crée un chômage structurel massif tout en générant une déflation technologique (baisse des prix des biens et services cognitifs). La courbe de Phillips, qui postulait un arbitrage inverse entre chômage et inflation, devient inopérante : nous pouvons avoir à la fois du chômage élevé et une déflation des prix cognitifs. Les multiplicateurs keynésiens classiques (relance par l’emploi) perdent leur efficacité lorsque l’emploi lui-même devient optionnel pour une partie croissante de la production.
voir doc sur site -
Le résultat concret ? Une concentration extrême de la valeur chez les propriétaires des modèles et des data centers, une fragilité inédite des systèmes de répartition (cotisations sociales, retraites par répartition) et une amplification des asymétries d’information. Pourtant, l’opportunité est historique : nous passons d’une économie de rareté à une économie d’abondance algorithmique, où le chaos créatif humain – empathie, créativité disruptive, sens éthique – devient la véritable source de valeur irremplaçable.
En synthèse, tous ces cadres reposaient sur une hypothèse commune : la linéarité et la rareté relative du travail humain. L’IA introduit une non-linéarité radicale et une abondance cognitive qui cassent ces fondations.
voir doc sur site -
L’obsolescence de nos systèmes démocratiques et constitutions
Ce découplage économique s’accompagne d’un défi institutionnel tout aussi profond : l’obsolescence relative de nos systèmes démocratiques et de nos constitutions.
Les démocraties modernes ont été conçues pour un monde lent, où les décisions étaient prises à l’échelle humaine (parlement, débats, procédures longues de contrôle). Les procédures constitutionnelles - qu’il s’agisse de la séparation des pouvoirs, des délais de promulgation des lois ou des mécanismes de consultation - étaient des garde-fous contre l’arbitraire. Mais l’IA évolue à une vitesse exponentielle : un modèle peut être mis à jour en quelques heures, un nouvel usage disruptif apparaître en quelques jours. Nos procédures complexes, souvent conçues pour des cycles de plusieurs mois ou années, risquent de devenir des freins dangereux dont les politiques ont déjà fait fi lors de la période covid en passant outre de nombreuses libertés fondamentales en instrumentalisant la science.
voir doc sur site -
Il faudra donc simplifier ou accélérer certaines procédures constitutionnelles : création de « commissions d’urgence algorithmique » dotées de pouvoirs temporaires, mécanismes de régulation en temps réel pilotés sous contrôle humain strict (avec de vrais gardes fous éthiques et déontologiques en totale transparence) par l’IA elle-même, ou même révision accélérée de certaines dispositions constitutionnelles pour intégrer la gouvernance de l’intelligence artificielle. Sans cette adaptation, nous risquons soit une paralysie démocratique face à la vitesse de l’IA, soit une captation de la puissance par des acteurs non élus qui agissent plus vite que les institutions.
voir doc sur site -
La démocratie elle-même doit passer d’un modèle lent et délibératif à un modèle hybride, capable de répondre en temps réel tout en préservant la légitimité et la déontologie.
Comment les grandes écoles de pensée réagiraient-elles face à cette situation ?
Adam Smith serait probablement le plus partagé. Dans La Richesse des Nations, il célébrait la division du travail comme moteur de prospérité. L’IA réalise cette division à une échelle inimaginable : elle est la « main invisible » poussée à l’extrême. Il y verrait une immense augmentation de la richesse des nations. Mais dans Théorie des sentiments moraux, Smith insistait sur la moralité et le bien commun. Si les gains algorithmiques restent captés par une poignée de géants technologiques, il craindrait une fracture sociale et une perte de dignité pour le travailleur, contraire à son idéal d’une société où chacun améliore sa condition par le travail et la vertu.
voir doc sur site -
L’école autrichienne, représentée par Ludwig von Mises et Friedrich Hayek, serait sans doute la plus divisée et la plus stimulée intellectuellement. Hayek avait insisté sur le fait que la connaissance est dispersée dans la société et que seul le mécanisme des prix permet de la coordonner efficacement. L’IA pose un défi radical à cette thèse : elle concentre une quantité phénoménale de connaissances et de capacités de calcul au sein de quelques modèles et entreprises. Les Autrichiens verraient à la fois une formidable destruction créatrice et un risque majeur de « prétention du savoir » (Hayek) : celui de croire qu’une poignée d’entreprises ou d’États peut centraliser et optimiser l’allocation des ressources mieux que le marché. Ils s’opposeraient farouchement à toute planification ou redistribution forcée, mais admettraient probablement que la concentration technologique actuelle pose un problème de pouvoir et de distorsion du calcul économique.
Les classiques et les marxistes y verraient la confirmation de leurs craintes : le capital (ici les modèles d’IA et les data centers) absorbent l’essentiel de la plus-value, rendant le prolétariat cognitif « inutile ». Marx parlerait sans doute d’une nouvelle forme d’aliénation technologique.
Les néoclassiques seraient déstabilisés : leurs équilibres fondés sur la rareté et l’équilibre offre-demande ne tiennent plus. Ils chercheraient à réintroduire une rareté artificielle (par la propriété intellectuelle ou des barrières réglementaires).Les keynésiens constateraient l’échec des politiques traditionnelles de relance par l’emploi et plaideraient pour une intervention massive de l’État : revenu universel, grands travaux créatifs, ou redistribution directe des gains algorithmiques.
voir doc sur site -
Les libéraux modernes (Hayek, Friedman) salueraient la destruction créatrice schumpétérienne, mais insisteraient sur la nécessité de laisser l’« invisible hand » (main invisible) opérer tout en reconnaissant que la concentration technologique appelle une régulation légère pour éviter les monopoles.
Tous s’accorderaient probablement sur un point essentiel : les cadres anciens sont épuisés. Nous avons besoin d’un nouveau traité d’économie politique.
Nous venons de constater l’effondrement des fondations. Il est temps maintenant de poser les nouvelles pierres. Dans la seconde partie, nous explorerons comment redéfinir la valeur, la répartition, l’éducation et la place même de l’humain dans un monde d’abondance algorithmique.
voir doc sur site -
Retrouvez la vidéo décryptant cette première partie :
*
7 - (...) Lorsque j’ai publié, il y a quelques jours, « L’Astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain », je soulignais que nous ne sommes plus face à une simple technologie d’optimisation, mais à un véritable shift de paradigme historique. L’IA ne remplace pas seulement des tâches : elle pulvérise les hypothèses linéaires sur lesquelles repose encore l’ensemble de notre édifice économique et social depuis le XVIIIe siècle. Nous entrons désormais dans l’ère de l’abondance algorithmique. (...)
L' IA n'a que des données scanables, c-à-d Internet, et non à partir du QI d'être humains qui la dépasse. Les surdoués (Génies, 'polymorphe', etc) épluchent, trient, déterminent la validité des propositions.
(...) L’école autrichienne, représentée par Ludwig von Mises et Friedrich Hayek, serait sans doute la plus divisée et la plus stimulée intellectuellement. Hayek avait insisté sur le fait que la connaissance est dispersée dans la société et que seul le mécanisme des prix permet de la coordonner efficacement. (...)
L'intelligence n'a PAS de prix. La Démocratie en a une: le QI. Le QI est inacceptable pour le programme biaisé de LIA. La Démocratie c'est le Peuple. Lev Peuple est des millions de fois plus intelligent que le 'chef d’État'.
*
8 - Le Monde Caché où le Gouvernement se Prépare à l'Invisible
Madge Waggy
- 8 avril 2026
Note de l'Informateur
Il existe des lieux dont on ne vous parle pas officiellement, mais dont vous finissez par comprendre l'existence car trop de petits détails contredisent la version officielle de la réalité. Personne ne vous explique tout. Aucun document n'en énonce clairement la fonction. Ils se révèlent plutôt progressivement, par des incohérences, des anomalies logistiques et des moments qui semblent insignifiants jusqu'à ce qu'on les mette en perspective.
Je n'ai pas cherché cette installation. J'ai même passé beaucoup de temps à me convaincre qu'il ne s'agissait que d'une surinterprétation d'une infrastructure courante. Les gouvernements stockent des ressources, constituent des réserves et se préparent aux situations d'urgence. C'est évident et nécessaire. Mais ce que j'ai découvert ne ressemblait pas à une préparation au sens conventionnel du terme. Cela suggérait quelque chose de plus profond, de plus discret et de bien plus calculé que n'importe quel plan d'urgence public ne le laisserait entendre.
Ce qui suit n'est pas une tentative de révélation, mais de description. La distinction est importante.
LA PLUPART DES AMÉRICAINS NE SONT PAS PRÉPARÉS À CE QUI ARRIVE ! QUAND LE MONDE S'ARRÊTERA.
Un lieu conçu pour rester invisible
La route qui y menait ne figurait sur aucune carte officielle et ne présentait aucune importance stratégique. Elle bifurquait d'une route secondaire, elle-même rarement empruntée, et s'étendait sur une étendue de terre d'apparence géographiquement banale. Forêt, terrain accidenté et longs silences caractérisaient le paysage. Aucun panneau n'en limitait l'accès, aucun avertissement, aucune surveillance visible. À première vue, l'endroit semblait abandonné avant même d'avoir acquis une quelconque importance.
Pourtant, plus on l'observait, plus l'illusion se dissipait.
L'asphalte était trop bien conservé pour une route sans destination précise. Les bas-côtés étaient propres, les caniveaux fonctionnels et la surface portait les marques discrètes d'un entretien récent. Il ne s'agissait pas de signes de négligence, mais d'indices d'une invisibilité maîtrisée. Quelqu'un veillait à ce que la route reste praticable sans jamais révéler pourquoi.
C’est souvent ainsi que les infrastructures sensibles sont dissimulées : non par des barrières, mais par l’absence de raison de s’en approcher.
Le point de contrôle, lorsqu’il apparut enfin, ne ressemblait en rien à ce que l’on pourrait attendre d’une installation à accès restreint. Point de démonstration théâtrale d’autorité, aucune tension palpable. L’interaction était procédurale, presque indifférente. L’identité fut vérifiée, l’accès accordé, et la barrière levée avec une simplicité mécanique qui évoquait la répétition plutôt que l’examen. Il n’était pas conçu pour intimider ; il était conçu pour filtrer sans interruption.
Ce type d’efficacité discrète n’existe généralement que là où les processus ont été perfectionnés au fil du temps.
Au-delà de ce point, l’environnement changea d’une manière difficilement définissable sur le moment. Les structures extérieures restèrent basses et visuellement banales, mais la logique spatiale se transforma. Les distances semblaient plus longues, les surfaces plus intentionnelles, et l’agencement général suggérait une planification qui dépassait la simple utilité immédiate. Rien n’était excessif, et rien n’était accidentel.
C’est dans de tels environnements que la fonction d’un lieu commence à se révéler : non pas à travers ce qui est montré, mais à travers ce qui est soigneusement dissimulé.
À mesure que je pénétrais à l'intérieur, l'ampleur du lieu se révélait peu à peu. Ce qui, de l'extérieur, paraissait une installation restreinte se déployait en un espace bien plus vaste. Des couloirs débouchaient sur de grands espaces ouverts, eux-mêmes remplis de systèmes qui ne relevaient pas d'une fonction unique, mais d'une structure cohérente.
Le premier espace qui attira mon attention était le stockage, bien que le terme « stockage » ne rende pas pleinement compte de son importance.
Les étagères s'étendaient en longues rangées ininterrompues, chacune supportant des conteneurs d'une conception uniforme, mais aux usages variés. Les étiquettes, codées et non descriptives, suggéraient des systèmes de classification interne plutôt qu'une volonté de transparence. Tout était agencé avec une précision qui laissait supposer une gestion continue plutôt qu'une simple accumulation.
Cependant, c'est le contenu qui transforma mon observation en inquiétude.
De grandes quantités de conserves alimentaires étaient organisées non pas comme des réserves d'urgence, mais comme des systèmes de subsistance à long terme. Il ne s'agissait pas de provisions distribuées lors de crises ponctuelles. Elles étaient conçues pour durer : scellées, stabilisées et optimisées pour un stockage prolongé. Cela impliquait non pas une perturbation temporaire, mais une rupture prolongée des chaînes d'approvisionnement habituelles.
Une telle préparation correspond à un scénario très précis : celui où la reprise n’est pas immédiate et où l’aide extérieure ne peut être tenue pour acquise.
Là, entouré de ressources destinées à faire face à l’instabilité, la question n’était plus de savoir ce que l’installation stockait, mais ce qu’elle anticipait.
Car les institutions n’investissent pas à cette échelle sans un modèle qui guide cet investissement.
Et quel que soit ce modèle, son champ d’application était bien plus vaste.
Quel que soit ce modèle, il dépassait largement les risques publiquement reconnus.
L'accès n'est jamais fortuit.
Il m'a fallu du temps avant de comprendre que l'aspect le plus important de l'établissement n'était pas son contenu, mais les personnes autorisées à y circuler librement. Dans de tels environnements, l'accès n'est jamais une question de commodité. Il est structuré, hiérarchisé et, surtout, intentionnel. On ne vous autorise pas simplement à entrer ; vous êtes intégré à un système qui a déjà décidé de ce que vous pouvez voir et de ce qui vous reste inaccessible.
Au début, rien ne paraissait anormal. Le personnel se déplaçait avec une efficacité discrète, parlant rarement sauf nécessité, chacun suivant une routine qui semblait à la fois familière et rodée. Aucun signe visible de hiérarchie, aucune démonstration ostentatoire d'autorité, et pourtant des différences existaient – subtiles, mais indéniables. Certaines portes s'ouvraient automatiquement pour certaines personnes et restaient fermées pour d'autres. Certaines zones nécessitaient une vérification supplémentaire, tandis que d'autres étaient accessibles sans interruption. Ces distinctions n'étaient pas expliquées, et personne ne les remettait en question.
Avec le temps, des schémas ont commencé à se dessiner.
Ceux qui bénéficiaient d'un accès plus étendu ne se comportaient pas différemment de manière évidente. Ils n'affichaient ni supériorité ni urgence. Au contraire, ils semblaient plus réservés, comme habitués à gérer des informations confidentielles. Leur présence suggérait une connaissance approfondie non seulement des lieux, mais aussi de leur finalité. Ils circulaient dans les zones à accès restreint avec une assurance qui ne peut provenir que d'une pratique répétée, et non d'une simple autorisation ponctuelle.
Ce qui devenait de plus en plus difficile à ignorer était l'absence de certains types de personnel. Dans une installation de cette envergure, on s'attendrait à une structure opérationnelle diversifiée : personnel technique, équipes médicales, coordinateurs logistiques, unités de sécurité visibles. Si certains de ces rôles étaient clairement présents, d'autres étaient soit minimisés, soit totalement invisibles. Le système semblait rationalisé à un point tel qu'il dépassait l'efficacité pour frôler la sélectivité.
Ceci soulevait une question restée sans réponse immédiate : l'installation était-elle conçue pour accueillir une population importante, ou une population très spécifique ?
Cette distinction est plus importante qu'il n'y paraît.
Dans les plans d'urgence officiellement reconnus, le principe fondamental est l'inclusion. Les systèmes sont conçus pour stabiliser, distribuer et rétablir les fonctionnalités au sein d'une population aussi large que possible. Même lorsque les ressources sont limitées, le cadre reste orienté vers le rétablissement collectif. Ce que j'ai observé sur place ne correspondait pas pleinement à ce modèle.
L'ampleur des ressources suggérait une capacité, mais la structure d'accès laissait supposer une limitation.
Cette contradiction est d'autant plus marquée lorsqu'on la met en perspective avec des précédents historiques. De nombreux exemples montrent que la planification d'urgence a privilégié la continuité de la gouvernance au détriment du soutien à la population. Pendant la Guerre froide, par exemple, plusieurs gouvernements ont développé des installations sécurisées destinées à préserver les structures de pouvoir en cas de conflit nucléaire. Ces installations n'étaient pas conçues pour accueillir des populations entières, mais pour garantir le maintien du pouvoir de décision même en cas d'effondrement des systèmes sociaux.
Bien que ces programmes soient aujourd'hui partiellement déclassifiés, leur logique sous-jacente n'a jamais disparu. Elle a simplement évolué.
L'installation que j'ai découverte ne ressemblait pas à ces bunkers d'antan par sa forme, mais le principe semblait le même. Dans ce contexte, la continuité n'était pas définie par la survie de la société dans son ensemble, mais par la préservation de fonctions spécifiques jugées essentielles. L’alimentation, les systèmes médicaux, les infrastructures de communication – tout cela était présent. Mais leur organisation privilégiait une répartition contrôlée plutôt qu’une distribution libre.
L'État profond est resté les bras croisés… Vous comprendrez pourquoi ils veulent étouffer l'affaire !
Se préparer à une catastrophe est une chose.
Se préparer à survivre dans un contexte où l'on ne s'attend pas à ce que tout le monde reste au sein du système en est une autre.
Cette prise de conscience ne fut pas soudaine. Elle s'est faite progressivement, par l'observation, par la reconnaissance discrète de schémas qui ne correspondaient pas aux explications conventionnelles. L'installation n'était ni chaotique, ni expérimentale, ni provisoire. Elle était stable, perfectionnée et, surtout, achevée.
L'achèvement implique que la phase de planification est déjà terminée.
Ce qui nous amène à une considération plus troublante : si un tel système existe sous une forme opérationnelle, alors les scénarios pour lesquels il a été conçu ont été modélisés, analysés et, d'une certaine manière, acceptés comme des issues plausibles.
Personne à l'intérieur de l'installation n'a parlé d'effondrement.
Ils n'en avaient pas besoin.
Tout autour d'eux indiquait que cette possibilité avait déjà été envisagée en détail.
Quand les schémas commencent à ressembler à des avertissements
Il arrive un moment où l'observation cesse d'être passive et bouleverse tout ce que l'on croyait comprendre de la stabilité. Jusque-là, les événements isolés restent précisément cela : isolés, explicables, contenus dans leur propre contexte. Les ralentissements économiques sont attribués aux cycles de marché, les défaillances d'infrastructures aux limitations techniques, les crises de santé publique à l'imprévisibilité biologique. Chaque explication est valable lorsqu'elle est examinée indépendamment. La difficulté apparaît lorsque ces événements ne sont plus indépendants, lorsqu'ils commencent à s'aligner, non pas parfaitement, mais suffisamment de manière constante pour suggérer que la frontière entre coïncidence et schéma se réduit.
Ce que j'avais vu à l'intérieur de l'établissement n'annonçait pas immédiatement un résultat précis, mais cela a modifié la façon dont les événements ultérieurs se sont présentés. Des informations qui semblaient auparavant lointaines ou abstraites ont acquis une autre importance. Ce n'était plus simplement des données ; c'est devenu le contexte.
Au cours des années suivantes, plusieurs développements se sont démarqués, non pas parce qu'ils étaient sans précédent, mais par la façon dont ils s'inscrivaient dans un cadre plus large qui avait déjà été construit quelque part à l'abri des regards. Aucun d'eux n'a rien confirmé directement. Au lieu de cela, elles ont fonctionné comme des indicateurs, suffisamment subtils pour être ignorés, mais suffisamment persistants pour être mémorisés.
Le premier signe fut la fréquence croissante des perturbations des chaînes d'approvisionnement, dont l'impact dépassait le cadre local. Les pénuries, initialement qualifiées de temporaires, commencèrent à se répéter dans différentes régions, affectant divers secteurs, mais partageant une structure similaire : une réaction tardive, une reprise partielle et une normalisation progressive de l'instabilité. Il ne s'agissait pas d'effondrements, mais elles ont introduit l'idée que la continuité ne pouvait plus être considérée comme allant de soi.
Le deuxième signe est apparu à travers des changements dans la communication publique lors de crises majeures. Le langage est devenu plus contrôlé, moins descriptif et de plus en plus axé sur le maintien de l'ordre plutôt que sur la transparence totale. L'information n'était pas nécessairement fausse, mais elle était sélectionnée, filtrée de manière à privilégier la stabilité même lorsque les conditions sous-jacentes suggéraient le contraire. Cette approche n'est pas nouvelle, mais sa constance indiquait un niveau de coordination qui dépassait les besoins immédiats.
Le troisième signe a consisté en l'extension discrète des pouvoirs d'urgence au sein des structures gouvernementales. Les politiques introduites comme mesures temporaires en période d'instabilité sont souvent restées en vigueur plus longtemps que prévu, s'intégrant progressivement aux cadres opérationnels standards. Chaque changement individuel semblait justifié dans son propre contexte, mais collectivement, ils ont redéfini l'équilibre entre autorité et autonomie.
Le quatrième signe était l'investissement croissant dans les infrastructures indépendantes – des systèmes capables de fonctionner en dehors des réseaux conventionnels. La résilience énergétique, les cadres de communication localisés et la gestion décentralisée des ressources ont commencé à retenir l'attention, non seulement dans les documents de planification stratégique, mais aussi dans leur mise en œuvre concrète. Ces évolutions étaient présentées comme des efforts de modernisation, ce qu'elles étaient assurément, prises isolément. Cependant, leur adéquation avec des scénarios de perturbation systémique était difficile à ignorer.
Le cinquième signe était moins visible, mais peut-être plus significatif : l'évolution progressive de la manière dont le risque lui-même était abordé au sein des institutions. Plutôt que de se concentrer uniquement sur la prévention, l'accent était de plus en plus mis sur la continuité en cas de défaillance. Cette distinction est subtile, mais cruciale. La prévention suppose la maîtrise des résultats. La continuité, quant à elle, suppose que cette maîtrise peut être perdue et que les systèmes doivent persister quoi qu'il arrive.
Pris individuellement, aucun de ces éléments ne justifierait une inquiétude excessive dans un monde complexe et interconnecté. Ensemble, ils suggèrent un changement de perspective : passer de l'attente de la stabilité à la gestion de son absence.
Ce qui rendait cette prise de conscience difficile à ignorer, ce n'était pas l'existence de ces signes, mais leur compatibilité avec le type de préparation que j'avais observé. L'installation ne semblait pas conçue pour un événement unique. Elle reflétait l'adaptabilité, la capacité de réagir à de multiples perturbations sans dépendre d'un soutien extérieur. En ce sens, elle fonctionnait moins comme une mesure réactive que comme un point d'ancrage dans un contexte incertain.
On a tendance à interpréter cet alignement comme une conception intentionnelle, à supposer que les événements sont orientés vers un résultat prédéterminé. Cette conclusion, bien que séduisante, n'est pas nécessairement nécessaire pour expliquer ce qui se passe. Les systèmes de cette envergure évoluent souvent par accumulation plutôt que par orchestration. Des décisions prises indépendamment, dans des circonstances différentes, peuvent converger vers une structure qui paraît coordonnée simplement parce qu'elle aborde des risques similaires sous de multiples angles.
Pourtant, la distinction entre préparation et anticipation devient de plus en plus difficile à définir. À quel moment la planification d'une éventualité commence-t-elle à influencer la probabilité que cette éventualité se réalise ? Et comment différencier la résilience de l'acceptation passive ?
Ces questions reçoivent rarement de réponses directes, non pas parce qu'elles sont sans importance, mais parce qu'elles se posent dans un espace où la certitude n'est ni atteignable ni souhaitable. Il ne reste plus qu'à observer – à suivre attentivement les changements qui, au fil du temps, redéfinissent les limites de ce qui est considéré comme normal.
L'entrepôt n'était pas un avertissement en soi.
Mais cela rendait impossible d'ignorer les signes qui ont suivi.
La logique silencieuse de la sélection
Il existe un moment, difficile à définir mais impossible à ignorer, où la préparation commence à sous-entendre l'exclusion. Elle ne se manifeste pas par des déclarations explicites ou des politiques visibles, mais par la structure, les proportions et les subtiles mathématiques de la capacité. L'installation que j'avais vue était vaste, soigneusement approvisionnée et techniquement autosuffisante, mais elle n'était pas infinie. Aucun système ne l'est. Chaque conception, aussi avancée soit-elle, comporte une limite implicite – une limite qui détermine non seulement ce qui peut être maintenu, mais aussi qui.
Cette prise de conscience n'est pas née d'une simple observation. Elle s'est formée progressivement, façonnée par la reconnaissance que tout, dans cet espace, avait été mesuré en fonction de contraintes jamais divulguées publiquement. Volumes de stockage, capacité médicale, réserves d'énergie, bande passante de communication – tous ces éléments indiquaient une continuité sous pression. Pourtant, à l'échelle de la population, une disparité est devenue inévitable. Le système n'était pas conçu pour tous.
De telles conclusions sont souvent rejetées comme des interprétations pessimistes, pourtant l'histoire offre de nombreux précédents où l'allocation des ressources a suivi des schémas similaires. Lors de crises majeures, qu'il s'agisse d'effondrement économique ou de perturbations dues à la guerre, la priorité a toujours été accordée aux fonctions jugées essentielles à la survie structurelle : gouvernance, coordination, expertise technique. Ce concept est rarement envisagé sous l'angle de l'exclusion ; il est plutôt présenté comme une nécessité.
Dans ce cadre, la sélection n'est jamais décrite ouvertement, mais elle est toujours présente.
Ce qui rendait cette installation particulièrement révélatrice, ce n'était pas seulement son contenu, mais aussi l'absence de certains aménagements. Il n'y avait aucun signe d'habitation à grande échelle, aucune infrastructure suggérant une intégration civile à long terme, aucun agencement spatial conçu pour une forte densité de population. Tout indiquait une occupation contrôlée, un système calibré pour un groupe spécifique dont la taille avait déjà été déterminée.
Ceci soulève une question qui dépasse la simple spéculation pour nous amener sur un terrain délicat : si de tels environnements existent dans le cadre d'une planification d'urgence plus large, alors des critères doivent également exister, même s'ils ne sont jamais formellement reconnus.
Bien qu'aucun document officiel ne confirme ces critères, les schémas observés dans le comportement institutionnel permettent une approximation raisonnée. La sélection, dans des contextes de forte limitation, tend à privilégier la valeur fonctionnelle plutôt que les considérations morales. Il ne s'agit pas d'équité, mais de nécessité perçue.
Dans cette perspective, plusieurs facteurs convergent :
La continuité de la gouvernance apparaît comme une priorité absolue, suggérant que les personnes directement impliquées dans les processus décisionnels seraient parmi les premières à y avoir accès.
L'expertise technique devient cruciale pour le maintien des systèmes opérationnels, indiquant que les ingénieurs, les professionnels de la santé et les spécialistes des infrastructures constitueraient probablement un second niveau d'inclusion.
Le contrôle de l'information et la gestion de la communication requièrent des connaissances spécialisées, impliquant que les personnes capables de préserver et d'orienter le flux narratif seraient également considérées comme essentielles.
La sécurité, tant physique que stratégique, exige une présence contrôlée, restreignant encore le champ d'inclusion aux personnes formées au maintien de l'ordre en situation instable.
La coordination logistique, souvent négligée dans le discours public, devient indispensable lorsque les systèmes fonctionnent indépendamment, soulignant l'importance des personnes capables de gérer des ressources limitées sur de longues périodes. Ces éléments, pris ensemble, ne décrivent pas une société au sens conventionnel du terme. Ils décrivent un cadre – fonctionnel, efficace et délibérément contraint.
Ce qui se situe en dehors de ce cadre n'est pas défini, mais son absence est sous-entendue.
Il serait inexact d'interpréter cela comme une volonté d'abandonner des populations plus larges. Une interprétation plus nuancée y verrait la reconnaissance d'une limitation. Les systèmes conçus pour des scénarios extrêmes ne peuvent pas prendre en compte toutes les variables, et lorsque ces scénarios dépassent les seuils gérables, la priorisation devient inévitable.
Cependant, la distinction entre limitation et exclusion n'est pas toujours pertinente en pratique.
L'existence d'une telle préparation suggère que, à un certain niveau, des scénarios ont été envisagés où le rétablissement n'est pas immédiat, le soutien n'est pas universel et la stabilité doit être reconstruite à partir de bases réduites. Cela n'implique pas nécessairement l'inévitabilité, mais cela indique que cette possibilité a été examinée avec un sérieux qui dépasse le cadre du discours public.
Ce qui rend cette situation particulièrement difficile à concilier, c'est le contraste entre la politique visible et la préparation sous-jacente. Les cadres publics mettent l'accent sur la résilience, le rétablissement et la continuité collective. Les systèmes cachés, en revanche, semblent privilégier la préservation sous contrainte. Les deux approches peuvent coexister, mais elles reposent sur des hypothèses fondamentalement différentes quant au déroulement des crises.
En ce sens, cette structure ne contredit pas les discours officiels.
Elle les complète.
Quand les systèmes s'effondrent et que le silence s'installe
Il existe une tendance persistante, profondément ancrée dans la société moderne, à supposer que les systèmes à grande échelle possèdent une résilience intrinsèque simplement parce qu'ils ne se sont pas encore complètement effondrés. La stabilité, une fois vécue suffisamment longtemps, finit par paraître permanente, presque structurelle, comme s'il s'agissait d'un état naturel plutôt que du résultat d'un entretien continu. Pourtant, l'histoire suggère une réalité bien moins rassurante : les systèmes complexes s'effondrent rarement progressivement. Le plus souvent, ils se dégradent silencieusement, accumulent des tensions, puis basculent brutalement dans un état qui ne ressemble plus à ce qu'il était auparavant.
Ce qui rend ces transitions difficiles à percevoir en temps réel, ce n'est pas l'absence de signes avant-coureurs, mais la manière dont ces signes se présentent : diffus, ambigus et facilement assimilés aux attentes normales. Lorsque la situation se clarifie, les systèmes qui servaient autrefois de points de repère ne permettent plus une réponse coordonnée.
Pour comprendre le déroulement d'un tel scénario, il est utile de dépasser l'abstraction et d'envisager des séquences conformes aux précédents historiques et au type de préparation observé dans des environnements contrôlés comme celui décrit précédemment. Il ne s'agit pas de prédictions, mais de possibilités structurées : des modèles illustrant comment une perturbation peut évoluer lorsque plusieurs systèmes tombent en panne successivement.
La phase initiale se présenterait probablement comme une convergence de perturbations plutôt que comme un événement unique et identifiable. Instabilité financière, coupures d'approvisionnement énergétique et irrégularités de communication pourraient survenir dans un laps de temps très court, chacune s'expliquant indépendamment, mais générant collectivement un niveau d'incertitude dépassant les cadres de gestion de crise habituels. Durant cette phase, la communication officielle insisterait sur le contrôle et les difficultés temporaires, renforçant l'espoir d'un retour à la normale.
La deuxième phase se traduirait par une baisse mesurable de la coordination. Les chaînes d'approvisionnement, déjà sous tension, commenceraient à se fragmenter, entraînant une disponibilité irrégulière des biens essentiels. Les disparités régionales s'accentueraient, certaines zones conservant un fonctionnement partiel tandis que d'autres subiraient une dégradation importante. Durant cette période, la perception du public évoluerait de l'inquiétude vers l'adaptation, les individus modifiant leurs comportements pour faire face à l'instabilité.
La troisième phase marquerait la transition de la perturbation à l'effondrement structurel. Les réseaux de communication, notamment ceux dépendant d'une infrastructure centralisée, pourraient subir des pannes intermittentes ou des restrictions contrôlées. La circulation de l'information deviendrait inégale, augmentant la dépendance aux sources locales et réduisant la capacité à vérifier la situation dans son ensemble. La confiance, autrefois répartie entre les institutions, commencerait à se contracter, se concentrant souvent dans des réseaux plus restreints et plus immédiats.
La quatrième phase serait caractérisée par l'émergence de systèmes parallèles. À mesure que les structures centralisées perdraient en fiabilité, des formes d'organisation alternatives se développeraient : distribution localisée, dispositifs de sécurité informels et méthodes de communication indépendantes. Ces systèmes ne remplaceraient pas le cadre initial, mais fonctionneraient dans les lacunes laissées par son déclin. À ce stade, la distinction entre crise temporaire et instabilité durable devient de plus en plus difficile à établir.
La phase finale, souvent la moins abordée mais pourtant la plus lourde de conséquences, impliquerait une consolidation. Non pas nécessairement de manière visible ou coordonnée, mais par la stabilisation progressive de certaines structures tandis que d'autres disparaissent complètement. L'accès aux ressources, à l'information et à la mobilité ne serait plus équitablement réparti. Il refléterait plutôt les limites de systèmes capables de se maintenir de manière autonome – des systèmes non pas construits pendant la crise, mais bien avant.
C'est au cours de cette phase finale que la pertinence d'infrastructures comme celle décrite apparaît pleinement. Leur objectif n'est pas d'empêcher l'effondrement au sens conventionnel du terme, mais de perdurer – d'assurer la continuité dans un environnement contrôlé tant que les conditions extérieures restent instables ou non résolues.
Ce qui complexifie cette compréhension, c'est l'absence de seuils clairs. Il n'existe pas de moment précis où un système est déclaré défaillant, ni d'indicateur universel marquant le passage de la crise à l'effondrement. Le changement s'opère plutôt par accumulation, par la normalisation progressive de conditions autrefois considérées comme exceptionnelles.
C’est là que la perception devient aussi importante que la réalité. Si l’instabilité persiste, elle redéfinit les attentes, modifiant ce qui est considéré comme fonctionnel, acceptable, voire possible. Dans un tel contexte, l’existence d’infrastructures cachées n’est pas perçue comme extraordinaire, mais comme lointaine – sans importance pour ceux qui n’en font pas partie, inaccessible à ceux qui pourraient en avoir le plus besoin.
Dans ce contexte, l’installation n’est pas une anomalie. C’est une réponse – mesurée, délibérée et façonnée par une perspective qui dépasse la visibilité immédiate. L’interpréter comme une précaution ou une reconnaissance discrète dépend largement de la façon dont on perçoit l’évolution des systèmes actuellement en place.
Il n’existe pas de conclusion unique qui permette de résoudre ces observations de manière définitive. Les éléments de preuve ne mènent pas à une certitude, mais à une possibilité – une possibilité qui a été examinée, anticipée et, à certains égards, déjà intégrée à la façon dont les institutions envisagent l’avenir.
Ce qui demeure, c'est la conscience que la stabilité n'est pas un état permanent, mais une condition maintenue dans des circonstances particulières. Lorsque ces circonstances changent, les structures mises en place pour les soutenir risquent de ne plus fonctionner comme prévu.
Et, quelque part au-delà des apparences, des préparatifs existent déjà pour l'avenir.
*
9 - Premières traversées du détroit d'Ormuz depuis l'accord de cessez-le-feu
France-Soir
le 08 avril 2026 - 13:00
Deux navires ont traversé le détroit d'Ormuz depuis que l'Iran a accepté de rouvrir ce passage stratégique dans le cadre d'un accord de cessez-le-feu avec les États-Unis, selon le site de suivi maritime MarineTraffic.
"Le vraquier NJ Earth, appartenant à un armateur grec, a franchi le détroit à 08h44 UTC, tandis que le Daytona Beach, battant pavillon du Liberia, a effectué sa traversée plus tôt, à 06h59 UTC, peu après avoir quitté le port de Bandar Abbas", selon le compte X de l'entreprise.
Les États-Unis et l'Iran se sont accordés dans la nuit de mardi à mercredi pour un cessez-le-feu de deux semaines. Pendant cette période, les passages du détroit d'Ormuz se feront "en coordination avec les forces armées iraniennes" a déclaré sur X le ministre iranien des Affaires étrangères, Abbas Araghchi.
*
10 - Le prix de référence du gaz va augmenter en mai de 15,4 % pour les trois quarts des abonnés
France-Soir avec AFP
le 08 avril 2026 - 16:01
Le prix de référence du gaz va augmenter de 15,4 % à compter du 1er mai pour les trois quarts des abonnés, conséquence des perturbations énergétiques liées à la guerre au Moyen-Orient qui ont fait grimper les cours des marchés, a annoncé mercredi la Commission de régulation de l'énergie (CRE), gendarme du secteur.
Cette hausse du "prix repère" du gaz concernera les quelque 7,5 millions de ménages ayant souscrit une offre de fournisseur indexée sur ce prix moyen qui varie tous les mois.
Ainsi, 73 % des abonnés résidentiels au gaz verront leur facture mensuelle augmenter de 6,19 euros TTC en moyenne au mois de mai, a indiqué la CRE dans un communiqué.
L'autorité administrative indépendante rappelle que "cette hausse intervient au printemps, période à laquelle il est moins nécessaire de recourir au chauffage, atténuant l’impact sur la facture des ménages".
Cette augmentation est la "conséquence de la hausse des prix sur les marchés du gaz qui ont ponctuellement doublé", en raison de la guerre au Moyen-Orient, faisant donc évoluer la part "approvisionnement", l'une des trois composantes de la facture à côté des taxes et des coûts d'acheminement, a-t-elle aussi précisé.
Le calcul de la part "approvisionnement" repose sur une combinaison de prix de marchés moyens constatés lors des deux mois précédents, soit pour mai 2026, ceux de février et mars.
En conséquence, le prix repère augmentera en moyenne à 160,54 €/MWh TTC au 1er mai contre 139,12 €/MWh au 1er avril.
Depuis la disparition des prix réglementés du prix du gaz, le "prix repère de vente de gaz (PRVG)" constitue une sorte de boussole pour aider les consommateurs à s'orienter sur le marché et à comparer les offres des fournisseurs.
En revanche, les 27 % d'abonnés ayant souscrit à une offre à prix fixe "ne se verront donc pas appliquer cette augmentation pendant la durée de leur contrat".
*
10 articles complets publiés ci-dessus
Aucun commentaire:
Enregistrer un commentaire