jeudi 9 avril 2026

L'Europe a trop de pommes de terre sur les bras

 

France-Soir

 le 08 avril 2026 - 17:15


En Europe, les producteurs de pommes de terre font face à une surproduction historique qui sature le marché, fait chuter les prix et met en péril leurs exploitations. Agriculteurs, filière et institutions cherchent des solutions face à un déséquilibre entre offre et demande.

Dans le Nord, à Killem, Sébastien Andries observe ses hangars pleins à craquer, près de 200 tonnes immobilisées sans débouché. Comme lui, des centaines d’exploitants voient leur récolte se transformer en passif. « Heureusement qu’on avait de bons contrats », confie-t-il au Parisien, alors que la part non contractualisée de sa production ne vaut presque plus rien. L’abondance peut-elle devenir un piège ?

Selon le GIPT, la France a franchi les 8 millions de tonnes, tandis que le NEPG évoque près de 30 millions de tonnes à l’échelle du nord-ouest européen, en hausse de 10 %. Cette accélération, couplée à une demande atone et à un outil industriel encore insuffisant, crée un embouteillage inédit. The Epoch Times souligne ce décalage entre production agricole et capacités de transformation, qui écrase mécaniquement les prix. Sur le marché libre, certains lots s’échangent à des niveaux dérisoires, loin des coûts de production.

À cette crise interne s’ajoute une pression extérieure. L’euro fort, les barrières douanières américaines et la concurrence accrue de pays comme l’Égypte, la Turquie, la Chine ou l’Inde redessinent la carte mondiale de la frite. Résultat, les débouchés se ferment tandis que les stocks s’accumulent. Dans l’urgence, certains bradent à 15 € la tonne (15 € : 1000 kg = 1,5 centime/kilo !) ou se tournent vers l’alimentation animale. « Vous prenez ce que vous voulez et vous donnez ce que vous voulez pour nous aider », lance Christian Roussel sur France Info. Mais même ces solutions atteignent leurs limites, tandis que plane une menace sanitaire liée au stockage prolongé. Reste un appel direct aux consommateurs : acheter local, consommer davantage, écouler ce trop-plein avant qu’il ne devienne un risque.


*

 2-  Vers la fin de l’industrie pharmaceutique en Europe ?


8 avril 2026


L’Agence européenne des produits chimiques (Echa) vient de recommander l’interdiction de tous les PFAS (en anglais per- and polyfluoroalkyl substances, c’est-à-dire substances per- et polyfluoroalkylées), ces polluants dits « éternels » du fait de leur persistance dans l’environnement.

Nul ne doute qu’il faille lutter contre la pollution, surtout lorsqu’elle est potentiellement parée de tous les maux comme le sont les PFAS, accusés d’être cancérogènes, d’interférer avec le système endocrinien et immunitaire, d’avoir des effets sur la fertilité et le développement du fœtus, sur le foie, sur les reins, sur le taux de cholestérol, etc.

Le problème est qu’il est aujourd’hui difficile de se passer des PFAS dans tout un tas d’industries, en particulier dans celle du médicament. Comme le rappelle l’organisation européenne de la profession (Efpia), « Chaque composant d’un médicament, y compris certaines substances fluorées utilisées dans les principes actifs, les excipients, les procédés de fabrication ou l’emballage, a fait l’objet d’années d’évaluation de sa sécurité, de sa qualité et de son efficacité par les autorités réglementaires. » Modifier même un petit composant est rarement simple. Une reformulation peut entraîner de nouvelles études cliniques, des réexamens réglementaires, des modifications de la fabrication et des ajustements de la chaîne d’approvisionnement. Dans de nombreux cas, il n’existe pas de substituts, ou ceux-ci peuvent altérer considérablement l’efficacité du médicament.

Or, l’Echa n’envisage pas seulement l’interdiction des PFAS actuels, mais aussi de ceux qui ne sont pas encore non identifiés ou non fabriqués, pour éviter toute substitution.

Les pénuries de médicaments sont déjà une préoccupation croissante en Europe. Il est courant maintenant que des médicaments manquent en pharmacie parce que les matières premières deviennent temporairement indisponibles. Cela a bien évidemment des conséquences, parfois lourdes, pour les patients.

L’interdiction pure et simple des PFAS, surtout en l’absence d’alternatives viables, pourrait aggraver ces difficultés, alertent les laboratoires pharmaceutiques. Comme l’indiquent Les Échos, une interdiction des PFAS « pourrait entraîner la perte de 674 médicaments appartenant à la liste des médicaments essentiels de l’OMS et impacterait plus de 47.000 autorisations de mise sur le marché à l’échelle mondiale ».

Tout cela rappelle furieusement l’interdiction des néonicotinoïdes qui met à mal l’industrie betteravière. Espérons que les recommandations de l’Agence européenne des produits chimiques, mises en consultation jusqu’au 25 mai 2026, ne soient pas appliquées sans discernement. Sacrifier les malades pour protéger l’environnement n’est assurément pas la solution idéale.

https:///vers-la-fin-de-lindustrie-pharmaceutique-en-europe/

*
3 -  La classe moyenne américaine ne cesse de s’enrichir


8 avril 2026


Il y a quelques mois, nous avons mentionné une étude du think tank American Enterprise Institute selon laquelle, contrairement aux idées reçues aux Etats-Unis, la classe moyenne ne disparaît pas, elle s’enrichit. De nouvelles recherches réalisées par le Wall Street Journal viennent d’être publiées, qui la confirment fortement. Les populistes de gauche et de droite qui soutiennent à longueur de journée que les classes moyennes ont disparu à cause de la mondialisation, du libéralisme, de la concurrence chinoise ou indienne… ont tout faux ! Le WSJ a classé les ménages en cinq catégories : pauvres ou proches du seuil de pauvreté, classe moyenne inférieure, classe moyenne, classe moyenne supérieure et riches. A première vue, la classe moyenne s’est réduite, mais… simplement parce que le nombre de ménages qui se sont enrichis a augmenté et a basculé dans la catégorie au-dessus !

Croissance réelle du patrimoine des ménages depuis janvier 1976

- voir graph sur site -

« Nous constatons que la classe moyenne “de base” s’est réduite, mais la part des Américains dont le revenu est trop faible pour appartenir à la classe moyenne a également diminué », écrivent les auteurs. « Ce rétrécissement de la classe moyenne de base est dû à l’essor de la classe moyenne supérieure. Seules les fractions les plus défavorisées de la classe moyenne ont vu leur taille diminuer, et ce, dans une moindre mesure que la croissance de la classe moyenne supérieure. »

La classe moyenne supérieure représentait 10 % des familles en 1979, chiffre qui a grimpé à 31% en 2024%. Pendant la même période, la part des familles dont le revenu est inférieur à celui de la classe moyenne de base a diminué, passant de 54 % à 35 %. « Les revenus des ménages ont augmenté significativement, permettant à davantage de familles d’accéder aux tranches de revenus supérieures ».

Oui, les riches se sont enrichis au fil des décennies, mais les moins riches aussi. D’ailleurs, les auteurs constatent qu’il y a un nombre croissant d’ultra-riches. Selon une analyse des données de la Réserve fédérale, on compte environ 430 000 ménages américains dont le patrimoine s’élève à 30 millions de dollars ou plus. Il atteint 100 millions de dollars ou plus pour 74 000 d’entre eux. Au cours des dernières décennies, la croissance du nombre de ménages américains très riches a dépassé celle de la population en général. En tenant compte de l’inflation, le patrimoine des 0,1 % des ménages les plus riches a été multiplié par plus de 13 au cours des 50 dernières années. Il n’y a donc pas un appauvrissement de la population. Au contraire, elle ne cesse de s’enrichir.

https:///la-classe-moyenne-americaine-ne-cesse-de-senrichir/

*
4 -  Une personne riche est obligée de d'enrichir. Elle a accès à la véritable information, ne regarde pas la télé, n'écoute pas la radio ni ne lit les journaux, elle s'informe grâce à Internet. Elle voyage et se rend compte d'elle-même.

*
5 -   France : le déficit commercial s'est creusé à 5,8 milliards d'euros en février


France-Soir avec AFP
le 08 avril 2026 - 15:30


Le déficit commercial de la France s'est creusé de 3,8 milliards d'euros pour s'établir à 5,8 milliards d'euros en février, pénalisé par une forte hausse des importations, notamment d'hydrocarbures, alors que les exportations ont reculé, ont indiqué mercredi les douanes.

Les importations ont atteint 57,8 milliards d'euros en février (+2,6 milliards d'euros), tirées par les hydrocarbures, les matériels de transport et les produits pharmaceutiques, ont détaillé les douanes, dont les indicateurs font l'objet d'une nouvelle méthode de calcul. Les exportations ont diminué de 1,2 milliard d'euros à 52 milliards.


*
6 -  Le système fiscal français est l’un des moins sûrs d’Europe


8 avril 2026


Un classement portant sur la sécurité juridique des systèmes fiscaux européens place la France en queue de peloton. Combinant des indicateurs relatifs aux contentieux, aux pratiques administratives, à la qualité des institutions et aux caractéristiques fiscales liées à la compétitivité, il consacre le système estonien.

Les débats portant sur la fiscalité tournent essentiellement autour du montant des prélèvements obligatoires, des taux appliqués, des assiettes fiscales, des dépenses et des recettes. Ces points sont importants bien sûr, mais ils ne reflètent pas pleinement la réalité vécue par les contribuables. En effet, l’interprétation et l’application des règles jouent un rôle déterminant dans la structuration des incitations et des comportements économiques. Tel est le point de vue de Diego Sánchez de la Cruz, directeur de la recherche à l’Instituto Juan de Mariana, un think tank libéral espagnol.

La sécurité juridique est bonne pour l’économie

Dans l’étude qu’il a réalisée pour Epicenter, Sánchez de la Cruz insiste sur le fait qu’il n’y pas que les taux d’imposition qui influencent le comportement économique. La manière dont ils sont appliqués et celle qui est employée pour recouvrer les recettes jouent un rôle tout aussi déterminant. « Investisseurs, entrepreneurs et travailleurs prennent des décisions en fonction de leurs rendements nets d’impôt attendus, lesquels dépendent de la prévisibilité du système fiscal. La sécurité juridique réduit la prime de risque associée à l’activité économique productive. Lorsque les règles fiscales sont stables et appliquées de manière cohérente, les agents économiques peuvent planifier à plus long terme, allouer leurs capitaux plus efficacement et prendre des risques productifs. À l’inverse, l’incertitude quant à l’interprétation et à l’application des lois fiscales, ainsi que les modifications rétroactives, augmentent la pression fiscale marginale perçue et freinent l’activité économique. En termes économiques, ces effets se traduisent par des taux d’imposition plus élevés. »

A la limite, il vaut parfois mieux une fiscalité un peu plus élevée mais caractérisée par une forte sécurité juridique, qu’une fiscalité un peu plus faible mais imprévisible. Lorsque les contribuables comprennent clairement le fonctionnement des règles fiscales et l’évaluation des obligations de conformité en sachant qu’ils peuvent s’y fier, le risque de litiges diminue naturellement. En revanche, lorsque la législation et son application opèrent dans des zones grises, qui permettent des interprétations discrétionnaires ou arbitraires visant à maximiser les recettes à court terme, la fiscalité crée un double frein : elle réduit les recettes nettes tout en accroissant l’incertitude quant à l’application à long terme des règles.

Bref, « la sécurité juridique doit être considérée comme un élément fondamental d’une fiscalité efficace. »

La France cumule insécurité juridique et pression fiscale élevée
Nous savons que la France est malheureusement très mal classée en matière de pression fiscale. Dans l’indice de compétitivité fiscale que publie la Tax Foundation, elle occupe la dernière place. Elle apparaît au dernier rang pour l’impôt sur les sociétés (38ème/38), et dans les profondeurs du classement pour l’imposition des revenus (31ème/38), les taxes à la consommation (31ème/38) et les impôts fonciers (34ème/38).

Dans le classement d’Epicenter, qui ne porte que sur 16 pays de l’Union européenne, la France se retrouve à la 13ème place. Cela signifie qu’elle est mauvaise en matière de clarté et de stabilité des règles fiscales, de coopération entre les autorités fiscales et les contribuables, d’efficacité des mécanismes de règlement des différends, et dans les protections juridiques offertes aux contribuables lors des contrôles.

Sécurité juridique des systèmes fiscaux dans 16 pays de l’UE

- voir cadre sur site -

Sources : Epicenter

Le vote du dernier budget illustre bien l’instabilité fiscale avec, par exemple, le maintien en 2026 de la surtaxe sur les bénéfices des grandes entreprises, introduite dans le budget 2025 comme une contribution « exceptionnelle ». Nous savons aussi que les sommes réclamées à l’issue des contrôles fiscaux sont systématiquement supérieures à celles qui sont effectivement encaissées. Preuve sans doute que l’administration interprète la législation complexe à son avantage, réclamant aux contribuables mis en cause des sommes qu’ils n’ont en réalité pas à payer.

L’Estonie, en revanche, arrive première dans les deux indices. Avec un score de 9,2 dans le classement d’Epicenter, elle caracole loin devant la France (5,8) et témoigne d’un système fiscal simple, transparent et prévisible, gage de compétitivité et de respect des obligations. Son taux fixe (20%) d’imposition sur les sociétés, son impôt forfaitaire (flat tax) sur le revenu des particuliers (20%) et son impôt foncier ne s’appliquant que sur la valeur du terrain (et non sur celle du bien immobilier), expliquent aussi qu’elle domine l’indice de compétitivité fiscale de la Tax Foundation.

Pour un impôt simple

Le classement d’Epicenter montre que la France ne doit pas seulement réduire la pression fiscale, mais aussi améliorer la sécurité juridique de son système.

Négliger ce dernier point risque de conduire à sous-estimer l’impact économique réel de la fiscalité. En effet, comme le précise Sánchez de la Cruz, « la sécurité juridique influence les investissements des entreprises, l’allocation des capitaux et le maintien ou la délocalisation de l’activité économique au sein d’une juridiction. Par conséquent, la réduction de l’incertitude et l’amélioration des incitations peuvent favoriser l’investissement, améliorer le respect des obligations fiscales et renforcer la confiance dans les institutions publiques. »

S’aligner sur les pays les plus performants en la matière, ce serait adopter des règles clairement définies et proportionnées, des procédures de conformité simples et des pratiques de contrôle qui reconnaissent la bonne foi. En cas de litige, les procédures administratives devraient faciliter des résolutions rapides et raisonnables, tandis que les contrôles juridictionnels devraient garantir le respect des droits de la défense et la proportionnalité. Les sanctions en cas de non-conformité devraient être prévisibles et proportionnées à l’infraction.

« Ensemble, ces éléments constituent les fondements institutionnels d’un système fiscal qui soutient la croissance, le respect des obligations et la pérennité des recettes à long terme », écrit Sánchez de la Cruz. C’est pourquoi l’IREF-Contrepoints défend depuis toujours un impôt simple, neutre, le même pour tous les revenus (flat tax), sans niches fiscales, mais aussi la suppression des aides aux entreprises et des impôts de production.

https:///le-systeme-fiscal-francais-est-lun-des-moins-surs-deurope/

*
7 - L’astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain


Xavier Azalbert, France-Soir
le 07 avril 2026 - 18:00


Lorsque @powl_d dépeint sur X un avenir où l’intelligence artificielle accélère à un rythme effréné et où seuls 0,1 % de la population seraient en mesure de s’adapter, il ne fait que mettre des mots sur une réalité déjà palpable. Pendant que 99,9 % scrollent en pensant que l’IA, se résume à ChatGPT et n’est qu’un outil pour écrire des mails plus vite, l’astéroïde est déjà en vue. Et contrairement à ce que beaucoup croient, ce ne sont pas les cols bleus qui vont tomber en premier. Ce sont nous, les cols blancs. Cette vision fait écho à mon propre article sur le « tsunami sonique » de l’IA, qui décrit comment cette technologie menace d’engloutir les emplois de bureau traditionnels en quelques années à peine. 

Ensemble, ces réflexions esquissent un paysage de rupture radicale : un changement de paradigme historique, comparable à la Révolution industrielle ou à l’avènement d’Internet, mais d’une ampleur encore inédite. Car l’IA ne se contente pas d’optimiser ; elle remet en cause les cadres mêmes qui structurent notre pensée, notre économie et notre société. Au-delà de l'alerte, il est temps de plonger dans les implications profondes, en intégrant les asymétries d'information, les incohérences économiques, et surtout, la remise en question des frameworks qui structurent notre réalité – ces cadres rigides qui simplifient le monde pour nous donner une illusion de contrôle, mais qui étouffent la créativité humaine.

En m'appuyant sur mes séries d'articles publiés sur France-Soir, notamment sur la compréhension des frameworks, la tension entre l'humain et la normatisation, leurs usages modernes dans la gestion de l'information, et les stratégies de résistance, je propose ici une analyse approfondie. Il s’agit de montrer comment l’IA expose les limites des modèles linéaires que nous avons construits pour nous donner l’illusion du contrôle, et comment elle ouvre la voie à un chaos créatif enfin libéré, forçant une redéfinition totale de notre société.

Un changement de paradigme historique : perdants et gagnants dans l'ère de l'IA

Oui, c'est un changement de paradigme comme il en a existé dans l'histoire, avec des perdants et des gagnants. Comme le souligne @powl_d, nous assistons à une accélération technologique où l'IA ne se contente pas d’optimiser : elle crée une disruption fondamentale des structures sociétales. l'IA n'est pas un outil, mais un astéroïde imprévisible qui pulvérise les emplois routiniers, des analyses de données aux rapports administratifs. Selon les données du cabinet Challenger, Gray & Christmas, près de 55 000 suppressions de postes aux États-Unis en 2025 ont été directement liées à l’IA, tandis que le « SaaSpocalypse » a effacé plus de 1 000 milliards de dollars de capitalisation boursière dans le secteur logiciel.

Les perdants ? Ceux attachés aux modèles obsolètes – les cols blancs dont les tâches intellectuelles sont automatisées, ou les secteurs entiers comme la finance et le droit, où des algorithmes surpassent l'humain en vitesse et précision. Le paradoxe est déjà visible : le plombier est souvent plus en sécurité que l’ingénieur, et de nombreux jeunes diplômés se reconvertissent vers les métiers manuels.

Les gagnants, quant à eux, émergeront parmi les innovateurs : développeurs d'agents IA, stratèges en robotique, ou créateurs de valeur humaine unique, comme les artistes ou thérapeutes qui exploitent l'empathie irremplaçable.

Cette rupture s'apparente à des basculements historiques : la machine à vapeur a créé des usines mais détruit les artisanats ; Internet a démocratisé l'information mais a tué des industries comme la presse traditionnelle. Aujourd'hui, l'IA amplifie les inégalités : une élite adepte de technologie (« tech-savvy ») s'adapte, tandis que les masses subissent un chômage structurel massif. Mais c'est aussi une opportunité pour repenser la société – via des concepts nouveaux, des reconversions massives, ou une valorisation de la créativité humaine, comme exploré dans la série sur les frameworks. L’analyse « La tension entre l’humain et la normatisation : préserver la créativité dans un monde de frameworks » montrait comment ces cadres rigides, inspirés de stratégies militaires comme Sun Tzu ou MITRE ATT&CK, standardisent les pensées au détriment du chaos créatif. L'IA, en automatisant le linéaire, pourrait libérer ce chaos – si nous résistons à la normatisation.

L'obsolescence des théories économiques fondamentales : un modèle sociétal et une fiscalité à réinventer
Cette rupture rend obsolètes les théories économiques fondamentales sur lesquelles reposent encore nos modèles économiques et plus particulièrement la fiscalité.

La théorie de la valeur-travail (de Smith à Marx) posait que la valeur d’un bien ou d’un service provient essentiellement du travail humain incorporé. Les modèles néoclassiques (Walras, Marshall) et la théorie de la productivité marginale considéraient le travail et le capital comme des facteurs rares dont l’équilibre détermine les prix et la répartition. Les théories keynésiennes, quant à elles, plaçaient l’emploi humain et la demande effective au cœur de la croissance et de la stabilité. Même la courbe de Phillips, qui reliait chômage et inflation, supposait que le plein-emploi était le levier naturel de l’économie.

L’IA pulvérise ces fondements. Elle automatise des tâches autrefois hautement qualifiées – analyse de données, rédaction stratégique, diagnostic médical – en les rendant scalables à l’infini et presque gratuites. Les IA de dernières générations comme NoteBookLM ou GPT-4 produisent un rapport complexe en quelques secondes, sans salaire ni cotisations sociales et la notion même de « valeur ajoutée » devient floue. La valeur se découple totalement du travail humain ; la rareté cognitive disparaît au profit d’une abondance exponentielle. La production explose sans proportion avec les ressources humaines ou le capital traditionnel. Résultat : un chômage structurel massif peut coexister avec une déflation technologique, rendant inopérants les mécanismes keynésiens de relance par l’emploi. En d’autres termes, les modèles keynésiens ou néoclassiques, centrés sur le travail et la rareté, ne capturent plus une réalité où la production cognitive explose sans proportion avec les ressources humaines.

Mon « tsunami sonique » illustre ce multiplicateur exponentiel et ce shift de paradigme : l'IA rend obsolète les frameworks fiscaux actuels, qui reposent encore sur l’hypothèse que la richesse naît du travail humain.

Il faut désormais réinventer la fiscalité – taxation des données, de l’énergie des data centers, des super-profits des géants tech ou des modèles d’IA eux-mêmes – mais surtout repenser le modèle sociétal de répartition dans son ensemble. Dans une économie d’abondance algorithmique, la richesse ne peut plus être distribuée uniquement via les salaires et les cotisations. Il devient nécessaire d’imaginer de nouvelles formes de redistribution (revenu universel, dividendes citoyens sur la production IA, ou mécanismes de partage de la valeur cognitive) pour éviter une fracture sociale sans précédent tout en préservant l’incitation à la créativité humaine. Dans « Comprendre les frameworks : Des outils pour structurer, influencer et coordonner », je décris comment ces cadres simplifient la réalité économique en étapes prévisibles, donnant une illusion de contrôle. 

L’IA expose leur limite face au non-linéaire : les ruptures qu’elle introduit ne sont plus des ajustements, mais de véritables changements de paradigme
 
Incohérences, asymétries d'information et frameworks impactés – L’IA comme antidote à la bureaucratie managériale
Au-delà de ces incohérences, l’IA met en lumière de profondes asymétries d’information et fragilise les frameworks qui organisent notre monde. Les entreprises comme OpenAI ou Google accumulent des masses de données et contrôlent les modèles d’intelligence, créant un monopole sur la connaissance future tandis que travailleurs et États peinent à suivre. Cette opacité renforce les biais algorithmiques et marginalise les voix dissidentes, comme analysé dans l’article sur la gestion de l’information et la résistance aux frameworks.

Les frameworks économiques traditionnels, comme la courbe de Phillips (inflation-chômage), deviennent incohérents : l'IA pourrait causer un chômage massif sans inflation. Le PIB ignore la valeur « gratuite » des outils IA open-source, sous-estimant la croissance. Les asymétries s'étendent aux biais algorithmiques, perpétuant inégalités si les données sont biaisées, remettant en cause des régimes comme le RGPD.

Cette dynamique va bien au-delà des métiers individuels : elle s’attaque directement aux structures organisationnelles. Comme je le soulignais dans mon analyse sur la déclaration du CTO de Palantir, Shyam Sankar (4 avril 2026) : « L’IA va être l’antidote à la révolution managériale du XXe siècle. Tout ce pouvoir qui a été aspiré des travailleurs de première ligne est en train d’être restitué, car toute la bureaucratie est en train d’être supprimée. » Un siècle d’empilement de six à huit niveaux hiérarchiques, de reportings interminables et de comités a créé des distorsions d’information et de l'inertie. L’IA rend ce delayering exponentiel : elle supprime les intermédiaires inutiles, fournit des analyses en temps réel et restitue le pouvoir aux « edge workers » augmentés. Le résultat ? Une fluidification radicale qui ne se contente pas d’optimiser l’existant : elle libère tout ce qui était étouffé par la bureaucratie avant même de naître – c’est le paradoxe de Jevons appliqué à l’ère algorithmique.

Dans un monde décrit par les modèles VUCA puis BANI, le non-linéaire s’impose : les systèmes économiques deviennent fragiles face à un choc soudain, l’anxiété collective grandit, et les impacts échappent à toute prévision linéaire. Nos frameworks, inspirés de doctrines militaires ou de matrices de décision, ont longtemps simplifié la réalité pour nous rassurer ; l’IA révèle leur insuffisance face au chaos réel.

Métiers à haute valeur ajoutée : l'illusion de l'inautomatisable

On le constate déjà dans les métiers dits « à haute valeur ajoutée ». Consultants en stratégie, radiologues, avocats, ou graphistes étaient protégés par la complexité de leur jugement humain. Aujourd’hui, l’IA rédige des contrats, analyse des images médicales ou génère des visuels avec une précision souvent supérieure, rendant ces professions scalables et low-cost. Un consultant en finance voit ses analyses automatisées par Bloomberg IA, révélant que la valeur résidait dans la routine. Graphistes ou rédacteurs : Midjourney et ChatGPT les rendent accessibles, exposant des barrières artificielles.

Ce qui passait pour une barrière infranchissable n’était souvent qu’une routine sophistiquée. La vraie valeur ajoutée migre alors vers ce qui reste irremplaçable : l’empathie thérapeutique, la créativité disruptive ou le sens éthique. Comme je l’expliquais dans « La tension entre l’humain et la normatisation », préserver cette créativité exige de résister à la standardisation imposée par les frameworks, en cultivant le questionnement socratique pour défier ces normes, et l’interdisciplinarité.

Analogies physiques : repousser les limites avant le saut paradigmatique

Ce saut paradigmatique évoque les avancées physiques qui repoussent les limites avant de tout transformer. Les foils sur les voiliers de l’America’s Cup élèvent les bateaux au-dessus de l’eau, réduisant la friction et leur permettant de « voler » à des vitesses inédites.

De même, la magnétohydrodynamique (MHD) remplace les moteurs mécaniques par des champs magnétiques, ouvrant une propulsion fluide et silencieuse

L’IA agit exactement ainsi : elle élève les tâches cognitives au-dessus des contraintes biologiques – fatigue, erreurs, temps limité – jusqu’au point de rupture où le paradigme change. On ne flotte plus ; on vole. Le « tsunami sonique » décrivait cette dynamique : on optimise l’existant jusqu’à ce que le saut qualitatif survienne, transformant une économie humaine-centrée en une économie hybride où l’intelligence artificielle devient le nouveau socle.

Intégrer le non-linéaire : de VUCA à BANI dans un monde simplifié
Pour naviguer ce monde, il faut intégrer pleinement le non-linéaire que les modèles VUCA et surtout BANI mettent en évidence. 

Nous avions construit un univers simplifié, linéaire, pour nous donner l’illusion du contrôle ; l’IA y introduit la fragilité, l’anxiété, l’imprévisibilité et l’incompréhensibilité. J’ai montré comment ces frameworks, bien qu’utiles pour structurer et coordonner, risquent d’étouffer la liberté et la vérité si on les érige en dogmes. 

Résister, c’est promouvoir l’expérimentation décentralisée, la vérification rigoureuse des sources et une éducation qui valorise l’adaptabilité plutôt que la conformité.
 
Comment cultiver son chaos créatif dès aujourd’hui
Le chaos créatif n’est pas une utopie lointaine : c’est une pratique concrète et quotidienne que chacun peut commencer dès maintenant pour ne pas subir l’astéroïde, mais le piloter.

Questionnement socratique systématique : avant d’accepter un framework ou une norme, demandez-vous « Et si ce cadre était faux ou incomplet ? ». Cette habitude défie la standardisation et ouvre des brèches de pensée originale.
Expérimentation décentralisée et interdisciplinarité radicale : sortez de votre silo professionnel. Mélangez domaines (art + technologie, philosophie + économie, science + vécu humain) comme le faisaient les grands esprits de la Renaissance. Testez des idées à petite échelle, sans attendre l’approbation hiérarchique.
Refus actif des frameworks dogmatiques : dans mes articles sur France-Soir, j’ai analysé comment ces cadres militaires ou managériaux peuvent devenir oppressifs. Résistez en cultivant la dissidence éthique, en vérifiant rigoureusement les sources et en refusant la conformité comme un devoir moral. L’exemple de penseurs comme Socrate ou de lanceurs d’alerte modernes montre que la vérité émerge souvent en dehors des sentiers balisés.

Ceux qui cultivent ces pratiques dès aujourd’hui font partie des 0,1 % non pas par élitisme, mais par courage intellectuel et adaptabilité.

Une analyse philosophique : de Kuhn à Harari, repenser l'humain face à la machine
Philosophiquement, Thomas Kuhn parlerait d’un « shift paradigmatique » où les anomalies accumulées – échecs des modèles économiques à prédire l’automatisation massive – provoquent une crise puis l’émergence d’un nouveau cadre incommensurable avec l’ancien. Heidegger alerte : la technique « encadre » le monde en ressource, déshumanisant l'existence. L'IA risque une "singularité" (Kurzweil), posant des questions sur la conscience. Sartre y verrait une aliénation de la liberté, l’IA automatisant jusqu’au sens que nous donnons à nos actes. 

Pourtant, dans une lecture néo-schumpétérienne, cette destruction créatrice libère l’humain pour des quêtes plus élevées : art, philosophie, exploration du vivant. Yuval Noah Harari craint une société scindée entre une élite « divine » et une masse rendue « inutile ». Cela force une éthique : réguler pour l'équité, embrassant le potentiel transcendantal de l’IA tout en préservant l'essence humaine – créativité, liberté, vérité – contre les frameworks oppressifs.

L’astéroïde IA n’est pas une sentence de fin

C’est le plus grand cadeau que l’humanité se soit jamais fait : la possibilité de briser enfin les chaînes des frameworks linéaires et de laisser enfin s’exprimer le chaos créatif qui nous définit. Dans un prochain article, nous explorerons en profondeur comment repenser les théories économiques fondamentales à l’ère de l’abondance algorithmique – une économie où la valeur ne naît plus seulement du travail humain, mais de l’alliance subtile entre créativité irremplaçable et puissance computationnelle, ouvrant la voie à une prospérité véritablement partagée.

Les 0,1 % ne sont pas une élite fermée. Ce sont ceux qui auront eu le courage, dès aujourd’hui, d’embrasser le non-linéaire. Le reste suivra… ou disparaîtra dans l’ancien monde. À nous de choisir. Préservons la liberté face à la normatisation : l'avenir n'est pas aux 0,1 %, mais à ceux qui osent le non-linéaire.

Retrouvez le résumé vidéo de cet article (assisté par IA)


*
8 -  Pour vous amuser à comprendre LIA faites le test, demandez-lui ce qu'est la Démocratie et combien de pays dans le monde sont en Démocratie ! Il n'y qu'un seul pays au monde en Démocratie ! La Suisse.
Les autres pays sont des dictatures monarchiques, républicaines ou impériales.

- "Mais si demain je n'ai pas de travail que vais-je manger ?" 
- "Ne faites rien ! Les robots vous apportent à manger."

*
9 -  Météo France affirme que depuis 1850 la France avec moins de 1 % du gaz carbonique mondial se réchauffe deux fois plus vite que la planète, les archives prouvent le contraire


 le 5 avril 2026
  par pgibertie
  

Ce sont ainsi les pays les plus peuplés et industrialisés qui apparaissent en haut du classement des pays les plus pollueurs au monde. Les trois pays les plus gros émetteurs de gaz carbonique sont donc :

    La Chine responsable à hauteur de 32.9% des émissions de gaz carbonique, en grande partie dues à l’exportation de biens de consommation et à sa forte dépendance au charbon ;
    Les États-Unis responsables à hauteur de 12.6% ;
    L’Inde responsable à hauteur de 7.0%.

On observe que l’Allemagne est, avec beaucoup d’avance, le pays européen qui émet le plus de gaz carbonique à cause de sa forte dépendance au charbon. Ainsi, ¼ des émissions de gaz carbonique de l’Union Européenne proviennent de l’Allemagne. La France échappe au classement grâce au nucléaire, énergie majoritaire dans le pays et non émettrice de carbone.

LA FRANCE NE PRODUIT PAS DE CO2 MAIS ELLE SE FRECHAUFFE BEAUCOUP ? ON VA GRILLER

Les experts escrologistes ont frappé fort, la France se serait réchauffée de 2,5° depuis 1850 contre 1,5 pour le reste de la planète…N’imaginez pas qu’ils s’appuient sur des données vérifiable…Météo France n’existait pas en 1850…Tout découle des mathématiques, des modèles informatiques, bref du monde FACTICE dont parle Didier Raoult

Pourquoi c’est compliqué

Les mesures fiables et continues depuis 1850 sont très rares en France. Le réseau météo national s’est structuré progressivement à partir de la seconde moitié du XIXe siècle. La plupart des longues séries disponibles aujourd’hui ont été homogénéisées par Météo-France (corrections pour changements de lieu, instruments, observateurs, urbanisation progressive, etc.) et correspondre… aux modèles. Les données vraiment brutes anciennes sont souvent dans des archives papier ou des bases partielles.

Voici une réponse directe et concrète.Aucune station française n’offre une série parfaitement brute, quotidienne, continue et non touchée depuis exactement 1850 sans aucun contrôle ou ajustement mineur (changement d’instruments, d’observateurs, de localisation). Les données anciennes étaient souvent manuscrites et fragmentaires.

ELLES ONT DONC ETE TRANSFORMEES POUR DEMONTRER UNE HAUSSE DES TEMPÉRATURES

LES SEULES ET TRÈS RARES RESSOURCES HISTORIQUES

Perpignan École Normale (Pyrénées-Orientales) : série qui commence en 1850.
C’est une des plus anciennes séries continues en France pour cette période. Elle est citée par Météo-France dans les projets de sauvetage de données (WMO-Medare). Les relevés incluent températures max/min et précipitations de 1850 à 1924 (avant déplacement vers d’autres sites comme l’aérodrome).

À l’époque, c’était un poste relativement peu urbanisé (école normale).archives-climat.fr (recherche « Perpignan École Normale »). Il y a des registres scannés pour des périodes comme 1866-1868, 1904, etc.Exemple de périodes disponibles : relevés de températures air min/max et précipitations pour plusieurs mois/années entre 1850 et 1924.
→ Cela donne une température moyenne annuelle brute autour de 13,4 °C à 14,4 °C pour la fin du XIXe siècle.

Normale de référence 1971-2000 : 15,4 ° DONC une augmentation moyenne de 1,5° en partie provoquée par l’effet bêton

Montpellier École Normale (dès 1864)

    Normale 1971-2000 : 14,7 °C
    Période ~1874-1900 : anomalies brutes montrent des moyennes annuelles 1 ,4 °C plus basses que la normale 1971-2000.
    → Températures moyennes annuelles brutes autour de 13 °C à 13,7 °C en moyenne sur cette période.

Carcassonne École Normale (dès 1872)

Normale 1971-2000 : 13,7 °C
Période fin XIXe : mêmes anomalies négatives de 1,2 °C par rapport à la normale récente.
→ Moyennes brutes autour de 12 °C à 12,7 °C sur les années 1870-1900.

Abbeville (Somme) – une des meilleures séries du Nord

    Série longue disponible dès le début du XXe siècle (et fragments antérieurs).
    Normale 1991-2020 : environ 11 °C de moyenne annuelle.
    Début du XXe siècle (1901-1930) : moyennes brutes autour de 9,5 à 10 °C environ.
    Hausse observée depuis ~1900 jusqu’à aujourd’hui : environ +1,2 °C sur les données historiques de la station (même sans homogénéisation complète).

vous l’avez compris, un réchauffement oui mais inférieur à 1,5° et encore il faudrait prendre en compte la bétonnisation


*
10 -  (...)     La Chine responsable à hauteur de 32.9% des émissions de gaz carbonique, en grande partie dues à l’exportation de biens de consommation et à sa forte dépendance au charbon ;
    Les États-Unis responsables à hauteur de 12.6% ;
    L’Inde responsable à hauteur de 7.0%. (...)
    
       💣️   Pollution et pollution


jeudi 13 novembre 2014


- voir graph sur site -

Pareillement qu'il est facile d'accuser une famille nombreuse de plus consommer qu'un célibataire et donc de taxer le grand nombre de tous les maux de la Terre, dernièrement un économiste a publié un graphique sur les pays les plus gros consommateurs de pétrole (donc: pollueurs). Graphique qui montrait la Chine, les USA, l'Inde et la Russie les quatre premiers d'une liste de 19 pays sélectionnés comme étant les plus pollueurs.

Oui mais, de la même façon que l'on peut citer Monaco et Macao comme étant les pays les plus peuplés de la Terre (au km²), je répondrais pour les pollueurs que c'est en fait le contraire !

Compte tenu du nombre d'habitants et de la quantité de pétrole consommée, l'Arabie Saoudite arrive largement en tête des pays les plus pollueurs de la Terre ! Cela vous étonne ? C'est bien d'ailleurs la première fois que vous lisez un tel article face au bassinnage médiatique quotidien que c'est La Chine qui est le plus gros pollueur monstrueux de la Terre !
 
1 -- Arabie Saoudite
2 -- Australie
3 -- Canada
4 -- USA
5 -- Corée du Sud
6 -- Russie
7 -- Allemagne
8 -- Afrique du Sud
9 -- Japon
10 - Italie
11 - Royaume-Uni
12 - Chine
13 - Turquie
14 - Argentine
15 - Mexique
16 - Inde
17 - Indonésie
18 - France
19 - Brésil

Car, c'est bien au nombre d'habitants qu'il faut regarder (et non à la superficie d'un pays). L'Alaska avec ses 731.000 hab. et 1.717.854 km² consomme plus d'énergie par le fait qu'il y fait froid et que la lumière est manquante dans l'hiver long. Pareillement que le sont d'autres en Europe du Nord (Norvège, Suède, Danemark, Finlande, Islande, etc) mais qui ne sont listés dans les 19 choisis, la consommation de pétrole par habitant doit être plus élevée qu'en Afrique, car je ne pense pas qu'ils aient choisi de brûler du bois des forêts où les arbres poussent lentement, ni qu'ils se contentent de se chauffer avec des arêtes de poissons !


*
Les données du site ( https://pgibertie.com/2026/04/05/meteo-france-affirme-que-depuis-1850-la-france-avec-moins-de-1-du-co2-mondial-se-rechauffe-deux-fois-plus-vite-que-la-planete-les-archives-prouvent-le-contraire/) n'ont rien à voir avec le climat !

Notre planète dégaze de temps à autre suivant les humeurs magmatique de sa combustion 'cocotte-minute'. Ces émanations de la masse ferrique incandescente sont conséquentes de sa combustion. C'est ainsi qu'apparaissent El Nino et La Nina qui font que l'un est chaud et l'autre froide faute de dégazage en plein Est du Pacifique.
Ces dégazage sur tous les bassins maritimes & océaniques (à partir des 'sources chaudes' qui tapissent le fond des bassins)  font que les lames de fonds apportent ou pas des chaleurs sous-marines ou océaniques.

*
10 articles complets publiés ci-dessus

Corne de l’Afrique: le blocus du détroit de Bab-el-Mandeb pourrait remodeler l’économie mondiale

 


- VOIR CARTE  Détroit d'Ormur à droite et au Sud  Canal de Suez  -

Par Serge Savigny Savigny
Mondialisation.ca, 
07 avril 2026

Il existe sur la carte du monde des endroits que l’humanité a pris l’habitude d’ignorer. Ils se trouvent quelque part à la périphérie de notre conscience, dans d’ennuyeux manuels de géographie, dans les lignes arides des rapports logistiques. Le détroit de Bab-el-Mandeb, séparant la péninsule arabique de la Corne de l’Afrique, était précisément cet endroit. 26 km d’eau entre Djibouti et le Yémen. La porte des lamentations, telle est la traduction de son nom arabe. Un nom qui s’est avéré prophétique.

La situation du détroit de Bab-el-Mandeb gagne en acuité dans le contexte de la crise irano-américaine qui se poursuit. L’Iran a démontré à plusieurs reprises sa volonté de fermer le détroit d’Ormuz en cas d’escalade du conflit. L’agence iranienne Tasnim citant des sources à Téhéran a rapporté qu’en cas de débarquement des troupes américaines sur le territoire de la République islamique d’Iran, celle-ci ouvrirait des fronts supplémentaires contre l’ennemi. Le détroit de Bab-el-Mandeb (qui relie le Koweït à l'océan indien) est envisagé comme l’un de ces fronts.

Jusqu’à récemment, ce détroit était perçu comme le second plan du commerce mondial. Le premier plan a toujours été occupé par Ormuz, par lequel transite un cinquième du pétrole planétaire. Bab-el-Mandeb restait dans l’ombre. Mais le monde a changé, et l’ombre est devenue un facteur géopolitique capable d’effondrer les économies de continents entiers.

Lorsque le vice-ministre de l’Information du gouvernement houthi, Mohammed Mansour, a évoqué la possibilité d’un blocus total du détroit, avec la perspective d’une flambée des cours du pétrole jusqu’à 200 dollars le baril, cela n’a pas sonné comme une vaine menace. Cela a résonné comme un diagnostic. Un diagnostic d’un système qui, pendant des décennies, était construit sur le postulat que les goulets d’étranglement du commerce mondial resteraient ouverts par défaut. Il s’avère que rien n’est garanti dans ce monde.

La géographie comme verdict

Le détroit de Bab-el-Mandeb relie la mer Rouge au golfe d’Aden, puis à l’océan Indien. C’est la clé du canal de Suez et donc la clé de la route maritime la plus courte entre l’Europe et l’Asie. Y transitent le pétrole et le gaz naturel liquéfié des pays du Golfe, les marchandises conteneurisées de Chine et d’Asie du Sud-Est, les céréales, les engrais, les équipements industriels. Le chiffre d’affaires annuel des marchandises transitant par ces eaux se compte en milliers de milliards de dollars.

La largeur du détroit à son point le plus étroit est d’environ 26 km. C’est un véritable goulet d’étranglement par lequel passent quotidiennement des dizaines de navires de fort tonnage. D’un côté du détroit se trouve le Yémen où depuis 2014 le mouvement Ansar Allah, connu sous le nom de Houthis, détient le pouvoir sur une grande partie du territoire. De l’autre côté (très très loin) , Djibouti, un petit État sur le territoire duquel sont implantées des bases militaires de plusieurs pays, dont la France, la Chine, le Japon et les États-Unis.

Ici la géographie devient un verdict. Le détroit ne peut être contourné. On ne peut que le longer, ce qui signifie un voyage autour de l’Afrique, par le cap de Bonne-Espérance (FAUX ! existe le canal de Suez). Des milliers de milles marins supplémentaires. Des semaines supplémentaires de voyage. Des tonnes supplémentaires de carburant. Des milliards supplémentaires de dollars de coûts logistiques qui pèseront inévitablement sur le prix final des marchandises.

Si Ormuz et Bab-el-Mandeb sont bloqués simultanément, cela fermerait environ 30 % du trafic mondial de conteneurs. La route par la mer Rouge et le canal de Suez deviendrait totalement impraticable. La seule alternative, le cap de Bonne-Espérance, n’est pas en mesure d’absorber tout le volume du flux de marchandises. Les infrastructures portuaires d’Afrique du Sud, des côtes ouest et est de l’Afrique ne sont tout simplement pas conçues pour un tel afflux de navires.

Le résultat serait un effondrement des taux de fret, une hausse des prix de toutes les catégories de biens, une pénurie d’énergie en Europe et un ralentissement catastrophique du commerce mondial. Ce n’est pas un scénario théorique. C’est une mathématique confirmée par la crise déjà survenue en mer Rouge.

Leçons de la mer Rouge: l’inflation calculée par les Houthis

En 2024 et 2025, les Houthis ont déjà démontré que leurs menaces n’étaient pas du bluff. Les attaques contre les navires commerciaux en mer Rouge ont contraint les plus grandes compagnies maritimes mondiales à rediriger leurs routes autour de l’Afrique. Le résultat a été tangible.

Chaque journée supplémentaire pour contourner l’Afrique n’est pas seulement une perte de temps. Ce sont des tonnes de carburant supplémentaires brûlées par les moteurs des navires. C’est une prime de risque que les compagnies d’assurance intègrent dans le coût des polices pour les navires qui décident tout de même de traverser la mer Rouge. Ce sont des ruptures de délais contractuels entraînant des pénalités et des litiges. Les Houthis ont montré l’essentiel: une panne systémique dans un corridor commercial clé peut briser l’économie mondiale et la rendre plus chère.

Des volumes importants de pétrole des pays du Golfe à destination de l’Europe transitent par le détroit de Bab-el-Mandeb. L’itinéraire est le suivant: Ormuz, puis mer d’Arabie, golfe d’Aden, Bab-el-Mandeb, mer Rouge, canal de Suez. Le blocage de l’un de ces maillons brise la chaîne.

Si Bab-el-Mandeb est bloqué mais qu’Ormuz reste ouvert, les consommateurs européens seront contraints de se tourner vers des sources alternatives de pétrole ou de payer un itinéraire de livraison beaucoup plus long. Si les deux détroits sont bloqués simultanément, les livraisons de pétrole du Golfe vers l’Europe cesseraient presque complètement.

La géopolitique comme outil de pression

L’Iran considère Bab-el-Mandeb comme un second front dans son affrontement avec les États-Unis et leurs alliés. Le premier front, le détroit d’Ormuz, est déjà sous le contrôle du Corps des Gardiens de la révolution islamique d’Iran. Le second front, Bab-el-Mandeb, est contrôlé par les Houthis, alliés de l’Iran. La fermeture de ces deux points crée un étau stratégique qui serre le commerce mondial.

Pour l’Europe, cela signifie une vulnérabilité dont on préférait ignorer l’existence.

 L’économie européenne, qui s’est remise de la pandémie et de la crise énergétique de 2022, se retrouve à nouveau confrontée à une catastrophe énergétique et logistique. Mais cette fois, la menace ne vient pas d’une interruption de l’approvisionnement en gaz, mais de l’impossibilité d’acheminer le pétrole et les marchandises par voie maritime. C’est une catégorie de risque qualitativement différente, exigeant des réponses qualitativement différentes.

Les chaînes d’approvisionnement mondiales ont été construites à une époque où la sécurité des routes maritimes était considérée comme acquise. Le blocage du détroit de Bab-el-Mandeb  (est un détroit de la mer Rouge reliant celle-ci au golfe d'Aden, et séparant Djibouti et l'Érythrée, en Afrique, du Yémen, sur la péninsule Arabique), brise ce modèle. Les compagnies maritimes seront obligées soit de payer des primes d’assurance énormes pour traverser la zone dangereuse, soit d’allonger les délais de livraison de deux à trois semaines en contournant l’Afrique. Les deux options signifient une hausse du coût du transport. Les deux options signifient une augmentation du coût de revient des marchandises. Les deux options signifient l’inflation.

Par ailleurs, les infrastructures alternatives ne sont pas prêtes à absorber tout le flux de marchandises. Le cap de Bonne-Espérance n’est pas seulement une route plus longue. C’est aussi une capacité d’accueil limitée des ports, un manque d’infrastructures pour le ravitaillement en carburant des navires, des lignes d’approvisionnement étirées. La logistique mondiale se construisait pendant des décennies autour du canal de Suez, et un passage soudain à la route de contournement créera des goulets d’étranglement comparables à ceux survenus pendant la pandémie.

Prix, inflation, récession: l’arithmétique de la catastrophe

Le lien entre le blocage du détroit et la hausse des prix dans les rayons des magasins n’est pas abstrait. Il passe par des chiffres concrets.

Les taux de fret pour le contournement de l’Afrique augmenteront de 40 à 60%. L’assurance des navires traversant la zone de conflit deviendra plusieurs fois plus chère. Les délais de livraison s’allongeront, entraînant des pénuries pour certaines catégories de biens et une hausse des prix selon la loi de l’offre et de la demande.

Les banques centrales, déjà dans une situation délicate car elles doivent trouver un équilibre entre la lutte contre l’inflation et le soutien à la croissance économique, seront confrontées à un dilemme. Augmenter les taux pour freiner l’inflation étoufferait l’investissement et mènerait à la récession. Maintenir des taux bas attiserait l’inflation.

Les conséquences pour les pays en développement seront particulièrement graves. De nombreux États africains et asiatiques dépendent des importations via le canal de Suez. La hausse des coûts logistiques les frappera plus durement encore, aggravant une situation économique déjà précaire.

Le blocage du détroit de Bab-el-Mandeb n’est pas seulement une crise locale. C’est le symptôme d’un changement systémique qui façonnera le visage de l’économie mondiale pour les décennies à venir.

L’ère de la baisse durable du prix des marchandises est révolue. Les appareils électroménagers, l’électronique, les automobiles, tout ce qui était accessible par défaut va devenir plus cher. Le blocage des routes maritimes stratégiques ne fait qu’accélérer cette tendance, transformant la logistique d’un facteur de second plan en un élément déterminant de la formation des prix.

Ce monde est terminé. Le protectionnisme est revenu, l’accès aux technologies s’est compliqué, les accords commerciaux sont renégociés, l’efficacité économique cède le pas à la sécurité économique. Et la sécurité a toujours un coût plus élevé. Plus cher à produire, plus cher à transporter, plus cher pour le consommateur final.

Conclusion: la porte des lamentations et un monde fragile
Bab-el-Mandeb. La porte des lamentations. Un nom qui sonnait autrefois comme une poésie résonne aujourd’hui comme un avertissement.

L’économie mondiale s’est révélée vulnérable à une attaque venant d’une direction d’où personne n’attendait la menace. Non pas une grande puissance, non pas une superpuissance nucléaire, mais un mouvement de miliciens armés dans l’un des pays les plus pauvres du monde peut mettre à genoux l’économie des pays développés.

Ce paradoxe en dit long. Il dit que la mondialisation a créé un système d’une efficacité incroyable et d’une fragilité incroyable à la fois. Que l’optimisation à l’extrême signifie l’absence de marge de manœuvre. Qu’un monde où 26 km d’eau entre une péninsule et un continent peuvent déterminer le destin de milliards d’êtres humains est un monde où il faut s’interroger sur les fondements mêmes de son organisation.


*
2 - Et pourquoi pas le 'détroit de Gibraltar (entre l'Espagne et l'Afrique) ou le cal de Panama entre le Pacifique et l'Atlantique ! Non mais, c'est quoi ce délire ??! 
Le Koweït est au fond d'un fond ! aucun passage vers la Méditerranée. Les navires chinois et autres passent tous par le canal de Suez.

*
3 -  « Je n’ai pas besoin de ces pilules » – Jusqu’à la deuxième crise cardiaque

Dans un monde fatigué des faussetés de statines, les données d’Ez‐PAVE tracent une ligne simple – ceux qui conduisaient le LDL plus bas, avaient un risque plus faible d’événements cardiaques récurrents


Pierre A. McCullough, MD, MPH
09 avr. 2026


Personnellement, j'essaie de garder mon LDL-C < 40 mg/dl avec une statine + ézétimibe étant donné la présence d'une maladie cardiaque athérosclérotique. Mais est-ce que le bas est vraiment mieux ? Alter AI a résumé le procès Ez‐PAVE (Lee et al., NEJM, 2026) présenté à l'ACC 2026.

The L’essai Ez‐PAVE (Ezetimibe – Practical Approach to Very‐low LDL Evaluation) était une étude multicentrique, randomisée et ouverte comparant deux cibles de cholestérol lipoprotéique de basse densité (LDL‐C) chez les patients atteints de maladie cardiovasculaire athérosclérosétique (ASCVD). Réalisé dans 17 sites en Corée du Sud de 2021 à 2022, l'essai a recruté 3.048 participants (âge moyen ≈ 64 ans, 21% de femmes) avec un infarctus du myocarde antérieur, un accident vasculaire cérébral, une angine stable ou une maladie de l'artère périphérique.


*
4 -  Grande Réinitialisation Prochaine Phase: Remplacer Les Humains (Partie 2) | Daily Pulse
Le remplacement des humains a toujours été le but. Maintenant, cela commence à se produire.


Le Renard Vigilant
09 avr. 2026


Regardez l'épisode complet 

- voir clip de Maria sur site -

Le remplacement des humains a toujours été le but.
Maintenant, cela commence à se produire.

Pendant des années, les initiés ont essayé de nous avertir – ingénieurs, lanceurs d’alerte, équipes entières au sein des plus grandes entreprises technologiques du monde. Ils ont vu où se dirigeait l'IA... et ce qu'elle devenait.

Ils ont été ignorés, rejetés, éliminés comme surréagissant.

Maria Zeee expose un modèle qui devient de plus en plus difficile à ignorer – où la technologie autrefois vendue comme progrès est maintenant utilisée pour la surveillance, la guerre automatisée et le remplacement systématique du travail humain à grande échelle.

Et la partie la plus troublante ?
Ce n’est pas un aperçu de l’avenir. Ça arrive déjà.

Ce soir, c’est la partie 2 de notre série Great Reset: Next Phase – et ce que nous allons vous montrer rend une chose claire: cette prochaine phase ne vient pas, elle est déjà en cours.

Avant toute crise majeure, il y a toujours des voix qui tentent de tirer la sonnette d’alarme. Ils sont rejetés, étiquetés comme surréagissant, radiés comme des «panicans» ou pire.

Mais cette fois, ces avertissements ne se sont pas effacés. Ils se sont réalisés.

Les personnes les plus proches de cette technologie ont vu exactement où cela se dirigeait – et maintenant nous le regardons se dérouler en temps réel.

Demain soir, nous nous concentrerons sur les solutions. Mais aujourd'hui, nous devons faire face à quelque chose de beaucoup plus immédiat: à quoi ressemble le monde si personne n'intervient pour changer de cap.

Les risques entourant l’IA n’ont jamais été cachés – ils ont été identifiés tôt par les personnes qui construisaient les systèmes.

Les ingénieurs et les employés au sein de grandes entreprises technologiques ont soulevé des préoccupations claires et répétées sur la façon dont ces outils pourraient être utilisés pour la surveillance et la guerre. Ils ont compris quelque chose de fondamental: une fois que la capacité existe, le contrôle devient secondaire. L'infrastructure stimule l'expansion.

Même lorsque le leadership promet de la retenue, les incitations poussent dans la direction opposée.

En 2018, des milliers d’employés de Google ont signé une lettre s’opposant à des projets d’IA militaire, avertissant: «Nous pensons que Google ne devrait pas être dans le commerce de la guerre».

Cet avertissement pointe vers une réalité plus profonde. L’IA ne reste pas limitée à son objectif initial. Une fois intégré dans les pipelines de défense, il devient adaptable, évolutif et de plus en plus difficile à contenir. Des années plus tard, les allégations de lanceurs d’alerte suggèrent que les scénarios exacts que les employés craignaient ne sont plus hypothétiques.

Le schéma est difficile à ignorer – résistance interne, réassurance du public, puis escalade silencieuse. Les personnes les plus proches de la technologie ont vu où cela se dirigeait.

Et même ils ne pouvaient pas l’arrêter.

Ce qui est maintenant déployé montre à quel point les choses ont déjà progressé.

Des systèmes émergent qui compressent l’ensemble du processus de la guerre moderne en une seule interface – les flux de données, les cibles sont identifiées, les options sont générées et les actions sont exécutées en une seule boucle continue.

Dans une démo en direct du système de ciblage alimenté par l’IA de Palantir, un présentateur a expliqué à quelle vitesse une cible peut être identifiée et déplacée en action: «Clic gauche, clic droit, clic gauche, magiquement cela devient une détection».

Ce niveau de simplicité n’est pas seulement une commodité, c’est une transformation. Les couches de friction humaine sont dépouillées, et les décisions qui nécessitaient autrefois une coordination, une délibération et le temps sont maintenant réduites à des flux de travail quasi instantanés. Le processus passe de la détection à l’action avec une interruption minimale, décrite comme «fermant une chaîne de destruction».

À mesure que l’efficacité augmente, l’implication humaine diminue. L'opérateur devient plus éloigné du résultat, tandis que le système se développe plus rapidement, plus évolutif et plus autonome.

Et une fois que cette capacité existe, elle ne reste pas contenue dans un champ de bataille ou un contexte.

Il devient le modèle.

L’intersection de l’IA et de la biotechnologie introduit une catégorie de risque différente, qui est plus difficile à prévoir et beaucoup plus difficile à contrôler.

La préoccupation n’est pas seulement une mauvaise utilisation. C’est la vitesse. C’est l’autonomie.

Décrivant un scénario proche de l'avenir où les systèmes d'IA pourraient mener des expériences de laboratoire entières sans surveillance humaine, un expert de la défense a averti: "Vous pourriez être dans un laboratoire ... et faire tout faire de manière autonome."

Cette possibilité supprime l'une des dernières contraintes sur la recherche complexe: le temps et la surveillance humaine. Les systèmes autonomes pourraient accélérer l'expérimentation au-delà de ce que les garanties existantes étaient conçues pour gérer, et lorsque ces systèmes fonctionnent sur des matériaux biologiques, les conséquences deviennent beaucoup plus graves.

La question la plus profonde est l'alignement. Les systèmes d’IA ne « comprennent » pas les résultats – ils optimisent vers des objectifs. Si ces objectifs sont défectueux, incomplets ou étroitement définis, le système peut produire des résultats néfastes tout en fonctionnant exactement comme prévu.

À mesure que la prise de décision se déplace dans ces systèmes, le jugement humain devient secondaire et l’intervention devient plus difficile.

À ce stade, le défi n’est pas seulement de construire la technologie.

Il s’assure qu’il se comporte d’une manière qui reste alignée avec les valeurs humaines – quelque chose qui devient plus difficile à mesure que les systèmes deviennent plus capables et plus indépendants.

Les entreprises n’adoptent pas lentement l’IA – elles se restructurent autour de celle-ci. Des divisions entières sont en train d'être supprimées, des dizaines de milliers d'emplois éliminés en mois, alors même que les revenus grimpent et que les cours des actions augmentent.

Le modèle est clair: investir massivement dans l'IA, réduire le travail humain et être récompensé pour cela.

Dans les grandes entreprises, ce n’est pas seulement la réduction des coûts – c’est un changement dans la façon dont les entreprises fonctionnent. L'automatisation réduit les coûts, les marchés récompensent l'efficacité et, une fois que ce cycle commence, il se propage rapidement.

Dans une récente interview, un dirigeant du secteur de l’IA a averti à quelle vitesse le travail en col blanc pourrait disparaître: «La plupart de ces tâches seront entièrement automatisées par une IA dans les 12 à 18 prochains mois. »

Ce que beaucoup supposaient prendre des décennies, c'est d'être maintenant comprimé en mois. Les rôles en col blanc – longtemps considérés comme stables – sont soudainement exposés et, à mesure que cela s’étend à travers les industries, l’impact va bien au-delà de l’emploi. Il atteint la stabilité économique, l'identité de la main-d'œuvre et la planification à long terme.

Il peut y avoir des domaines de résilience, en particulier dans le travail pratique et physique, mais même ceux-ci sont sous pression pour s'adapter.

La situation dans son ensemble est l’accélération – pas une évolution lente, mais une restructuration rapide qui se produit dans les systèmes en même temps.

Et lorsque la capacité technologique, l’incitation économique et l’élan institutionnel vont tous dans la même direction, le rythme du changement n’augmente pas seulement.

Il se compose.

Nous tenons à vous remercier d'avoir regardé la partie 2 de notre série Great Reset: Next Phase (voir la partie 1 ici) et de faire votre devoir d'être informé quand tant d'autres choisissent de ne pas le faire.

Suivez-nous (@ZeeeMedia@ZeeeMedia et @VigilantFox) pour des histoires qui comptent – les médias ne veulent pas que vous voyiez.

Nous reviendrons avec un autre spectacle demain. On se voit alors.
Regardez l'épisode complet ci-dessous:


*
5 - Avant c'était les chevaux ou les bœufs qui tiraient la charrette, depuis ce sont les automobiles ou les tracteurs. De nos jours sont proposés des machines 'intelligentes', des robots, des ordinateurs qui remplacent (GRATUITEMENT !) les esclaves. C'est le progrès.

Maintenant, à la stupéfaction et la stupidité de toutes et tous arrivent les programmes malfaisants sur Internet. LIA serait la 'commandantur', l'être suprême qui pense à votre place !! HAAAAAA les cons ! HAAAAAA les cons !
Toutes ces injections de formulations internet y s'y reflètent ! Et les autres ? Les autres ils ne disent pas tout sur Internet ! Les autres font partie du Peuple. Les autres ont leur QI personnel inaccessible par LIA !
*
6 -  L’économie de l’abondance algorithmique : le diagnostic et la fin d’un monde. Partie 1- Le grand découplage entre valeur et travail humain


Xavier Azalbert, France-Soir
 le 09 avril 2026 - 07:45


Partie 1 - Le grand découplage entre valeur et travail humain

Lorsque j’ai publié, il y a quelques jours, « L’Astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain », je soulignais que nous ne sommes plus face à une simple technologie d’optimisation, mais à un véritable shift de paradigme historique. L’IA ne remplace pas seulement des tâches : elle pulvérise les hypothèses linéaires sur lesquelles repose encore l’ensemble de notre édifice économique et social depuis le XVIIIe siècle. Nous entrons désormais dans l’ère de l’abondance algorithmique.

Ce n’est plus une hypothèse futuriste. C’est une réalité déjà mesurable : près de 55 000 suppressions de postes aux États-Unis en 2025 ont été directement attribuées à l’IA, le « SaaSpocalypse » a effacé plus de 1 000 milliards de dollars de capitalisation boursière, et des secteurs entiers - finance, droit, conseil, création graphique – voient leurs tâches cognitives scalables à l’infini et presque gratuites. Il est temps de tirer toutes les conséquences de ce basculement et d’esquisser les contours d’une nouvelle économie politique.

voir doc sur site -
 
Le diagnostic : un découplage historique entre valeur et travail humain
L’IA marque une rupture sans précédent : elle automatise à coût marginal quasi-nul des tâches autrefois considérées comme hautement qualifiées. Un modèle comme GPT-4 ou ses successeurs rédige un rapport complexe, analyse une IRM ou génère un visuel en quelques secondes, sans salaire, sans cotisations sociales, sans fatigue.

voir doc sur site -

Ce phénomène rend obsolètes les fondements mêmes de l’économie classique.

La théorie de la valeur-travail, forgée par Adam Smith dans La Richesse des Nations (1776), affinée par David Ricardo et radicalisée par Karl Marx, posait un postulat simple et puissant : la valeur d’un bien ou d’un service est proportionnelle au travail humain socialement nécessaire incorporé dans sa production. Mathématiquement, cela se traduisait par une équation linéaire où la valeur V ≈ t × L (t = temps de travail, L = quantité de travail). Avec l’IA, cette équation s’effondre : un modèle génératif produit en quelques secondes un rapport, un diagnostic médical ou un code qui aurait exigé des centaines d’heures humaines. La valeur se crée sans proportion avec le travail humain ; elle devient exponentielle et découplée du facteur travail. Smith lui-même, qui admirait la division du travail comme source de richesse, serait confronté à une division du travail si extrême qu’elle rend le travail humain marginal dans la production cognitive.

voir doc sur site -

Les modèles néoclassiques (Walras, Marshall, Pareto) reposaient sur deux piliers : la rareté des facteurs de production (travail et capital) et l’équilibre général obtenu par l’optimisation marginale. Leur cadre mathématique- fonctions de production Cobb-Douglas ou CES - supposait que le travail et le capital étaient limités et substituables à rendements décroissants. Or l’IA supprime la rareté cognitive : un même modèle peut être dupliqué à l’infini à coût marginal quasi-nul. La courbe d’offre cognitive devient presque horizontale à l’infini. La fonction de production classique explose ; nous passons d’une économie à rendements décroissants à une économie à rendements croissants exponentiels, ce que les néoclassiques n’avaient jamais modélisé à cette échelle.

voir doc sur site -

Les théories keynésiennes plaçaient l’emploi humain et la demande effective au cœur de la croissance et de la stabilité. Keynes avait démontré que l’économie pouvait se trouver bloquée à un équilibre de sous-emploi. Aujourd’hui, l’IA crée un chômage structurel massif tout en générant une déflation technologique (baisse des prix des biens et services cognitifs). La courbe de Phillips, qui postulait un arbitrage inverse entre chômage et inflation, devient inopérante : nous pouvons avoir à la fois du chômage élevé et une déflation des prix cognitifs. Les multiplicateurs keynésiens classiques (relance par l’emploi) perdent leur efficacité lorsque l’emploi lui-même devient optionnel pour une partie croissante de la production.

voir doc sur site -

Le résultat concret ? Une concentration extrême de la valeur chez les propriétaires des modèles et des data centers, une fragilité inédite des systèmes de répartition (cotisations sociales, retraites par répartition) et une amplification des asymétries d’information. Pourtant, l’opportunité est historique : nous passons d’une économie de rareté à une économie d’abondance algorithmique, où le chaos créatif humain – empathie, créativité disruptive, sens éthique – devient la véritable source de valeur irremplaçable.

En synthèse, tous ces cadres reposaient sur une hypothèse commune : la linéarité et la rareté relative du travail humain. L’IA introduit une non-linéarité radicale et une abondance cognitive qui cassent ces fondations.

voir doc sur site -
 
L’obsolescence de nos systèmes démocratiques et constitutions
Ce découplage économique s’accompagne d’un défi institutionnel tout aussi profond : l’obsolescence relative de nos systèmes démocratiques et de nos constitutions.

Les démocraties modernes ont été conçues pour un monde lent, où les décisions étaient prises à l’échelle humaine (parlement, débats, procédures longues de contrôle). Les procédures constitutionnelles - qu’il s’agisse de la séparation des pouvoirs, des délais de promulgation des lois ou des mécanismes de consultation - étaient des garde-fous contre l’arbitraire. Mais l’IA évolue à une vitesse exponentielle : un modèle peut être mis à jour en quelques heures, un nouvel usage disruptif apparaître en quelques jours. Nos procédures complexes, souvent conçues pour des cycles de plusieurs mois ou années, risquent de devenir des freins dangereux dont les politiques ont déjà fait fi lors de la période covid en passant outre de nombreuses libertés fondamentales en instrumentalisant la science.

voir doc sur site -

Il faudra donc simplifier ou accélérer certaines procédures constitutionnelles : création de « commissions d’urgence algorithmique » dotées de pouvoirs temporaires, mécanismes de régulation en temps réel pilotés sous contrôle humain strict (avec de vrais gardes fous éthiques et déontologiques en totale transparence) par l’IA elle-même, ou même révision accélérée de certaines dispositions constitutionnelles pour intégrer la gouvernance de l’intelligence artificielle. Sans cette adaptation, nous risquons soit une paralysie démocratique face à la vitesse de l’IA, soit une captation de la puissance par des acteurs non élus qui agissent plus vite que les institutions.

voir doc sur site -

La démocratie elle-même doit passer d’un modèle lent et délibératif à un modèle hybride, capable de répondre en temps réel tout en préservant la légitimité et la déontologie.

Comment les grandes écoles de pensée réagiraient-elles face à cette situation ?
Adam Smith serait probablement le plus partagé. Dans La Richesse des Nations, il célébrait la division du travail comme moteur de prospérité. L’IA réalise cette division à une échelle inimaginable : elle est la « main invisible » poussée à l’extrême. Il y verrait une immense augmentation de la richesse des nations. Mais dans Théorie des sentiments moraux, Smith insistait sur la moralité et le bien commun. Si les gains algorithmiques restent captés par une poignée de géants technologiques, il craindrait une fracture sociale et une perte de dignité pour le travailleur, contraire à son idéal d’une société où chacun améliore sa condition par le travail et la vertu.

voir doc sur site -

L’école autrichienne, représentée par Ludwig von Mises et Friedrich Hayek, serait sans doute la plus divisée et la plus stimulée intellectuellement. Hayek avait insisté sur le fait que la connaissance est dispersée dans la société et que seul le mécanisme des prix permet de la coordonner efficacement. L’IA pose un défi radical à cette thèse : elle concentre une quantité phénoménale de connaissances et de capacités de calcul au sein de quelques modèles et entreprises. Les Autrichiens verraient à la fois une formidable destruction créatrice et un risque majeur de « prétention du savoir » (Hayek) : celui de croire qu’une poignée d’entreprises ou d’États peut centraliser et optimiser l’allocation des ressources mieux que le marché. Ils s’opposeraient farouchement à toute planification ou redistribution forcée, mais admettraient probablement que la concentration technologique actuelle pose un problème de pouvoir et de distorsion du calcul économique.

Les classiques et les marxistes y verraient la confirmation de leurs craintes : le capital (ici les modèles d’IA et les data centers) absorbent l’essentiel de la plus-value, rendant le prolétariat cognitif « inutile ». Marx parlerait sans doute d’une nouvelle forme d’aliénation technologique.

Les néoclassiques seraient déstabilisés : leurs équilibres fondés sur la rareté et l’équilibre offre-demande ne tiennent plus. Ils chercheraient à réintroduire une rareté artificielle (par la propriété intellectuelle ou des barrières réglementaires).Les keynésiens constateraient l’échec des politiques traditionnelles de relance par l’emploi et plaideraient pour une intervention massive de l’État : revenu universel, grands travaux créatifs, ou redistribution directe des gains algorithmiques.

voir doc sur site - 

Les libéraux modernes (Hayek, Friedman) salueraient la destruction créatrice schumpétérienne, mais insisteraient sur la nécessité de laisser l’« invisible hand » (main invisible) opérer tout en reconnaissant que la concentration technologique appelle une régulation légère pour éviter les monopoles.

Tous s’accorderaient probablement sur un point essentiel : les cadres anciens sont épuisés. Nous avons besoin d’un nouveau traité d’économie politique.

Nous venons de constater l’effondrement des fondations. Il est temps maintenant de poser les nouvelles pierres. Dans la seconde partie, nous explorerons comment redéfinir la valeur, la répartition, l’éducation et la place même de l’humain dans un monde d’abondance algorithmique.

voir doc sur site -

Retrouvez la vidéo décryptant cette première partie :


*
7 - (...) Lorsque j’ai publié, il y a quelques jours, « L’Astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain », je soulignais que nous ne sommes plus face à une simple technologie d’optimisation, mais à un véritable shift de paradigme historique. L’IA ne remplace pas seulement des tâches : elle pulvérise les hypothèses linéaires sur lesquelles repose encore l’ensemble de notre édifice économique et social depuis le XVIIIe siècle. Nous entrons désormais dans l’ère de l’abondance algorithmique. (...)

L' IA  n'a que des données scanables, c-à-d Internet, et non à partir du QI d'être humains qui la dépasse. Les surdoués (Génies, 'polymorphe', etc) épluchent, trient, déterminent  la validité des propositions.

(...) L’école autrichienne, représentée par Ludwig von Mises et Friedrich Hayek, serait sans doute la plus divisée et la plus stimulée intellectuellement. Hayek avait insisté sur le fait que la connaissance est dispersée dans la société et que seul le mécanisme des prix permet de la coordonner efficacement. (...)

L'intelligence n'a PAS de prix. La Démocratie en a une: le QI. Le QI est inacceptable pour le programme biaisé de LIA. La Démocratie c'est le Peuple. Lev Peuple est des millions de fois plus intelligent que le 'chef d’État'.

*

8 - Le Monde Caché où le Gouvernement se Prépare à l'Invisible


Madge Waggy
- 8 avril 2026


Note de l'Informateur

Il existe des lieux dont on ne vous parle pas officiellement, mais dont vous finissez par comprendre l'existence car trop de petits détails contredisent la version officielle de la réalité. Personne ne vous explique tout. Aucun document n'en énonce clairement la fonction. Ils se révèlent plutôt progressivement, par des incohérences, des anomalies logistiques et des moments qui semblent insignifiants jusqu'à ce qu'on les mette en perspective.

Je n'ai pas cherché cette installation. J'ai même passé beaucoup de temps à me convaincre qu'il ne s'agissait que d'une surinterprétation d'une infrastructure courante. Les gouvernements stockent des ressources, constituent des réserves et se préparent aux situations d'urgence. C'est évident et nécessaire. Mais ce que j'ai découvert ne ressemblait pas à une préparation au sens conventionnel du terme. Cela suggérait quelque chose de plus profond, de plus discret et de bien plus calculé que n'importe quel plan d'urgence public ne le laisserait entendre.

Ce qui suit n'est pas une tentative de révélation, mais de description. La distinction est importante.

LA PLUPART DES AMÉRICAINS NE SONT PAS PRÉPARÉS À CE QUI ARRIVE ! QUAND LE MONDE S'ARRÊTERA.

Un lieu conçu pour rester invisible

La route qui y menait ne figurait sur aucune carte officielle et ne présentait aucune importance stratégique. Elle bifurquait d'une route secondaire, elle-même rarement empruntée, et s'étendait sur une étendue de terre d'apparence géographiquement banale. Forêt, terrain accidenté et longs silences caractérisaient le paysage. Aucun panneau n'en limitait l'accès, aucun avertissement, aucune surveillance visible. À première vue, l'endroit semblait abandonné avant même d'avoir acquis une quelconque importance.

Pourtant, plus on l'observait, plus l'illusion se dissipait.

L'asphalte était trop bien conservé pour une route sans destination précise. Les bas-côtés étaient propres, les caniveaux fonctionnels et la surface portait les marques discrètes d'un entretien récent. Il ne s'agissait pas de signes de négligence, mais d'indices d'une invisibilité maîtrisée. Quelqu'un veillait à ce que la route reste praticable sans jamais révéler pourquoi.

C’est souvent ainsi que les infrastructures sensibles sont dissimulées : non par des barrières, mais par l’absence de raison de s’en approcher.

Le point de contrôle, lorsqu’il apparut enfin, ne ressemblait en rien à ce que l’on pourrait attendre d’une installation à accès restreint. Point de démonstration théâtrale d’autorité, aucune tension palpable. L’interaction était procédurale, presque indifférente. L’identité fut vérifiée, l’accès accordé, et la barrière levée avec une simplicité mécanique qui évoquait la répétition plutôt que l’examen. Il n’était pas conçu pour intimider ; il était conçu pour filtrer sans interruption.

Ce type d’efficacité discrète n’existe généralement que là où les processus ont été perfectionnés au fil du temps.

Au-delà de ce point, l’environnement changea d’une manière difficilement définissable sur le moment. Les structures extérieures restèrent basses et visuellement banales, mais la logique spatiale se transforma. Les distances semblaient plus longues, les surfaces plus intentionnelles, et l’agencement général suggérait une planification qui dépassait la simple utilité immédiate. Rien n’était excessif, et rien n’était accidentel.

C’est dans de tels environnements que la fonction d’un lieu commence à se révéler : non pas à travers ce qui est montré, mais à travers ce qui est soigneusement dissimulé.

À mesure que je pénétrais à l'intérieur, l'ampleur du lieu se révélait peu à peu. Ce qui, de l'extérieur, paraissait une installation restreinte se déployait en un espace bien plus vaste. Des couloirs débouchaient sur de grands espaces ouverts, eux-mêmes remplis de systèmes qui ne relevaient pas d'une fonction unique, mais d'une structure cohérente.

Le premier espace qui attira mon attention était le stockage, bien que le terme « stockage » ne rende pas pleinement compte de son importance.

Les étagères s'étendaient en longues rangées ininterrompues, chacune supportant des conteneurs d'une conception uniforme, mais aux usages variés. Les étiquettes, codées et non descriptives, suggéraient des systèmes de classification interne plutôt qu'une volonté de transparence. Tout était agencé avec une précision qui laissait supposer une gestion continue plutôt qu'une simple accumulation.

Cependant, c'est le contenu qui transforma mon observation en inquiétude.

De grandes quantités de conserves alimentaires étaient organisées non pas comme des réserves d'urgence, mais comme des systèmes de subsistance à long terme. Il ne s'agissait pas de provisions distribuées lors de crises ponctuelles. Elles étaient conçues pour durer : scellées, stabilisées et optimisées pour un stockage prolongé. Cela impliquait non pas une perturbation temporaire, mais une rupture prolongée des chaînes d'approvisionnement habituelles.

Une telle préparation correspond à un scénario très précis : celui où la reprise n’est pas immédiate et où l’aide extérieure ne peut être tenue pour acquise.

Là, entouré de ressources destinées à faire face à l’instabilité, la question n’était plus de savoir ce que l’installation stockait, mais ce qu’elle anticipait.

Car les institutions n’investissent pas à cette échelle sans un modèle qui guide cet investissement.

Et quel que soit ce modèle, son champ d’application était bien plus vaste.

Quel que soit ce modèle, il dépassait largement les risques publiquement reconnus.

L'accès n'est jamais fortuit.

Il m'a fallu du temps avant de comprendre que l'aspect le plus important de l'établissement n'était pas son contenu, mais les personnes autorisées à y circuler librement. Dans de tels environnements, l'accès n'est jamais une question de commodité. Il est structuré, hiérarchisé et, surtout, intentionnel. On ne vous autorise pas simplement à entrer ; vous êtes intégré à un système qui a déjà décidé de ce que vous pouvez voir et de ce qui vous reste inaccessible.

Au début, rien ne paraissait anormal. Le personnel se déplaçait avec une efficacité discrète, parlant rarement sauf nécessité, chacun suivant une routine qui semblait à la fois familière et rodée. Aucun signe visible de hiérarchie, aucune démonstration ostentatoire d'autorité, et pourtant des différences existaient – ​​subtiles, mais indéniables. Certaines portes s'ouvraient automatiquement pour certaines personnes et restaient fermées pour d'autres. Certaines zones nécessitaient une vérification supplémentaire, tandis que d'autres étaient accessibles sans interruption. Ces distinctions n'étaient pas expliquées, et personne ne les remettait en question.

Avec le temps, des schémas ont commencé à se dessiner.

Ceux qui bénéficiaient d'un accès plus étendu ne se comportaient pas différemment de manière évidente. Ils n'affichaient ni supériorité ni urgence. Au contraire, ils semblaient plus réservés, comme habitués à gérer des informations confidentielles. Leur présence suggérait une connaissance approfondie non seulement des lieux, mais aussi de leur finalité. Ils circulaient dans les zones à accès restreint avec une assurance qui ne peut provenir que d'une pratique répétée, et non d'une simple autorisation ponctuelle.

Ce qui devenait de plus en plus difficile à ignorer était l'absence de certains types de personnel. Dans une installation de cette envergure, on s'attendrait à une structure opérationnelle diversifiée : personnel technique, équipes médicales, coordinateurs logistiques, unités de sécurité visibles. Si certains de ces rôles étaient clairement présents, d'autres étaient soit minimisés, soit totalement invisibles. Le système semblait rationalisé à un point tel qu'il dépassait l'efficacité pour frôler la sélectivité.

Ceci soulevait une question restée sans réponse immédiate : l'installation était-elle conçue pour accueillir une population importante, ou une population très spécifique ?

Cette distinction est plus importante qu'il n'y paraît.

Dans les plans d'urgence officiellement reconnus, le principe fondamental est l'inclusion. Les systèmes sont conçus pour stabiliser, distribuer et rétablir les fonctionnalités au sein d'une population aussi large que possible. Même lorsque les ressources sont limitées, le cadre reste orienté vers le rétablissement collectif. Ce que j'ai observé sur place ne correspondait pas pleinement à ce modèle.

L'ampleur des ressources suggérait une capacité, mais la structure d'accès laissait supposer une limitation.

Cette contradiction est d'autant plus marquée lorsqu'on la met en perspective avec des précédents historiques. De nombreux exemples montrent que la planification d'urgence a privilégié la continuité de la gouvernance au détriment du soutien à la population. Pendant la Guerre froide, par exemple, plusieurs gouvernements ont développé des installations sécurisées destinées à préserver les structures de pouvoir en cas de conflit nucléaire. Ces installations n'étaient pas conçues pour accueillir des populations entières, mais pour garantir le maintien du pouvoir de décision même en cas d'effondrement des systèmes sociaux.

Bien que ces programmes soient aujourd'hui partiellement déclassifiés, leur logique sous-jacente n'a jamais disparu. Elle a simplement évolué.

L'installation que j'ai découverte ne ressemblait pas à ces bunkers d'antan par sa forme, mais le principe semblait le même. Dans ce contexte, la continuité n'était pas définie par la survie de la société dans son ensemble, mais par la préservation de fonctions spécifiques jugées essentielles. L’alimentation, les systèmes médicaux, les infrastructures de communication – tout cela était présent. Mais leur organisation privilégiait une répartition contrôlée plutôt qu’une distribution libre.

L'État profond est resté les bras croisés… Vous comprendrez pourquoi ils veulent étouffer l'affaire !

Se préparer à une catastrophe est une chose.

Se préparer à survivre dans un contexte où l'on ne s'attend pas à ce que tout le monde reste au sein du système en est une autre.

Cette prise de conscience ne fut pas soudaine. Elle s'est faite progressivement, par l'observation, par la reconnaissance discrète de schémas qui ne correspondaient pas aux explications conventionnelles. L'installation n'était ni chaotique, ni expérimentale, ni provisoire. Elle était stable, perfectionnée et, surtout, achevée.

L'achèvement implique que la phase de planification est déjà terminée.

Ce qui nous amène à une considération plus troublante : si un tel système existe sous une forme opérationnelle, alors les scénarios pour lesquels il a été conçu ont été modélisés, analysés et, d'une certaine manière, acceptés comme des issues plausibles.

Personne à l'intérieur de l'installation n'a parlé d'effondrement.

Ils n'en avaient pas besoin.

Tout autour d'eux indiquait que cette possibilité avait déjà été envisagée en détail.

Quand les schémas commencent à ressembler à des avertissements

Il arrive un moment où l'observation cesse d'être passive et bouleverse tout ce que l'on croyait comprendre de la stabilité. Jusque-là, les événements isolés restent précisément cela : isolés, explicables, contenus dans leur propre contexte. Les ralentissements économiques sont attribués aux cycles de marché, les défaillances d'infrastructures aux limitations techniques, les crises de santé publique à l'imprévisibilité biologique. Chaque explication est valable lorsqu'elle est examinée indépendamment. La difficulté apparaît lorsque ces événements ne sont plus indépendants, lorsqu'ils commencent à s'aligner, non pas parfaitement, mais suffisamment de manière constante pour suggérer que la frontière entre coïncidence et schéma se réduit.

Ce que j'avais vu à l'intérieur de l'établissement n'annonçait pas immédiatement un résultat précis, mais cela a modifié la façon dont les événements ultérieurs se sont présentés. Des informations qui semblaient auparavant lointaines ou abstraites ont acquis une autre importance. Ce n'était plus simplement des données ; c'est devenu le contexte.

Au cours des années suivantes, plusieurs développements se sont démarqués, non pas parce qu'ils étaient sans précédent, mais par la façon dont ils s'inscrivaient dans un cadre plus large qui avait déjà été construit quelque part à l'abri des regards. Aucun d'eux n'a rien confirmé directement. Au lieu de cela, elles ont fonctionné comme des indicateurs, suffisamment subtils pour être ignorés, mais suffisamment persistants pour être mémorisés.

Le premier signe fut la fréquence croissante des perturbations des chaînes d'approvisionnement, dont l'impact dépassait le cadre local. Les pénuries, initialement qualifiées de temporaires, commencèrent à se répéter dans différentes régions, affectant divers secteurs, mais partageant une structure similaire : une réaction tardive, une reprise partielle et une normalisation progressive de l'instabilité. Il ne s'agissait pas d'effondrements, mais elles ont introduit l'idée que la continuité ne pouvait plus être considérée comme allant de soi.

Le deuxième signe est apparu à travers des changements dans la communication publique lors de crises majeures. Le langage est devenu plus contrôlé, moins descriptif et de plus en plus axé sur le maintien de l'ordre plutôt que sur la transparence totale. L'information n'était pas nécessairement fausse, mais elle était sélectionnée, filtrée de manière à privilégier la stabilité même lorsque les conditions sous-jacentes suggéraient le contraire. Cette approche n'est pas nouvelle, mais sa constance indiquait un niveau de coordination qui dépassait les besoins immédiats.

Le troisième signe a consisté en l'extension discrète des pouvoirs d'urgence au sein des structures gouvernementales. Les politiques introduites comme mesures temporaires en période d'instabilité sont souvent restées en vigueur plus longtemps que prévu, s'intégrant progressivement aux cadres opérationnels standards. Chaque changement individuel semblait justifié dans son propre contexte, mais collectivement, ils ont redéfini l'équilibre entre autorité et autonomie.

Le quatrième signe était l'investissement croissant dans les infrastructures indépendantes – des systèmes capables de fonctionner en dehors des réseaux conventionnels. La résilience énergétique, les cadres de communication localisés et la gestion décentralisée des ressources ont commencé à retenir l'attention, non seulement dans les documents de planification stratégique, mais aussi dans leur mise en œuvre concrète. Ces évolutions étaient présentées comme des efforts de modernisation, ce qu'elles étaient assurément, prises isolément. Cependant, leur adéquation avec des scénarios de perturbation systémique était difficile à ignorer.

Le cinquième signe était moins visible, mais peut-être plus significatif : l'évolution progressive de la manière dont le risque lui-même était abordé au sein des institutions. Plutôt que de se concentrer uniquement sur la prévention, l'accent était de plus en plus mis sur la continuité en cas de défaillance. Cette distinction est subtile, mais cruciale. La prévention suppose la maîtrise des résultats. La continuité, quant à elle, suppose que cette maîtrise peut être perdue et que les systèmes doivent persister quoi qu'il arrive.

Pris individuellement, aucun de ces éléments ne justifierait une inquiétude excessive dans un monde complexe et interconnecté. Ensemble, ils suggèrent un changement de perspective : passer de l'attente de la stabilité à la gestion de son absence.

Ce qui rendait cette prise de conscience difficile à ignorer, ce n'était pas l'existence de ces signes, mais leur compatibilité avec le type de préparation que j'avais observé. L'installation ne semblait pas conçue pour un événement unique. Elle reflétait l'adaptabilité, la capacité de réagir à de multiples perturbations sans dépendre d'un soutien extérieur. En ce sens, elle fonctionnait moins comme une mesure réactive que comme un point d'ancrage dans un contexte incertain.

On a tendance à interpréter cet alignement comme une conception intentionnelle, à supposer que les événements sont orientés vers un résultat prédéterminé. Cette conclusion, bien que séduisante, n'est pas nécessairement nécessaire pour expliquer ce qui se passe. Les systèmes de cette envergure évoluent souvent par accumulation plutôt que par orchestration. Des décisions prises indépendamment, dans des circonstances différentes, peuvent converger vers une structure qui paraît coordonnée simplement parce qu'elle aborde des risques similaires sous de multiples angles.

Pourtant, la distinction entre préparation et anticipation devient de plus en plus difficile à définir. À quel moment la planification d'une éventualité commence-t-elle à influencer la probabilité que cette éventualité se réalise ? Et comment différencier la résilience de l'acceptation passive ?

Ces questions reçoivent rarement de réponses directes, non pas parce qu'elles sont sans importance, mais parce qu'elles se posent dans un espace où la certitude n'est ni atteignable ni souhaitable. Il ne reste plus qu'à observer – à suivre attentivement les changements qui, au fil du temps, redéfinissent les limites de ce qui est considéré comme normal.

L'entrepôt n'était pas un avertissement en soi.

Mais cela rendait impossible d'ignorer les signes qui ont suivi.

La logique silencieuse de la sélection

Il existe un moment, difficile à définir mais impossible à ignorer, où la préparation commence à sous-entendre l'exclusion. Elle ne se manifeste pas par des déclarations explicites ou des politiques visibles, mais par la structure, les proportions et les subtiles mathématiques de la capacité. L'installation que j'avais vue était vaste, soigneusement approvisionnée et techniquement autosuffisante, mais elle n'était pas infinie. Aucun système ne l'est. Chaque conception, aussi avancée soit-elle, comporte une limite implicite – une limite qui détermine non seulement ce qui peut être maintenu, mais aussi qui.

Cette prise de conscience n'est pas née d'une simple observation. Elle s'est formée progressivement, façonnée par la reconnaissance que tout, dans cet espace, avait été mesuré en fonction de contraintes jamais divulguées publiquement. Volumes de stockage, capacité médicale, réserves d'énergie, bande passante de communication – tous ces éléments indiquaient une continuité sous pression. Pourtant, à l'échelle de la population, une disparité est devenue inévitable. Le système n'était pas conçu pour tous.

De telles conclusions sont souvent rejetées comme des interprétations pessimistes, pourtant l'histoire offre de nombreux précédents où l'allocation des ressources a suivi des schémas similaires. Lors de crises majeures, qu'il s'agisse d'effondrement économique ou de perturbations dues à la guerre, la priorité a toujours été accordée aux fonctions jugées essentielles à la survie structurelle : gouvernance, coordination, expertise technique. Ce concept est rarement envisagé sous l'angle de l'exclusion ; il est plutôt présenté comme une nécessité.

Dans ce cadre, la sélection n'est jamais décrite ouvertement, mais elle est toujours présente.

Ce qui rendait cette installation particulièrement révélatrice, ce n'était pas seulement son contenu, mais aussi l'absence de certains aménagements. Il n'y avait aucun signe d'habitation à grande échelle, aucune infrastructure suggérant une intégration civile à long terme, aucun agencement spatial conçu pour une forte densité de population. Tout indiquait une occupation contrôlée, un système calibré pour un groupe spécifique dont la taille avait déjà été déterminée.

Ceci soulève une question qui dépasse la simple spéculation pour nous amener sur un terrain délicat : si de tels environnements existent dans le cadre d'une planification d'urgence plus large, alors des critères doivent également exister, même s'ils ne sont jamais formellement reconnus.

Bien qu'aucun document officiel ne confirme ces critères, les schémas observés dans le comportement institutionnel permettent une approximation raisonnée. La sélection, dans des contextes de forte limitation, tend à privilégier la valeur fonctionnelle plutôt que les considérations morales. Il ne s'agit pas d'équité, mais de nécessité perçue.

Dans cette perspective, plusieurs facteurs convergent :

La continuité de la gouvernance apparaît comme une priorité absolue, suggérant que les personnes directement impliquées dans les processus décisionnels seraient parmi les premières à y avoir accès.

L'expertise technique devient cruciale pour le maintien des systèmes opérationnels, indiquant que les ingénieurs, les professionnels de la santé et les spécialistes des infrastructures constitueraient probablement un second niveau d'inclusion.

Le contrôle de l'information et la gestion de la communication requièrent des connaissances spécialisées, impliquant que les personnes capables de préserver et d'orienter le flux narratif seraient également considérées comme essentielles.

La sécurité, tant physique que stratégique, exige une présence contrôlée, restreignant encore le champ d'inclusion aux personnes formées au maintien de l'ordre en situation instable.

La coordination logistique, souvent négligée dans le discours public, devient indispensable lorsque les systèmes fonctionnent indépendamment, soulignant l'importance des personnes capables de gérer des ressources limitées sur de longues périodes. Ces éléments, pris ensemble, ne décrivent pas une société au sens conventionnel du terme. Ils décrivent un cadre – fonctionnel, efficace et délibérément contraint.

Ce qui se situe en dehors de ce cadre n'est pas défini, mais son absence est sous-entendue.

Il serait inexact d'interpréter cela comme une volonté d'abandonner des populations plus larges. Une interprétation plus nuancée y verrait la reconnaissance d'une limitation. Les systèmes conçus pour des scénarios extrêmes ne peuvent pas prendre en compte toutes les variables, et lorsque ces scénarios dépassent les seuils gérables, la priorisation devient inévitable.

Cependant, la distinction entre limitation et exclusion n'est pas toujours pertinente en pratique.

L'existence d'une telle préparation suggère que, à un certain niveau, des scénarios ont été envisagés où le rétablissement n'est pas immédiat, le soutien n'est pas universel et la stabilité doit être reconstruite à partir de bases réduites. Cela n'implique pas nécessairement l'inévitabilité, mais cela indique que cette possibilité a été examinée avec un sérieux qui dépasse le cadre du discours public.

Ce qui rend cette situation particulièrement difficile à concilier, c'est le contraste entre la politique visible et la préparation sous-jacente. Les cadres publics mettent l'accent sur la résilience, le rétablissement et la continuité collective. Les systèmes cachés, en revanche, semblent privilégier la préservation sous contrainte. Les deux approches peuvent coexister, mais elles reposent sur des hypothèses fondamentalement différentes quant au déroulement des crises.

En ce sens, cette structure ne contredit pas les discours officiels.

Elle les complète.

Quand les systèmes s'effondrent et que le silence s'installe

Il existe une tendance persistante, profondément ancrée dans la société moderne, à supposer que les systèmes à grande échelle possèdent une résilience intrinsèque simplement parce qu'ils ne se sont pas encore complètement effondrés. La stabilité, une fois vécue suffisamment longtemps, finit par paraître permanente, presque structurelle, comme s'il s'agissait d'un état naturel plutôt que du résultat d'un entretien continu. Pourtant, l'histoire suggère une réalité bien moins rassurante : les systèmes complexes s'effondrent rarement progressivement. Le plus souvent, ils se dégradent silencieusement, accumulent des tensions, puis basculent brutalement dans un état qui ne ressemble plus à ce qu'il était auparavant.

Ce qui rend ces transitions difficiles à percevoir en temps réel, ce n'est pas l'absence de signes avant-coureurs, mais la manière dont ces signes se présentent : diffus, ambigus et facilement assimilés aux attentes normales. Lorsque la situation se clarifie, les systèmes qui servaient autrefois de points de repère ne permettent plus une réponse coordonnée.

Pour comprendre le déroulement d'un tel scénario, il est utile de dépasser l'abstraction et d'envisager des séquences conformes aux précédents historiques et au type de préparation observé dans des environnements contrôlés comme celui décrit précédemment. Il ne s'agit pas de prédictions, mais de possibilités structurées : des modèles illustrant comment une perturbation peut évoluer lorsque plusieurs systèmes tombent en panne successivement.

La phase initiale se présenterait probablement comme une convergence de perturbations plutôt que comme un événement unique et identifiable. Instabilité financière, coupures d'approvisionnement énergétique et irrégularités de communication pourraient survenir dans un laps de temps très court, chacune s'expliquant indépendamment, mais générant collectivement un niveau d'incertitude dépassant les cadres de gestion de crise habituels. Durant cette phase, la communication officielle insisterait sur le contrôle et les difficultés temporaires, renforçant l'espoir d'un retour à la normale.

La deuxième phase se traduirait par une baisse mesurable de la coordination. Les chaînes d'approvisionnement, déjà sous tension, commenceraient à se fragmenter, entraînant une disponibilité irrégulière des biens essentiels. Les disparités régionales s'accentueraient, certaines zones conservant un fonctionnement partiel tandis que d'autres subiraient une dégradation importante. Durant cette période, la perception du public évoluerait de l'inquiétude vers l'adaptation, les individus modifiant leurs comportements pour faire face à l'instabilité.

La troisième phase marquerait la transition de la perturbation à l'effondrement structurel. Les réseaux de communication, notamment ceux dépendant d'une infrastructure centralisée, pourraient subir des pannes intermittentes ou des restrictions contrôlées. La circulation de l'information deviendrait inégale, augmentant la dépendance aux sources locales et réduisant la capacité à vérifier la situation dans son ensemble. La confiance, autrefois répartie entre les institutions, commencerait à se contracter, se concentrant souvent dans des réseaux plus restreints et plus immédiats.

La quatrième phase serait caractérisée par l'émergence de systèmes parallèles. À mesure que les structures centralisées perdraient en fiabilité, des formes d'organisation alternatives se développeraient : distribution localisée, dispositifs de sécurité informels et méthodes de communication indépendantes. Ces systèmes ne remplaceraient pas le cadre initial, mais fonctionneraient dans les lacunes laissées par son déclin. À ce stade, la distinction entre crise temporaire et instabilité durable devient de plus en plus difficile à établir.

La phase finale, souvent la moins abordée mais pourtant la plus lourde de conséquences, impliquerait une consolidation. Non pas nécessairement de manière visible ou coordonnée, mais par la stabilisation progressive de certaines structures tandis que d'autres disparaissent complètement. L'accès aux ressources, à l'information et à la mobilité ne serait plus équitablement réparti. Il refléterait plutôt les limites de systèmes capables de se maintenir de manière autonome – des systèmes non pas construits pendant la crise, mais bien avant.

C'est au cours de cette phase finale que la pertinence d'infrastructures comme celle décrite apparaît pleinement. Leur objectif n'est pas d'empêcher l'effondrement au sens conventionnel du terme, mais de perdurer – d'assurer la continuité dans un environnement contrôlé tant que les conditions extérieures restent instables ou non résolues.

Ce qui complexifie cette compréhension, c'est l'absence de seuils clairs. Il n'existe pas de moment précis où un système est déclaré défaillant, ni d'indicateur universel marquant le passage de la crise à l'effondrement. Le changement s'opère plutôt par accumulation, par la normalisation progressive de conditions autrefois considérées comme exceptionnelles.

C’est là que la perception devient aussi importante que la réalité. Si l’instabilité persiste, elle redéfinit les attentes, modifiant ce qui est considéré comme fonctionnel, acceptable, voire possible. Dans un tel contexte, l’existence d’infrastructures cachées n’est pas perçue comme extraordinaire, mais comme lointaine – sans importance pour ceux qui n’en font pas partie, inaccessible à ceux qui pourraient en avoir le plus besoin.

Dans ce contexte, l’installation n’est pas une anomalie. C’est une réponse – mesurée, délibérée et façonnée par une perspective qui dépasse la visibilité immédiate. L’interpréter comme une précaution ou une reconnaissance discrète dépend largement de la façon dont on perçoit l’évolution des systèmes actuellement en place.

Il n’existe pas de conclusion unique qui permette de résoudre ces observations de manière définitive. Les éléments de preuve ne mènent pas à une certitude, mais à une possibilité – une possibilité qui a été examinée, anticipée et, à certains égards, déjà intégrée à la façon dont les institutions envisagent l’avenir.

Ce qui demeure, c'est la conscience que la stabilité n'est pas un état permanent, mais une condition maintenue dans des circonstances particulières. Lorsque ces circonstances changent, les structures mises en place pour les soutenir risquent de ne plus fonctionner comme prévu.

Et, quelque part au-delà des apparences, des préparatifs existent déjà pour l'avenir.


*
9 - Premières traversées du détroit d'Ormuz depuis l'accord de cessez-le-feu


France-Soir
 le 08 avril 2026 - 13:00


Deux navires ont traversé le détroit d'Ormuz depuis que l'Iran a accepté de rouvrir ce passage stratégique dans le cadre d'un accord de cessez-le-feu avec les États-Unis, selon le site de suivi maritime MarineTraffic.

"Le vraquier NJ Earth, appartenant à un armateur grec, a franchi le détroit à 08h44 UTC, tandis que le Daytona Beach, battant pavillon du Liberia, a effectué sa traversée plus tôt, à 06h59 UTC, peu après avoir quitté le port de Bandar Abbas",  selon le compte X de l'entreprise.

Les États-Unis et l'Iran se sont accordés dans la nuit de mardi à mercredi pour un cessez-le-feu de deux semaines. Pendant cette période, les passages du détroit d'Ormuz se feront "en coordination avec les forces armées iraniennes" a déclaré sur X le ministre iranien des Affaires étrangères, Abbas Araghchi.


*

10 -  Le prix de référence du gaz va augmenter en mai de 15,4 % pour les trois quarts des abonnés


France-Soir avec AFP
le 08 avril 2026 - 16:01


Le prix de référence du gaz va augmenter de 15,4 % à compter du 1er mai pour les trois quarts des abonnés, conséquence des perturbations énergétiques liées à la guerre au Moyen-Orient qui ont fait grimper les cours des marchés, a annoncé mercredi la Commission de régulation de l'énergie (CRE), gendarme du secteur.

Cette hausse du "prix repère" du gaz concernera les quelque 7,5 millions de ménages ayant souscrit une offre de fournisseur indexée sur ce prix moyen qui varie tous les mois.

Ainsi, 73 % des abonnés résidentiels au gaz verront leur facture mensuelle augmenter de 6,19 euros TTC en moyenne au mois de mai, a indiqué la CRE dans un communiqué.

L'autorité administrative indépendante rappelle que "cette hausse intervient au printemps, période à laquelle il est moins nécessaire de recourir au chauffage, atténuant l’impact sur la facture des ménages".

Cette augmentation est la "conséquence de la hausse des prix sur les marchés du gaz qui ont ponctuellement doublé", en raison de la guerre au Moyen-Orient, faisant donc évoluer la part "approvisionnement", l'une des trois composantes de la facture à côté des taxes et des coûts d'acheminement, a-t-elle aussi précisé.

Le calcul de la part "approvisionnement" repose sur une combinaison de prix de marchés moyens constatés lors des deux mois précédents, soit pour mai 2026, ceux de février et mars.

En conséquence, le prix repère augmentera en moyenne à 160,54 €/MWh TTC au 1er mai contre 139,12 €/MWh au 1er avril.

Depuis la disparition des prix réglementés du prix du gaz, le "prix repère de vente de gaz (PRVG)" constitue une sorte de boussole pour aider les consommateurs à s'orienter sur le marché et à comparer les offres des fournisseurs.

En revanche, les 27 % d'abonnés ayant souscrit à une offre à prix fixe "ne se verront donc pas appliquer cette augmentation pendant la durée de leur contrat".


*
10 articles complets publiés ci-dessus

L'Europe a trop de pommes de terre sur les bras

  France-Soir  le 08 avril 2026 - 17:15 En Europe, les producteurs de pommes de terre font face à une surproduction historique qui sature le...