France-Soir
le 08 avril 2026 - 17:15
En Europe, les producteurs de pommes de terre font face à une surproduction historique qui sature le marché, fait chuter les prix et met en péril leurs exploitations. Agriculteurs, filière et institutions cherchent des solutions face à un déséquilibre entre offre et demande.
Dans le Nord, à Killem, Sébastien Andries observe ses hangars pleins à craquer, près de 200 tonnes immobilisées sans débouché. Comme lui, des centaines d’exploitants voient leur récolte se transformer en passif. « Heureusement qu’on avait de bons contrats », confie-t-il au Parisien, alors que la part non contractualisée de sa production ne vaut presque plus rien. L’abondance peut-elle devenir un piège ?
Selon le GIPT, la France a franchi les 8 millions de tonnes, tandis que le NEPG évoque près de 30 millions de tonnes à l’échelle du nord-ouest européen, en hausse de 10 %. Cette accélération, couplée à une demande atone et à un outil industriel encore insuffisant, crée un embouteillage inédit. The Epoch Times souligne ce décalage entre production agricole et capacités de transformation, qui écrase mécaniquement les prix. Sur le marché libre, certains lots s’échangent à des niveaux dérisoires, loin des coûts de production.
À cette crise interne s’ajoute une pression extérieure. L’euro fort, les barrières douanières américaines et la concurrence accrue de pays comme l’Égypte, la Turquie, la Chine ou l’Inde redessinent la carte mondiale de la frite. Résultat, les débouchés se ferment tandis que les stocks s’accumulent. Dans l’urgence, certains bradent à 15 € la tonne (15 € : 1000 kg = 1,5 centime/kilo !) ou se tournent vers l’alimentation animale. « Vous prenez ce que vous voulez et vous donnez ce que vous voulez pour nous aider », lance Christian Roussel sur France Info. Mais même ces solutions atteignent leurs limites, tandis que plane une menace sanitaire liée au stockage prolongé. Reste un appel direct aux consommateurs : acheter local, consommer davantage, écouler ce trop-plein avant qu’il ne devienne un risque.
*
2- Vers la fin de l’industrie pharmaceutique en Europe ?
8 avril 2026
L’Agence européenne des produits chimiques (Echa) vient de recommander l’interdiction de tous les PFAS (en anglais per- and polyfluoroalkyl substances, c’est-à-dire substances per- et polyfluoroalkylées), ces polluants dits « éternels » du fait de leur persistance dans l’environnement.
Nul ne doute qu’il faille lutter contre la pollution, surtout lorsqu’elle est potentiellement parée de tous les maux comme le sont les PFAS, accusés d’être cancérogènes, d’interférer avec le système endocrinien et immunitaire, d’avoir des effets sur la fertilité et le développement du fœtus, sur le foie, sur les reins, sur le taux de cholestérol, etc.
Le problème est qu’il est aujourd’hui difficile de se passer des PFAS dans tout un tas d’industries, en particulier dans celle du médicament. Comme le rappelle l’organisation européenne de la profession (Efpia), « Chaque composant d’un médicament, y compris certaines substances fluorées utilisées dans les principes actifs, les excipients, les procédés de fabrication ou l’emballage, a fait l’objet d’années d’évaluation de sa sécurité, de sa qualité et de son efficacité par les autorités réglementaires. » Modifier même un petit composant est rarement simple. Une reformulation peut entraîner de nouvelles études cliniques, des réexamens réglementaires, des modifications de la fabrication et des ajustements de la chaîne d’approvisionnement. Dans de nombreux cas, il n’existe pas de substituts, ou ceux-ci peuvent altérer considérablement l’efficacité du médicament.
Or, l’Echa n’envisage pas seulement l’interdiction des PFAS actuels, mais aussi de ceux qui ne sont pas encore non identifiés ou non fabriqués, pour éviter toute substitution.
Les pénuries de médicaments sont déjà une préoccupation croissante en Europe. Il est courant maintenant que des médicaments manquent en pharmacie parce que les matières premières deviennent temporairement indisponibles. Cela a bien évidemment des conséquences, parfois lourdes, pour les patients.
L’interdiction pure et simple des PFAS, surtout en l’absence d’alternatives viables, pourrait aggraver ces difficultés, alertent les laboratoires pharmaceutiques. Comme l’indiquent Les Échos, une interdiction des PFAS « pourrait entraîner la perte de 674 médicaments appartenant à la liste des médicaments essentiels de l’OMS et impacterait plus de 47.000 autorisations de mise sur le marché à l’échelle mondiale ».
Tout cela rappelle furieusement l’interdiction des néonicotinoïdes qui met à mal l’industrie betteravière. Espérons que les recommandations de l’Agence européenne des produits chimiques, mises en consultation jusqu’au 25 mai 2026, ne soient pas appliquées sans discernement. Sacrifier les malades pour protéger l’environnement n’est assurément pas la solution idéale.
https:///vers-la-fin-de-lindustrie-pharmaceutique-en-europe/
*
3 - La classe moyenne américaine ne cesse de s’enrichir
8 avril 2026
Il y a quelques mois, nous avons mentionné une étude du think tank American Enterprise Institute selon laquelle, contrairement aux idées reçues aux Etats-Unis, la classe moyenne ne disparaît pas, elle s’enrichit. De nouvelles recherches réalisées par le Wall Street Journal viennent d’être publiées, qui la confirment fortement. Les populistes de gauche et de droite qui soutiennent à longueur de journée que les classes moyennes ont disparu à cause de la mondialisation, du libéralisme, de la concurrence chinoise ou indienne… ont tout faux ! Le WSJ a classé les ménages en cinq catégories : pauvres ou proches du seuil de pauvreté, classe moyenne inférieure, classe moyenne, classe moyenne supérieure et riches. A première vue, la classe moyenne s’est réduite, mais… simplement parce que le nombre de ménages qui se sont enrichis a augmenté et a basculé dans la catégorie au-dessus !
Croissance réelle du patrimoine des ménages depuis janvier 1976
- voir graph sur site -
« Nous constatons que la classe moyenne “de base” s’est réduite, mais la part des Américains dont le revenu est trop faible pour appartenir à la classe moyenne a également diminué », écrivent les auteurs. « Ce rétrécissement de la classe moyenne de base est dû à l’essor de la classe moyenne supérieure. Seules les fractions les plus défavorisées de la classe moyenne ont vu leur taille diminuer, et ce, dans une moindre mesure que la croissance de la classe moyenne supérieure. »
La classe moyenne supérieure représentait 10 % des familles en 1979, chiffre qui a grimpé à 31% en 2024%. Pendant la même période, la part des familles dont le revenu est inférieur à celui de la classe moyenne de base a diminué, passant de 54 % à 35 %. « Les revenus des ménages ont augmenté significativement, permettant à davantage de familles d’accéder aux tranches de revenus supérieures ».
Oui, les riches se sont enrichis au fil des décennies, mais les moins riches aussi. D’ailleurs, les auteurs constatent qu’il y a un nombre croissant d’ultra-riches. Selon une analyse des données de la Réserve fédérale, on compte environ 430 000 ménages américains dont le patrimoine s’élève à 30 millions de dollars ou plus. Il atteint 100 millions de dollars ou plus pour 74 000 d’entre eux. Au cours des dernières décennies, la croissance du nombre de ménages américains très riches a dépassé celle de la population en général. En tenant compte de l’inflation, le patrimoine des 0,1 % des ménages les plus riches a été multiplié par plus de 13 au cours des 50 dernières années. Il n’y a donc pas un appauvrissement de la population. Au contraire, elle ne cesse de s’enrichir.
https:///la-classe-moyenne-americaine-ne-cesse-de-senrichir/
*
4 - Une personne riche est obligée de d'enrichir. Elle a accès à la véritable information, ne regarde pas la télé, n'écoute pas la radio ni ne lit les journaux, elle s'informe grâce à Internet. Elle voyage et se rend compte d'elle-même.
*
5 - France : le déficit commercial s'est creusé à 5,8 milliards d'euros en février
France-Soir avec AFP
le 08 avril 2026 - 15:30
Le déficit commercial de la France s'est creusé de 3,8 milliards d'euros pour s'établir à 5,8 milliards d'euros en février, pénalisé par une forte hausse des importations, notamment d'hydrocarbures, alors que les exportations ont reculé, ont indiqué mercredi les douanes.
Les importations ont atteint 57,8 milliards d'euros en février (+2,6 milliards d'euros), tirées par les hydrocarbures, les matériels de transport et les produits pharmaceutiques, ont détaillé les douanes, dont les indicateurs font l'objet d'une nouvelle méthode de calcul. Les exportations ont diminué de 1,2 milliard d'euros à 52 milliards.
*
6 - Le système fiscal français est l’un des moins sûrs d’Europe
8 avril 2026
Un classement portant sur la sécurité juridique des systèmes fiscaux européens place la France en queue de peloton. Combinant des indicateurs relatifs aux contentieux, aux pratiques administratives, à la qualité des institutions et aux caractéristiques fiscales liées à la compétitivité, il consacre le système estonien.
Les débats portant sur la fiscalité tournent essentiellement autour du montant des prélèvements obligatoires, des taux appliqués, des assiettes fiscales, des dépenses et des recettes. Ces points sont importants bien sûr, mais ils ne reflètent pas pleinement la réalité vécue par les contribuables. En effet, l’interprétation et l’application des règles jouent un rôle déterminant dans la structuration des incitations et des comportements économiques. Tel est le point de vue de Diego Sánchez de la Cruz, directeur de la recherche à l’Instituto Juan de Mariana, un think tank libéral espagnol.
La sécurité juridique est bonne pour l’économie
Dans l’étude qu’il a réalisée pour Epicenter, Sánchez de la Cruz insiste sur le fait qu’il n’y pas que les taux d’imposition qui influencent le comportement économique. La manière dont ils sont appliqués et celle qui est employée pour recouvrer les recettes jouent un rôle tout aussi déterminant. « Investisseurs, entrepreneurs et travailleurs prennent des décisions en fonction de leurs rendements nets d’impôt attendus, lesquels dépendent de la prévisibilité du système fiscal. La sécurité juridique réduit la prime de risque associée à l’activité économique productive. Lorsque les règles fiscales sont stables et appliquées de manière cohérente, les agents économiques peuvent planifier à plus long terme, allouer leurs capitaux plus efficacement et prendre des risques productifs. À l’inverse, l’incertitude quant à l’interprétation et à l’application des lois fiscales, ainsi que les modifications rétroactives, augmentent la pression fiscale marginale perçue et freinent l’activité économique. En termes économiques, ces effets se traduisent par des taux d’imposition plus élevés. »
A la limite, il vaut parfois mieux une fiscalité un peu plus élevée mais caractérisée par une forte sécurité juridique, qu’une fiscalité un peu plus faible mais imprévisible. Lorsque les contribuables comprennent clairement le fonctionnement des règles fiscales et l’évaluation des obligations de conformité en sachant qu’ils peuvent s’y fier, le risque de litiges diminue naturellement. En revanche, lorsque la législation et son application opèrent dans des zones grises, qui permettent des interprétations discrétionnaires ou arbitraires visant à maximiser les recettes à court terme, la fiscalité crée un double frein : elle réduit les recettes nettes tout en accroissant l’incertitude quant à l’application à long terme des règles.
Bref, « la sécurité juridique doit être considérée comme un élément fondamental d’une fiscalité efficace. »
La France cumule insécurité juridique et pression fiscale élevée
Nous savons que la France est malheureusement très mal classée en matière de pression fiscale. Dans l’indice de compétitivité fiscale que publie la Tax Foundation, elle occupe la dernière place. Elle apparaît au dernier rang pour l’impôt sur les sociétés (38ème/38), et dans les profondeurs du classement pour l’imposition des revenus (31ème/38), les taxes à la consommation (31ème/38) et les impôts fonciers (34ème/38).
Dans le classement d’Epicenter, qui ne porte que sur 16 pays de l’Union européenne, la France se retrouve à la 13ème place. Cela signifie qu’elle est mauvaise en matière de clarté et de stabilité des règles fiscales, de coopération entre les autorités fiscales et les contribuables, d’efficacité des mécanismes de règlement des différends, et dans les protections juridiques offertes aux contribuables lors des contrôles.
Sécurité juridique des systèmes fiscaux dans 16 pays de l’UE
- voir cadre sur site -
Sources : Epicenter
Le vote du dernier budget illustre bien l’instabilité fiscale avec, par exemple, le maintien en 2026 de la surtaxe sur les bénéfices des grandes entreprises, introduite dans le budget 2025 comme une contribution « exceptionnelle ». Nous savons aussi que les sommes réclamées à l’issue des contrôles fiscaux sont systématiquement supérieures à celles qui sont effectivement encaissées. Preuve sans doute que l’administration interprète la législation complexe à son avantage, réclamant aux contribuables mis en cause des sommes qu’ils n’ont en réalité pas à payer.
L’Estonie, en revanche, arrive première dans les deux indices. Avec un score de 9,2 dans le classement d’Epicenter, elle caracole loin devant la France (5,8) et témoigne d’un système fiscal simple, transparent et prévisible, gage de compétitivité et de respect des obligations. Son taux fixe (20%) d’imposition sur les sociétés, son impôt forfaitaire (flat tax) sur le revenu des particuliers (20%) et son impôt foncier ne s’appliquant que sur la valeur du terrain (et non sur celle du bien immobilier), expliquent aussi qu’elle domine l’indice de compétitivité fiscale de la Tax Foundation.
Pour un impôt simple
Le classement d’Epicenter montre que la France ne doit pas seulement réduire la pression fiscale, mais aussi améliorer la sécurité juridique de son système.
Négliger ce dernier point risque de conduire à sous-estimer l’impact économique réel de la fiscalité. En effet, comme le précise Sánchez de la Cruz, « la sécurité juridique influence les investissements des entreprises, l’allocation des capitaux et le maintien ou la délocalisation de l’activité économique au sein d’une juridiction. Par conséquent, la réduction de l’incertitude et l’amélioration des incitations peuvent favoriser l’investissement, améliorer le respect des obligations fiscales et renforcer la confiance dans les institutions publiques. »
S’aligner sur les pays les plus performants en la matière, ce serait adopter des règles clairement définies et proportionnées, des procédures de conformité simples et des pratiques de contrôle qui reconnaissent la bonne foi. En cas de litige, les procédures administratives devraient faciliter des résolutions rapides et raisonnables, tandis que les contrôles juridictionnels devraient garantir le respect des droits de la défense et la proportionnalité. Les sanctions en cas de non-conformité devraient être prévisibles et proportionnées à l’infraction.
« Ensemble, ces éléments constituent les fondements institutionnels d’un système fiscal qui soutient la croissance, le respect des obligations et la pérennité des recettes à long terme », écrit Sánchez de la Cruz. C’est pourquoi l’IREF-Contrepoints défend depuis toujours un impôt simple, neutre, le même pour tous les revenus (flat tax), sans niches fiscales, mais aussi la suppression des aides aux entreprises et des impôts de production.
https:///le-systeme-fiscal-francais-est-lun-des-moins-surs-deurope/
*
7 - L’astéroïde IA : briser les frameworks linéaires pour libérer le chaos créatif et humain
Xavier Azalbert, France-Soir
le 07 avril 2026 - 18:00
Lorsque @powl_d dépeint sur X un avenir où l’intelligence artificielle accélère à un rythme effréné et où seuls 0,1 % de la population seraient en mesure de s’adapter, il ne fait que mettre des mots sur une réalité déjà palpable. Pendant que 99,9 % scrollent en pensant que l’IA, se résume à ChatGPT et n’est qu’un outil pour écrire des mails plus vite, l’astéroïde est déjà en vue. Et contrairement à ce que beaucoup croient, ce ne sont pas les cols bleus qui vont tomber en premier. Ce sont nous, les cols blancs. Cette vision fait écho à mon propre article sur le « tsunami sonique » de l’IA, qui décrit comment cette technologie menace d’engloutir les emplois de bureau traditionnels en quelques années à peine.
Ensemble, ces réflexions esquissent un paysage de rupture radicale : un changement de paradigme historique, comparable à la Révolution industrielle ou à l’avènement d’Internet, mais d’une ampleur encore inédite. Car l’IA ne se contente pas d’optimiser ; elle remet en cause les cadres mêmes qui structurent notre pensée, notre économie et notre société. Au-delà de l'alerte, il est temps de plonger dans les implications profondes, en intégrant les asymétries d'information, les incohérences économiques, et surtout, la remise en question des frameworks qui structurent notre réalité – ces cadres rigides qui simplifient le monde pour nous donner une illusion de contrôle, mais qui étouffent la créativité humaine.
En m'appuyant sur mes séries d'articles publiés sur France-Soir, notamment sur la compréhension des frameworks, la tension entre l'humain et la normatisation, leurs usages modernes dans la gestion de l'information, et les stratégies de résistance, je propose ici une analyse approfondie. Il s’agit de montrer comment l’IA expose les limites des modèles linéaires que nous avons construits pour nous donner l’illusion du contrôle, et comment elle ouvre la voie à un chaos créatif enfin libéré, forçant une redéfinition totale de notre société.
Un changement de paradigme historique : perdants et gagnants dans l'ère de l'IA
Oui, c'est un changement de paradigme comme il en a existé dans l'histoire, avec des perdants et des gagnants. Comme le souligne @powl_d, nous assistons à une accélération technologique où l'IA ne se contente pas d’optimiser : elle crée une disruption fondamentale des structures sociétales. l'IA n'est pas un outil, mais un astéroïde imprévisible qui pulvérise les emplois routiniers, des analyses de données aux rapports administratifs. Selon les données du cabinet Challenger, Gray & Christmas, près de 55 000 suppressions de postes aux États-Unis en 2025 ont été directement liées à l’IA, tandis que le « SaaSpocalypse » a effacé plus de 1 000 milliards de dollars de capitalisation boursière dans le secteur logiciel.
Les perdants ? Ceux attachés aux modèles obsolètes – les cols blancs dont les tâches intellectuelles sont automatisées, ou les secteurs entiers comme la finance et le droit, où des algorithmes surpassent l'humain en vitesse et précision. Le paradoxe est déjà visible : le plombier est souvent plus en sécurité que l’ingénieur, et de nombreux jeunes diplômés se reconvertissent vers les métiers manuels.
Les gagnants, quant à eux, émergeront parmi les innovateurs : développeurs d'agents IA, stratèges en robotique, ou créateurs de valeur humaine unique, comme les artistes ou thérapeutes qui exploitent l'empathie irremplaçable.
Cette rupture s'apparente à des basculements historiques : la machine à vapeur a créé des usines mais détruit les artisanats ; Internet a démocratisé l'information mais a tué des industries comme la presse traditionnelle. Aujourd'hui, l'IA amplifie les inégalités : une élite adepte de technologie (« tech-savvy ») s'adapte, tandis que les masses subissent un chômage structurel massif. Mais c'est aussi une opportunité pour repenser la société – via des concepts nouveaux, des reconversions massives, ou une valorisation de la créativité humaine, comme exploré dans la série sur les frameworks. L’analyse « La tension entre l’humain et la normatisation : préserver la créativité dans un monde de frameworks » montrait comment ces cadres rigides, inspirés de stratégies militaires comme Sun Tzu ou MITRE ATT&CK, standardisent les pensées au détriment du chaos créatif. L'IA, en automatisant le linéaire, pourrait libérer ce chaos – si nous résistons à la normatisation.
L'obsolescence des théories économiques fondamentales : un modèle sociétal et une fiscalité à réinventer
Cette rupture rend obsolètes les théories économiques fondamentales sur lesquelles reposent encore nos modèles économiques et plus particulièrement la fiscalité.
La théorie de la valeur-travail (de Smith à Marx) posait que la valeur d’un bien ou d’un service provient essentiellement du travail humain incorporé. Les modèles néoclassiques (Walras, Marshall) et la théorie de la productivité marginale considéraient le travail et le capital comme des facteurs rares dont l’équilibre détermine les prix et la répartition. Les théories keynésiennes, quant à elles, plaçaient l’emploi humain et la demande effective au cœur de la croissance et de la stabilité. Même la courbe de Phillips, qui reliait chômage et inflation, supposait que le plein-emploi était le levier naturel de l’économie.
L’IA pulvérise ces fondements. Elle automatise des tâches autrefois hautement qualifiées – analyse de données, rédaction stratégique, diagnostic médical – en les rendant scalables à l’infini et presque gratuites. Les IA de dernières générations comme NoteBookLM ou GPT-4 produisent un rapport complexe en quelques secondes, sans salaire ni cotisations sociales et la notion même de « valeur ajoutée » devient floue. La valeur se découple totalement du travail humain ; la rareté cognitive disparaît au profit d’une abondance exponentielle. La production explose sans proportion avec les ressources humaines ou le capital traditionnel. Résultat : un chômage structurel massif peut coexister avec une déflation technologique, rendant inopérants les mécanismes keynésiens de relance par l’emploi. En d’autres termes, les modèles keynésiens ou néoclassiques, centrés sur le travail et la rareté, ne capturent plus une réalité où la production cognitive explose sans proportion avec les ressources humaines.
Mon « tsunami sonique » illustre ce multiplicateur exponentiel et ce shift de paradigme : l'IA rend obsolète les frameworks fiscaux actuels, qui reposent encore sur l’hypothèse que la richesse naît du travail humain.
Il faut désormais réinventer la fiscalité – taxation des données, de l’énergie des data centers, des super-profits des géants tech ou des modèles d’IA eux-mêmes – mais surtout repenser le modèle sociétal de répartition dans son ensemble. Dans une économie d’abondance algorithmique, la richesse ne peut plus être distribuée uniquement via les salaires et les cotisations. Il devient nécessaire d’imaginer de nouvelles formes de redistribution (revenu universel, dividendes citoyens sur la production IA, ou mécanismes de partage de la valeur cognitive) pour éviter une fracture sociale sans précédent tout en préservant l’incitation à la créativité humaine. Dans « Comprendre les frameworks : Des outils pour structurer, influencer et coordonner », je décris comment ces cadres simplifient la réalité économique en étapes prévisibles, donnant une illusion de contrôle.
L’IA expose leur limite face au non-linéaire : les ruptures qu’elle introduit ne sont plus des ajustements, mais de véritables changements de paradigme
Incohérences, asymétries d'information et frameworks impactés – L’IA comme antidote à la bureaucratie managériale
Au-delà de ces incohérences, l’IA met en lumière de profondes asymétries d’information et fragilise les frameworks qui organisent notre monde. Les entreprises comme OpenAI ou Google accumulent des masses de données et contrôlent les modèles d’intelligence, créant un monopole sur la connaissance future tandis que travailleurs et États peinent à suivre. Cette opacité renforce les biais algorithmiques et marginalise les voix dissidentes, comme analysé dans l’article sur la gestion de l’information et la résistance aux frameworks.
Les frameworks économiques traditionnels, comme la courbe de Phillips (inflation-chômage), deviennent incohérents : l'IA pourrait causer un chômage massif sans inflation. Le PIB ignore la valeur « gratuite » des outils IA open-source, sous-estimant la croissance. Les asymétries s'étendent aux biais algorithmiques, perpétuant inégalités si les données sont biaisées, remettant en cause des régimes comme le RGPD.
Cette dynamique va bien au-delà des métiers individuels : elle s’attaque directement aux structures organisationnelles. Comme je le soulignais dans mon analyse sur la déclaration du CTO de Palantir, Shyam Sankar (4 avril 2026) : « L’IA va être l’antidote à la révolution managériale du XXe siècle. Tout ce pouvoir qui a été aspiré des travailleurs de première ligne est en train d’être restitué, car toute la bureaucratie est en train d’être supprimée. » Un siècle d’empilement de six à huit niveaux hiérarchiques, de reportings interminables et de comités a créé des distorsions d’information et de l'inertie. L’IA rend ce delayering exponentiel : elle supprime les intermédiaires inutiles, fournit des analyses en temps réel et restitue le pouvoir aux « edge workers » augmentés. Le résultat ? Une fluidification radicale qui ne se contente pas d’optimiser l’existant : elle libère tout ce qui était étouffé par la bureaucratie avant même de naître – c’est le paradoxe de Jevons appliqué à l’ère algorithmique.
Dans un monde décrit par les modèles VUCA puis BANI, le non-linéaire s’impose : les systèmes économiques deviennent fragiles face à un choc soudain, l’anxiété collective grandit, et les impacts échappent à toute prévision linéaire. Nos frameworks, inspirés de doctrines militaires ou de matrices de décision, ont longtemps simplifié la réalité pour nous rassurer ; l’IA révèle leur insuffisance face au chaos réel.
Métiers à haute valeur ajoutée : l'illusion de l'inautomatisable
On le constate déjà dans les métiers dits « à haute valeur ajoutée ». Consultants en stratégie, radiologues, avocats, ou graphistes étaient protégés par la complexité de leur jugement humain. Aujourd’hui, l’IA rédige des contrats, analyse des images médicales ou génère des visuels avec une précision souvent supérieure, rendant ces professions scalables et low-cost. Un consultant en finance voit ses analyses automatisées par Bloomberg IA, révélant que la valeur résidait dans la routine. Graphistes ou rédacteurs : Midjourney et ChatGPT les rendent accessibles, exposant des barrières artificielles.
Ce qui passait pour une barrière infranchissable n’était souvent qu’une routine sophistiquée. La vraie valeur ajoutée migre alors vers ce qui reste irremplaçable : l’empathie thérapeutique, la créativité disruptive ou le sens éthique. Comme je l’expliquais dans « La tension entre l’humain et la normatisation », préserver cette créativité exige de résister à la standardisation imposée par les frameworks, en cultivant le questionnement socratique pour défier ces normes, et l’interdisciplinarité.
Analogies physiques : repousser les limites avant le saut paradigmatique
Ce saut paradigmatique évoque les avancées physiques qui repoussent les limites avant de tout transformer. Les foils sur les voiliers de l’America’s Cup élèvent les bateaux au-dessus de l’eau, réduisant la friction et leur permettant de « voler » à des vitesses inédites.
De même, la magnétohydrodynamique (MHD) remplace les moteurs mécaniques par des champs magnétiques, ouvrant une propulsion fluide et silencieuse
L’IA agit exactement ainsi : elle élève les tâches cognitives au-dessus des contraintes biologiques – fatigue, erreurs, temps limité – jusqu’au point de rupture où le paradigme change. On ne flotte plus ; on vole. Le « tsunami sonique » décrivait cette dynamique : on optimise l’existant jusqu’à ce que le saut qualitatif survienne, transformant une économie humaine-centrée en une économie hybride où l’intelligence artificielle devient le nouveau socle.
Intégrer le non-linéaire : de VUCA à BANI dans un monde simplifié
Pour naviguer ce monde, il faut intégrer pleinement le non-linéaire que les modèles VUCA et surtout BANI mettent en évidence.
Nous avions construit un univers simplifié, linéaire, pour nous donner l’illusion du contrôle ; l’IA y introduit la fragilité, l’anxiété, l’imprévisibilité et l’incompréhensibilité. J’ai montré comment ces frameworks, bien qu’utiles pour structurer et coordonner, risquent d’étouffer la liberté et la vérité si on les érige en dogmes.
Résister, c’est promouvoir l’expérimentation décentralisée, la vérification rigoureuse des sources et une éducation qui valorise l’adaptabilité plutôt que la conformité.
Comment cultiver son chaos créatif dès aujourd’hui
Le chaos créatif n’est pas une utopie lointaine : c’est une pratique concrète et quotidienne que chacun peut commencer dès maintenant pour ne pas subir l’astéroïde, mais le piloter.
Questionnement socratique systématique : avant d’accepter un framework ou une norme, demandez-vous « Et si ce cadre était faux ou incomplet ? ». Cette habitude défie la standardisation et ouvre des brèches de pensée originale.
Expérimentation décentralisée et interdisciplinarité radicale : sortez de votre silo professionnel. Mélangez domaines (art + technologie, philosophie + économie, science + vécu humain) comme le faisaient les grands esprits de la Renaissance. Testez des idées à petite échelle, sans attendre l’approbation hiérarchique.
Refus actif des frameworks dogmatiques : dans mes articles sur France-Soir, j’ai analysé comment ces cadres militaires ou managériaux peuvent devenir oppressifs. Résistez en cultivant la dissidence éthique, en vérifiant rigoureusement les sources et en refusant la conformité comme un devoir moral. L’exemple de penseurs comme Socrate ou de lanceurs d’alerte modernes montre que la vérité émerge souvent en dehors des sentiers balisés.
Ceux qui cultivent ces pratiques dès aujourd’hui font partie des 0,1 % non pas par élitisme, mais par courage intellectuel et adaptabilité.
Une analyse philosophique : de Kuhn à Harari, repenser l'humain face à la machine
Philosophiquement, Thomas Kuhn parlerait d’un « shift paradigmatique » où les anomalies accumulées – échecs des modèles économiques à prédire l’automatisation massive – provoquent une crise puis l’émergence d’un nouveau cadre incommensurable avec l’ancien. Heidegger alerte : la technique « encadre » le monde en ressource, déshumanisant l'existence. L'IA risque une "singularité" (Kurzweil), posant des questions sur la conscience. Sartre y verrait une aliénation de la liberté, l’IA automatisant jusqu’au sens que nous donnons à nos actes.
Pourtant, dans une lecture néo-schumpétérienne, cette destruction créatrice libère l’humain pour des quêtes plus élevées : art, philosophie, exploration du vivant. Yuval Noah Harari craint une société scindée entre une élite « divine » et une masse rendue « inutile ». Cela force une éthique : réguler pour l'équité, embrassant le potentiel transcendantal de l’IA tout en préservant l'essence humaine – créativité, liberté, vérité – contre les frameworks oppressifs.
L’astéroïde IA n’est pas une sentence de fin
C’est le plus grand cadeau que l’humanité se soit jamais fait : la possibilité de briser enfin les chaînes des frameworks linéaires et de laisser enfin s’exprimer le chaos créatif qui nous définit. Dans un prochain article, nous explorerons en profondeur comment repenser les théories économiques fondamentales à l’ère de l’abondance algorithmique – une économie où la valeur ne naît plus seulement du travail humain, mais de l’alliance subtile entre créativité irremplaçable et puissance computationnelle, ouvrant la voie à une prospérité véritablement partagée.
Les 0,1 % ne sont pas une élite fermée. Ce sont ceux qui auront eu le courage, dès aujourd’hui, d’embrasser le non-linéaire. Le reste suivra… ou disparaîtra dans l’ancien monde. À nous de choisir. Préservons la liberté face à la normatisation : l'avenir n'est pas aux 0,1 %, mais à ceux qui osent le non-linéaire.
Retrouvez le résumé vidéo de cet article (assisté par IA)
*
8 - Pour vous amuser à comprendre LIA faites le test, demandez-lui ce qu'est la Démocratie et combien de pays dans le monde sont en Démocratie ! Il n'y qu'un seul pays au monde en Démocratie ! La Suisse.
Les autres pays sont des dictatures monarchiques, républicaines ou impériales.
- "Mais si demain je n'ai pas de travail que vais-je manger ?"
- "Ne faites rien ! Les robots vous apportent à manger."
*
9 - Météo France affirme que depuis 1850 la France avec moins de 1 % du gaz carbonique mondial se réchauffe deux fois plus vite que la planète, les archives prouvent le contraire
le 5 avril 2026
par pgibertie
Ce sont ainsi les pays les plus peuplés et industrialisés qui apparaissent en haut du classement des pays les plus pollueurs au monde. Les trois pays les plus gros émetteurs de gaz carbonique sont donc :
La Chine responsable à hauteur de 32.9% des émissions de gaz carbonique, en grande partie dues à l’exportation de biens de consommation et à sa forte dépendance au charbon ;
Les États-Unis responsables à hauteur de 12.6% ;
L’Inde responsable à hauteur de 7.0%.
On observe que l’Allemagne est, avec beaucoup d’avance, le pays européen qui émet le plus de gaz carbonique à cause de sa forte dépendance au charbon. Ainsi, ¼ des émissions de gaz carbonique de l’Union Européenne proviennent de l’Allemagne. La France échappe au classement grâce au nucléaire, énergie majoritaire dans le pays et non émettrice de carbone.
LA FRANCE NE PRODUIT PAS DE CO2 MAIS ELLE SE FRECHAUFFE BEAUCOUP ? ON VA GRILLER
Les experts escrologistes ont frappé fort, la France se serait réchauffée de 2,5° depuis 1850 contre 1,5 pour le reste de la planète…N’imaginez pas qu’ils s’appuient sur des données vérifiable…Météo France n’existait pas en 1850…Tout découle des mathématiques, des modèles informatiques, bref du monde FACTICE dont parle Didier Raoult
Pourquoi c’est compliqué
Les mesures fiables et continues depuis 1850 sont très rares en France. Le réseau météo national s’est structuré progressivement à partir de la seconde moitié du XIXe siècle. La plupart des longues séries disponibles aujourd’hui ont été homogénéisées par Météo-France (corrections pour changements de lieu, instruments, observateurs, urbanisation progressive, etc.) et correspondre… aux modèles. Les données vraiment brutes anciennes sont souvent dans des archives papier ou des bases partielles.
Voici une réponse directe et concrète.Aucune station française n’offre une série parfaitement brute, quotidienne, continue et non touchée depuis exactement 1850 sans aucun contrôle ou ajustement mineur (changement d’instruments, d’observateurs, de localisation). Les données anciennes étaient souvent manuscrites et fragmentaires.
ELLES ONT DONC ETE TRANSFORMEES POUR DEMONTRER UNE HAUSSE DES TEMPÉRATURES
LES SEULES ET TRÈS RARES RESSOURCES HISTORIQUES
Perpignan École Normale (Pyrénées-Orientales) : série qui commence en 1850.
C’est une des plus anciennes séries continues en France pour cette période. Elle est citée par Météo-France dans les projets de sauvetage de données (WMO-Medare). Les relevés incluent températures max/min et précipitations de 1850 à 1924 (avant déplacement vers d’autres sites comme l’aérodrome).
À l’époque, c’était un poste relativement peu urbanisé (école normale).archives-climat.fr (recherche « Perpignan École Normale »). Il y a des registres scannés pour des périodes comme 1866-1868, 1904, etc.Exemple de périodes disponibles : relevés de températures air min/max et précipitations pour plusieurs mois/années entre 1850 et 1924.
→ Cela donne une température moyenne annuelle brute autour de 13,4 °C à 14,4 °C pour la fin du XIXe siècle.
Normale de référence 1971-2000 : 15,4 ° DONC une augmentation moyenne de 1,5° en partie provoquée par l’effet bêton
Montpellier École Normale (dès 1864)
Normale 1971-2000 : 14,7 °C
Période ~1874-1900 : anomalies brutes montrent des moyennes annuelles 1 ,4 °C plus basses que la normale 1971-2000.
→ Températures moyennes annuelles brutes autour de 13 °C à 13,7 °C en moyenne sur cette période.
Carcassonne École Normale (dès 1872)
Normale 1971-2000 : 13,7 °C
Période fin XIXe : mêmes anomalies négatives de 1,2 °C par rapport à la normale récente.
→ Moyennes brutes autour de 12 °C à 12,7 °C sur les années 1870-1900.
Abbeville (Somme) – une des meilleures séries du Nord
Série longue disponible dès le début du XXe siècle (et fragments antérieurs).
Normale 1991-2020 : environ 11 °C de moyenne annuelle.
Début du XXe siècle (1901-1930) : moyennes brutes autour de 9,5 à 10 °C environ.
Hausse observée depuis ~1900 jusqu’à aujourd’hui : environ +1,2 °C sur les données historiques de la station (même sans homogénéisation complète).
vous l’avez compris, un réchauffement oui mais inférieur à 1,5° et encore il faudrait prendre en compte la bétonnisation
*
10 - (...) La Chine responsable à hauteur de 32.9% des émissions de gaz carbonique, en grande partie dues à l’exportation de biens de consommation et à sa forte dépendance au charbon ;
Les États-Unis responsables à hauteur de 12.6% ;
L’Inde responsable à hauteur de 7.0%. (...)
💣️ Pollution et pollution
jeudi 13 novembre 2014
- voir graph sur site -
Pareillement qu'il est facile d'accuser une famille nombreuse de plus consommer qu'un célibataire et donc de taxer le grand nombre de tous les maux de la Terre, dernièrement un économiste a publié un graphique sur les pays les plus gros consommateurs de pétrole (donc: pollueurs). Graphique qui montrait la Chine, les USA, l'Inde et la Russie les quatre premiers d'une liste de 19 pays sélectionnés comme étant les plus pollueurs.
Oui mais, de la même façon que l'on peut citer Monaco et Macao comme étant les pays les plus peuplés de la Terre (au km²), je répondrais pour les pollueurs que c'est en fait le contraire !
Compte tenu du nombre d'habitants et de la quantité de pétrole consommée, l'Arabie Saoudite arrive largement en tête des pays les plus pollueurs de la Terre ! Cela vous étonne ? C'est bien d'ailleurs la première fois que vous lisez un tel article face au bassinnage médiatique quotidien que c'est La Chine qui est le plus gros pollueur monstrueux de la Terre !
1 -- Arabie Saoudite
2 -- Australie
3 -- Canada
4 -- USA
5 -- Corée du Sud
6 -- Russie
7 -- Allemagne
8 -- Afrique du Sud
9 -- Japon
10 - Italie
11 - Royaume-Uni
12 - Chine
13 - Turquie
14 - Argentine
15 - Mexique
16 - Inde
17 - Indonésie
18 - France
19 - Brésil
Car, c'est bien au nombre d'habitants qu'il faut regarder (et non à la superficie d'un pays). L'Alaska avec ses 731.000 hab. et 1.717.854 km² consomme plus d'énergie par le fait qu'il y fait froid et que la lumière est manquante dans l'hiver long. Pareillement que le sont d'autres en Europe du Nord (Norvège, Suède, Danemark, Finlande, Islande, etc) mais qui ne sont listés dans les 19 choisis, la consommation de pétrole par habitant doit être plus élevée qu'en Afrique, car je ne pense pas qu'ils aient choisi de brûler du bois des forêts où les arbres poussent lentement, ni qu'ils se contentent de se chauffer avec des arêtes de poissons !
*
Les données du site ( https://pgibertie.com/2026/04/05/meteo-france-affirme-que-depuis-1850-la-france-avec-moins-de-1-du-co2-mondial-se-rechauffe-deux-fois-plus-vite-que-la-planete-les-archives-prouvent-le-contraire/) n'ont rien à voir avec le climat !
Notre planète dégaze de temps à autre suivant les humeurs magmatique de sa combustion 'cocotte-minute'. Ces émanations de la masse ferrique incandescente sont conséquentes de sa combustion. C'est ainsi qu'apparaissent El Nino et La Nina qui font que l'un est chaud et l'autre froide faute de dégazage en plein Est du Pacifique.
Ces dégazage sur tous les bassins maritimes & océaniques (à partir des 'sources chaudes' qui tapissent le fond des bassins) font que les lames de fonds apportent ou pas des chaleurs sous-marines ou océaniques.
*
10 articles complets publiés ci-dessus