jeudi 26 mars 2026

Supercherie lunaire : Une révélation stupéfiante sur le canular des alunissages

 

25/03/2026

 Belle Carter 

 

Les propres données de la NASA confirment des niveaux de radiation mortels dans les ceintures de Van Allen – 1 000 fois supérieurs à une dose létale pour l’être humain. Le blindage en aluminium des années 1960 n’a pas pu protéger les astronautes, prouvant qu’ils n’ont jamais quitté l’orbite terrestre.

Les ombres sur les photos d’Apollo ne sont pas alignées, ce qui indique des sources de lumière artificielles – impossibles sur la Lune, dépourvue d’atmosphère. Une analyse forensique par intelligence artificielle confirme que l’éclairage correspond à celui des plateaux de cinéma hollywoodiens, et non aux conditions lunaires.

Aucun cratère d’explosion n’est visible sous le module lunaire, malgré la puissante poussée de la fusée. Aucune flamme ni panache de gaz d’échappement n’est visible pendant l’ascension, ce qui défie les lois de la physique.

Les images du décollage d’Apollo 17 sont fluides et parfaitement cadrées – impossible avec un délai de 2,5 secondes contrôlé depuis la Terre. Les preuves pointent vers un tournage mis en scène avec un opérateur humain, et non vers des images lunaires prises à distance. La NASA admet avoir perdu les bandes de télémétrie originales, effacé les enregistrements maîtres et égaré les plans de Saturn V. La destruction de technologies d'une valeur de 200 milliards de dollars laisse penser à une tentative de dissimulation de fraude, et non à la préservation d'un exploit historique.

Si vous pensez que les missions Apollo sur la Lune constituent le plus grand accomplissement de l'humanité, préparez-vous à voir votre vision du monde bouleversée. « Tromperie lunaire : La vérité sur les missions Apollo » est une enquête explosive, fruit d'une recherche méticuleuse, qui déconstruit pièce par pièce le récit officiel de la NASA, révélant l'une des fraudes les plus audacieuses de l'histoire.

Il ne s'agit pas d'une simple théorie du complot. C'est une analyse rigoureuse de la tromperie gouvernementale, de la complicité des médias et de la manipulation psychologique du public. S'appuyant sur des documents déclassifiés, des témoignages de lanceurs d'alerte et des analyses d'intelligence artificielle modernes, l'ouvrage présente des preuves irréfutables que les alunissages ont été mis en scène – une opération de désinformation menée pendant la Guerre froide pour affirmer la domination américaine et justifier des programmes spatiaux financés par les contribuables à hauteur de milliers de milliards de dollars.

Les preuves accablantes

L'une des preuves les plus accablantes contre Apollo est celle des ceintures de Van Allen : des zones mortelles de particules de haute énergie entourant la Terre. Les propres données de la NASA indiquent des niveaux de radiation 1 000 fois supérieurs à une dose létale pour l'homme. Pourtant, les astronautes les auraient traversées indemnes, protégés uniquement par du papier aluminium. Les physiciens modernes confirment que la technologie des années 1960 était incapable de les protéger. Alors, comment ont-ils survécu ? Ils n'ont pas survécu, car ils n'ont jamais quitté l'orbite terrestre.

Les photos d'Apollo sont truffées d'incohérences. Les ombres des rochers, des astronautes et du module lunaire ne coïncident pas, ce qui suggère la présence de plusieurs sources de lumière — chose impossible sur la Lune, dépourvue d'atmosphère et où le soleil est la seule source d'éclairage. Une analyse médico-légale par intelligence artificielle confirme que l'éclairage correspond aux décors des studios hollywoodiens, et non à l'environnement hostile et sans ombre de la lumière lunaire du jour.

Lors de la descente du module lunaire, son moteur-fusée aurait dû creuser un immense cratère. Or, les images de la NASA montrent une poussière immaculée, intacte. Plus troublant encore ? L’étage de remontée du module aurait décollé sans flamme ni panache de gaz visible, défiant les lois de la physique.

Qui a filmé le décollage d’Apollo 17 depuis la Lune ? La NASA affirme que la caméra était télécommandée depuis la Terre, mais avec un délai de transmission de 2,5 secondes, les images auraient dû être saccadées et désynchronisées. Au lieu de cela, elles sont fluides, parfaitement cadrées et suivent le module comme un travelling hollywoodien. La seule explication ? La scène a été mise en scène en studio avec un opérateur humain.

La NASA admet avoir perdu les bandes télémétriques originales d’Apollo 11, effacé les enregistrements maîtres et égaré les plans de la fusée Saturn V. Si les alunissages ont réellement eu lieu, pourquoi avoir fait disparaître les preuves ? ​​Parce que la vérité était trop dangereuse : elle révélerait que toute l’opération était une supercherie de 200 milliards de dollars.

La guerre psychologique derrière le canular

Les alunissages n'étaient pas qu'une question de prestige : il s'agissait d'opérations psychologiques visant à :

Intimider l'Union soviétique pendant la Guerre froide.

Justifier le budget de la NASA et du complexe militaro-industriel.

Conditionner le public à faire aveuglément confiance aux discours officiels (une tactique réutilisée plus tard pour le 11-Septembre, la pandémie et le changement climatique).

Des lanceurs d'alerte, parmi lesquels des ingénieurs de la NASA, des membres des familles d'astronautes et des agents de la CIA, ont fait des aveux sur leur lit de mort, révélant que les alunissages avaient été filmés à la base aérienne d'Eglin et dans la Zone 51, avec la complicité de Stanley Kubrick.

Pourquoi est-ce important aujourd'hui ?

La supercherie d'Apollo n'était pas qu'un mensonge historique : elle a préparé le terrain pour la propagande moderne. Si la NASA a pu tromper le monde entier au sujet des alunissages, sur quoi d'autre ment-elle ?

Origines du coronavirus de Wuhan (COVID-19)

Sécurité des vaccins

Discours sur le changement climatique

Identité numérique et monnaies numériques de banque centrale (MNBC)

Les mêmes institutions qui ont truqué les alunissages promeuvent aujourd'hui des stratégies de contrôle mondialistes sous couvert de « science » et de « progrès ».

« La Tromperie Lunaire » est un livre révolutionnaire qui oblige les lecteurs à remettre en question tout ce qu'on leur a dit. Grâce à une logique implacable, des témoignages d'experts et des preuves photographiques irréfutables, il dévoile la plus grande supercherie de la NASA et met en garde contre les tromperies encore plus importantes orchestrées aujourd'hui.

Si vous privilégiez la vérité à la propagande, ce livre est une lecture essentielle. Les alunissages ont été truqués et les preuves sont accablantes.

Procurez-vous un exemplaire de « La Tromperie Lunaire : La Vérité sur les alunissages d'Apollo » via ce lien. Lisez, partagez et téléchargez gratuitement des milliers de livres sur Books.BrightLearn.AI. Vous pouvez également créer vos propres livres gratuitement sur BrightLearn.AI.

Regardez la vidéo ci-dessous, où le chercheur Bart Sibrel révèle à Health Ranger Mike Adams une preuve stupéfiante grâce à l'intelligence artificielle et une confession sur son lit de mort : les alunissages d'Apollo ont été mis en scène.

This video is from the Health Ranger Report channel on Brighteon.com.

Sources include:

Books.BrightLearn.ai

BrightLearn.ai

Brighteon.com

https://www.naturalnews.com/2026-03-25-lunar-deception-mind-blowing-revelation-moon-landing-hoax.html


*

2 - La ceinture de Van Allen produit des champs électriques impossible à franchir. C'est pourquoi même les fusées ne peuvent traverser cette zone électromagnétique. Les satellites à 36 000 km (géostationnaires) à de notre planète évoluent entre notre planète et la ceinture de Van Allen qui entoure la Terre et non au-dessus.


*

3 - Le jour où tout s'arrête : Les seuls endroits où survivre en Amérique


Madge Waggy

- 22 mars 2026


Où est le meilleur endroit où vivre aux États-Unis pendant et après un effondrement de la société ?

Une question pratique souvent mal comprise

On a tendance à considérer l'effondrement de la société comme un risque abstrait ou un simple divertissement, relevant davantage de la fiction que de la planification réaliste. Par conséquent, lorsqu'on se demande « où aller », on répond souvent rapidement et intuitivement, sans l'analyse approfondie qu'il requiert. On se tourne vers des notions vagues d'isolement – ​​montagnes, forêts, zones rurales – sans se demander si ces environnements peuvent réellement assurer la survie humaine à long terme une fois les systèmes modernes défaillants.

La difficulté de cette question ne réside pas dans le manque de réponses possibles, mais dans le nombre de variables à prendre en compte simultanément. Dans une société stable, le choix du lieu de résidence est en grande partie une question de préférence, contrainte par les opportunités économiques, les infrastructures et les modes de vie. Dans un système déstabilisé ou effondré, ces priorités s'inversent. L'accessibilité devient un handicap, la densité un facteur de risque, et des environnements autrefois considérés comme peu pratiques ou marginaux peuvent devenir bien plus viables que des régions hautement développées.

Ce changement de perspective est essentiel. Sans lui, toute tentative d'identifier un lieu « sûr » reste superficielle, se concentrant sur des avantages isolés plutôt que sur la résilience systémique.

VIDÉO EXCLUSIVE : Au cœur des élevages industriels – Des images filmées en caméra cachée révèlent ce qui se passe réellement à huis clos !

Comprendre l'effondrement comme un processus, et non comme un événement

L'une des erreurs d'analyse les plus fréquentes dans la planification de la survie est de supposer que l'effondrement survient comme un événement ponctuel. En réalité, la plupart des défaillances à grande échelle – économiques, infrastructurelles ou politiques – ont tendance à se déployer progressivement. Les systèmes se dégradent avant de s'effondrer complètement, et durant cette période de dégradation, les comportements évoluent.

Les premiers indicateurs sont rarement spectaculaires. Elles se manifestent plutôt par des incohérences au sein de systèmes normalement stables :

des chaînes d’approvisionnement devenues peu fiables ou retardées

des pénuries localisées de biens essentiels

des fluctuations de la disponibilité ou du prix de l’énergie

une prévisibilité réduite des services publics

Pris individuellement, ces signaux peuvent être ignorés ou rationalisés. Collectivement, ils représentent une tension systémique. Le point critique n’est pas le moment où ces perturbations commencent, mais celui où elles cessent de se corriger d’elles-mêmes. Dès qu’un système perd sa capacité à se rétablir de manière prévisible, l’incertitude remplace la stabilité et les comportements humains s’en trouvent modifiés.

Ce changement de comportement est l’un des principaux facteurs de risque. Les gens n’ont pas besoin d’une déclaration officielle de crise pour agir ; ils réagissent à l’instabilité perçue. À mesure que la confiance dans le système diminue, les individus commencent à s’adapter de manière à amplifier les pressions existantes : constitution de stocks, déménagement ou recherche de sources alternatives de sécurité et de ressources.

La pression humaine comme principal facteur de déstabilisation

Dans les premières phases d’un effondrement, les conditions environnementales restent souvent inchangées. L'eau est toujours présente, les terres sont toujours disponibles et les conditions climatiques ne changent pas immédiatement. Ce qui change rapidement, c'est le comportement humain. C'est pourquoi les facteurs humains constituent le premier et le plus crucial niveau d'analyse lors de l'évaluation des zones de survie.

La densité de population est essentielle à cette évaluation. Les régions à forte densité ne fonctionnent que grâce à un apport continu de ressources et à des infrastructures coordonnées. Lorsque cet apport est interrompu, le rapport entre la population et les ressources disponibles devient instable. Même une interruption temporaire peut engendrer des effets en cascade, car les populations importantes se disputent des ressources limitées.

Un seuil utile, souvent cité dans les analyses de survie et géographiques, est d'environ :

40 habitants par mile carré ou moins

En dessous de ce seuil, plusieurs avantages apparaissent :

une concurrence réduite pour les ressources locales

une probabilité plus faible de conflits à grande échelle

une propagation plus lente de l'instabilité

une capacité accrue à surveiller et à réagir aux changements environnementaux

Cependant, la densité seule ne suffit pas. La répartition et la proximité sont également importantes.

La distance par rapport aux centres urbains comme zone tampon protectrice

Les zones urbaines représentent une demande concentrée. Lorsque les systèmes d'approvisionnement s'effondrent, cette demande ne disparaît pas ; elle s'étend. Ce mouvement d'exode rural n'est pas aléatoire ; il suit les infrastructures existantes, notamment les grands axes routiers et les réseaux de transport.

De ce fait, la proximité des villes introduit un risque supplémentaire. Même si une localité présente une faible densité de population, sa situation à proximité immédiate d'un grand centre urbain l'expose à la pression migratoire.

Une distance tampon généralement admise est de :

au moins 80 kilomètres des grandes et petites villes.

Cette distance ne garantit pas l’isolement, mais elle réduit considérablement le nombre de personnes pouvant atteindre la zone sans préparation. Elle introduit également un délai entre le début de l’instabilité et son arrivée sur le lieu, délai qui peut s’avérer crucial pour l’adaptation et la prise de décision.

Exposition des infrastructures : autoroutes et accessibilité

Les infrastructures modernes sont conçues pour optimiser les déplacements. En situation de crise, cette même efficacité se transforme en handicap. Les autoroutes et les routes principales servent de voies de passage pour des populations importantes qui peuvent se déplacer rapidement et en grand nombre.

Les localités traversées par des autoroutes ou directement reliées à celles-ci sont donc plus exposées, indépendamment de leur caractère rural.

Les points clés à prendre en compte sont les suivants :

éviter les comtés ou les régions bénéficiant d’un accès direct par autoroute ;

privilégier les zones nécessitant des itinéraires indirects ou difficiles d’accès ;

tenir compte des barrières naturelles telles que le relief, l’altitude ou un réseau routier limité.

Dans ce contexte, les inconvénients deviennent une forme de protection. Les zones difficiles d'accès en temps normal sont moins susceptibles de connaître un afflux soudain de population en période d'instabilité.

Risques stratégiques : proximité militaire et nucléaire

Certains types d'infrastructures présentent des risques qui ne sont pas immédiatement apparents, mais qui peuvent devenir importants dans des situations extrêmes.

Les installations militaires, par exemple, peuvent sembler offrir une protection. En réalité, il s'agit d'environnements contrôlés dont les priorités ne correspondent pas nécessairement aux besoins des populations civiles. En période d'instabilité, l'accès à ces zones peut être restreint et les régions environnantes peuvent être soumises à une réglementation accrue ou à des conflits.

De même, les centrales nucléaires, bien que généralement sûres en temps normal, dépendent d'une stabilité opérationnelle continue. En cas de panne de réseau prolongée ou de perturbation systémique, le risque, bien que faible, peut avoir un impact important.

Distances recommandées :

Plus de 80 km des principales bases militaires

Plus de 160 km des centrales nucléaires

Ces distances de sécurité sont préventives et visent à réduire l'exposition à des événements rares mais aux conséquences graves.

La stabilité socio-économique comme indicateur prédictif

Un autre facteur important, et souvent négligé, est la situation socio-économique d'une région. Les zones où les taux de pauvreté et de criminalité violente sont élevés subissent déjà des tensions structurelles. Ces conditions ne sont pas isolées ; elles reflètent une instabilité sous-jacente dans la répartition des ressources, la cohésion sociale et l'efficacité des institutions.

En cas d'effondrement, lorsque les systèmes de soutien externes sont affaiblis ou supprimés, ces vulnérabilités peuvent s'aggraver rapidement.

Parmi les indicateurs à prendre en compte :

taux de pauvreté supérieurs à 20-25 %

statistiques de criminalité violente constamment élevées

accès limité aux soins de santé ou à l'éducation

Bien que ces facteurs ne déterminent pas à eux seuls les résultats, ils contribuent à la résilience – ou à la fragilité – globale d'une communauté en situation de crise.

Une distance tampon généralement admise est de :

au moins 80 kilomètres des grandes et petites villes.

Cette distance ne garantit pas l’isolement, mais elle réduit considérablement le nombre de personnes pouvant atteindre la zone sans préparation. Elle introduit également un délai entre le début de l’instabilité et son arrivée sur le lieu, délai qui peut s’avérer crucial pour l’adaptation et la prise de décision.

Exposition des infrastructures : autoroutes et accessibilité

Les infrastructures modernes sont conçues pour optimiser les déplacements. En situation de crise, cette même efficacité se transforme en handicap. Les autoroutes et les routes principales servent de voies de passage pour des populations importantes qui peuvent se déplacer rapidement et en grand nombre.

Les localités traversées par des autoroutes ou directement reliées à celles-ci sont donc plus exposées, indépendamment de leur caractère rural.

Les points clés à prendre en compte sont les suivants :

éviter les comtés ou les régions bénéficiant d’un accès direct par autoroute ;

privilégier les zones nécessitant des itinéraires indirects ou difficiles d’accès ;

tenir compte des barrières naturelles telles que le relief, l’altitude ou un réseau routier limité.

Dans ce contexte, les inconvénients deviennent une forme de protection. Les zones difficiles d'accès en temps normal sont moins susceptibles de connaître un afflux soudain de population en période d'instabilité.

Risques stratégiques : proximité militaire et nucléaire

Certains types d'infrastructures présentent des risques qui ne sont pas immédiatement apparents, mais qui peuvent devenir importants dans des situations extrêmes.

Les installations militaires, par exemple, peuvent sembler offrir une protection. En réalité, il s'agit d'environnements contrôlés dont les priorités ne correspondent pas nécessairement aux besoins des populations civiles. En période d'instabilité, l'accès à ces zones peut être restreint et les régions environnantes peuvent être soumises à une réglementation accrue ou à des conflits.

De même, les centrales nucléaires, bien que généralement sûres en temps normal, dépendent d'une stabilité opérationnelle continue. En cas de panne de réseau prolongée ou de perturbation systémique, le risque, bien que faible, peut avoir un impact important.

Distances recommandées :

Plus de 80 km des principales bases militaires

Plus de 160 km des centrales nucléaires

Ces distances de sécurité sont préventives et visent à réduire l'exposition à des événements rares mais aux conséquences graves.

La stabilité socio-économique comme indicateur prédictif

Un autre facteur important, et souvent négligé, est la situation socio-économique d'une région. Les zones où les taux de pauvreté et de criminalité violente sont élevés subissent déjà des tensions structurelles. Ces conditions ne sont pas isolées ; elles reflètent une instabilité sous-jacente dans la répartition des ressources, la cohésion sociale et l'efficacité des institutions.

En cas d'effondrement, lorsque les systèmes de soutien externes sont affaiblis ou supprimés, ces vulnérabilités peuvent s'aggraver rapidement.

Indicateurs à prendre en compte :

Une distance tampon généralement admise est de :

au moins 80 kilomètres des grandes et petites villes.

Cette distance ne garantit pas l’isolement, mais elle réduit considérablement le nombre de personnes pouvant atteindre la zone sans préparation. Elle introduit également un délai entre le début de l’instabilité et son arrivée sur le lieu, délai qui peut s’avérer crucial pour l’adaptation et la prise de décision.

Exposition des infrastructures : autoroutes et accessibilité

Les infrastructures modernes sont conçues pour optimiser les déplacements. En situation de crise, cette même efficacité se transforme en handicap. Les autoroutes et les routes principales servent de voies de passage pour des populations importantes qui peuvent se déplacer rapidement et en grand nombre.

Les localités traversées par des autoroutes ou directement reliées à celles-ci sont donc plus exposées, indépendamment de leur caractère rural.

Les points clés à prendre en compte sont les suivants :

éviter les comtés ou les régions bénéficiant d’un accès direct par autoroute ;

privilégier les zones nécessitant des itinéraires indirects ou difficiles d’accès ;

tenir compte des barrières naturelles telles que le relief, l’altitude ou un réseau routier limité.

Dans ce contexte, les inconvénients deviennent une forme de protection. Les zones difficiles d'accès en temps normal sont moins susceptibles de connaître un afflux soudain de population en période d'instabilité.

Risques stratégiques : proximité militaire et nucléaire

Certains types d'infrastructures présentent des risques qui ne sont pas immédiatement apparents, mais qui peuvent devenir importants dans des situations extrêmes.

Les installations militaires, par exemple, peuvent sembler offrir une protection. En réalité, il s'agit d'environnements contrôlés dont les priorités ne correspondent pas nécessairement aux besoins des populations civiles. En période d'instabilité, l'accès à ces zones peut être restreint et les régions environnantes peuvent être soumises à une réglementation accrue ou à des conflits.

De même, les centrales nucléaires, bien que généralement sûres en temps normal, dépendent d'une stabilité opérationnelle continue. En cas de panne de réseau prolongée ou de perturbation systémique, le risque, bien que faible, peut avoir un impact important.

Distances recommandées :

Plus de 80 km des principales bases militaires

Plus de 160 km des centrales nucléaires

Ces distances de sécurité sont préventives et visent à réduire l'exposition à des événements rares mais aux conséquences graves.

La stabilité socio-économique comme indicateur prédictif

Un autre facteur important, et souvent négligé, est la situation socio-économique d'une région. Les zones où les taux de pauvreté et de criminalité violente sont élevés subissent déjà des tensions structurelles. Ces conditions ne sont pas isolées ; elles reflètent une instabilité sous-jacente dans la répartition des ressources, la cohésion sociale et l'efficacité des institutions.

En cas d'effondrement, lorsque les systèmes de soutien externes sont affaiblis ou supprimés, ces vulnérabilités peuvent s'aggraver rapidement.

Parmi les indicateurs à prendre en compte :

taux de pauvreté supérieurs à 20-25 %

statistiques constamment élevées en matière de criminalité violente

accès limité aux soins de santé ou à l’éducation

Bien que ces facteurs ne déterminent pas à eux seuls les résultats, ils contribuent à la résilience – ou à la fragilité – globale d’une communauté en situation de crise.

Transition vers les contraintes environnementales

Une fois les risques liés à l’activité humaine minimisés, l’attention se porte sur une question plus fondamentale : l’environnement lui-même peut-il permettre la vie sans soutien extérieur ? Cette transition marque un tournant décisif dans l’analyse, car elle remplace la sécurité théorique par la capacité de survie concrète.

Un lieu isolé, dépourvu d’eau, de terres arables ou de conditions climatiques stables, n’est pas viable, aussi sûr qu’il puisse paraître du point de vue humain. Inversement, un lieu riche en ressources naturelles, mais fortement exposé aux mouvements de population, peut également s’effondrer sous la pression.

Le défi consiste donc non pas à identifier des conditions idéales de manière isolée, mais à trouver des régions où de multiples contraintes sont efficacement équilibrées.

La viabilité environnementale comme facteur limitant

Une fois l'exposition aux risques liés à l'activité humaine raisonnablement réduite, l'analyse doit se concentrer sur une contrainte plus fondamentale : la capacité de l'environnement à assurer la survie humaine à long terme sans dépendre des infrastructures modernes. Cette transition est cruciale car elle substitue la viabilité pratique à la sécurité théorique. Un lieu isolé peut certes protéger de la pression démographique, mais s'il ne peut fournir eau, nourriture et ressources matérielles essentielles de manière constante et prévisible, il devient non viable, aussi sûr qu'il puisse paraître à court terme.

Contrairement aux facteurs humains, qui tendent à évoluer rapidement sous l'effet du stress, les conditions environnementales fonctionnent selon des paramètres plus lents et plus prévisibles. Pour autant, elles n'en sont pas moins dangereuses. Au contraire, les contraintes environnementales sont souvent moins indulgentes car elles ne peuvent être négociées ni compensées rapidement. Une région souffrant d'un manque de précipitations ne deviendra pas productive par le seul effort. La dégradation des sols exige du temps et des ressources qui peuvent faire défaut. En ce sens, les contraintes environnementales constituent des limites infranchissables, définissant ce qui est possible et ce qui ne l'est pas sur le long terme.

C’est pourquoi l’évaluation de la viabilité environnementale exige une approche multivariée, où aucun facteur n’est considéré isolément.

Disponibilité de l’eau : privilégier la constance à la présence

L’eau est souvent décrite comme la ressource vitale la plus critique, mais cette affirmation n’est pertinente que si elle est bien comprise. La présence d’eau dans une région ne garantit pas automatiquement sa fiabilité. De nombreuses zones disposent de sources d’eau saisonnières qui semblent suffisantes en temps normal, mais qui deviennent instables lorsque les régimes de précipitations changent ou que la demande augmente.

Un site viable doit répondre simultanément à plusieurs critères :

Disponibilité à l’année, et non fluctuante selon les saisons

Sources multiples et indépendantes, réduisant le risque de pénurie unique

Renouvellement naturel, comme des précipitations régulières ou la fonte des neiges

Proximité et accessibilité, permettant une utilisation quotidienne sans dépense énergétique excessive

L’importance de l’accessibilité est souvent sous-estimée. Dans un système sans transport mécanisé ni distribution centralisée, l’effort physique nécessaire pour collecter et transporter l’eau devient une contrainte quotidienne. Même une source d’eau fiable peut devenir impraticable si son accès exige beaucoup de temps ou d’énergie.

De plus, la qualité de l’eau doit être prise en compte. En cas de catastrophe, les risques de contamination augmentent en raison de la défaillance des systèmes d'assainissement, du ruissellement agricole ou des perturbations environnementales. Les zones dotées de systèmes de filtration naturels, comme les nappes phréatiques ou les cours d'eau, sont généralement plus résistantes que les eaux stagnantes.

Un avertissement alarmant suscite l'inquiétude à travers le pays, laissant présager que des millions d'Américains pourraient être confrontés à une crise dévastatrice d'ici le 27 avril 2026. Certains experts affirment qu'une série d'événements imprévus pourrait entraîner un effondrement financier généralisé, des pertes de logements et des pannes de courant majeures, affectant la vie quotidienne.

Regardez la vidéo ci-dessous pour en savoir plus et découvrir ce qui nous attend.

- voir sur site -

Potentiel des sols et de l'agriculture

La production alimentaire représente l'un des défis les plus complexes pour la survie à long terme. Si les stratégies à court terme peuvent s'appuyer sur les réserves ou la cueillette, un mode de vie durable exige la capacité de cultiver des plantes de manière fiable. Ceci induit une dépendance à la qualité des sols, souvent mal comprise ou négligée dans la planification territoriale.

Le type de sol le plus adapté à l'agriculture générale est le limon, un mélange équilibré de sable, de limon et d'argile. Cette composition assure :

un drainage adéquat sans perte d'eau excessive ;

une rétention suffisante des nutriments ;

une stabilité structurale propice au développement racinaire.

Un sol qui s'écarte sensiblement de cet équilibre présente des limitations. Les sols sableux, par exemple, drainent l'eau trop rapidement et nécessitent une irrigation constante, tandis que les sols argileux retiennent l'eau excessivement, ce qui endommage les racines et réduit la disponibilité en oxygène. Dans les deux cas, la productivité diminue à moins que des mesures correctives ne soient prises, ce qui peut s'avérer impossible sans apports extérieurs.

Outre la composition, la profondeur et la consistance du sol jouent également un rôle. Les sols minces ou rocailleux, souvent présents dans les régions montagneuses, peuvent supporter une végétation limitée mais sont moins propices à une agriculture durable. Il en résulte un compromis entre isolement et productivité, notamment dans les régions par ailleurs attractives en raison de leur faible densité de population.

Pluviométrie et risque de sécheresse

La pluviométrie est le principal facteur de renouvellement naturel de l'eau et de la viabilité agricole. Cependant, le total annuel des précipitations ne suffit pas à lui seul. La répartition et la variabilité des précipitations sont tout aussi importantes. Une région recevant des précipitations annuelles adéquates, mais irrégulières ou extrêmes, peut néanmoins subir des périodes de sécheresse ou d'inondations perturbant la production alimentaire.

Un seuil général pour une agriculture durable est le suivant :

un minimum d'environ 50 cm de précipitations annuelles.

Les régions en deçà de ce seuil ont souvent besoin de systèmes d'irrigation pour maintenir les rendements agricoles, systèmes qui pourraient ne pas être disponibles après un effondrement de la situation. À l'inverse, les régions connaissant des précipitations excessives peuvent être confrontées à des problèmes d'érosion des sols, d'inondations et de maladies des cultures.

Le risque de sécheresse est particulièrement important car il se développe progressivement et peut persister pendant plusieurs saisons. Contrairement aux catastrophes soudaines, la sécheresse réduit la productivité progressivement, ce qui la rend difficile à identifier et à enrayer avant qu'elle n'ait déjà affecté l'approvisionnement alimentaire. Les régions présentant des régimes de précipitations historiquement stables sont donc préférables à celles où les précipitations sont très variables, même si la pluviométrie moyenne semble suffisante.

Potentiel des sols et de l'agriculture

La production alimentaire représente l'un des défis les plus complexes pour la survie à long terme. Si les stratégies à court terme peuvent s'appuyer sur les réserves ou la cueillette, un mode de vie durable exige la capacité de cultiver des plantes de manière fiable. Ceci induit une dépendance à la qualité des sols, souvent mal comprise ou négligée dans la planification territoriale.

Le type de sol le plus adapté à l'agriculture générale est le limon, un mélange équilibré de sable, de limon et d'argile. Cette composition assure :

un drainage adéquat sans perte d'eau excessive ;

une rétention suffisante des nutriments ;

une stabilité structurale propice au développement racinaire.

Un sol qui s'écarte sensiblement de cet équilibre présente des limitations. Les sols sableux, par exemple, drainent l'eau trop rapidement et nécessitent une irrigation constante, tandis que les sols argileux retiennent l'eau excessivement, ce qui endommage les racines et réduit la disponibilité en oxygène. Dans les deux cas, la productivité diminue à moins que des mesures correctives ne soient prises, ce qui peut s'avérer impossible sans apports extérieurs.

Outre la composition, la profondeur et la consistance du sol jouent également un rôle. Les sols minces ou rocailleux, souvent présents dans les régions montagneuses, peuvent supporter une végétation limitée mais sont moins propices à une agriculture durable. Il en résulte un compromis entre isolement et productivité, notamment dans les régions par ailleurs attractives en raison de leur faible densité de population.

Pluviométrie et risque de sécheresse

La pluviométrie est le principal facteur de renouvellement naturel de l'eau et de la viabilité agricole. Cependant, le total annuel des précipitations ne suffit pas à lui seul. La répartition et la variabilité des précipitations sont tout aussi importantes. Une région recevant des précipitations annuelles adéquates, mais irrégulières ou extrêmes, peut néanmoins subir des périodes de sécheresse ou d'inondations perturbant la production alimentaire.

Un seuil général pour une agriculture durable est le suivant :

un minimum d'environ 50 cm de précipitations annuelles.

Les régions en deçà de ce seuil ont souvent besoin de systèmes d'irrigation pour maintenir les rendements agricoles, systèmes qui pourraient ne pas être disponibles après un effondrement de la situation. À l'inverse, les régions connaissant des précipitations excessives peuvent être confrontées à des problèmes d'érosion des sols, d'inondations et de maladies des cultures.

Le risque de sécheresse est particulièrement important car il se développe progressivement et peut persister pendant plusieurs saisons. Contrairement aux catastrophes soudaines, la sécheresse réduit la productivité progressivement, ce qui la rend difficile à identifier et à gérer avant qu'elle n'ait déjà affecté l'approvisionnement alimentaire. Les régions bénéficiant de régimes de précipitations historiquement stables sont donc plus intéressantes que celles où les précipitations sont très variables, même si les précipitations moyennes semblent suffisantes.

Climat et saisons de croissance

Le climat détermine non seulement ce qui peut être cultivé, mais aussi la fréquence des cultures. La durée de la saison de croissance – définie par la période entre les dernières gelées et les premières – influe directement sur le rendement agricole.

Les saisons de croissance courtes, typiques des régions nordiques ou de haute altitude, limitent la production à une seule récolte par an. Cela accroît la dépendance au stockage et à la conservation des aliments, car les possibilités de compenser les mauvaises récoltes sont plus rares. Les saisons de croissance plus longues, plus fréquentes dans les régions méridionales, permettent plusieurs cycles de plantation et une plus grande diversité de cultures, mais elles coïncident souvent avec une densité de population plus élevée et une exposition accrue aux risques liés à l'activité humaine.

Cela introduit un autre compromis :

les régions plus froides offrent un isolement accru, mais exigent une préparation plus poussée ;

les régions plus chaudes facilitent l’agriculture, mais augmentent l’exposition aux pressions extérieures.

Un emplacement optimal équilibre ces facteurs, offrant un climat gérable sans engendrer une vulnérabilité excessive.

Couverture forestière et diversité des ressources

Les forêts jouent un rôle multifacette dans les environnements propices à la survie. Outre leur utilisation évidente comme source de bois et de combustible, elles contribuent à la stabilité écologique et à la diversité des ressources. Les régions forestières tendent à abriter une faune et une flore plus diversifiées, augmentant ainsi la disponibilité de sources alimentaires complémentaires et de matières premières.

Cependant, la densité forestière doit être évaluée avec soin. Si un niveau minimal de couverture est bénéfique, une densité excessive peut réduire les terres arables, limiter l’ensoleillement et compliquer les déplacements. Les environnements les plus adaptés présentent généralement un équilibre entre les espaces ouverts et les zones boisées.

Une recommandation pratique :

une couverture forestière d’au moins 25 %, sans saturation complète.

Cela permet à la fois l’activité agricole et l’extraction des ressources, sans dépendance excessive à un seul type de terrain.

La faune sauvage comme ressource complémentaire

La faune sauvage constitue un élément important, mais souvent surestimé, de la planification de la survie. Si la chasse peut compléter l'alimentation, elle ne saurait constituer une source principale de nutrition sur le long terme, en particulier dans les zones à forte présence humaine.

La pérennité des populations fauniques dépend de plusieurs facteurs :

qualité de l'habitat et équilibre des écosystèmes

niveaux de population avant l'effondrement

pression de chasse après l'effondrement

Dans les régions à faible densité de population et aux écosystèmes robustes, la faune sauvage peut demeurer une ressource viable. Cependant, dans les zones de forte concentration humaine, les populations de gibier peuvent décliner rapidement.

C'est pourquoi la faune sauvage doit être considérée comme une ressource secondaire plutôt que comme une stratégie principale.

Exposition aux catastrophes naturelles

La stabilité environnementale ne se définit pas uniquement par les conditions moyennes, mais aussi par la fréquence et la gravité des événements perturbateurs. Certaines régions des États-Unis sont régulièrement touchées par des catastrophes naturelles susceptibles de compromettre la survie à long terme, même en présence de conditions favorables par ailleurs.

Les facteurs de risque élevés comprennent :

l’exposition aux ouragans dans les régions côtières

la fréquence des tornades dans les plaines centrales

le risque d’incendies de forêt dans les zones forestières sèches

les bassins fluviaux sujets aux inondations

Bien qu’aucun lieu ne soit totalement à l’abri des risques, les zones où la fréquence et l’intensité des catastrophes sont plus faibles offrent une base plus solide pour la planification à long terme. Dans ce contexte, éviter une catastrophe majeure est plus important que de maximiser les conditions idéales.

Convergence des contraintes environnementales

Lorsque l'on considère l'ensemble des facteurs environnementaux (eau, sol, précipitations, climat, forêts et risques de catastrophes), le nombre de régions viables diminue considérablement. Cette convergence ne constitue pas un défaut d'analyse, mais reflète la réalité. Les environnements véritablement durables sont rares, et la plupart des sites ne répondent pas à un ou plusieurs critères essentiels.

Les régions restantes présentent généralement un profil commun :

accès constant à l'eau douce

climat tempéré avec des variations saisonnières gérables

sol propice à l'agriculture sans modifications importantes

relief équilibré avec des espaces ouverts et des ressources forestières

faible exposition aux catastrophes naturelles extrêmes

À ce stade, l'analyse a permis d'éliminer les sites socialement instables ou écologiquement non durables. Il ne reste que des zones où la survie n'est pas garantie, mais réaliste.

L'étape suivante consiste à évaluer ces sites non seulement en termes de survie, mais aussi en termes de viabilité à long terme : le fonctionnement des communautés, la gestion collective des ressources et les perspectives de rétablissement ou de stabilisation.

Structure communautaire et viabilité à long terme

Une fois l'exposition humaine et la viabilité environnementale maîtrisées, un troisième facteur devient incontournable : le rôle des autres, non pas comme une menace immédiate, mais comme une nécessité structurelle. C'est à ce stade que de nombreux modèles de survie divergent de la réalité, car ils reposent trop sur l'hypothèse qu'un individu – voire un petit ménage – peut maintenir une stabilité durable en vase clos. Si la survie à court terme est envisageable dans ces conditions, la pérennité sur plusieurs années exige un niveau de coopération et de spécialisation qu'une seule personne ou un groupe fermé ne peut assurer.

La raison n'est pas philosophique, mais pratique. Les systèmes modernes répartissent la complexité au sein de vastes réseaux d'individus, chacun spécialisé dans un domaine précis. Lorsque ces systèmes dysfonctionnent, la complexité ne disparaît pas ; elle se localise. Les tâches autrefois gérées de l'extérieur – soins médicaux, réparations mécaniques, production alimentaire, gestion de l'eau – doivent désormais être prises en charge par un groupe beaucoup plus restreint. Sans une certaine division du travail, la charge devient insoutenable.

Ceci introduit un paradoxe. L'analyse menée jusqu'à présent s'est concentrée sur la réduction de l'exposition humaine, la minimisation des contacts avec les grandes populations et l'évitement des zones à forte densité ou instables. Parallèlement, un isolement complet n'est pas envisageable. L'objectif n'est pas d'éliminer toute présence humaine, mais d'identifier les environnements où une petite communauté fonctionnelle et relativement stable peut exister sans être submergée par les pressions extérieures.

Le rôle de la répartition des compétences au sein d'une population

Toutes les communautés ne sont pas égales quant à leur capacité d'adaptation. Deux régions présentant une densité de population et des conditions environnementales similaires peuvent aboutir à des résultats très différents selon les compétences, les connaissances et les comportements de leurs habitants.

En l'absence de systèmes centralisés, certaines compétences acquièrent une valeur disproportionnée :

connaissances médicales de base et d'urgence

compétences en réparation mécanique et technique

expérience en agriculture et en gestion des terres

construction et transformation des matériaux

capacités d'organisation et de prise de décision

Ces compétences n'ont pas besoin d'être uniformément réparties, mais elles doivent exister au sein du groupe. Une communauté composée exclusivement d'individus ayant des profils similaires — en particulier ceux qui dépendent fortement d'un travail de service ou abstrait — peut avoir des difficultés à s'adapter lorsque les tâches pratiques deviennent prédominantes.

L'éducation comme indicateur d'adaptabilité

Si l'éducation formelle ne garantit pas la capacité de survie, elle constitue un indicateur utile de certaines aptitudes cognitives et comportementales, notamment :

la capacité à résoudre des problèmes

la capacité à apprendre de nouveaux systèmes

la familiarité avec les connaissances techniques ou scientifiques

l'adaptabilité face à des conditions changeantes

C'est pourquoi les régions où la proportion de personnes instruites est plus élevée peuvent avoir un avantage, non pas grâce à leurs diplômes, mais grâce à leur capacité à réorganiser leurs connaissances dans des contextes nouveaux.

Un critère pratique souvent utilisé en analyse démographique est le suivant :

au moins 20 % de la population ayant fait des études supérieures

Cela n'implique pas que les populations non instruites soient incapables de s'adapter, mais plutôt qu'un certain niveau de diversité des connaissances augmente la probabilité que les problèmes critiques puissent être résolus en interne.

AVERTISSEMENT : Ce que cette caméra embarquée de police a filmé à 3 h du matin vous laissera sans voix…

Ils pensaient que c'était une nuit comme les autres… jusqu'à ce que CECI apparaisse au milieu de la route. Cliquez pour voir la suite.

Les économies locales comme indicateurs de résilience

La structure économique d'avant l'effondrement peut éclairer le fonctionnement d'une région après une perturbation systémique. Les économies reposant principalement sur des services abstraits ou des dépendances externes peuvent avoir des difficultés à se réorienter, tandis que celles ancrées dans la production physique – agriculture, extraction de ressources et industrie manufacturière de base – sont mieux adaptées aux exigences post-effondrement.

Les principaux indicateurs de résilience sont les suivants :

présence d'industries agricoles ou agroalimentaires

accès aux ressources naturelles (bois, minéraux, ressources en eau)

infrastructures locales favorisant la production plutôt que la consommation

preuves d'un emploi stable ou en croissance dans les secteurs liés aux ressources

Ces facteurs suggèrent que la région fonctionne déjà, au moins partiellement, dans le cadre des contraintes qui définiront l'environnement post-effondrement.

Croissance de l'emploi et stabilité pré-effondrement

Bien qu'il puisse paraître paradoxal de considérer la croissance de l'emploi dans un scénario d'effondrement, elle constitue une mesure indirecte de la santé systémique avant la perturbation. Les régions connaissant une activité économique et une croissance soutenues présentent généralement :

une gouvernance locale fonctionnelle

des communautés dynamiques

des infrastructures bien entretenues

une population stable

Ces caractéristiques ne garantissent pas la résilience, mais elles indiquent que la région était capable de se maintenir en conditions normales. Cette stabilité de base peut influencer sa capacité d’adaptation face à l’évolution de ces conditions.

Un seuil général utilisé dans le filtrage économique est le suivant :

Croissance de l’emploi de 2,5 % ou plus ces dernières années.

Cet indicateur permet d’exclure les zones déjà en déclin avant toute pression extérieure.

Facteurs culturels et comportements :

La culture est peut-être la variable la plus difficile à quantifier, mais aussi l’une des plus influentes. Non pas au sens abstrait, mais en termes de comportement des individus sous pression, d’interactions et d’autonomie.

Certaines communautés entretiennent des réseaux locaux solides, des systèmes de soutien informels et un savoir-faire pratique en matière de gestion des terres et des ressources. D’autres dépendent fortement de systèmes externes et peuvent manquer de l’expérience nécessaire pour fonctionner de manière indépendante.

Les indicateurs de comportements culturels plus résilients comprennent :

la familiarité avec la vie rurale ou semi-rurale ;

des pratiques d’autosuffisance existantes (jardinage, chasse, travaux de réparation) ;

une moindre dépendance aux services centralisés ;

une identité locale et une coopération plus fortes.

Ces caractéristiques n’éliminent pas les conflits ni les échecs, mais elles augmentent la probabilité qu’une communauté puisse maintenir une certaine cohésion en situation de crise.

Réduction du champ d'application : convergence de tous les facteurs

À ce stade, l'analyse intègre les trois niveaux suivants :

Facteurs humains : faible densité de population, éloignement des villes, exposition réduite aux infrastructures

Facteurs environnementaux : disponibilité en eau, qualité des sols, stabilité climatique, diversité des ressources

Facteurs communautaires : répartition des compétences, niveaux d'éducation, résilience économique, adaptabilité culturelle

Appliqués simultanément, ces filtres éliminent la majeure partie des États-Unis. Il ne reste alors que des régions relativement petites et dispersées qui répondent aux critères minimaux dans toutes les catégories.

Ces zones ne sont pas idéales. En réalité, elles impliquent souvent des compromis :

climats plus rigoureux en échange d'un isolement

accessibilité limitée en échange d'une exposition réduite

populations plus faibles en échange d'une moindre concurrence pour les ressources

Cependant, elles représentent ce qui se rapproche le plus d'un environnement de survie équilibré.

Régions candidates finales

Après application de tous les critères, plusieurs comtés se distinguent comme des options viables :

Comté d’Archuleta, Colorado

Comté de Hinsdale, Colorado

Comté de San Juan, Colorado

Comté de Hubbard, Minnesota

Comté de Highland, Virginie

Chacune de ces régions satisfait aux exigences fondamentales dans une large mesure, mais aucune n’est exempte de limitations. La dernière étape de l’analyse consiste à comparer directement ces régions, à identifier leurs points faibles et à déterminer les compromis les plus acceptables.

Élimination préliminaire basée sur les contraintes critiques

À ce stade de sélection, l’accent est mis non plus sur l’identification des atouts, mais sur celle des vulnérabilités.

Comté de Highland, Virginie

Bien que viable sur le plan environnemental et relativement stable, son accessibilité et sa proximité avec des régions plus peuplées augmentent le risque d'exposition à long terme.

Comté d'Archuleta, Colorado

Profil global favorable, mais comparativement plus faible en termes de constance de l'eau et de disponibilité de la faune sauvage par rapport aux autres comtés candidats.

Comté de San Juan, Colorado

Géographiquement favorable, mais présente des indicateurs de pauvreté et d'instabilité plus élevés, ce qui peut se traduire par un risque accru en cas de crise.

Après ces éliminations, deux comtés candidats principaux subsistent, chacun présentant un équilibre différent de facteurs.

Cadre de comparaison final

Les régions restantes sont :

Comté de Hubbard, Minnesota

Comté de Hinsdale, Colorado

La distinction entre ces deux comtés ne tient pas à leur viabilité, mais à leurs priorités. Tous deux répondent aux critères de base, mais privilégient différents aspects de la survie :

l'un privilégie la stabilité environnementale et l'abondance des ressources

l'autre privilégie l'isolement et la réduction de l'exposition humaine

La décision finale dépend donc de la contrainte jugée la plus critique dans un scénario d'effondrement à long terme.

À ce stade, l'analyse passe du filtrage à l'évaluation, où les compromis deviennent incontournables et les priorités doivent être explicitement définies.

Évaluation finale : définition du risque principal

À ce stade, l'analyse ne vise plus à identifier des sites viables, mais à déterminer quels risques sont les plus acceptables et lesquels sont les moins maîtrisables. Les deux régions restantes – le comté de Hubbard (Minnesota) et le comté de Hinsdale (Colorado) – répondent aux critères essentiels sur les plans humain, environnemental et communautaire. La différence entre elles ne réside pas dans leurs capacités, mais dans le type de pression auquel elles sont le plus susceptibles d'être confrontées au fil du temps.

C'est là que l'évaluation devient moins objective et plus stratégique. Il n'existe pas de réponse « idéale » universelle, car différents scénarios d'effondrement mettent l'accent sur différentes contraintes. Cependant, un principe demeure constant dans la plupart des modèles : la variable la plus dangereuse est celle que l'on ne peut ni prévoir ni contrôler.

Les défis environnementaux, bien que complexes, tendent à suivre des schémas. Les saisons évoluent dans des limites connues, les précipitations varient dans les limites historiques et les contraintes agricoles, bien qu'exigeantes, peuvent être étudiées et adaptées au fil du temps. Le comportement humain, en revanche, devient de plus en plus imprévisible à mesure que le stress augmente. De petits changements de perception peuvent entraîner des réactions disproportionnées, et une fois que le mouvement prend de l'ampleur, il est difficile d'anticiper où la pression se concentrera.

Pour cette raison, la omparaison finale doit s'articuler autour d'une question centrale :

Vaut-il mieux privilégier la stabilité des ressources ou la réduction de l'exposition humaine ?

Comté de Hubbard, Minnesota : stabilité des ressources et constance environnementale

Le comté de Hubbard constitue un modèle de fiabilité environnementale. Sa principale force réside dans la constance de ses systèmes naturels, notamment la disponibilité en eau et la stabilité des écosystèmes. La région abrite un réseau dense de lacs et de rivières, offrant de multiples sources d'eau douce moins vulnérables aux fluctuations à court terme. Conjuguée à une couverture forestière modérée et à des sols relativement fertiles, cette situation crée un environnement équilibré, propice à l'agriculture et à des sources alimentaires complémentaires.

Les principaux avantages sont les suivants :

des systèmes d'eau douce abondants et redondants

des écosystèmes stables abritant la faune sauvage

une qualité de sol suffisante pour une agriculture diversifiée

une densité de population modérée avec une pression urbaine limitée

Ces facteurs, pris ensemble, réduisent le risque de rupture des ressources, l'une des principales causes d'instabilité à long terme. De plus, l'activité agricole existante dans la région suggère que la production alimentaire est déjà viable sans modifications importantes.

Cependant, ces avantages sont contrebalancés par plusieurs contraintes qui s'accentuent avec le temps.

La principale limitation est le climat. Les régions nordiques se caractérisent par des saisons de croissance plus courtes et des hivers longs, ce qui impose des exigences strictes en matière de stockage et de conservation des aliments, ainsi que d'utilisation de l'énergie. La production agricole est concentrée sur une période plus restreinte, et toute perturbation durant celle-ci peut avoir des conséquences disproportionnées. Contrairement aux régions aux saisons de croissance plus longues, les possibilités de se remettre de mauvaises récoltes au cours de la même année sont plus limitées.

Parmi les autres facteurs à prendre en compte :

des hivers prolongés nécessitant une préparation importante ;

une capacité limitée à effectuer plusieurs récoltes par an ;

une dépendance accrue aux ressources stockées durant les mois hors culture.

Bien que ces difficultés soient gérables, elles impliquent une planification à long terme et une grande régularité. Un manque de préparation adéquate aux contraintes saisonnières peut entraîner des déficits cumulatifs difficiles à corriger.

Comté de Hinsdale, Colorado : isolement et faible pression humaine.

Le comté de Hinsdale illustre une approche différente de la survie, privilégiant l'isolement à la facilité d'accès à un environnement favorable. C'est l'une des régions les moins peuplées des États-Unis, dont les caractéristiques géographiques limitent naturellement l'accessibilité. Le relief montagneux, le réseau routier restreint et les conditions de vie relativement rudes constituent des barrières aux mouvements de population à grande échelle, réduisant ainsi la probabilité d'un afflux soudain de population.

Cet isolement représente un atout stratégique majeur.

Ses principaux atouts sont les suivants :

Une densité de population extrêmement faible

des barrières naturelles limitent l'accès et les déplacements

une moindre exposition aux migrations en provenance des centres urbains

une familiarité culturelle déjà établie avec la vie rurale et l'autonomie

Ces facteurs, pris ensemble, minimisent le facteur le plus instable en cas d'effondrement : la pression humaine extérieure. La région est moins susceptible de connaître une croissance démographique rapide, une concurrence accrue pour les ressources ou des conflits liés à d'importants déplacements de population.

Cependant, cet avantage a un revers qu'il convient d'évaluer avec soin.

Les conditions environnementales du comté de Hinsdale sont plus exigeantes que celles du Minnesota. La haute altitude et le relief montagneux imposent des contraintes à l'agriculture, notamment en termes de profondeur du sol et de durée de la saison de croissance. Bien que l'eau soit disponible grâce à la fonte des neiges et aux cours d'eau naturels, son accessibilité peut varier selon le lieu et la saison.

Les contraintes comprennent :

des saisons de croissance plus courtes et moins prévisibles en raison de l’altitude

des surfaces cultivables limitées

des difficultés accrues en matière de transport et de mobilité

des conditions de vie plus rudes exigeant une résilience de base plus élevée

Contrairement au Minnesota, où l’environnement offre une certaine stabilité, le comté de Hinsdale requiert un niveau d’adaptation et d’efficacité plus élevé. Les erreurs sont moins tolérées et les marges de tolérance plus faibles.

Analyse comparative : stabilité versus contrôle

D’un point de vue structurel, la différence entre les deux régions peut se résumer ainsi :

Le comté de Hubbard réduit les risques environnementaux, mais accepte une exposition humaine modérée.

Le comté de Hinsdale réduit l’exposition humaine, mais accepte des contraintes environnementales plus importantes.

Cette distinction est cruciale car elle reflète deux stratégies de survie fondamentalement différentes.

Stratégie 1 : optimiser la disponibilité des ressources

Choisir le Minnesota privilégie la constance. L’environnement y est plus clément, l’eau y est abondante et l’agriculture plus fiable. Cette approche suppose que les risques liés à l’activité humaine peuvent être gérés ou resteront limités en raison des contraintes de distance et de densité

Stratégie 2 : Optimiser l’isolement

Le choix du Colorado privilégie le contrôle. En minimisant l’exposition aux autres, on réduit la probabilité de perturbations externes imprévisibles. Cette approche part du principe que les défis environnementaux, bien que difficiles à gérer, peuvent être surmontés au fil du temps.

Le rôle de l’imprévisibilité dans les résultats à long terme

Lors de l’évaluation de ces stratégies, il est important de considérer les variables les plus susceptibles d’entraîner une catastrophe. Les défis environnementaux tendent à dégrader les systèmes progressivement. Les rendements agricoles diminuent, l’eau devient moins accessible et les conditions se détériorent avec le temps, offrant ainsi des possibilités d’adaptation.

En revanche, les perturbations d’origine humaine peuvent survenir rapidement et presque sans prévenir. Un afflux soudain de population peut submerger les ressources locales, engendrer des conflits et déstabiliser des systèmes auparavant fonctionnels en peu de temps. Une fois ce processus enclenché, il est difficile de l’inverser.

C’est pourquoi de nombreux modèles de survie à long terme privilégient la réduction de l’exposition humaine à l’optimisation des conditions environnementales. Bien que cela n’élimine pas le risque, cela permet de s’attaquer à la variable la moins prévisible et la plus difficile à gérer.

Décision finale

Sur la base de l'analyse combinée des facteurs humains, environnementaux et communautaires, ainsi que de l'impact relatif des variables imprévisibles, un emplacement se distingue comme le choix le plus stratégiquement avantageux :

Une densité de population extrêmement faible

des barrières naturelles limitent l'accès et les déplacements

une moindre exposition aux migrations en provenance des centres urbains

une familiarité culturelle déjà établie avec la vie rurale et l'autonomie

Ces facteurs, pris ensemble, minimisent le facteur le plus instable en cas d'effondrement : la pression humaine extérieure. La région est moins susceptible de connaître une croissance démographique rapide, une concurrence accrue pour les ressources ou des conflits liés à d'importants déplacements de population.

Cependant, cet avantage a un revers qu'il convient d'évaluer avec soin.

Les conditions environnementales du comté de Hinsdale sont plus exigeantes que celles du Minnesota. La haute altitude et le relief montagneux imposent des contraintes à l'agriculture, notamment en termes de profondeur du sol et de durée de la saison de croissance. Bien que l'eau soit disponible grâce à la fonte des neiges et aux cours d'eau naturels, son accessibilité peut varier selon le lieu et la saison.

Les contraintes comprennent :

des saisons de croissance plus courtes et moins prévisibles en raison de l’altitude

des surfaces cultivables limitées

des difficultés accrues en matière de transport et de mobilité

des conditions de vie plus rudes exigeant une résilience de base plus élevée

Contrairement au Minnesota, où l’environnement offre une certaine stabilité, le comté de Hinsdale requiert un niveau d’adaptation et d’efficacité plus élevé. Les erreurs sont moins tolérées et les marges de tolérance plus faibles.

Analyse comparative : stabilité versus contrôle

D’un point de vue structurel, la différence entre les deux régions peut se résumer ainsi :

Le comté de Hubbard réduit les risques environnementaux, mais accepte une exposition humaine modérée.

Le comté de Hinsdale réduit l’exposition humaine, mais accepte des contraintes environnementales plus importantes.

Cette distinction est cruciale car elle reflète deux stratégies de survie fondamentalement différentes.

Stratégie 1 : optimiser la disponibilité des ressources

Choisir le Minnesota privilégie la constance. L’environnement y est plus clément, l’eau y est abondante et l’agriculture plus fiable. Cette approche suppose que les risques liés à l’activité humaine peuvent être gérés ou resteront limités en raison des contraintes de distance et de densité.

Stratégie 2 : Optimiser l’isolement

Le choix du Colorado privilégie le contrôle. En minimisant l’exposition aux autres, on réduit la probabilité de perturbations externes imprévisibles. Cette approche part du principe que les défis environnementaux, bien que difficiles à gérer, peuvent être surmontés au fil du temps.

Le rôle de l’imprévisibilité dans les résultats à long terme

Lors de l’évaluation de ces stratégies, il est important de considérer les variables les plus susceptibles d’entraîner une catastrophe. Les défis environnementaux tendent à dégrader les systèmes progressivement. Les rendements agricoles diminuent, l’eau devient moins accessible et les conditions se détériorent avec le temps, offrant ainsi des possibilités d’adaptation.

En revanche, les perturbations d’origine humaine peuvent survenir rapidement et presque sans prévenir. Un afflux soudain de population peut submerger les ressources locales, engendrer des conflits et déstabiliser des systèmes auparavant fonctionnels en peu de temps. Une fois ce processus enclenché, il est difficile de l’inverser.

C’est pourquoi de nombreux modèles de survie à long terme privilégient la réduction de l’exposition humaine à l’optimisation des conditions environnementales. Bien que cela n’élimine pas le risque, cela permet de s’attaquer à la variable la moins prévisible et la plus difficile à gérer.

Décision finale

Sur la base de l'analyse combinée des facteurs humains, environnementaux et communautaires, ainsi que de l'impact relatif des variables imprévisibles, un emplacement se distingue comme le choix le plus stratégiquement avantageux :

Comté de Hinsdale, Colorado

Cette conclusion ne repose pas sur la perfection, mais sur une hiérarchisation des risques. La région n'offre pas les conditions environnementales les plus favorables, ni la voie la plus facile vers la durabilité. Cependant, elle réduit considérablement la probabilité de perturbations externes majeures, qui représentent le risque le plus difficile à atténuer une fois qu'il survient.

Considérations finales

Il est important de souligner qu'aucun lieu ne garantit la survie. Chaque environnement impose ses propres contraintes, et le succès dépend de la capacité à s'y adapter au fil du temps. L'objectif de cette analyse n'est pas d'identifier un lieu « sûr », mais de réduire l'exposition aux risques les plus critiques tout en préservant la possibilité d'une durabilité à long terme.

En définitive, le lieu n'est qu'un élément d'un système plus vaste qui inclut la préparation, les connaissances et la capacité de réagir à l'évolution de la situation. Un environnement bien choisi peut constituer un avantage, mais il ne peut compenser un manque d'adaptabilité ou de planification.

Conclusion

La question de savoir où vivre pendant et après un effondrement de la société ne peut être résolue par la seule intuition. Cela exige une évaluation structurée des risques concurrents, une compréhension des défaillances systémiques et une volonté de privilégier les contraintes plutôt que les préférences.

Lorsque tous les facteurs pertinents sont pris en compte – dynamique démographique, viabilité environnementale et résilience communautaire – le nombre d'options viables devient extrêmement limité. Parmi celles-ci, la stratégie la plus efficace ne consiste pas nécessairement à rechercher l'environnement le plus confortable ou le plus riche en ressources, mais à minimiser l'exposition aux variables les moins maîtrisables.

Dans ce contexte, l'isolement devient une forme de stabilité et la difficulté, une forme de protection.

Le comté de Hinsdale n'est pas l'endroit le plus facile à vivre.

Mais dans les conditions décrites, il pourrait bien être l'un des rares endroits où la survie à long terme reste réaliste.

https://madgewaggy.blogspot.com/2026/03/the-day-everything-stopped-only-places.html


*

4 - A savoir si c'est une guerre économique (ça dure plusieurs jours), une guerre nucléaire (là, dans quelques heures c'est Fukushima ! Observez le vent) ou une guerre EMP (dans ce cas, si vous êtes au travail ou sur la route: tout s'arrête ! Vous devez rentrer à pieds.

Arrivé chez vous, si c'est une guerre économique ou nucléaire votre voiture fonctionne. Donc, vous accrochez derrière votre remorque sur laquelle trône un bateau (la barque était planquée dans le garage). Vous avez tout prévu: bouteilles de gaz, cannes à pêche, imperméable et de la bouffe. Vous partez jusqu'au fleuve ou bord de l'océan. Mettez votre barque à l'eau et hop ! Vous suivez le courant ! Arrivé à l'océan, là, vous allez manger du poisson frais tous les jours ! Vous ne connaissez pas la navigation ? Moi non plus ! Alors, laissez vous porter par les courants océaniques ! Vous atterrirez un jour une île. Ils vécurent heureux et eurent beaucoup d'enfants!

Les mers & océans couvrent 78 % de notre planète ! Chance de recevoir une bombe ? 1 sur 100 000 000 000 000 000 !

Pour celles et ceux qui restent à terre, là, c'est différent. Madge Waggy dans sa grotte ou cachée dans son trou de lapins...


*

5 -Victoire historique pour la liberté d’expression aux États-Unis : le Consent Decree dans l’affaire Missouri v. Biden met un coup d’arrêt à la censure gouvernementale sur les réseaux sociaux


Le Collectif citoyen et Xavier Azalbert, France-Soir

 le 25 mars 2026 - 01:00


Le 23 mars 2026, les parties dans l’affaire emblématique Missouri v. Biden (désormais renommée sous l’administration Trump) ont conclu un Consent Decree (décret de consentement), approuvé par le juge Terry Doughty du tribunal fédéral de Louisiane occidentale. Ce règlement met fin à un procès historique sur la censure gouvernementale induite sur les réseaux sociaux. Il s’agit d’une victoire majeure pour les plaignants – les États du Missouri et de Louisiane, ainsi que les citoyens Jill Hines, le Dr Aaron Kheriaty et Jim Hoft – contre ce qu’ils qualifient de « opération coordonnée de censure » orchestrée par l’administration Biden précédente.

Ce décret, d’une durée de 10 ans, interdit formellement à trois entités fédérales (le Surgeon General, les Centres pour le contrôle et la prévention des maladies – CDC – et l’Agence de cybersécurité et de sécurité des infrastructures – CISA) de menacer ou de contraindre les grandes plateformes (Facebook, Instagram, X/Twitter, LinkedIn et YouTube) pour supprimer, dépublier ou réduire le contenu protégé par le Premier Amendement des plaignants. Il marque un tournant dans la jurisprudence sur la liberté d’expression à l’ère numérique.

 - voir cadre sur site -

Contexte de l’affaire : une bataille contre la « censure par procuration »

L’affaire remonte à 2022. Les plaignants accusaient l’administration Biden d’avoir exercé une pression coercitive massive sur les réseaux sociaux pour censurer des contenus jugés « gênants » : informations sur le COVID-19 (efficacité des vaccins, origines du virus, traitements alternatifs), l’affaire du laptop de Hunter Biden (juste avant l’élection de 2020) et des doutes sur l’intégrité du scrutin présidentiel. Des preuves issues de la découverte (emails, réunions, menaces de régulation ou de retrait de la Section 230) ont révélé un système de « whole-of-government » où des hauts fonctionnaires contactaient quotidiennement les plateformes pour exiger des suppressions.

 - voir cadre sur site -

Le juge Doughty avait accordé une injonction préliminaire en 2023, qualifiant la situation d’« orwellienne ». La Cour d’appel du 5e Circuit l’avait confirmée en partie. La Cour suprême, dans Murthy v. Missouri (2024), avait annulé l’injonction pour un motif de standing (les plaignants n’avaient pas prouvé un préjudice direct imputable au gouvernement pour une injonction préliminaire), sans jamais trancher le fond du dossier. L’affaire a continué. 

 - voir cadre sur site -

Avec le retour de Donald Trump en 2025 et son Executive Order 14149 (« Rétablissement de la liberté d'expression et fin de la censure fédérale ») du 20 janvier 2025, qui condamnait explicitement ces pratiques, les parties ont opté pour un règlement amiable plutôt que des années de litige supplémentaire.

 - voir cadre sur site - 

Le décret reconnaît explicitement que les étiquettes « désinformation », « mésinformation » ou « malinformation » ne rendent pas un discours constitutionnellement protégé. Il cite la jurisprudence United States v. Alvarez (2012) : le Premier Amendement protège même les fausses déclarations dans le débat public.

 - voir cadre sur site -

Les enjeux : le Premier Amendement à l’épreuve des plateformes numériques

Au cœur du litige : le gouvernement peut-il contourner le Premier Amendement en « sous-traitant » la censure à des entreprises privées via des menaces (régulation, enquêtes antitrust, perte de protections légales) ? Les plaignants ont démontré que oui, avec des millions de posts supprimés. Les enjeux étaient énormes :

Sur la liberté d’expression : le gouvernement ne peut ni menacer ni diriger directement ou indirectement la modération de contenus protégés.

Sur l’indépendance des plateformes : le décret interdit aux agences visées de « diriger ou veto » les décisions de modération.

Sur les précédents judiciaires : il pose que la technologie moderne n’affaiblit pas les protections constitutionnelles.

Cependant, le décret est étroitement circonscrit : il ne s’applique qu’aux comptes des plaignants (les États du Missouri/Louisiane agissant en tant qu’entités officielles, et les individus via leurs comptes listés), uniquement sur les cinq plateformes citées, et uniquement pour du discours protégé (pas pour les activités criminelles ou menaces à la sécurité nationale). Il ne lie pas d’autres agences ni ne crée un droit général pour tous les citoyens.

 - voir cadre sur site -

Conséquences de la décision

Aux États-Unis : c’est une victoire symbolique et pratique. Les agences visées devront notifier tous leurs employés dans les 30 jours. En cas de violation, les plaignants peuvent saisir le tribunal après une période de remédiation de 15 jours. Le tribunal peut seulement ordonner le retrait ou l’annulation des déclarations illégales. Les plaignants obtiennent le statut de « parties victorieuses » pour les frais d’avocats (loi sur l’Equal Access to Justice). Cela empêche la répétition des pratiques sous cette administration et sert de dissuasion pour l’avenir. NCLA (New Civil Liberties Alliance), qui représentait Kheriaty et Hines, parle d’un « coup majeur contre la censure gouvernementale » et d’une « préservation puissante de la liberté d’expression ».

Les réactions ont été immédiates et enthousiastes : le Dr Aaron Kheriaty a réagi immédiatement sur X (ex-Twitter) le 24 mars 2026 : « ALERTE : Je suis ravi d'annoncer que nous avons enfin remporté la victoire aujourd'hui dans l'affaire Missouri contre Biden [...] Le CDC, la CISA et le Surgeon General des États-Unis sont désormais interdits de menacer les entreprises de réseaux sociaux pour qu'elles censurent des discours protégés par la Constitution sur leurs plateformes. » Des centaines de réactions saluent une « victoire historique pour la liberté d’expression et l’intégrité scientifique ». John Vecchione (NCLA) : « La liberté d’expression a été puissamment préservée par nos clients. » Mark Chenoweth (président NCLA) : « Les officiels fédéraux peuvent surveiller le discours illégal, mais ils n’ont aucun rôle pour décider si un discours est vrai ou faux. » 

 - voir cadre sur site -

 Le Dr Jayanta Bhattacharya (ancien plaignant et actuel directeur du NIH), qui avait dû quitter le camp des plaignants en raison de sa nomination, a salué la décision avec enthousiasme :

« Hourra ! Le décret de consentement dans l'affaire Missouri c. Biden est une victoire historique pour la liberté d'expression aux États-Unis. Bien que j'aie dû passer du côté gouvernemental dans cette affaire après être devenu directeur des NIH, je n'ai jamais été aussi satisfait de « perdre » de ma vie. Une victoire énorme pour tous les Américains. »

De son côte, le représentant Jim Jordan (président du Judiciary Committee) a également réagi :

« Une victoire pour le Premier Amendement. L'enquête de @JudiciaryGOP a révélé comment l'administration Biden a fait pression sur les grandes entreprises technologiques pour censurer la liberté d'expression américaine en ligne. Aujourd'hui, le gouvernement américain a signé un décret de consentement de 10 ans admettant enfin qu'il avait collaboré avec ces entreprises pour faire taire les Américains. Un pas de plus vers l'arrêt du complexe industriel de la censure. »

Pour l’Europe et les médias indépendants : le décret est purement américain et ne lie, dans sa configuration actuelle, ni Google ni l’Union européenne. 

Il illustre cependant les risques d’une censure « par procuration » que l’on observe aussi de ce côté de l’Atlantique. Le cas emblématique de France-Soir est parlant : en 2021, Google a déréférencé plus de 55 000 articles du média français (déclassement dans Google News, démonétisation publicitaire, suppression de vidéos YouTube) au motif qu’ils « contredisaient le consensus scientifique ou médical » sur le COVID-19 et « les règles de la communauté ». Ceci sans qu’aucune preuve de désinformation n’ait été fourni, et créant un précédent dans la disproportionnalité de la décision puisque cela représentait moins de 2% des articles de France-Soir. Des mesures similaires ont touché d’autres voix dissidentes en Europe (fermetures de comptes Facebook/Twitter, bannissements publicitaires). L’Union européenne, via le Digital Services Act (DSA), impose aux Very Large Online Platforms une modération renforcée des contenus « illégaux » ou « nuisibles », ce qui est parfois critiqué comme une porte ouverte à la censure d’État déguisée. Ce règlement américain pourrait inspirer des recours en Europe (devant la CEDH ou les tribunaux nationaux) ou alimenter le débat sur la nécessité de protéger la liberté d’expression contre les pressions gouvernementales indirectes. Il rappelle que les plateformes privées, même si elles ne sont pas liées par le Premier Amendement, deviennent de facto des « places publiques » dont la modération doit rester indépendante.

 - voir cadre sur site -

En résumé, ce Consent Decree (accord transactionnel) ne révolutionne pas l’ensemble du paysage numérique, mais il pose une limite claire et applicable aux abus de pouvoir gouvernementaux. Il consacre l’idée que la vérité n’est pas décrétée par l’État – même sous couvert de « lutte contre la désinformation » – et renforce le principe fondateur américain selon lequel la liberté d’expression doit primer. Une étape importante dans un combat qui, comme le montre l’exemple de France-Soir, dépasse largement les frontières des États-Unis.

https://www.francesoir.fr/politique-monde-societe-justice/victoire-historique-pour-la-liberte-d-expression-aux-etats-unis-le


*

6 - Les Français toujours favorables à ce que les autres paient les impôts à leur place


24 mars 2026


Le Crédoc (Centre de recherche pour l’étude et l’observation des conditions de vie) vient de mettre en ligne sa sixième étude « Sensibilité à l’environnement, action publique et fiscalité environnementale : l’opinion des Français », réalisée pour l’Ademe (Agence de la transition écologique).

Le premier constat est que la question environnementale est de moins en moins prioritaire pour les Français. En 2025, 63% des personnes interrogées se disaient inquiètes du changement climatique. C’était 71% en 2022. Le chiffre reste certes élevé – comment pourrait-il en être autrement avec les discours catastrophistes que les médias nous servent à longueur de journée –, mais il diminue, confirmant d’autres études récentes. De même, l’étude du Crédoc révèle que 21% des Français seulement placent l’environnement parmi leurs deux premiers sujets de préoccupation. Ils étaient 30% en 2023.

Pour les Français, les deux priorités du gouvernement devraient être le renforcement des services publics – hôpitaux, éducation… – (44%) et la limitation des dépenses publiques (35%). On notera aussi le recul spectaculaire de l’aide aux entreprises en difficulté qui baisse de 10 points pour s’établir à 9%.

S’agissant du financement de la transition écologique, les Français optent pour un accroissement des impôts sur le patrimoine des 10% des ménages les plus fortunés (60%) et pour un impôt progressif sur les sociétés (54%). En revanche, ils ne sont que 25% à accepter de payer personnellement plus d’impôts pour financer directement la défense de l’environnement. Ils ne sont même que 19% à accepter de payer plus de taxes sur les carburants, le gaz naturel et le fioul domestique. Qu’en serait-il aujourd’hui avec l’augmentation du prix des produits pétroliers ?

Nos compatriotes sont aussi favorables à des aides – pour acquérir un véhicule peu émetteur, louer une voiture électrique, rénover son logement… – identiques pour tous (35%) plutôt qu’à des aides ciblées sur les plus modestes (26%).

En résumé, les Français ne veulent pas payer personnellement pour financer les dépenses de transition écologique mais veulent pouvoir profiter des aides, tout en exigeant la limitation des dépenses publiques. Il est malheureux que le Crédoc n’ait pas pensé à interroger les sondés sur leurs contradictions.

L’illusion de la gratuité continue à faire des ravages. L’instauration d’un impôt de solidarité sur le revenu payé par tous comme le propose l’IREF permettrait notamment de responsabiliser les Français et éviterait qu’ils poussent à la dépense sans contribuer.

https://g/les-francais-toujours-favorables-a-ce-que-les-autres-paient-les-impots-a-leur-place/


*

7 -  Pourquoi les contribuables ne devraient plus financer les partis politiques


24 mars 2026t


En France, chaque contribuable finance des partis politiques qu’il ne soutient pas. Les partis politiques vont ainsi recevoir plus de 64 millions d’euros en 2026. Cette aide est répartie de manière proportionnelle en fonction du nombre de suffrages obtenus et du nombre de parlementaires rattachés à chaque parti. Les principaux bénéficiaires sont le Rassemblement National (14,7 millions d’euros), Ensemble ! (11 millions), le Parti socialiste (7,9 millions), Les Républicains (7,3 millions) et La France insoumise (6,6 millions). L’aide publique est la contrepartie du plafonnement des dons des personnes physiques (4 600 euros maximum pour un ou plusieurs candidats), et de l’interdiction des dons d’entreprises et autres personnes morales comme les associations.

Un système pernicieux

Présenté comme un garde-fou démocratique, ce système soulève des difficultés à plusieurs titres.

– Les contribuables sont obligés de financer des partis pour lesquels ils ne votent pas nécessairement. Le Parti communiste par exemple, qui n’a recueilli que 2,28 % des voix aux dernières élections présidentielles, va recevoir 2,1 millions d’euros de subventions en 2026. D’autres encore moins représentatifs, comme le Parti animaliste, ont déjà réussi à obtenir près de 411 000 euros au titre de la première fraction de l’aide publique aux partis en 2024.

– Le nombre des partis politiques a été multiplié par 3 depuis le début des années 2000 (d’environ 200 à l’époque, à 652 en 2025). Le système actuel incite les candidats à créer de toutes pièces des partis affiliés pour recevoir davantage de dons et les reverser au parti principal. Les partis ou groupements politiques sont en effet les seules personnes morales autorisées à financer la campagne d’un candidat. Prenons le cas du groupe Ensemble ! de la majorité présidentielle, qui réunit les partis Renaissance, MoDem et Horizons : de l’aide publique qu’il a reçue en 2024, il a reversé 67,75 % au premier, 19,57 % au second et 12,65 % au troisième.

– Les subventions déresponsabilisent les candidats qui comptent principalement sur le financement public au lieu d’engager leurs finances personnelles. En 2024, la contribution des élus ne représentait que 9,2 % des produits des différents partis. Dans le détail, c’était 0 % pour Ensemble !, 2 % pour LFI, 5,4 % pour le RN.

Beaucoup de flou donc dans l’utilisation des dons et subventions, multiplication des partis pour des raisons financières plus que démocratiques… le financement public entretien une opacité parfois propice à la corruption – la France est loin d’être un modèle en la matière – et aux fraudes, pour ne pas citer l’affaire Bygmalion.

Le financement privé est la norme dans plusieurs démocraties

Dans plusieurs démocraties, le financement des partis politiques est majoritairement privé. C’est le cas aux États-Unis, où les campagnes électorales sont financées par des dons de particuliers et de comités d’action politique (« PAC ») dans une certaine limite, mais aussi de super comités (« SuperPAC ») qui peuvent lever des fonds sans limite auprès de particuliers, entreprises, syndicats… Lors de l’élection présidentielle de 2024, ces fonds ont atteint  15,9 milliards de dollars – un record. Les subventions, qui impliquent de respecter certaines règles, ne sont plus utilisées depuis 2008. Le système peut être critiqué pour l’ampleur des sommes en jeu, mais il présente des avantages : les partis ne survivent que par leur capacité à mobiliser des soutiens réels, la liberté d’expression est totale et la transparence vaut pour tous les donateurs, gros ou petits.

Au Royaume-Uni, les subventions sont limitées et servent essentiellement à couvrir les frais de l’opposition parlementaire (« Short Money » ; « Cranborne Money »). Aucun financement public n’est accordé aux partis à des fins de campagne. En 2025, les subventions représentaient 34,1 % des fonds reçus par le Parti conservateur et 9,4 % pour le Parti travailliste, d’après les chiffres de la commission électorale. Les partis tirent le gros des ressources de dons privés (particuliers, entreprises, syndicats, associations…), sans la moindre limite. Comme aux États-Unis, la transparence est réelle : il est possible de connaître l’identité de tous les donateurs.

Le Canada est également un cas intéressant. La subvention de 1,75 dollars canadiens par vote a été progressivement supprimée entre 2012 et 2015, pour une question de principe : « Aucun Canadien ne devrait être forcé de faire un don à un parti dont les politiques ne sont pas conformes à ses intérêts ou dont il ne partage pas la philosophie. » Depuis, les partis reposent quasi exclusivement sur les dons individuels, dont le plafond augmente chaque année. Là encore, l’identité des donateurs est connue. Les partis et candidats peuvent tout de même obtenir un financement public pour le remboursement de leurs dépenses électorales, en fonction du pourcentage de suffrages obtenus.

Le financement privé des partis politiques : une question de principe

Ces systèmes ne sont pas exempts de défauts mais ils reposent sur un principe simple : le financement est volontaire. Dans une optique libérale, le financement privé des partis politiques (particuliers, entreprises, cotisants des adhérents, contributions personnelles des candidats), est une question de principe. Certes, le risque est qu’il se concentre dans les mains de quelques grandes fortunes, mais au moins, personne n’est obligé de financer un parti dont il ne partage pas les opinions. Le financement privé crée une relation directe entre un parti et ses soutiens ; cela peut poser un problème d’indépendance, mais il est atténué par l’exigence de transparence. Le financement public en revanche dilue la responsabilité – un constat qui vaut également pour les associations et les syndicats.

https:///pourquoi-les-contribuables-ne-devraient-plus-financer-les-partis-politiques/


*

8 -En à peine deux ans, le coût horaire du travail a augmenté d’environ 19 % de plus que le salaire horaire


22 mars 2026


Il y a quelques mois, nous apprenions que le coût horaire du travail  était en France très supérieur à celui de la moyenne européenne, 43,7 euros contre 33,5 euros. Le coût horaire c’est la dépense totale de l’employeur pour son personnel, qui comporte deux parties principales : le salaire et les charges (les aides étant également comptabilisées dans ce calcul).

Pour mieux comprendre son évolution, regardons-le en détail. Selon l’INSEE, au quatrième trimestre 2025, les salaires horaires ont augmenté de 1,7 % sur un an, et le coût horaire du travail, de 2,5 %. Le coût principalement lié aux charges augmente donc plus vite que les salaires horaires.

Au 4ème trimestre 2025, l’augmentation du salaire horaire en glissement annuel a été la plus faible depuis le quatrième trimestre 2021, juste après la période Covid. Cela peut s’expliquer par l’anémie de l’inflation, qui n’incite pas les employeurs à relever les salaires. Cela s’explique surtout par le niveau déjà très élevé du coût horaire, qui pèse sur les marges des entreprises, et donc sur les employeurs.

Le coût horaire dépasse aussi le salaire horaire sur une période plus longue. En partant d’un indice base 100 au quatrième trimestre 2023, et en appliquant chaque trimestre le glissement annuel (multiplication de l’indice précédent par (1 + glissement annuel/100), on obtient l’évolution cumulée sur deux ans. Les effets post-Covid sont à cette époque quasiment résorbés, l’évolution est donc plus représentative.

Ainsi, sur deux ans, le salaire horaire atteint environ 122,63, contre 126,98 pour le coût horaire. Autrement dit, le coût horaire a augmenté environ 19 % plus rapidement que le salaire horaire.

Si l’on regarde secteur par secteur et toujours sur deux ans, le constat est le même. Dans l’industrie, le salaire horaire atteint 125,02, contre 129,85 pour le coût horaire, soit une augmentation d’environ 19,3 % plus rapide pour le coût que pour le salaire. Dans la construction, c’est respectivement 122,60  contre 128,04, soit une hausse d’environ 24 % plus rapide. Enfin, dans le tertiaire, 120,63 contre 125,21, soit environ 22,2 % de plus pour le coût horaire.

Ainsi, dans la plupart des secteurs, le coût horaire croît plus vite que le salaire horaire. C’est toujours le même constat : le coût du travail trop élevé freine l’embauche et l’investissement dans les entreprises françaises. Réduire les charges permettrait de rapprocher le coût horaire du salaire réel, d’améliorer la compétitivité, de stimuler l’emploi et la croissance, tout en laissant davantage de pouvoir d’achat aux salariés.

https:///en-a-peine-deux-ans-le-cout-horaire-du-travail-a-augmente-denviron-19-de-plus-que-le-salaire-horaire/


*

9 -La pauvreté intellectuelle de ces gens (du site) fait pitié. Alors que depuis des années voire de décennies s'agitent autour de nous machines, robots et ordinateurs qui travaillent gratos pour nos couilles, la sombrosphère tressaille à l'arrivée de propos venus du Peuple ! HOULALA !

ON DEVRAIT TOUTES & TOUS ÊTRE MULTIMILLIONNAIRES !  

L'être humain, que dis-je ? l'Entrepreneur-ouais ! n'a plus de fric pour se payer un ouvrier !!!


*

10 -  Fraude aux fonds européens : où va l’argent des contribuables ?


19 mars 2026


L’UE est devenue une telle machine de redistribution qu’elle alimente les fraudes à hauteur de plusieurs dizaines de milliards d’euros chaque année. C’est ce que confirme le rapport annuel du Parquet européen (EPPO). Au total, l’EPPO mène 3 602 enquêtes actives. Il en a ouvert 2030 en 2025, soit 35 % de plus que l’année précédente. Le préjudice est évalué à 67,27 milliards d’euros (à titre de comparaison, le budget 2021-2027 de l’administration publique européenne est de 82,5 milliards).

Le Parquet européen distingue plusieurs catégories d’infractions : fraudes aux recettes (TVA, douanes), fraudes aux dépenses liées ou non aux marchés publics (agriculture, infrastructure et développement urbain, éducation, santé, affaires sociales…), participations à des organisations criminelles, blanchiment d’argent, corruption… En valeur, les fraudes à la TVA et aux droits de douane représentent presque les deux tiers des dommages financiers (plus de 45 milliards d’euros), mais en volume, il y a presque 2,5 fois plus d’enquêtes de fraudes aux dépenses qu’aux recettes.

Selon la procureure européenne Laura Codruța Kövesi, ces chiffres sont appelés à augmenter dans les prochaines années, à mesure que les enquêtes progressent et que de nouveaux mécanismes de fraude sont identifiés.

Plans de relance, subventions, marchés publics : les guichets de la fraude

Les pays les plus impliqués dans les enquêtes ne sont pas forcément ceux qui causent le plus de dommages financiers. En volume, l’Italie arrive largement en tête (991 enquêtes), suivie par l’Allemagne (361) et la Bulgarie (267). En valeur, l’Italie domine toujours (28,71 milliards d’euros), loin devant la Roumanie (6,05 milliards) et la France (5,94 milliards).

Les fraudes concernent de nombreux programmes européens. Le plan de relance NextGenerationEU, lancé pendant la pandémie de Covid-19, est aujourd’hui l’un des principaux terrains d’enquête : 518 dossiers étaient en cours à la fin de l’année 2025. L’écrasante majorité est directement liée à l’instrument financier de NextGenerationEU, appelé la « facilité pour la relance et la résilience » (FRR). Ils représentent environ 21 % des enquêtes pour fraude aux dépenses européennes, pour plus de cinq milliards d’euros de dommages. Ce chiffre n’est pas surprenant : la FRR subventionne de nombreux domaines comme la santé (prescriptions illégales, fraudes au remboursement de dispositifs médicaux), l’environnement (fraudes aux subventions de panneaux photovoltaïques), les entreprises (fraudes aux crédits d’impôts à travers de fausses sessions de formation)…

Même chose pour les programmes agricoles. En 2025, le Parquet européen a arrêté 37 suspects impliqués dans de la fraude aux subventions à grande échelle et dans du blanchiment d’argent, dont le dommage est estimé à 19,6 millions d’euros. Selon un rapport de la Cour des comptes européenne, 10,9 % des irrégularités signalées comme frauduleuses entre 2016 et 2020 relevaient de la politique agricole commune (PAC), pour un total de 226,5 millions d’euros. Liens entre entreprises non communiqués, bénéficiaires inéligibles sollicitant des aides, falsification de documents, simulation d’activités… Pour la Cour, ces chiffres ne donnent toutefois pas « une image complète du niveau de fraude détectée dans les dépenses financées par l’UE ».

Enfin, d’autres affaires visent également des dispositifs nationaux partiellement financés par des fonds européens, tels que MaPrimeRénov’ pour la rénovation thermique des logements et des bâtiments. En France, un dossier doit être jugé prochainement en vertu de la procédure ci-dessous décrite : le Parquet européen, qui a relancé l’enquête en 2023, soupçonne un détournement de plus d’un million d’euros.

Redéfinir le périmètre d’intervention de l’UE pour attaquer le mal à la racine

Créé en 2021, le Parquet européen est implanté dans 24 pays membres, via des procureurs européens délégués, pour lutter contre la fraude aux fonds européens et traduire, devant les juridictions nationales, les auteurs d’infractions pénales portant atteinte aux « intérêts financiers de l’Union ». Cette expression pose problème dans la mesure où elle sous-entend que l’UE serait une entité supérieure aux membres qui la composent, alors qu’en pratique, c’est bien l’argent des citoyens européens (donc des citoyens de chacun des États membres) qui est détourné et leurs intérêts qui sont bafoués.

Il ne s’agit pas seulement d’un problème de prévention et de répression : si autant d’argent est détourné, c’est aussi parce que l’UE étend toujours plus son domaine de compétences et crée des incitations qui favorisent la recherche de rente. Cette évolution confirme certaines critiques formulées depuis longtemps à l’égard de l’intégration européenne. Les compétences partagées entre l’UE et les États membres couvrent désormais des secteurs aussi variés que le marché unique, l’emploi, l’agriculture, l’environnement, les transports, l’énergie, la santé… Toutes les craintes de Margaret Thatcher se sont ainsi réalisées : l’UE est devenue une superstructure bureaucratique, une sorte de super-État qui légifère et réglemente tous azimuts, en contradiction totale avec l’idée d’un organe aux compétences encadrées. C’est pourquoi la lutte contre la fraude ne peut se limiter au renforcement des instruments répressifs. Elle suppose de réexaminer le périmètre d’intervention de l’UE et la logique de redistribution massive qui accompagne l’extension de ses compétences. Car tant que l’Europe restera une machine à subventions et à programmes publics, elle continuera d’offrir aux fraudeurs un terrain particulièrement fertile.

https:///fraude-aux-fonds-europeens-ou-va-largent-des-contribuables/


*

10 articles complets publiés ci-dessus

Supercherie lunaire : Une révélation stupéfiante sur le canular des alunissages

  25/03/2026  Belle Carter    Les propres données de la NASA confirment des niveaux de radiation mortels dans les ceintures de Van Allen – 1...