(Source : Alter Info)
Le CO2 ne provoque ni réchauffement ni changement climatique. Ce gaz n’est ni toxique ni polluant.
Combien de prédictions erronées, de suppositions incorrectes et de preuves de l’inexactitude des données, sont nécessaires avant qu’une idée perde toute crédibilité ? Le CO2 ne provoque ni réchauffement ni changement climatique. Ce gaz n’est ni toxique ni polluant. Malgré cela, le président élu Obama s’est entretenu avec Al Gore le 9 décembre, sans aucun doute pour planifier une stratégie contre un changement climatique basé sur ces hypothèses. Ils projettent des plans de réduction des émissions de CO2 totalement inutiles.
Les tenants du réchauffement anthropique et du changement climatique nous racontent que l’augmentation du CO2 précède et provoque la montée de la température. Ils ont tort. Ils nous disent que la fin du 20ème siècle était la plus chaude enregistrée. Ils ont tort. Recourant au tristement célèbre graphique en « crosse de hockey, » ils nous disent que la période chaude médiévale n’a pas existé. Ils ont tort. Ils nous ont dit que la température du globe monterait en 2008 car les émissions de CO2 ont augmenté. Ils avaient tort. Ils nous ont dit que les glaces de l’Arctique continueraient à diminuer en 2008. Ils avaient tort. Ils nous disent qu’octobre 2008 a été le deuxième mois d’octobre le plus chaud enregistré. Ils ont tort. Ils nous disent que 1998 a été l’année la plus chaude enregistrée aux États-Unis. Ils ont tort, c’était en 1934. Ils nous disent que le taux atmosphérique actuel de CO2 est le plus élevé enregistré. Ils ont tort. Ils nous racontent que le taux du CO2 atmosphérique avant l’ère industrielle comptait environ 100 parties par million (ppm) de moins que les 385 ppm du taux actuel. Ils ont tort. Ce dernier point est primordial car il s’agit du fondement du discours rendant l’homme responsable du réchauffement et du changement climatique, à cause de la montée du taux de CO2 dans l’atmosphère tout au long de l’ère industrielle. En fait, à l’ère pré-industrielle le taux de CO2 était à peu près le même qu’aujourd’hui. Mais comment ont-ils conclu que le taux était plus faible à cette époque ?
Dans un document soumis à l’audience devant la Commission sénatoriale étasunienne sur le Commerce, la Science, et le Transport, le professeur Zbigniew Jaworowski explique :
La plupart des conclusions du GIEC sur la cause anthropique et les prévisions du changement climatique, se basent sur l’hypothèse d’un faible taux de CO2 dans l’atmosphère à l’ère pré-industrielle. Cette supposition, établie sur les études glaciologiques, est erronée.
Les carottes de glace fournissent les archives historiques et les données collectées à Mauna Loa les relevés récents. Ces deux enregistrements sont modifiés radicalement pour produire des courbes lisses continues, avec peu de variabilité. C’était nécessaire pour consolider la preuve, finalisée faussement à partir de nombreuses mesures du 19ème siècle, selon laquelle le taux pré-industriel était aux alentours de 280 ppm et ne variaient pas beaucoup. Ainsi, ils ont construit des courbes lisses et ignoré le fait que le 19ème siècle montre une moyenne mondiale de 335 ppm et une variabilité considérable d’année en année.
La plupart des gens ignorent que des milliers de mesures du CO2 sont faites directement dans l’atmosphère depuis 1812. Les scientifiques ont fait les relevés grâce à des mesures précises d’instruments étalonnés, comme l’ont parfaitement documenté les travaux de Ernst-Georg Beck. Guy Callendar Stewart s’est intéressé très tôt à ces enregistrements. Il a écarté la plupart d’entre eux, constituant 69% des enregistrements du 19ème siècle, et a choisi uniquement certains de ceux qui établissaient le taux de CO2 pré-industriel à 280 ppm. Voici un graphe des enregistrements avec, encerclés, ceux choisis par Callendar.
Il est évident que seules les mesures basses ont été choisies. Remarquez aussi comment la pente et la tendance sont modifiées par rapport à l’ensemble des relevés.
Comme le note Jaworowski :
La notion de faible taux de CO2 atmosphérique pré-industriel, établie sur cette médiocre connaissance, est devenu le Saint Graal largement accepté du modèle du réchauffement climatique. Ceux qui on fait ce modèle ont ignoré le témoignage des mesures directes du CO2 atmosphérique, qui indique qu’au 19ème siècle sa concentration était en moyenne de 335 ppm.
Récemment, Beck a confirmé l’étude de Jaworowski. En septembre 2008, un article dans Energy and Environment a étudié de manière très détaillée les relevés et a validé les résultats du 19ème siècle. Dans une conclusion dévastatrice Beck écrit :
Telle qu’elle est popularisée par le GIEC, l’hypothèse moderne de l’effet de serre se fonde sur les travaux de GS Callendar et CD Keeling, à la suite de S. Arrhenius. L’examen de la littérature disponible fait se demander si ces auteurs ont systématiquement écarté un grand nombre de données techniques valides et d’évaluations anciennes du CO2 atmosphérique parce qu’elles ne s’accordent pas à leur hypothèse ? De toute évidence, ils utilisent uniquement un petit nombre de valeurs choisies avec soin dans la littérature ancienne, en sélectionnant invariablement les résultats compatibles avec l’hypothèse de la montée du CO2 dans l’air, provoquée par la combustion des combustibles fossiles.
Ainsi, le taux pré-industriel est au moins 50 ppm plus grand que celui introduit dans les modèles informatiques générant toutes les prévisions climatiques du futur. En plus, ces modèles supposent incorrectement une répartition mondiale atmosphérique uniforme du CO2, sans pratiquement aucune variabilité d’une année sur l’autre.
Beck a constaté que, « Depuis 1812, la concentration du CO2 dans l’air de l’hémisphère nord a fluctué, présentant trois niveaux maximums autour de 1825, 1857 et 1942, le dernier montrant plus de 400 ppm. » Voici un graphe de Beck comparant les relevés du 19ème siècle avec les données des carottes de glace et du Mauna Loa.
Comparez la variabilité des mesures atmosphériques à la ligne lisse des enregistrements des carottes de glace. L’élimination des mesures extrêmes et ensuite l’application d’un lissage de longue durée permet d’atteindre cette moyenne. Quand le lissage est effectué à l’échelle des enregistrements des carottes glaciaires un grand nombre d’informations sont perdues. L’élimination des mesures élevés avant lissage rend la perte encore plus grande. Il convient aussi de noter que, d’après tous les enregistrements connus, la température change avant le taux de CO2, 5 ans après environ dans cet enregistrement.
L’élimination des données se fait aussi avec les mesures atmosphériques sur le Mauna Loa et ailleurs, dont les variations peuvent atteindre jusqu’à 600 ppm au cours d’une journée. Beck explique comment Charles Keeling a établi les relevés sur le Mauna Loa, en utilisant les mesures les plus basses de l’après-midi. Il n’a pas tenu compte des sources naturelles, une pratique qui se poursuit. Beck suppose que Keeling a décidé d’éviter le faible niveau des sources naturelles en établissant la station à 4.000 mètres en haut du volcan. Tel que Beck le note, « Le Mauna Loa n’est pas représentatif du CO2 atmosphérique de localisations mondiales diverses, mais est juste typique d’un lieu maritime à cette latitude à environ 4.000m d’altitude sur ce volcan. » (Beck, 2008, « 50 ans de mesures continues du CO2 sur le Mauna Loa » Energy and Environment, Vol 19, N° 7.)
Le fils de Keeling continue à exploiter l’installation de Mauna Loa et, comme le note Beck, « possède le monopole mondial du calibrage de toutes les mesures de CO2. » Depuis que le jeune Keeling est coauteur des rapports du GIEC, il adhère à la version de la représentativité mondiale des relevés sur le Mauna Loa, et il croit que ceux-ci reflètent la montée du taux de CO2 depuis l’ère pré-industrielle.
Les archives des carottes de glace
Jaworowski estime que les relevés des carottes glaciaires sont au moins de 20% inférieurs. C’est plus raisonnable étant donné les niveaux de CO2 depuis 600 millions d’années grâce aux preuves géologiques. Maintenant, le niveau de 385 ppm est le plus faible de l’ensemble des enregistrements et il est égalée seulement par une période il y a entre 315 et 270 millions d’années.
Il existe nombre de problèmes avec les archives des carotte de glace. Il faut des années, parfois jusqu’à 80 ans, pour que l’air soit piégé dans la glace, de sorte que la question est : qu’est-ce qui est réellement piégé et mesuré ? L’eau de fonte se déplaçant à travers la glace, en particulier quand la glace est proche de la surface, peut contaminer les bulles d’air. Les bactéries établies dans la glace libèrent des gaz, même à grande profondeur dans la glace de 500.000 ans. Avec la pression, en-dessous de 50m la glace cassante devient plastique et commence à couler. Les couches formées chaque année par les chutes de neige disparaissent progressivement quand les couches de glace fondent et se compriment. Une profondeur de glace considérable, couvrant une longue période de temps, est nécessaire pour obtenir un seul relevé profond.
Une autre preuve des effets du lissage et des relevés glaciaires artificiellement bas sont fournis par les mesures des stomates. Les stomates sont les petites ouvertures sur les feuilles qui varient directement avec la quantité de CO2 dans l’air. Une comparaison entre un enregistrement de stomates et un enregistrement de carotte de glace pour une périone de 2.000 ans illustre le problème.
À droite, les données des stomates montrent des mesures plus élevées et présentant plus de variations par rapport à l’enregistrement trop lissé d’une carotte glaciaire à gauche. Cela correspond quantitativement aux mesures du 19ème siècle, comme l’affirment Jaworowski et Beck. Un enregistrement de stomates danois montre un taux de 333 ppm il y a 9.400 ans et 348 ppm il y a 9.600 ans.
Aux Etats-Unis, l’agence de protection de l’environnement projette de cataloguer le CO2 dans les substances toxiques et polluantes. Les gouvernements se préparent à créer des taxes sur le carbone et des restrictions draconiennes qui paralyseront l’économie à cause d’un problème totalement inexistant. Il semble qu’une multitude de prédictions ratées, d’hypothèses discréditées et de preuves de l’inexactitude des données soient nécessaires avant qu’une idée perde toute crédibilité. La crédibilité aurait dû disparaître, mais le contrôle politique et la folie prévalent.
Le CO2 ne provoque ni réchauffement ni changement climatique. Ce gaz n’est ni toxique ni polluant.
Combien de prédictions erronées, de suppositions incorrectes et de preuves de l’inexactitude des données, sont nécessaires avant qu’une idée perde toute crédibilité ? Le CO2 ne provoque ni réchauffement ni changement climatique. Ce gaz n’est ni toxique ni polluant. Malgré cela, le président élu Obama s’est entretenu avec Al Gore le 9 décembre, sans aucun doute pour planifier une stratégie contre un changement climatique basé sur ces hypothèses. Ils projettent des plans de réduction des émissions de CO2 totalement inutiles.
Les tenants du réchauffement anthropique et du changement climatique nous racontent que l’augmentation du CO2 précède et provoque la montée de la température. Ils ont tort. Ils nous disent que la fin du 20ème siècle était la plus chaude enregistrée. Ils ont tort. Recourant au tristement célèbre graphique en « crosse de hockey, » ils nous disent que la période chaude médiévale n’a pas existé. Ils ont tort. Ils nous ont dit que la température du globe monterait en 2008 car les émissions de CO2 ont augmenté. Ils avaient tort. Ils nous ont dit que les glaces de l’Arctique continueraient à diminuer en 2008. Ils avaient tort. Ils nous disent qu’octobre 2008 a été le deuxième mois d’octobre le plus chaud enregistré. Ils ont tort. Ils nous disent que 1998 a été l’année la plus chaude enregistrée aux États-Unis. Ils ont tort, c’était en 1934. Ils nous disent que le taux atmosphérique actuel de CO2 est le plus élevé enregistré. Ils ont tort. Ils nous racontent que le taux du CO2 atmosphérique avant l’ère industrielle comptait environ 100 parties par million (ppm) de moins que les 385 ppm du taux actuel. Ils ont tort. Ce dernier point est primordial car il s’agit du fondement du discours rendant l’homme responsable du réchauffement et du changement climatique, à cause de la montée du taux de CO2 dans l’atmosphère tout au long de l’ère industrielle. En fait, à l’ère pré-industrielle le taux de CO2 était à peu près le même qu’aujourd’hui. Mais comment ont-ils conclu que le taux était plus faible à cette époque ?
Dans un document soumis à l’audience devant la Commission sénatoriale étasunienne sur le Commerce, la Science, et le Transport, le professeur Zbigniew Jaworowski explique :
La plupart des conclusions du GIEC sur la cause anthropique et les prévisions du changement climatique, se basent sur l’hypothèse d’un faible taux de CO2 dans l’atmosphère à l’ère pré-industrielle. Cette supposition, établie sur les études glaciologiques, est erronée.
Les carottes de glace fournissent les archives historiques et les données collectées à Mauna Loa les relevés récents. Ces deux enregistrements sont modifiés radicalement pour produire des courbes lisses continues, avec peu de variabilité. C’était nécessaire pour consolider la preuve, finalisée faussement à partir de nombreuses mesures du 19ème siècle, selon laquelle le taux pré-industriel était aux alentours de 280 ppm et ne variaient pas beaucoup. Ainsi, ils ont construit des courbes lisses et ignoré le fait que le 19ème siècle montre une moyenne mondiale de 335 ppm et une variabilité considérable d’année en année.
La plupart des gens ignorent que des milliers de mesures du CO2 sont faites directement dans l’atmosphère depuis 1812. Les scientifiques ont fait les relevés grâce à des mesures précises d’instruments étalonnés, comme l’ont parfaitement documenté les travaux de Ernst-Georg Beck. Guy Callendar Stewart s’est intéressé très tôt à ces enregistrements. Il a écarté la plupart d’entre eux, constituant 69% des enregistrements du 19ème siècle, et a choisi uniquement certains de ceux qui établissaient le taux de CO2 pré-industriel à 280 ppm. Voici un graphe des enregistrements avec, encerclés, ceux choisis par Callendar.
Il est évident que seules les mesures basses ont été choisies. Remarquez aussi comment la pente et la tendance sont modifiées par rapport à l’ensemble des relevés.
Comme le note Jaworowski :
La notion de faible taux de CO2 atmosphérique pré-industriel, établie sur cette médiocre connaissance, est devenu le Saint Graal largement accepté du modèle du réchauffement climatique. Ceux qui on fait ce modèle ont ignoré le témoignage des mesures directes du CO2 atmosphérique, qui indique qu’au 19ème siècle sa concentration était en moyenne de 335 ppm.
Récemment, Beck a confirmé l’étude de Jaworowski. En septembre 2008, un article dans Energy and Environment a étudié de manière très détaillée les relevés et a validé les résultats du 19ème siècle. Dans une conclusion dévastatrice Beck écrit :
Telle qu’elle est popularisée par le GIEC, l’hypothèse moderne de l’effet de serre se fonde sur les travaux de GS Callendar et CD Keeling, à la suite de S. Arrhenius. L’examen de la littérature disponible fait se demander si ces auteurs ont systématiquement écarté un grand nombre de données techniques valides et d’évaluations anciennes du CO2 atmosphérique parce qu’elles ne s’accordent pas à leur hypothèse ? De toute évidence, ils utilisent uniquement un petit nombre de valeurs choisies avec soin dans la littérature ancienne, en sélectionnant invariablement les résultats compatibles avec l’hypothèse de la montée du CO2 dans l’air, provoquée par la combustion des combustibles fossiles.
Ainsi, le taux pré-industriel est au moins 50 ppm plus grand que celui introduit dans les modèles informatiques générant toutes les prévisions climatiques du futur. En plus, ces modèles supposent incorrectement une répartition mondiale atmosphérique uniforme du CO2, sans pratiquement aucune variabilité d’une année sur l’autre.
Beck a constaté que, « Depuis 1812, la concentration du CO2 dans l’air de l’hémisphère nord a fluctué, présentant trois niveaux maximums autour de 1825, 1857 et 1942, le dernier montrant plus de 400 ppm. » Voici un graphe de Beck comparant les relevés du 19ème siècle avec les données des carottes de glace et du Mauna Loa.
Comparez la variabilité des mesures atmosphériques à la ligne lisse des enregistrements des carottes de glace. L’élimination des mesures extrêmes et ensuite l’application d’un lissage de longue durée permet d’atteindre cette moyenne. Quand le lissage est effectué à l’échelle des enregistrements des carottes glaciaires un grand nombre d’informations sont perdues. L’élimination des mesures élevés avant lissage rend la perte encore plus grande. Il convient aussi de noter que, d’après tous les enregistrements connus, la température change avant le taux de CO2, 5 ans après environ dans cet enregistrement.
L’élimination des données se fait aussi avec les mesures atmosphériques sur le Mauna Loa et ailleurs, dont les variations peuvent atteindre jusqu’à 600 ppm au cours d’une journée. Beck explique comment Charles Keeling a établi les relevés sur le Mauna Loa, en utilisant les mesures les plus basses de l’après-midi. Il n’a pas tenu compte des sources naturelles, une pratique qui se poursuit. Beck suppose que Keeling a décidé d’éviter le faible niveau des sources naturelles en établissant la station à 4.000 mètres en haut du volcan. Tel que Beck le note, « Le Mauna Loa n’est pas représentatif du CO2 atmosphérique de localisations mondiales diverses, mais est juste typique d’un lieu maritime à cette latitude à environ 4.000m d’altitude sur ce volcan. » (Beck, 2008, « 50 ans de mesures continues du CO2 sur le Mauna Loa » Energy and Environment, Vol 19, N° 7.)
Le fils de Keeling continue à exploiter l’installation de Mauna Loa et, comme le note Beck, « possède le monopole mondial du calibrage de toutes les mesures de CO2. » Depuis que le jeune Keeling est coauteur des rapports du GIEC, il adhère à la version de la représentativité mondiale des relevés sur le Mauna Loa, et il croit que ceux-ci reflètent la montée du taux de CO2 depuis l’ère pré-industrielle.
Les archives des carottes de glace
Jaworowski estime que les relevés des carottes glaciaires sont au moins de 20% inférieurs. C’est plus raisonnable étant donné les niveaux de CO2 depuis 600 millions d’années grâce aux preuves géologiques. Maintenant, le niveau de 385 ppm est le plus faible de l’ensemble des enregistrements et il est égalée seulement par une période il y a entre 315 et 270 millions d’années.
Il existe nombre de problèmes avec les archives des carotte de glace. Il faut des années, parfois jusqu’à 80 ans, pour que l’air soit piégé dans la glace, de sorte que la question est : qu’est-ce qui est réellement piégé et mesuré ? L’eau de fonte se déplaçant à travers la glace, en particulier quand la glace est proche de la surface, peut contaminer les bulles d’air. Les bactéries établies dans la glace libèrent des gaz, même à grande profondeur dans la glace de 500.000 ans. Avec la pression, en-dessous de 50m la glace cassante devient plastique et commence à couler. Les couches formées chaque année par les chutes de neige disparaissent progressivement quand les couches de glace fondent et se compriment. Une profondeur de glace considérable, couvrant une longue période de temps, est nécessaire pour obtenir un seul relevé profond.
Une autre preuve des effets du lissage et des relevés glaciaires artificiellement bas sont fournis par les mesures des stomates. Les stomates sont les petites ouvertures sur les feuilles qui varient directement avec la quantité de CO2 dans l’air. Une comparaison entre un enregistrement de stomates et un enregistrement de carotte de glace pour une périone de 2.000 ans illustre le problème.
À droite, les données des stomates montrent des mesures plus élevées et présentant plus de variations par rapport à l’enregistrement trop lissé d’une carotte glaciaire à gauche. Cela correspond quantitativement aux mesures du 19ème siècle, comme l’affirment Jaworowski et Beck. Un enregistrement de stomates danois montre un taux de 333 ppm il y a 9.400 ans et 348 ppm il y a 9.600 ans.
Aux Etats-Unis, l’agence de protection de l’environnement projette de cataloguer le CO2 dans les substances toxiques et polluantes. Les gouvernements se préparent à créer des taxes sur le carbone et des restrictions draconiennes qui paralyseront l’économie à cause d’un problème totalement inexistant. Il semble qu’une multitude de prédictions ratées, d’hypothèses discréditées et de preuves de l’inexactitude des données soient nécessaires avant qu’une idée perde toute crédibilité. La crédibilité aurait dû disparaître, mais le contrôle politique et la folie prévalent.
Hier à 19:01 par Satanas
» Le Roswell Italien : crash d’ovni, secrets et rumeurs
Hier à 18:40 par Satanas
» La France en 2024
Hier à 11:00 par Mulder26
» OVNIs : des vidéos DÉCLASSIFIÉES troublantes enfin analysées au Congrès Américain
Mer 20 Nov - 22:39 par Schattenjäger
» Quand des français ont osé, en 1940 !
Dim 17 Nov - 17:51 par anoy
» OVNIs : nouvelles révélations incroyables au Congrès Américain, on fait le point !
Dim 17 Nov - 7:47 par anoy
» L'Iceberg des Red Rooms : La plus grande enquête sur ce mystère d'internet
Sam 16 Nov - 18:12 par Schattenjäger
» Sujet pour les fans de One piece
Sam 16 Nov - 11:24 par Schattenjäger
» Décés de Gildas Bourdais
Ven 15 Nov - 22:38 par Schattenjäger
» GILDAS BOURDAIS
Ven 15 Nov - 16:04 par Invité
» Une grotte mystérieuse...En réalité pas grand chose!
Jeu 14 Nov - 12:37 par Satanas
» L'HISTOIRE QUI A TERRIFIÉ L'EST DE LA FRANCE
Lun 11 Nov - 19:29 par Schattenjäger
» Le cas Paul Bernardo
Lun 11 Nov - 18:09 par Satanas
» 11 Km de Profondeur Sous l’Océan : Ce Que Cachent les Abysses
Mer 6 Nov - 21:50 par Schattenjäger
» 5 THÉORIES SUR BOUDDHA
Mer 6 Nov - 15:11 par Satanas