sábado, 12 de abril de 2014

Las probabilidades de un calentamiento global natural son casi nulas/The odds of a natural global warming are almost null

Variación media de la temperatura en función de la concentración de CO2/Mean temperature variation as a function of CO2 concentration (Taken from Scaling fluctuation analysis and statistical hypothesis testing of anthropogenic warming)

El análisis estadístico descarta la hipótesis de un calentamiento natural con más de un 99 % de certeza.
Un análisis de los datos de temperatura registrados desde 1500, descarta prácticamente la posibilidad de que el calentamiento global producido en la era industrial sea sólo una fluctuación natural del clima de la tierra, de acuerdo con un nuevo estudio realizado por Shaun Lovejoy, profesor de Física en la Universidad McGill (California, E.E.U.U.)
El estudio, publicado en línea el 6 de abril en la revista Climate Dynamics, utiliza un nuevo enfoque para estudiar si el calentamiento global en la era industrial, se debe a las emisiones originadas por la quema de combustibles fósiles a gran escala. En lugar de utilizar complicados modelos informáticos para estimar los efectos de las emisiones de gases de efecto invernadero, Lovejoy examina los datos históricos para comparar la otra posible hipótesis: que el calentamiento registrado en el último siglo se deba a variaciones naturales a largo plazo de la temperatura.
Según Lovejoy "este estudio será un duro golpe para los que aún niegan el cambio climático. El estudio emplea métodos estadísticos para determinar la probabilidad de que el calentamiento global desde 1880 se debe a una variabilidad natural. La conclusión es que dicha hipótesis - calentamiento natural- puede ser descartada con un nivel de confianza superior al 99%, y puede que superior incluso al 99,9 % . "
Para evaluar la variabilidad natural antes de la interferencia humana, el estudio utiliza las "reconstrucciones multi- proxy de clima ", desarrolladas por los científicos en los últimos años para estimar temperaturas históricas, así como técnicas de análisis de fluctuación tomadas de la geofísica no lineal. Las reconstrucciones climáticas tienen en cuenta una serie de indicadores que se encuentran en la naturaleza, como son los anillos de árboles, testigos tomados en el hielo y sedimentos lacustres. Las técnicas de análisis de fluctuaciones permiten comprender las variaciones de temperatura a lo largo de escalas de tiempo más grandes.
Para la era industrial, Lovejoy utiliza el dióxido de carbono, procedente de la quema de combustibles fósiles, como único indicador de los efectos humanos sobre el clima, una simplificación justificada por la estrecha relación entre la actividad económica global y la emisión de gases de efecto invernadero y la contaminación por partículas, y añade: "esto permite que el nuevo enfoque incluya implícitamente el efecto de enfriamiento causado por las partículas de polvo contaminante, que todavía están mal cuantificadas en los modelos de ordenador " .
Aunque el estudio no utiliza los grandes modelos informáticos de uso común por los científicos para estimar la magnitud del futuro cambio climático, las conclusiones de Lovejoy complementan las del Panel Intergubernamental de Expertos sobre el Cambio Climático (IPCC). Lovejoy predice, con una confianza del 95 %, que una duplicación de los niveles de dióxido de carbono en la atmósfera produciría un calentamiento de entre 2,5 y 4,2 grados Celsius. Dicho rango es más preciso- aunque está en línea con él, que el predicho por el IPCC que indica que las temperaturas subirían entre 1,5 y 4,5 grados centígrados si las concentraciones de dióxido de carbono se duplicaran.
"Hemos tenido una fluctuación de la temperatura media, simplemente enorme desde 1880, del orden de 0,9 grados Celsius ", dice Lovejoy . "Este estudio demuestra que las probabilidades de que eso se deba a fluctuaciones naturales, son inferiores al uno por ciento. Y puede que al uno por mil"
 "Aunque el rechazo estadístico de una hipótesis, no puede ser utilizada para concluir la certeza de cualquier alternativa específica, en muchos casos - incluido éste - el rechazo de una aumenta en gran medida la credibilidad de la otra"

Statistical analysis rules out natural-warming hypothesis with more than 99% certainty
An analysis of temperature data since 1500 all but rules out the possibility that global warming in the industrial era is just a natural fluctuation in the earth’s climate, according to a new study by McGill University physics professor Shaun Lovejoy.
The study, published online April 6 in the journal Climate Dynamics, represents a new approach to the question of whether global warming in the industrial era has been caused largely by man-made emissions from the burning of fossil fuels. Rather than using complex computer models to estimate the effects of greenhouse-gas emissions, Lovejoy examines historical data to assess the competing hypothesis: that warming over the past century is due to natural long-term variations in temperature.
This study will be a blow to any remaining climate-change deniers,” Lovejoy says. Lovejoy’s study applies statistical methodology to determine the probability that global warming since 1880 is due to natural variability. His conclusion: the natural-warming hypothesis may be ruled out with confidence levels great than 99%, and most likely greater than 99.9%.”
To assess the natural variability before much human interference, the new study uses “multi-proxy climate reconstructions” developed by scientists in recent years to estimate historical temperatures, as well as fluctuation-analysis techniques from nonlinear geophysics. The climate reconstructions take into account a variety of gauges found in nature, such as tree rings, ice cores, and lake sediments. And the fluctuation-analysis techniques make it possible to understand the temperature variations over wide ranges of time scales.
For the industrial era, Lovejoy’s analysis uses carbon-dioxide from the burning of fossil fuels as a proxy for all man-made climate influences – a simplification justified by the tight relationship between global economic activity and the emission of greenhouse gases and particulate pollution, he says. “This allows the new approach to implicitly include the cooling effects of particulate pollution that are still poorly quantified in computer models,” he adds.
While his new study makes no use of the huge computer models commonly used by scientists to estimate the magnitude of future climate change, Lovejoy’s findings effectively complement those of the International Panel on Climate Change (IPCC), he says. His study predicts, with 95% confidence, that a doubling of carbon-dioxide levels in the atmosphere would cause the climate to warm by between 2.5 and 4.2 degrees Celsius. That range is more precise than – but in line with -- the IPCC’s prediction that temperatures would rise by 1.5 to 4.5 degrees Celsius if CO2 concentrations double.
We’ve had a fluctuation in average temperature that’s just huge since 1880 – on the order of about 0.9 degrees Celsius,” Lovejoy says. “This study shows that the odds of that being caused by natural fluctuations are less than one in a hundred and are likely to be less than one in a thousand.
While the statistical rejection of a hypothesis can’t generally be used to conclude the truth of any specific alternative, in many cases – including this one – the rejection of one greatly enhances the credibility of the other.


Tomado de/Taken from McGill University

Resumen del artículo/Abstract of the paper
Scaling fluctuation analysis and statistical hypothesis testing of anthropogenic warming
S. Lovejoy
Climate Dynamics, April 2014. DOI: 10.1007/s00382-014-2128-2
Abastract
Although current global warming may have a large anthropogenic component, its quantification relies primarily on complex General Circulation Models (GCM’s) assumptions and codes; it is desirable to complement this with empirically based methodologies. Previous attempts to use the recent climate record have concentrated on “fingerprinting” or otherwise comparing the record with GCM outputs. By using CO2 radiative forcings as a linear surrogate for all anthropogenic effects we estimate the total anthropogenic warming and (effective) climate sensitivity finding: ΔT anth = 0.87 ± 0.11 K, λ2xCO2,eff=3.08±0.58K . These are close the IPPC AR5 values ΔT anth = 0.85 ± 0.20 K and λ2xCO2=1.5−4.5K (equilibrium) climate sensitivity and are independent of GCM models, radiative transfer calculations and emission histories. We statistically formulate the hypothesis of warming through natural variability by using centennial scale probabilities of natural fluctuations estimated using scaling, fluctuation analysis on multiproxy data. We take into account two nonclassical statistical features—long range statistical dependencies and “fat tailed” probability distributions (both of which greatly amplify the probability of extremes). Even in the most unfavourable cases, we may reject the natural variability hypothesis at confidence levels >99 %.

No hay comentarios: