Les sources chaudes de Yellowstone et le coronavirus // Yellowstone hot springs and COVID-19

Les sources chaudes et les geysers du Parc National de Yellowstone sont l’un des hauts lieux du tourisme aux États-Unis. Cependant, très peu de visiteurs savent que ces sources contiennent des éléments essentiels à la science. Une fois encore, la Nature peut aider à sauver des vies.
Au cours de cinq visites à Yellowstone – dont une avec des mesures de température pour le compte de l’Observatoire – j’ai pris des centaines de photos des geysers, des sources chaudes et des mares de boue. On me demande souvent dans mes conférences pourquoi ces sources ont des couleurs aussi vives. J’explique qu’elles sont dues aux bactéries thermophiles (elles aiment la chaleur de l’eau) qui colonisent les sources chaudes. Ces couleurs extraordinaires varient également en fonction de la température de l’eau: bleu, jaune, orange, vert
Un article très intéressant sur le site Web du National Geographic nous apprend que certaines bactéries découvertes à Yellowstone sont utilisées en science, et plus particulièrement en science médicale. Un microbiologiste a découvert un jour un microbe qui produit des enzymes capables de résister remarquablement bien à la chaleur. Aujourd’hui, ces enzymes sont un élément clé de la réaction en chaîne par polymérase – Polymerase Chain Reaction ou PCR – une méthode utilisée dans les laboratoires du monde entier pour étudier de petits échantillons de matériaux génétiques en faisant des millions de copies. Cette technique est actuellement utilisée pour augmenter le signal des virus dans la plupart des tests disponibles pour le COVID-19.
Alors que le nouveau coronavirus se propage sur toute la planète, les tests sont devenus le coeur du suivi et du ralentissement de la pandémie. Il ne faudra donc oublier que le processus de PCR, partie essentielle du test, relativement simple et rapide, a pu être réalisé grâce à un groupe de bactéries qui prospèrent dans les sources chaudes de Yellowstone.
Une autre bactérie découverte à Yellowstone est le Thermus aquaticus. Cette bactérie a révolutionné la biologie moléculaire en donnant aux scientifiques un nouvel outil pour manipuler et étudier l’ADN. Depuis la découverte de la double hélice de l’ADN en 1953, les scientifiques n’ont eu de cesse d’étudier ces minuscules molécules génétiques. Pour mieux comprendre les différents types d’ADN, les scientifiques avaient besoin d’échantillons à grande échelle.
Dans les années 1980, une nouvelle technique a été élaborée pour imiter la façon dont une cellule copie naturellement son ADN pour croître et se diviser. L’ADN doit être chauffé puis refroidi dans un cycle permanent, ce qui double plus ou moins chaque fois le nombre de copies génétiques. Le problème, c’est que dans les premières expériences, les températures élevées de chaque cycle endommageaient l’ADN polymérase nécessaire pour faire ces copies.
Les chercheurs ont réalisé qu’une enzyme des bactéries Yellowstone pouvait survivre aux cycles de chauffage et de refroidissement et accélérer le processus. Au fil des ans, de telles enzymes ont permis aux scientifiques d’automatiser le processus de copie d’ADN. Désormais, les chercheurs sont capables de produire des centaines de millions de copies génétiques en quelques heures. Le test du COVID-19 utilise ce même processus, mais en intégrant quelques étapes supplémentaires.
Ces découvertes ont permis à la science de progresser à grands pas. Les scientifiques savent maintenant que les microbes ont mis au point des techniques uniques pour pouvoir se développer dans presque tous les environnements extrêmes de la Terre, que ce soit les sources chaudes de Yellowstone ou les fumeurs noirs au fond des océans. Ces organismes contiennent une mine de mécanismes biologiques jusque-là inimaginables. Il ne reste plus q’à les découvrir et les exploiter !
Source: National Geographic.

———————————————–

Yellowstone hot springs and geysers are one of the highlights of tourism in the United States. However, very few visitors realise that these springs contain elements that are critical in science. Once again, Nature can help to save lives.

Having visited Yellowstone five times – once on behalf of the Observatory to take temperature measurements –, I have hundreds of photos of the geysers, hot springs and mud pools. I am often asked in my conferences about the cause of their vivid colours. I explain that they are due to the thermophile bacteries (they love the heat of the water) that colonise the hot springs. These colours are also different according to the water temperature : blue, yellow, orange, green

An interesting article on the National Geographic website explains that certain species of bacteria have been used in science, and more particularly medical science. A microbiologist once discovered a microbe that produces unusual heat-resistant enzymes. Today, those enzymes are a key component in polymerase chain reaction, or PCR, a method used in laboratories around the world to study small samples of genetic material by making millions of copies. This technique is currently being used to boost the signal of viruses in most of the available tests for COVID-19.

As the novel coronavirus sweeps around the world, testing has become the crux of tracking and slowing the extension of the pandemic. The PCR process that is an essential part of the test is relatively simple and quick, thanks to a cluster of bacteria thriving in the thermal pools of Yellowstone.

Another example of the importance of Yellowstone bacteria is the Thermus aquaticus which has revolutionised molecular biology by giving scientists a new tool to manipulate and study DNA. Since the discovery of DNA’s double helix in 1953, scientists have grappled with the challenge of studying these tiny genetic molecules. To see and understand different types of DNA, scientists needed large scale samples.

In the 1980s, a new technique was developed to mimic the way a cell naturally copies its DNA to grow and divide. The DNA has to be heated and then cooled in a cycle again and again, each time roughly doubling the number of genetic copies. But in early experiments, the high temperatures of each cycle damaged the DNA polymerase needed to make those copies.

The researchers realised that an enzyme from the Yellowstone bacteria could survive the cycles of heating and cooling and speed up the process. Over the years, these enzymes have allowed scientists to automate the DNA-copying process. Now, researchers can produce upward of hundreds of millions of genetic copies in hours. The COVID-19 test uses this same process—but with a few additional steps.

Such discoveries have made a world of difference. Scientists now know that microbes have perfected unique ways to make a living in nearly every extreme environment on Earth, from Yellowstone’s hot pools to the black smokers of the deep sea. These organisms contain a trove of previously unimagined biologic mechanisms just waiting to be found.

Source : National Geographic.

Photos: C. Grandpey

Un trou dans la couche d’ozone au-dessus du pôle Nord // A hole in the ozone layer above the North Pole

L’excellent documentaire Sur le front des glaciers  (France 2  le 17 mars 2020) a consacré une séquence à la réduction du trou dans la couche d’ozone – ou couche à ozone, comme se plaisait à l’appeler Haroun Tazieff – au-dessus de l’Antarctique. Grâce à l’interdiction d’utilisation des chlorofluorocarbones, les fameux CFC, ce trou est en train de se combler et on espère qu’il aura disparu dans les quatre ou cinq prochaines décennies.

La couche d’ozone est une couche naturelle de gaz dans la haute atmosphère qui protège les êtres vivants sur Terre des rayons ultraviolets du Soleil.
Paradoxalement, alors que le trou se réduit au-dessus de l’Antarctique, le centre météorologique Severe Weather Europe (SWE) a détecté une vaste zone d’appauvrissement de la couche d’ozone au-dessus de l’Arctique canadien, avec une intensité anormalement forte pour l’hémisphère nord.

Une forte chute des valeurs minimales d’ozone a déjà été observée fin novembre 2019 et janvier 2020, mais il s’agissait d’événements de courte durée qui se produisent probablement chaque année pendant la saison froide. Le SWE a déclaré que ces petits trous d’ozone au-dessus des régions polaires septentrionales ne se développent pas en raison d’un processus de destruction chimique par les aérosols, comme c’est le cas en Antarctique.
Ce qui inquiète le SWE, c’est la réduction globale de l’ozone, début mars, alors que les valeurs devraient augmenter lentement. Il ne s’agit pas de la création éphémère d’un mini trou d’ozone, mais d’un réel processus de destruction de l’ozone.
Les recherches effectuées par le SWE ont montré que le trou d’ozone au-dessus de l’Antarctique se développe en raison d’un processus chimique qui implique de l’air très froid en dessous de -78 ° C, la lumière du soleil, ainsi que des émissions humaines de chlorofluorocarbone (CFC) ) et hydrofluorocarbones (HFC). La température froide permet aux nuages ​​stratosphériques de s’établir ; la lumière du soleil réagit ensuite avec ces nuages ​​pour entamer un processus photochimique qui détruit l’ozone, entraînant la formation et la croissance du trou.
Comme la destruction de l’ozone a également besoin de la lumière du soleil, ce processus est limité au-dessus des régions polaires septentrionales. Fin février et en mars, lorsque la lumière du soleil atteint le pôle, la stratosphère n’est généralement plus assez froide pour produire ces nuages, qui sont essentiels au processus de destruction de l’ozone.

La stratosphère peut être exceptionnellement froide au niveau du pôle Nord certaines années, comme c’est la cas en 2020, et elle peut générer des nuages ​​stratosphériques en même temps que la lumière du soleil touche le pôle. Une telle concordance est susceptible de provoquer la destruction de l’ozone.
L’analyse de l’ozone par le SWE montre que l’on a affaire à un trou exceptionnellement grand pour l’hémisphère Nord et avec des valeurs record ; on a enregistré un minimum de 217 unités Dobson. Cependant, on est loin des valeurs observées en Antarctique. Comme mars n’est pas terminé, le SWE explique qu’il n’y a pas encore de données complètes pour ce mois, donc la dernière référence concerne 2019. Dans le passé, deux années – 2011 et 1997 – ont été remarquables, avec des valeurs d’ozone très basses pour le mois de mars. Toutefois, le déficit en ozone n’était pas aussi marqué qu’en 2020 qui pourrait bien être une année record.
Selon le SWE, le trou d’ozone au-dessus du pôle Nord pourrait être de courte durée car la stratosphère devrait se réchauffer avec l’influence grandissante du soleil. La température sera trop élevée pour que les nuages ​​stratosphériques se forment, ce qui réduira lentement le processus de destruction de l’ozone. Selon les prévisions de SWE sur 10 jours, on devrait observer réduction de la taille et de l’intensité du trou d’ozone, même s’il restera présent pendant un certain temps.

Source : Severe Weather Europe.

——————————————-

The excellent French documentary Sur le front des glaciers (France 2 March 17th, 2020) devoted a sequence to the reduction of the hole in the ozone layer over Antarctica. Thanks to the ban on the use of chlorofluorocarbons, the famous CFCs, this hole is filling up and it is hoped that it will have disappeared in the next four or five decades.
The ozone layer is a natural layer of gas in the upper atmosphere that protects living things on Earth from the sun’s ultraviolet rays.
Paradoxically, as the hole narrows over Antarctica, the Severe Weather Europe (SWE) meteorological centre has detected a large area of ​​ozone depletion over the Canadian Arctic, with an abnormally high intensity for the northern hemisphere.
A sharp drop in minimum ozone values ​​was already observed in late November 2019 and January 2020, but these were short-lived events that likely occur each year during the cold season. SWE has stated that these small ozone holes above the northern polar regions do not develop due to a process of chemical destruction by aerosols, as in Antarctica.
What worries SWE is the overall reduction in ozone in early March, when values ​​are expected to increase slowly. It is not the ephemeral creation of a mini ozone hole, but a real process of ozone destruction.
Research by SWE has shown that the ozone hole over Antarctica is developing due to a chemical process that involves very cold air below -78°C, sunlight , as well as human emissions of chlorofluorocarbon (CFC)) and hydrofluorocarbon (HFC). The cold temperature allows stratospheric clouds to settle; sunlight then reacts with these clouds to start a photochemical process that destroys ozone, causing the hole to form and grow.
As the destruction of ozone also requires sunlight, this process is limited over the northern polar regions. In late February and March, when the sunlight reaches the pole, the stratosphere is generally no longer cold enough to produce these clouds, which are essential to the ozone-depleting process.
The stratosphere can be exceptionally cold at the North Pole in some years, in 2020, for instance, and it can generate stratospheric clouds at the moment when sunlight reaches the pole. Such a combination of events is likely to destroy the ozone.
Ozone analysis by SWE shows that we are dealing with an exceptionally large hole for the northern hemisphere and with record values; a minimum of 217 Dobson units has been recorded. However, we are far from the values ​​observed in Antarctica. As March is not over, SWE explains that there is not yet complete data for this month, so the last reference is for 2019. In the past, two years – 2011 and 1997 – were remarkable, with very low ozone values ​​for the month of March. However, the ozone deficit was not as pronounced as in 2020 which could well be a record year.
According to SWE, the ozone hole above the North Pole could be short-lived because the stratosphere should warm up with the increasing influence of the sun. The temperature will be too high for stratospheric clouds to form, which will slowly reduce the process of ozone destruction. According to SWE’s 10-day forecast, the size and intensity of the ozone hole will decrease, although it will remain there for some time.
Source: Severe Weather Europe.

Source: SWE

Les mesures GPS à Hawaii // GPS measurements in Hawaii

Le Global Positioning System (GPS) est un système américain de navigation par satellite conçu à l’origine pour des applications militaires, mais qui est devenu extrêmement populaire et largement utilisé. En plus de la constellation américaine, il existe trois autres systèmes de navigation par satellite (GNSS) dans le monde : GLONASS (Russie), Galilée (Europe) et BeiDou (Chine). Les nouveaux récepteurs GNSS peuvent suivre simultanément plusieurs constellations de satellites, ce qui améliore la précision.
À Hawaii, le HVO exploite un réseau GNSS de 67 stations réparties sur toute l’île, mais avec priorité aux zones de déformation telles que les zones de rift. Ces stations GNSS de haute précision fournissent des données aux scientifiques 24 heures sur 24 et 7 jours sur 7.
Le principe de fonctionnement est le suivant : les satellites GNSS émettent des ondes radio qui se déplacent à la vitesse de la lumière et transmettent des informations sur la position exacte du satellite et l’heure actuelle. L’antenne au sol prend en compte les signaux radio de plusieurs satellites et les transmet au récepteur qui calcule l’emplacement exact selon un processus appelé trilatération. Un système GNSS de haute précision peut déterminer un emplacement avec une marge d’erreur de seulement quelques millimètres.

Actuellement, la constellation GPS américaine compte 33 satellites opérationnels en orbite à une altitude de 20 000 km. Pour localiser avec précision l’emplacement d’une station GNSS, le récepteur doit recevoir en continu des données pendant six heures au moment où les satellites traversent l’horizon en vue de la station. Quatre satellites sont nécessaires pour calculer un emplacement 3D, mais généralement un récepteur GNSS en suit huit ou plus pour calculer une position plus précise.
Plusieurs facteurs peuvent affecter le signal GNSS et la précision des emplacements qui en dépendent. L’ionosphère et la troposphère, couches de l’atmosphère à travers lesquelles se déplacent les ondes radio, peuvent retarder les signaux radio, mais cela peut être corrigé avec des modèles atmosphériques. Il est important que les antennes GNSS fonctionnent dans un environnement bien dégagé,  sans interférence d’objets comme des arbres ou des bâtiments.
Pour obtenir une vue globale des déformations d’un volcan, le HVO effectue également chaque année des mesures sur le terrain sur le Mauna Loa et le Kilauea. Au cours de ces missions, le personnel du HVO place des récepteurs GPS temporaires et des antennes sur des supports – des disques de laiton qui ont été arrimés au sol – et les scientifiques laissent l’équipement en place pendant quelques jours sur chaque site. Le support du récepteur montre généralement une croix à l’intérieur d’un triangle qui sert de point de référence pour le centrage de l’antenne.
Au cours de chaque mission de mesures, le personnel du HVO revient sur les sites de mesures afin de collecter les données et déterminer si la station a bougé. Les données ainsi collectées permettent de calculer à la fois la position horizontale et verticale – comme on le fait pour la latitude, la longitude et l’altitude – et ainsi d’évaluer les variations par rapport aux relevés précédents.
Des campagnes de levés GPS sont conduites sur le Mauna Loa et le Kilauea depuis le milieu des années 1990. Elles fournissent des données extraordinairement précises sur la déformation de ces volcans. En plus du Mauna Loa et du Kilauea, le Hualalai et l’Haleakala sont inspectés périodiquement (tous les trois à cinq ans) dans le cadre du programme de surveillance des volcans par le HVO.
Source: USGS / HVO.

———————————————–

The Global Positioning System (GPS) is a US satellite-navigation system originally designed for military use but now an extremely popular and widely used technology. In addition to the US constellation, there are three other Global Navigation Satellite Systems (GNSS): GLONASS (Russia), Galileo (European) and BeiDou (China). New GNSS receivers can simultaneously track multiple constellations of satellites , which provides improved accuracy.

In Hawaii, HVO operates a 67-station GNSS network spread out across the island but concentrated near persistent deforming features like rift zones. These high-precision GNSS stations give scientists a 24/7 record.

GNSS satellites send out radio waves that travel at the speed of light and transmit information about the exact position of the satellite and the current time. The antenna on the ground listens to the radio signals from multiple satellites and passes them to the receiver which calculates the exact location using a process called trilateration. High-precision GNSS equipment and analysis can determine a location down to less than a centimetre.

Currently, the American GPS constellation has 33 operational satellites orbiting at an altitude of 20 000 km. To accurately pinpoint the location of a high-precision GNSS station, the receiver must continuously receive data for six hours as satellites arc across the horizon in view of the station. Only four satellites are needed to calculate a 3-D location, but typically a GNSS receiver will track eight or more to calculate a more precise position.

There are several factors that affect the GNSS signal and accuracy of derived locations. The ionosphere and troposphere, layers of the atmosphere through which the radio waves travel, introduce delays in the radio signals that can be corrected with atmospheric models. It is important for GNSS antennas to have enough clear “sky view” without object interference suchas trees or buildings.

To get a more complete view of the deforming volcano, HVO also conducts yearly campaign surveys on Mauna Loa and Kilauea. During these surveys, HVO staff place temporary GPS receivers and antennas on benchmarks – permanent brass disks that have been drilled into the ground – and leave the equipment in place for a couple of days at each site. The benchmark typically has a cross inside a triangle that serves as a reference point for centering of the antenna.

During each survey, HVO staff returns to these benchmarks to collect data and determine how the point has moved. Data collected allow to calculate both a horizontal and vertical location, similar to latitude, longitude, and altitude and thus to evaluate the change from prior surveys.

Campaign of GPS surveys have been conducted on both Mauna Loa and Kilauea since the mid-1990s, providing extraordinary records of volcano deformation. Along with Mauna Loa and Kilauea, Hualalai and Haleakala are surveyed periodically (every three to five years) as part of HVO’s volcano monitoring program.

Source : USGS / HVO.

Station GPS sur le flanc sud du Kilauea (Crédit photo : USGS)

Pour une meilleure prévision des séismes et des tsunamis // For a better earthquake and tsunami prediction

Des chercheurs ont conçu un nouvel algorithme capable de décrire avec grande précision un signal gravitationnel provoqué par des séismes. Cela pourrait permettre d’améliorer les systèmes d’alerte précoce concernant les séismes ou les tsunamis.

Les séismes envoient des signaux qui se déplacent à la vitesse de la lumière et peuvent être enregistrés avant les ondes sismiques qui sont relativement lentes. Ces signaux représentent des changements soudains de gravité causés par un déplacement de la masse interne de la Terre. Récemment, ces signaux rapides d’élastogravité (PEGS) ont été suivis dans leurs déplacements par des mesures sismiques. Grâce aux PEGS, il est possible de détecter un séisme très tôt, avant même l’arrivée des ondes sismiques ou des vagues de tsunami destructrices. Cependant, l’effet gravitationnel de ce phénomène est si faible qu’il ne représente que moins d’un milliardième de la gravité de la planète, ce qui signifie que les PEGS peuvent être enregistrés uniquement pour les séismes les plus puissants. De plus, le processus de leur formation est complexe car ils sont non seulement produits directement à la source du séisme, mais également en permanence au moment où les ondes sismiques se déplacent à l’intérieur de la Terre.
Il n’existe pas de méthode exacte capable de simuler la formation des signaux PEGS sur les ordinateurs. Pour la première fois, l’algorithme proposé par les chercheurs du Centre de Recherche allemand GFZ pour les Géosciences est en mesure de calculer les signaux PEGS avec grande précision et plus de facilité. Les chercheurs ont démontré que ces signaux permettent de tirer des conclusions sur la puissance, la durée et le mécanisme des séismes les plus destructeurs.

Un séisme agit brusquement sur les plaques à l’intérieur de la Terre, ce qui entraîne en même temps une modification de la répartition des masses. Ce déplacement des plaques peut atteindre plusieurs mètres lors de puissants séismes. Cependant, chaque séisme produit également des ondes qui modifient la densité des roches et la gravité pendant une courte période. Cette variation de la gravité est la cause du déclenchement des ondes sismiques secondaires.
Les scientifiques du GFZ ont expliqué comment ils ont testé leur nouvel algorithme. Ils l’ont appliqué pour la première fois au séisme de Tohoku au Japon en 2011, qui a également provoqué le tsunami de Fukushima. Dans ce cas, des mesures de la force du signal PEGS étaient déjà disponibles. La cohérence était parfaite. Cela a donné aux chercheurs une base certaine pour la prévision d’autres séismes et la confirmation du potentiel des signaux pour de nouvelles applications.
Les chercheurs ont ajouté qu’en évaluant les changements de gravité à plus grande distance de l’épicentre du séisme, au large des côtes, cette méthode pourrait être utilisée pour déterminer s’il s’agit d’un puissant séisme, avec risque de tsunami. Il reste toutefois un long chemin à parcourir. Les instruments de mesure actuels ne sont pas encore suffisamment sensibles et les signaux d’interférence induits par l’environnement sont trop importants pour que les signaux PEGS soient directement intégrés dans un système opérationnel d’alerte précoce aux tsunamis.

Référence: « Prompt elasto-gravity signals (PEGS) and their potential use in modern seismology » – Zhang, S. et al – Earth and Planetary Science Letters.

Source: The Watchers.

——————————————-

Researchers have proposed a new algorithm that can describe a gravitational signal caused by earthquakes with great accuracy. The procedure could help in improving early warning systems for earthquakes or tsunamis in the future.

Earthquakes send out signals that proliferate at the speed of light and can be recorded before the relatively slow seismic waves. These signals are sudden changes in gravity caused by a shift in the Earth’s inner mass. Recently, these signals called Prompt Elasto-Gravity Signals (PEGS) were tracked by seismic measurements. With the help of PEGS, it is possible to spot an earthquake very early, even prior to the arrival of destructive quakes or tsunami waves. However, the gravitational effect of this phenomenon is so small that it only amounts to less than one-billionth of the planet’s gravity, which means PEGS can only be recorded for powerful earthquakes. Furthermore, the process of their generation is complex as they are not only produced directly at the quake’s source but also persistently as the tremor waves propagate through the Earth’s interior.

There has been no exact method to simulate the generation of PEGS signals on computers. For the first time, the algorithm proposed by researchers from the GFZ German Research Center for Geosciences can calculate PEGS signals with great accuracy and less effort. The researchers were able to present that the signals enable conclusions to be drawn about the strength, duration, and mechanism of very strong earthquakes.

A tremor abruptly changes the rock slabs in the Earth’s interior, thus also shifting the mass distribution in the Earth. This displacement can amount to several meters in powerful earthquakes. However, every tremor also produces waves that change the density of rocks and gravitation for a short time. This oscillating gravity triggers secondary seismic waves.

The scientists at GFZ explained how they tested their new algorithm. They first applied it to the Tohoku quake off Japan in 2011, which was also the cause of the Fukushima tsunami. There, measurements on the strength of the PEGS signal were already available. The consistency was perfect. This gave the researchers certainty for the prediction of other earthquakes and the potential of the signals for new applications.

Researchers added that by evaluating the changes in gravity further from the quake’s epicenter off the coast, this method could be used in the future to identify whether a large earthquake is involved, which could trigger a tsunami. However, there is still a long way to go. Today’s measuring instruments are not yet sensitive enough, and the environmentally induced interference signals are too great for the PEGS signals to be directly integrated into a functioning tsunami early warning system.

Reference: « Prompt elasto-gravity signals (PEGS) and their potential use in modern seismology » – Zhang, S. et al – Earth and Planetary Science Letters.

Source: The Watchers.

 

Répartition dans l’espace de l’intensité du signal PEGS lors du séisme de Tohoku en 2011, peu de temps avant l’arrivée des ondes sismiques primaires. (Source : Zhang