L’intelligence artificielle (IA) au service de la prévision sismique // Artificial Intelligence (AI) to help seismic prediction

La prévision sismique reste aujourd’hui l’un des maillons faibles de la science. Force est de constater que nous ne savons pas prévoir les séismes. Chaque fois que de puissantes secousses se produisent, le nombre de victimes est très élevé et les dégâts matériels sont souvent considérables.

Nous connaissons la plupart des zones où les séismes les plus puissants sont susceptibles de se produire, mais notre connaissance sismique s’arrête là. Pourtant, une zone sensible comme la Californie avec la Faille de San Andreas est truffée de sismographes qui fournissent une foule d’informations, mais nous ne savons pas suffisamment les interpréter pour éviter des catastrophes.

Il se pourrait qu’avec l’avènement de l’Intelligence Artificielle (IA) des progrès soient accomplis rapidement en matière de prévision. Le numéro de novembre 2024 du National Geographic raconte l’histoire de Zachary Ross, professeur adjoint de géophysique à l’Institut de Technologie (Caltech) de Californie.

Zachary Ross a cherché une nouvelle approche d’interprétation des signaux sismiques californiens. Il avait remarqué que la majorité des failles dans cet État génèrent de minuscules secousses et des ondes sismiques tellement faibles qu’elles sont difficilement décelables par l’Homme.

En 2017, le scientifique eut l’idée de transposer à la sismologie la technique du machine learning ou apprentiisage automatique utilisée pour l’IA, en particulier pour la gestion de grandes quantités de photos. Il s’est proposé de l’appliquer aux innombrables microséismes, parfois difficilement détectables, mais probablement révélateurs au niveau des failles, enregistrés en Californie.

Avec ses collègues, Zachary Ross a collecté tous les sismogrammes obtenus dans le sud de l’État. Il a ensuite établi des modèles d’ondes sismiques pour chacun d’entre eux et passé ces données au crible d’un algorithme pour qu’il recherche des secousses imperceptibles correspondant à ces modèles. Le résultat a révélé que près de deux millions de séismes survenus entre 2008 et 2017 – et non détectés – ont été identifiés par l’algorithme. Cela a permis de mettre en évidence un réseau complexe de failles qui n’avait pas été décelé jusqu’alors. Toutefois, l’algorithme n’a pu discerner des séismes que dans les données qu’il avait appris à reconnaître.

Zachary Ross s’est alors tourné vers des programmes de self-learning – ou auto-apprentissage – autrement dit des programmes se servant d’informations existantes pour prédire l’avenir, c’est à dire les ondes que pourrait émettre une plus grande variété de séismes. Ces outils ont effectivement repéré une foule de séismes méconnus, mais confirmés par les scientifiques.

Ces programmes d’auto-apprentissage ne se contentent pas d’identifier les séismes indétectables par l’Homme et les failles cachées. Une fois déployés à travers la Californie, ils ont révélé une nouvelle catégorie d’essaims sismiques à propagation lente.

On peut raisonnablement penser que ces programmes de machine learning, de plus en plus précis, donneront bientôt un aperçu plus précis de la croûte terrestre. Peut-être permettront ils d’améliorer la rapidité et l’exactitude des systèmes d’alerte précoce. Ils rejoindront inévitablement une gamme de plus en plus fournie d’outils reposant sur l’IA pour que les catastrophes sismiques soient moins destructrices.

Il reste toutefois un long chemin à parcourir avant que les humains et l’IA parviennent ensemble à une prévision sismique digne de ce nom.

Adapté d’un article paru dans le National Geographic France.

Région tourmentée de la Faille de San Andreas (Photos: C. Grandpey)

————————————————-

Earthquake prediction remains one of the weak points in science today. Indeed, we are not able to predict earthquakes. Every time powerful tremors occur, the number of victims is very high and the material damage is often considerable.
We know most of the areas where the most powerful earthquakes are likely to occur, but our seismic knowledge does not go any further. A sensitive area like California with the San Andreas Fault is full of seismographs that provide a wealth of information, but we do not know how to interpret them to avoid disasters.
It is possible that with the advent of Artificial Intelligence (AI), progress will be made quickly in terms of prediction. The November 2024 issue of National Geographic tells the story of Zachary Ross, an assistant professor of geophysics at the California Institute of Technology (Caltech).
Zachary Ross was looking for a new approach to interpreting Californian seismic signals. He had noticed that most of the faults in this State generate tiny tremors and seismic waves so weak that they are difficult to detect by humans.
In 2017, the scientist had the idea of ​​transposing to seismology the machine learning technique used for AI, in particular for the management of large quantities of photos. He proposed to apply it to the countless microseisms, sometimes difficult to detect, but probably revealing at the level of the faults, recorded in California.
With his colleagues, Zachary Ross collected all the seismograms recorded in the southern part of the State. He then established seismic wave patterns for each of them and ran the data through an algorithm to look for imperceptible tremors that matched those patterns. The result was that nearly two million earthquakes that had occurred between 2008 and 2017—and had not been detected—were identified by the algorithm. This revealed a complex network of faults that had previously gone undetected. However, the algorithm could only discern earthquakes in data that it had learned to recognize.
Zachary Ross then turned to self-learning programs – programs that use existing information to predict the future, that is, the waves that a wider variety of earthquakes might emit. These tools did indeed detect a host of unknown earthquakes, but that scientists confirmed.
These self-learning programs don’t just identify earthquakes that humans can’t detect and hidden faults. When deployed across California, they revealed a new class of slow-moving seismic swarms.
It’s reasonable to assume that these increasingly accurate machine learning programs will soon provide a more precise view of the Earth’s crust. Perhaps they will help improve the speed and accuracy of early warning systems. They will inevitably join a growing range of AI-powered tools to make seismic disasters less destructive.
However, there’s still a long way to go before humans and AI can work together to predict earthquakes.
Adapted from an article in National Geographic France.

L’intelligence artificielle au service de la prévision sismique // Artificial intelligence might help earthquake prediction

Une étude récente, conduite par des géophysiciens de l’Université d’Alaska à Fairbanks et de l’Université Ludwig-Maximilians de Munich, propose une nouvelle technique d’apprentissage automatique permettant de prévoir les puissants séismes plusieurs mois à l’avance. L’étude a été publiée dans Nature Communications en août 2024.
La nouvelle méthode utilisée par les chercheurs consiste à analyser des volumes importants de données sismiques pour identifier des schémas d’activité sismique de faible magnitude susceptibles d’annoncer de puissants événements. L’algorithme d’apprentissage automatique utilisé, qui se base sur des données sismiques historiques, peut détecter ces précurseurs, avec la capacité à prévoir une catastrophe majeure.des mois à l’avance.
Les chercheurs se sont concentrés sur deux puissants séismes récents: celui de magnitude M 7,1 d’Anchorage en 2018 et l’essaim sismique enregistré à Ridgecrest, en Californie, en 2019. Dans les deux cas, ils ont découvert des signes d’activité sismique anormale dans les mois précédant les principaux événements. La probabilité d’un puissant séisme était de plus de 80 % trois mois avant le séisme d’Anchorage et de 85 % quelques jours seulement avant qu’il se produise.
Les scientifiques ont testé leurs hypothèses dans des zones sismiques actives telles que le centre-sud de l’Alaska et le sud de la Californie. Ces régions ont fourni des données importantes pour tester la capacité de la méthode à prévoir les séismes de grande ampleur. Les résultats de l’étude pourraient être utilisés dans d’autres zones sujettes aux séismes, notamment la faille de San Andreas en Californie et la fosse de Nankai au Japon.
La nouvelle étude représente plusieurs années de collecte et d’analyse de données. Les résultats les plus récents indiquent une amélioration significative de la prévision sismique. L’objectif principal est d’améliorer la sécurité publique et la préparation aux catastrophes. La plupart des technologies traditionnelles de prévision sismique ne sont pas parvenues à fournir un avertissement préalable adéquat. Les auteurs de l’étude espèrent développer une méthode plus fiable. Cela permettrait de sauver des vies et de réduire les dommages économiques grâce à des évacuations rapides des populations menacées.
La méthode de prévision utilisée par les chercheurs a recours à des algorithmes d’apprentissage automatique basés sur des catalogues de séismes afin de repérer les schémas d’activité sismique aberrante de faible magnitude qui précèdent souvent les puissants séismes. Selon eux, ces précurseurs de faible magnitude sont peut-être causés par une augmentation de la pression des fluides interstitiels dans les failles, ce qui modifie les propriétés mécaniques de ces dernières. La méthodologie utilisée par les scientifiques a permis de découvrir cette activité antérieure dans 15 à 25 % des zones touchées, environ trois mois avant les séismes d’Anchorage et de Ridgecrest. La capacité du modèle à prévoir la probabilité qu’un puissant séisme se produise dans un laps de temps donné constitue un grand pas en avant dans la prévision sismique.
Les chercheurs font remarquer que l’approche basée sur l’apprentissage automatique présentée dans l’étude ne nécessite que des informations mises à jour et archivées de manière routinière dans les catalogues de séismes. Une telle approche pourrait permettre de mieux comprendre la dynamique des réseaux de failles et à identifier les variations dans le champ de contrainte régional. Elle pourrait être facilement mise en œuvre par les agences de surveillance pour contrôler la sismicité de faible magnitude en temps quasi réel. À terme, cette nouvelle approche pourrait aider à concevoir des stratégies de niveaux d’alerte sismique basées sur la détection de l’activité tectonique régionale, et à améliorer la prévision des séismes de forte magnitude plusieurs semaines à plusieurs mois à l’avance dans le sud de la Californie, le centre-sud de l’Alaska, mais aussi dans d’autres régions du monde.
L’étude est en libre accès à cette adresse :
https://doi.org/10.1038/s41467-024-51596-z

Voir aussi l’article sur le site The Watchers.

La faille de San Andreas et ses homologues en Californie sont susceptibles de provoquer de puissants séismes (Photos: C. Grandpey)

————————————————–

A recent study by geophycists of the University of Alaska Fairbanks and Ludwig-Maximilians-Universität in Munich proposes a new machine learning technique for predicting big earthquakes months in advance. The study was published in Nature Communications in August 2024.

The new method entails analyzing massive volumes of seismic data to identify minor patterns of low-magnitude earthquake activity that may foreshadow big quakes. The machine learning algorithm, trained on historical earthquake data, may detect these precursors, potentially providing months of notice before a large-magnitude disaster.

The researchers concentrated on two recent significant earthquakes: the 2018 M 7.1 Anchorage earthquake and the 2019 Ridgecrest, California, earthquake series. In both cases, they discovered signs of aberrant seismic activity in the months preceding up to the main events, with the probability of a significant earthquake climbing up to over 80% three months before the Anchorage quake and 85% just days before it occurred.

The scientists test their conclusions in seismically active areas such as Southcentral Alaska and Southern California. These regions, recognized for their high seismic activity, supplied important data to test the method’s ability to forecast big earthquakes. The study’s findings have far-reaching ramifications for other earthquake-prone areas, including California’s San Andreas Fault and Japan’s Nankai Trough.

The new study represents several years of data collecting and analysis, with the most recent findings indicating a significant improvement in earthquake prediction. The major goal of this research was to enhance public safety and catastrophe preparedness. Traditional earthquake prediction technologies have frequently failed to provide adequate advance warning. The authors of the study hope to develop a more reliable method of anticipating seismic events. This would allow to save lives and decrease economic damages through timely evacuations and preparedness.

The researchers forecast method used machine learning algorithms trained on earthquake catalogs to spot patterns of aberrant, low-magnitude seismic activity, which frequently precede big earthquakes. In their opinion, these precursory low-magnitude earthquakes could be caused by increased pore fluid pressure within faults, which changes the faults’ mechanical properties. Their methodology discovered this antecedent activity in 15% to 25% of the afflicted zones about three months before the Anchorage and Ridgecrest earthquakes. The model’s capacity to forecast the likelihood of a big earthquake occurring within a given timeframe is a huge step forward in earthquake prediction.

The researchers say that it is worth noting that the machine learning-based approach presented in the study only requires information that is currently being archived routinely in earthquake catalogs; could help to better understand the dynamics of fault networks and identify variations in the regional stress field; and can be easily implemented by surveillance agencies to monitor low-magnitude seismicity in near-real time. Eventually, this new approach could help to design earthquake alert level strategies based on the detection of regional tectonic unrest, and to improve the forecast of large-magnitude earthquakes from weeks to months in advance in Southern California, Southcentral Alaska, and potentially elsewhere.

The study is in Open access at this address :

https://doi.org/10.1038/s41467-024-51596-z

See the article on the website The Watchers.

L’intelligence artificielle arrive en volcanologie // Artificial intelligence arrives in volcanology

Des scientifiques de l’Université de Grenade ont développé un algorithme d’apprentissage automatique très précis censé prévoir les éruptions volcaniques. [L’apprentissage automatique (machine learning en anglais) est un champ d’étude de l’intelligence artificielle qui vise à donner aux machines la capacité d’« apprendre » à partir de données, via des modèles mathématiques].

Les travaux de ces scientifiques, publiés récemment dans Frontiers in Earth Science, montrent que cette technologie peut permettre de mieux comprendre et prévoir l’activité volcanique. Au final, elle permettra une meilleure préparation aux catastrophes et réduira les risques volcaniques.
Les chercheurs ont analysé un vaste ensemble de données sismiques de l’Etna (Sicile) couvrant plusieurs décennies. En appliquant le modèle d’apprentissage automatique à des données historiques, ils ont pu identifier les signaux sismiques qui précédaient systématiquement les éruptions. La capacité prédictive de l’algorithme a ensuite été testée en utilisant des données sismiques plus récentes. On aboutit à un taux de précision impressionnant, de plus de 90 %.​  Les chercheurs insistent sur le fait que cette approche peut être appliquée à différents systèmes volcaniques à travers le monde.
En appliquant des techniques de traitement du signal aux enregistrements sismiques, les scientifiques ont fait apparaître quatre caractéristiques sismiques différentes, qui évoluent lorsque le système volcanique s’approche d’un épisode éruptif. Ils ont ensuite élaboré une matrice temporelle avec ces paramètres et attribué une étiquette à chaque instant temporel en fonction de l’état réel de l’activité volcanique (simple activité, situation pré-éruptive, situation éruptive). Restait à résoudre le problème du développement de systèmes d’alerte précoce transférables entre volcans. Pour cela, les auteurs de l’étude ont appliqué leur méthodologie à des bases de données associées à différents systèmes volcaniques, y compris des données concernant des épisodes explosifs et effusifs, enregistrées dans plusieurs scénarios volcaniques à conduits ouverts et fermés. Les volcans pris en compte sont l’Etna (Sicile), le Bezymianny (Kamchatka), Volcán de Colima (Mexique), le Mont St. Helens et l’Augustine. (États Unis).
On peut être optimiste quant à la capacité de l’algorithme d’apprentissage automatique à prévoir correctement les éruptions d’autres volcans actifs à travers le monde. Cette technologie peut faciliter l’approche des catastrophes en fournissant des alertes précoces et en permettant aux autorités de mettre en œuvre des plans d’évacuation et de prévoir d’autres mesures de sécurité.
L’étude montre le potentiel de l’apprentissage automatique et d’autres avancées technologiques dans la recherche géophysique. La capacité des algorithmes d’apprentissage automatique à analyser des informations complexes et à identifier des modèles cachés peut être utilisée dans un large éventail d’applications des sciences de la Terre, notamment la prévision des séismes et la modélisation climatique. Les chercheurs vont maintenant s’efforcer d’améliorer leur modèle et de tester sa pertinence dans divers environnements volcaniques.

Référence:

Universal machine learning approach to volcanic eruption forecasting using seismic features – Pablo Rey Devesa et al. — Frontier in Earth Science, June 26, 2024 – https://doi.org/10.3389/feart.2024.1342468

Source : The Watchers.

Episode éruptif sur l’Etna (Photo: C. Grandpey)

°°°°°°°°°°

L’utilisation de l’intelligence artificielle dans la prévision volcanique et celle d’autres phénomènes naturels semble prometteuse. Cependant, il faut garder à l’esprit que l’intelligence artificielle fait partie de la science exacte alors que les éruptions dépendent des caprices de la Nature qui sont souvent imprévisibles !

Des progrès ont été réalisées au cours des dernières décennies en matière de prévision éruptive, mais il reste encore beaucoup à faire pour déjouer les traquenards mis sur le chemin des scientifiques par Dame Nature. L’intelligence artificielle permettra peut-être aussi un jour d’empêcher que des populations se fassent tuer par de puissants séismes.

—————————————————

Scientists at the University of Granada developed a very accurate machine-learning algorithm for predicting volcanic eruptions. Their work, published recently in Frontiers in Earth Science, demonstrates how this technique can assist us in better understanding and forecasting volcanic activity, which is a crucial step toward increasing disaster preparedness and decreasing volcanic dangers.

The researchers analyzed a large dataset of seismic recordings from Mount Etna gathered over several decades. By training the machine learning model on historical data, they were able to identify seismic signals that consistently preceded eruptions. The algorithm’s prediction capacity was then tested against more recent seismic data, and it achieved an impressive accuracy rate of more than 90%.​  The researchers insist that it is transferable to different volcanic systems around the world.

By applying signal processing techniques on seismic records, the scientists extracted four different seismic features, which usually change their trend when the system is approaching an eruptive episode. Then, they built a temporal matrix with these parameters and defined a label for each temporal moment according to the real state of the volcanic activity (Unrest, Pre-Eruptive, Eruptive). To solve the remaining problem of developing early warning systems that are transferable between volcanoes, the authors of the study applied their methodology to databases associated with different volcanic systems, including data from both explosive and effusive episodes, recorded at several volcanic scenarios with open and closed conduits: Mt. Etna, Bezymianny, Volcán de Colima, Mount St. Helens and Augustine.

The machine learning algorithm’s performance in properly predicting eruptions bodes well for its application to other active volcanoes across the world. This technology can help with disaster planning by providing early warnings and allowing authorities to enact evacuation plans and other safety measures on time.

The study demonstrates the greater potential of machine learning and other such technological advancements in geophysical research. Machine learning algorithms’ capacity to analyze complicated information and identify hidden patterns can be applied to a wide range of earth science applications, including earthquake prediction and climate modeling. The researchers intend to enhance their model further and test its relevance to various volcanic environments.

Reference:

Universal machine learning approach to volcanic eruption forecasting using seismic features – Pablo Rey Devesa et al. — Frontier in Earth Science, June 26, 2024 – https://doi.org/10.3389/feart.2024.1342468

Source : The Watchers.

°°°°°°°°°°

The use of artificial intelligence in volcanic prediction and the prediction of other natural phenomena looks promising. However, onse should keep in mind that artificial intelligence is part of exact science whereas eruptions depend on Nature’s whims which can be unpredictable !

Progress has been made in recent decades in eruptive prediction, but much remains to be done to thwart the traps put in the path of scientists by Mother Nature. Artificial intelligence may one day make it possible to prevent populations from being killed by powerful earthquakes.

Herculanum révèle les secrets de Platon // Herculaneum reveals Plato’s secrets

J’ai écrit sur ce blog plusieurs articles (25 janvier 2015, 30 mars 2016, 21 octobre 2023, 15 février 2024 ) à propos des rouleaux de papyrus découverts à Herculanum dans la Villa Dei Papiri (« Villa des Papyrus ») ayant probablement appartenu à Lucius Calpurnius Piso Caesoninus, encore appelé Pison, le beau-père de Jules César.

Herculanum et la Villa des Papyrus (Photos: C. Grandpey)

A l’intérieur, la bibliothèque contenait 1 838 rouleaux de papyrus retrouvés en 1792. D’une longueur comprise entre 3 et 15 mètres, ils furent préservés car les boues brûlantes (300 – 330°C) déferlant du Vésuve en octobre 79 les ont instantanément enrobés. Malgré cette protection, les papyrus sont en très mauvais état et il a fallu attendre l’arrivée de techniques ultra modernes pour commencer à déchiffrer leur contenu.

Les rouleaux de papyrus ont été protégés par la boue brûlante mais sont extrêmement fragiles (Source : Bibliothèque nationale de Napless

En utilisant notamment l’intelligence artificielle pour décrypter les textes inscrits sur des papyrus carbonisés, les scientifiques ont découvert une nouvelle source historique dévoilant des potentiels détails sur la vie et la mort de Platon, philosophe antique de la Grèce classique, et notamment, sur son lieu de sépulture jusqu’à présent inconnu.

Platon est décédé vers 348 ou 347 av. J.-C., à l’âge d’environ 80 ans. La plupart des informations sur sa vie nous proviennent des écrits de ses élèves, en particulier Aristote, son disciple le plus célèbre. Les détails de la mort de Platon ne sont pas bien documentés. Il se serait éteint lors d’un repas de noces, avant d’être inhumé à l’extérieur des murs d’Athènes, à l’Académie, dont il était le fondateur et un professeur.

Selon l’agence de presse italienne ANSA, des chercheurs sont parvenus à déchiffrer des milliers de mots sur l’un des papyrus carbonisés retrouvés à Herculanum. Le texte nouvellement décrypté donnerait des informations inédites sur le lieu où pourrait reposer le philosophe grec depuis 2 300 ans.

Depuis 1792, les rouleaux de papyrus, qui ressemblent à des morceaux de charbon froissés, sont restés presque entièrement inaccessibles en raison de leur fragilité. Pour tenter d’en décrypter des mots, écrits à partir d’une encre composée de charbon de bois et d’eau, les chercheurs ont ces dernières années fait appel aux nouvelles technologies. Dans ma note du 15 février 2024, j’indiquais que le travail de déchiffrage du papyrus faisait partie du « Vesuvius Challenge » – le défi du Vésuve – une série de prix dont le principal, d’un montant de 700.000 dollars (651 000 euros) récompense la lecture d’au moins quatre passages d’un parchemin roulé. Les organisateurs du concours ont annoncé, en février 2024, qu’une équipe avait réussi à traduire 2 000 caractères à l’intérieur d’un rouleau, grâce à des logiciels d’apprentissage automatique (machine learning) et des programmes de vision par ordinateur.

Source : Vesuvius Challenge

Aujourd’hui, d’autres experts déclarent avoir obtenu des résultats prometteurs grâce à la combinaison de deux techniques innovantes : l’imagerie hyperspectrale infrarouge et la tomographie par cohérence optique (TCO) – habituellement employée par les ophtalmologistes afin de photographier le fond de l’œil. Cette dernière technologie permet de réaliser des images en coupe transversale à haute résolution. Elle a permis de révéler 1 000 mots grecs que l’œil humain ne pouvait plus voir. La section traduite semble avoir été l’œuvre du philosophe épicurien Philodème de Gadara (110-40 av. J.-C.) qui avait vécu à Herculanum.

L’un des textes déchiffrés décrit la dernière nuit de Platon, avant qu’il meurt des suites d’une maladie. Au vu du texte, il semblerait que le penseur ait été enterré dans un jardin privé, près d’un sanctuaire dédié aux Muses dans l’Académie platonicienne. Le site où se trouvait celle-ci, détruite par le dictateur romain Sylla en 86 av. J.-C., a été redécouvert au 20ème siècle dans le quartier moderne d’Akadimía Plátonos, au nord-ouest d’Athènes.

Buste de Platon (Source : Wikipedia)

Sources : ANSA, Géo, Futura Science.

De très nombreux articles sont parus dans la presse. Ils apportent une foule d’informations sur Platon et la philosophie grecque dans l’Antiquité.

—————————————————

I have written several posts on this blog (January 25th, 2015, March 30th, 2016, October 21st, 2023, February 15th, 2024) about the papyrus scrolls discovered in Herculaneum in the Villa Dei Papiri (« Villa of the Papyri ») which probably belonged to to Lucius Calpurnius Piso Caesoninus, also called Piso, Julius Caesar’s father-in-law. Inside, the library contained 1,838 scrolls of papyrus found in 1792. With a length of between 3 and 15 meters, they were preserved because the burning mud (300 – 330°C) surging from Vesuvius in October 79 left them instantly coated. Despite this protection, the papyri are in very poor condition and researchers had to wait for the arrival of ultra-modern techniques to begin to decipher their content.
By using artificial intelligence to decipher the texts written on carbonized papyri, scientists have discovered a new historical source revealing potential details on the life and death of Plato, an ancient philosopher of classical Greece, and in particular, on his burial location which was unknown so far.
Plato died around 348 or 347 BC. BC, at the age of approximately 80 years. Most information about his life comes to us from the writings of his students, particularly Aristotle, his most famous disciple. The details of Plato’s death are not well documented. He is said to have died during a wedding dinner, before being buried outside the walls of Athens, at the Academy, of which he was the founder and a professor.
According to the Italian press agency ANSA, researchers managed to decipher thousands of words on one of the carbonized papyri found in Herculaneum. The newly deciphered text is supposed to provide new information on the place where the Greek philosopher has rested for 2,300 years.
Since 1792, papyrus scrolls, which resemble crumpled pieces of coal, have remained almost entirely inaccessible due to their fragility. To try to decipher the words, written using an ink composed of charcoal and water, researchers have in recent years used new technologies. In my post of February 15th, 2024, I indicated that the work of deciphering the papyrus was part of the “Vesuvius Challenge”, a series of prizes, the main of which, in the amount of 700,000 dollars (651,000 euros ) rewards reading at least four passages from a rolled parchment. Competition organizers announced in February 2024 that a team had succeeded in translating 2,000 characters inside a scroll, using machine learning software and computer vision programs.
Today, other experts say they have obtained promising results thanks to the combination of two innovative techniques: infrared hyperspectral imaging and optical coherence tomography (OCT) – usually used by ophthalmologists to photograph the fundus of the eye. This latest technology makes it possible to produce high-resolution cross-sectional images. It revealed 1,000 Greek words that the human eye could no longer see. The translated section appears to have been the work of the Epicurean philosopher Philodemus of Gadara (110-40 BC) who had lived in Herculaneum.
One of the deciphered texts describes Plato’s last night, before he died from an illness. Looking at the text, it seems that the philosopher was buried in a private garden, near a sanctuary dedicated to the Muses in the Platonic Academy. The site where it was located, destroyed by the Roman dictator Sulla in 86 BC. BC, was rediscovered in the 20th century in the modern district of Akadimía Plátonos, northwest of Athens.
Sources: ANSA, Geo, Futura Science.
Many articles have appeared in the press. They provide a wealth of information on Plato and Greek philosophy in Antiquity.