2024

2024 inge Thu, 04.01.2024 - 01:13

Zehn Mythen, welche die Anerkennung des Anthropozäns als neue geochronologische Epoche untergraben

Zehn Mythen, welche die Anerkennung des Anthropozäns als neue geochronologische Epoche untergraben

Do, 25.04.2024 — Redaktion

Redaktion

Geowissenschaften Es ist unbestreitbar, dass menschliche Aktivitäten vor allem in den letzten 70 Jahren Klima, Natur, Erdoberfläche und damit die Bewohnbarkeit des Planeten für alle seine derzeit und künftig lebenden Organismen in negativem Sinne verändert haben. Ist damit das Anthropozän, ein neues "Zeitalter des Menschen" angebrochen? Die International Union of Geological Sciences hat 2009 eine Arbeitsgruppe eingerichtet, die prüfen sollte, ob das Anthropozän als neue formale erdgeschichtliche Epoche etabliert werden sollte. Nach eingehender Prüfung lagen 2023 genügend geologisch-stratigrafische Argumente für eine Anerkennung vor. Die Anerkennung sollte auch eine Perspektive implizieren, um mit der bereits drastisch veränderten Welt umzugehen. Dass ein Gutachtergremium im März 2024 entschied die Anerkennung abzulehnen, hat den Protest der Anthropozän-Arbeitsgruppe ausgelöst. Unter Federführung ihrer Vorsitzenden Jan Zalasiewicz (University of Leicester) und Scott Wing (Smithsonian Institution, Washington) hat die Arbeitsgruppe einen Artikel im Smithsonian Magazine verfasst, in dem zehn Trugschlüsse (Mythen) angesprochen werden, die herunter spielen, wie drastisch die Erde in den letzten Jahrzehnten verändert wurde.*

Der Begriff der Anthropozän-Epoche

entstand im Februar 2000 aus einer spontanen Eingebung heraus. Der Chemiker und Nobelpreisträger Paul Crutzen hatte auf einer Tagung des International Geosphere-Biosphere Programme in Mexiko den Vorträgen zugehört. Den ganzen Tag über hatten Wissenschaftler Daten präsentiert, die zeigten, wie sich die vom Menschen verursachten Veränderungen des Klimas, der chemischen Zyklen und der Biologie der letzten Jahrzehnte auf krasse Weise von der relativen Stabilität des Holozäns, der geologischen Epoche, die vor 11.700 Jahren begann, unterschieden. Sie verwiesen immer wieder auf die bemerkenswert schnellen Umweltveränderungen des späten Holozäns.

Entnervt schaltete sich Crutzen schließlich in die Diskussion ein: "Wir befinden uns nicht mehr im Holozän, sondern im ... Anthropozän!" Die improvisierte Bezeichnung setzte sich unter Geowissenschaftlern schnell als grundlegendes Konzept durch, und in den letzten zehn Jahren hat sich das Wort auch in anderen Wissenschaften, der Kunst, den Geisteswissenschaften und der Populärkultur verbreitet.

Im Laufe der Zeit hat "Anthropozän" viele Bedeutungen und Schlussfolgerungen erhalten, die nichts mit Crutzens ursprünglichem Begriff zu tun haben oder ihm sogar widersprechen, so dass seine ursprüngliche Bedeutung verschwommen und manchmal sogar völlig unklar wurde. Was aber hat Crutzen mit dem Anthropozän gemeint, einem Konzept, das durch jahrelange wissenschaftliche Studien verbessert und verfeinert wurde?

Es ist ganz einfach. Sieht man sich Diagramme an, die die Entwicklung der drei wichtigsten Treibhausgase und der globalen Temperatur in den letzten 30 Jahrtausenden aufzeigen, so steilt der Übergang vom Holozän zum Anthropozän wie eine Mauer auf. Alle vier kritischen planetarischen Parameter haben sich in den letzten 70 Jahren von nahezu horizontalen zu nahezu vertikalen Linien verschoben (Abbildung 1). Die Grafiken sind einfach, aber sie zeigen Veränderungen in der Atmosphärenchemie und - mit etwas Verspätung - in der Temperatur, die sich auf die Bewohnbarkeit des Planeten für alle seine Organismen, einschließlich des Menschen, auswirken. Auf einer Zeitskala von Jahrtausenden ähneln die Verschiebungen weniger einem Hockeyschläger als vielmehr einer Treppenstufe. Überdies betreffen diese Veränderungen die gesamte Atmosphäre und die Ozeane, so dass sie auf einer menschlichen Zeitskala im Grunde unumkehrbar sind. Künftige Generationen werden noch mit den planetarischen Veränderungen leben, welche die Menschen in einem einzigen Leben verursacht haben.

Abbildung 1. Die enormen Auswirkungen des Menschen auf die Atmosphäre lässt sich an der Konzentration dreier wichtiger Treibhausgase ablesen: Distickstoffoxid, Methan und Kohlendioxid. Diese Gase haben in den letzten 70 Jahren viel stärker zugenommen als in den vorangegangenen 30.000 oder mehr Jahren. Infolgedessen ist die globale Temperatur in die Höhe geschnellt, und sie wird weiter ansteigen, wenn die Auswirkungen der höheren Treibhausgaskonzentration voll zum Tragen kommen. Martin Kopf

Betrachten wir nur die letzten 300 Jahre auf der Zeitachse,

d.i. über zehn menschliche Generationen gehend, so sehen wir bemerkenswert große und schnelle Veränderungen bei einer ganzen Reihe von Faktoren, welche die Auswirkungen des Menschen auf globaler Ebene kennzeichnen: Es sind nicht nur die Kohlenstoffemissionen, sondern auch die Produktion von Metallen, Kunststoffen, Düngemitteln, Beton und Nutztieren und sogar eine gigantische Zunahme der ultimativen geologischen Währung, den Sedimenten. Abbildung 2. Die Menge an Ablagerungen, die der Mensch jedes Jahr mobilisiert, übersteigt inzwischen die Menge der durch nicht-menschliche Prozesse mobilisierten Sedimente um das 15-fache.

Wenn wir den Zeitrahmen so einengen, sehen wir, dass die globalen Veränderungen ab Mitte des 20 Jahrhunderts besonders rasch erfolgen.

Die Anthropozän-Arbeitsgruppe,

ein Gremium von 34 Wissenschaftlern aus 14 Ländern, das 2009 von der Internationalen Kommission für Stratigraphie eingesetzt wurde, schlug vor, den Beginn einer neuen Anthropozän-Epoche auf das Jahr 1952 zu legen, als die Sedimente weltweit durch den ersten größeren Anstieg des Elements Plutonium gekennzeichnet wurden, das aus den ersten Tests mit thermonuklearen Waffen stammt.

Abbildung 2. Wissenschaftler schlugen vor, eine neue geologische Epoche - das Anthropozän - anzuerkennen, das durch sehr rasche Veränderungen ab Mitte des 20. Jahrhunderts gekennzeichnet ist. Die in den letzten 70 Jahren abgelagerten Sedimente sind durch eine Fülle künstlicher Materialien wie Beton, Metalle, Kunststoffe und Düngemittel gekennzeichnet. Auch die Ökosysteme haben sich durch den starken Anstieg der Düngemittelproduktion (Ammoniak) und der Viehzucht (Fleischproduktion) verändert. Auch der Mensch ist ein enormer Produzent von Sedimenten. Colin Waters

Mit dem Vorschlag einer formellen, geologisch definierten Epoche des Anthropozäns wollte die Arbeitsgruppe eine genaue Definition für diesen jüngsten, großen, dauerhaften und raschen Übergang in den physikalischen, chemischen und biologischen Systemen der Erde liefern.

Der Vorschlag wurde von der internationalen Hierarchie der Stratigraphie, zu der auch die International Commission on Stratigraphy gehört, ohne Angabe von Gründen abgelehnt, aber die meiste öffentliche Kritik am Anthropozän kommt aus verschiedenen Quellen: von der Geologie bis hin zu den Sozial- und Geisteswissenschaften.

In vielen Disziplinen hat das Anthropozän einen Nerv getroffen - und oft auch verletzt: manchmal als Bauchgefühl auf eine beunruhigende neue Idee, manchmal mit Unbehagen angesichts ungewohnter gesellschaftspolitischer Implikationen.  Aus welchen Gründen auch immer, das Anthropozän geriet unter Beschuss.

Das Sperrfeuer der Kritik konzentrierte sich jedoch häufig auf das, was das Anthropozän nicht ist, anstatt auf das, was es ist. Grundlegende Missverständnisse rund um das Konzept vernebeln seine Bedeutung.

Im Folgenden räumen wir mit zehn gängigen Mythen über das Anthropozän auf.

1. Das Anthropozän bildet nicht alle menschlichen Einflüsse ab.

Das ist zwar richtig, geht aber völlig an der Sache vorbei. Die Anerkennung eines Anthropozäns unterschlägt keineswegs die Auswirkungen, die der Mensch seit vielen Jahrtausenden durch die Jagd, den Ackerbau und den Bau von Städten und Handelsnetzen verursacht hat. Aber diese frühen Auswirkungen waren nicht global, liefen nicht synchron auf dem Planeten ab und haben die globale Umwelt nicht dauerhaft verändert. Der Grund für die Benennung einer neuen geologischen Epoche, sowohl in Crutzens ursprünglicher Formulierung als auch in dem sehr detaillierten Vorschlag der Arbeitsgruppe, besteht darin, den Abschied der Erde und ihrer Bewohner von dem stabilen System des Planeten im Holozän zu markieren. Die Epoche des Anthropozäns war nie dazu gedacht, alle anthropogenen Einflüsse zu erfassen.

2. Das Anthropozän ist zu kurz, um eine geologische Epoche zu sein - nur ein Menschenleben.

Die Dauer des Anthropozäns ist kurz, soweit stimmt das. Aber es ist das Holozän, das den größten Unterschied in der Dauer zu anderen Epochen aufweist: fast drei Größenordnungen (11 700 Jahre verglichen mit 2,57 Millionen Jahren für das voran gegangene Pleistozän). Der Unterschied in der Dauer zwischen Holozän und Anthropozän ist proportional geringer, und das Anthropozän stellt eine weitaus bedeutendere und dauerhaftere Veränderung des Planeten dar als das Holozän.

3. Das Anthropozän ist nur ein Augenblick in der Erdgeschichte.

Oder, wie die New York Times schreibt, nennt es ein ranghohes Mitglied der geologischen Zeitskala "ein Augenblick von einem Augenblick von einem Augenblick ". Was diese Sichtweise verkennt, ist, dass diese rund 70 Jahre den Planeten grundlegend verändert und eine neue Bahn einschlagen haben lassen. Schon jetzt sind viele geologische Anzeichen deutlicher und ebenso ausgeprägt wie die plötzliche Freisetzung von Kohlenstoff und die globale Erwärmung, die das Eozän vor 56 Millionen Jahren auslöste.

Man denke nur an die Klimaauswirkungen durch die Verbrennung fossiler Brennstoffe, von denen 90 Prozent in den letzten 70 Jahren verbrannt wurden. Diese Auswirkungen werden sich zumindest noch viele tausend Jahre lang über den Planeten breiten. Wir und viele künftige Generationen sind auf ein Klima festgelegt, das sich von dem des Holozäns unterscheidet. Das bereits in der Atmosphäre befindliche Kohlendioxid wird die Erde heißer machen, als sie es seit mindestens 3 Millionen Jahren war. Viele der biologischen Veränderungen der letzten 70 Jahre sind ebenfalls von Dauer: zweifellos das Aussterben von Arten, aber auch die Ausbreitung vieler Arten durch beabsichtigte und unbeabsichtigte Beihilfe des Menschen, mit einer weltweit veränderten Fauna und Flora als Folge. Die Biosphäre hat sich für immer verändert. Das ist keine Eintagsfliege.

4. Anthropozän-Schichten sind "minimal" oder "vernachlässigbar".

Abbildung 3. Touristen blicken auf den Hoover-Damm hinunter. Die Menge an Sedimenten, die sich hinter den Tausenden von großen Staudämmen der Welt ablagert, würde ganz Kalifornien bis zu einer Tiefe von fünf Metern bedecken. Robert Nickelsberg / Getty Images

Das ist ein recht geologischer Einwand - aber er ist falsch. Seit Mitte des 20. Jahrhunderts hat der Mensch die Landschaft in ungeheurer Weise umgestaltet und Gestein und Sediment bewegt (inzwischen um mehr als eine Größenordnung mehr, als natürliche Sedimentverschieber wie Gletscher und Flüsse). Die Menge an Sedimenten, die sich hinter den Tausenden von großen Staudämmen auf der Welt abgesetzt hat, würde ganz Kalifornien bis zu einer Tiefe von fünf Metern bedecken (Abbildung 3), und diese Sedimente sind voll von charakteristischen Merkmalen wie Pestizidrückständen, Metallen, Mikroplastik und Fossilien von invasiven Arten. Um einen Zeitraum formal zu definieren, müssen Geologen charakteristische Marker in Sedimenten oder Gesteinen identifizieren, die sich weltweit zuordnen lassen - das Vorhandensein solcher Marker ist überall vorhanden. Abbildung 4. Die Geologie ist real.

Abbildung 4. Plastikmüll sammelt sich nach einem Regenschauer in der Nähe von Culver City, Kalifornien. Mikroplastik, das aus solchen Ablagerungen entsteht, findet sich oft im Sediment. Citizen of the Planet / UIG via Getty Images

5. Die geologische Erfassung ist zu komplex und abgestuft, um eine einzige Grenze für das Anthropozän zu ziehen.

Die gesamte Geschichte (der Erde und des Menschen) ist komplex, verläuft stufenweise und variiert über Zeit und Raum. Dennoch legen Geologen Epochen fest, weil solche Zeiteinheiten für ihre Arbeit nützlich, ja unverzichtbar sind. In der Geologie wird jede Zeiteinheit durch einen "Goldenen Nagel"(Golden Spike)  genau definiert - eine bestimmte Schichte in einer Sedimentabfolge an einem bestimmten Ort, der ausgewählt wird, weil er mit anderen Sedimentabfolgen rund um den Globus korreliert werden kann. Dieser Goldene Nagel identifiziert eine globale Zeitebene, aber der planetarische Übergang, der die Platzierung eines Goldenen Nagel motiviert, kann alles andere als einfach sein.

Die letzte Eiszeit des Pleistozäns wich im Laufe von etwa 13 000 Jahren holozänen interglazialen Bedingungen - und verlief auf der Nord- und Südhalbkugel unterschiedlich. Dennoch wird die definierte Holozän-Grenze innerhalb dieses Übergangs, die vor 11.700 Jahren lag, ohne Beanstandung akzeptiert und verwendet. Der Übergang vom Holozän zum Anthropozän ist viel schärfer und global synchroner und daher leichter zu definieren und zu erkennen.

6. Andere Tiere haben die Umwelt beeinflusst und geologische Veränderungen verursacht, das Anthropozän ist also nichts Besonderes.

Andere Tiere haben tatsächlich die Umwelt verändert, aber das kann bei der Erkennung von geologischen Zeitabschnitten eher hilfreich als hinderlich sein. So dient beispielsweise das Aufkommen agiler, muskulöser Tiere, die sich durch Sedimente wühlen konnten, als Grundlage für die Definition des Kambriumzeitalters. Aber keine dieser früheren Veränderungen hat sich so schnell über alle Lebensräume auf dem Planeten ausgebreitet - oder wurde von einem Tier ausgelöst, das sich der Veränderungen bewusst war, die es vornahm. Dieses Bewusstsein muss - wie wir anmerken - wirksam in Maßnahmen umgesetzt werden, um die schlimmsten Folgen dieser Veränderungen abzuwenden. Zu viele streben immer noch nach wirtschaftlicher und industrieller Entwicklung, ohne die langfristigen Kosten für die Gesundheit des Planeten zu bedenken.

7. Das Anthropozän gibt allen Menschen gleichermaßen die Schuld für die globalen Umweltkrisen.

Das Anthropozän weist weder Schuld noch Verdienst zu; es erkennt einfach eine große, abrupte und mehr oder weniger dauerhafte Veränderung im Verlauf der Erdgeschichte an. Es besteht kein Zweifel daran, dass einige Menschen, Gesellschaften, Institutionen und Nationalstaaten den Wandel viel stärker vorangetrieben haben als andere und dass die Vorteile und Kosten des Wandels ungleich verteilt waren und sind. Die gesellschaftliche Bedeutung des Anthropozäns besteht darin, dass es den eindeutigen wissenschaftlichen Nachweis erbringt, dass der Mensch die globale Umwelt dauerhaft verändert hat. Und es kann uns ermutigen zur Kenntnis zu nehmen, dass wir uns alle mit den raschen, dauerhaften, globalen Veränderungen, die im Gange sind, auseinandersetzen müssen.

8. Das Anthropozän bedeutet eine Niederlage für unsere Bemühungen, die Umweltveränderungen einzudämmen.

Der erste Schritt zur Lösung von Problemen besteht darin, sie zu diagnostizieren. Wir können die Erde nicht in den Zustand zurückversetzen, in dem unsere Großeltern oder eine andere Generation des Holozäns gelebt haben. Aber wir können klügere Entscheidungen für die Zukunft treffen, die den Wandel mildern und abschwächen. Das ist Realismus, nicht Defätismus.

9. Das Anthropozän nach dem Menschen zu benennen ist anmaßend.

Die planetarische Transformation, die das Anthropozän einläutete, wurde von Menschen verursacht. Man hätte es auch anders nennen können, aber Anthropozän hat die Phantasie vieler Menschen geweckt, weil seine Bedeutung offensichtlich und zutreffend ist.

10. Das Anthropozän ist nur ein Werbegag.

Wenn das nur wahr wäre. Zu akzeptieren, dass wir nicht mehr in einer Holozän-Welt leben, ist ein erster Schritt, um die Probleme anzugehen, denen sich Menschen und Nichtmenschen in der unmittelbaren Zukunft gegenübersehen.

Fazit

Diese Mythen haben sich in der wissenschaftlichen Gemeinschaft hartnäckig gehalten, obwohl sie in wissenschaftlichen Arbeiten der Anthropozän-Arbeitsgruppe und anderer systematisch widerlegt wurden. Dies deutet darauf hin, dass es sich wie bei allen Mythen um Reaktionen handelt, die eher auf Ideologie, Überzeugung oder persönlicher Philosophie als auf Beweisen beruhen. Diese falschen Vorstellungen liegen auch der jüngsten offiziellen Ablehnung des Anthropozäns durch die Hierarchie der internationalen Stratigraphie zugrunde.

Warum wurde das Anthropozän auf so viele Arten missverstanden und mythologisiert? Wahrscheinlich, weil es für viele zutiefst unangenehm ist. Es ist sehr kurz (bis jetzt). Es umfasst stinkende Mülldeponien als Schichten, die eine geologische Zeitskala durcheinander bringen, die für viele Geologen sakrosankt ist. Und es wirft das Schreckgespenst auf, dass die ruhigen Vorstellungen der geologischen Zeit auf die schwierigen Probleme stoßen, mit denen wir in Gegenwart und Zukunft konfrontiert sind.

Veränderungen sind schwierig, und das Anthropozän ist ein unangenehmes Konzept. Es ist schwer zu akzeptieren, dass wir als Gesellschaft so viel Macht erlangt haben, um die Erde zu verändern, und dabei so wenig darüber nachgedacht haben, wie wir diese Macht nutzen. Wissenschaftliche Erkenntnisse können unsere Sichtweise verändern (man denke nur an den Heliozentrismus und die Evolution) - es ist also nicht überraschend, dass das Anthropozän schwer zu akzeptieren ist. Aber unsere Rolle zu erkennen, wie wir die Erde plötzlich in eine neue Zukunft führen, ist ein notwendiger erster Schritt, um sich mit den planetarischen Veränderungen auseinanderzusetzen, die wir in Gang gesetzt haben.


 *Der Artikel "What Myths About the Anthropocene Get Wrong" ist erstmals am 18. April 2024 im Smithsonian Magazine erschienen https://www.smithsonianmag.com/smithsonian-institution/what-myths-about-the-anthropocene-get-wrong-180984181/. Autoren sind der langjährige Leiter der Anthropozän Arbeitsgruppe emer.Prof. Jan A. Zalasiewicz (University Leicester), Scott L. Wing (Kurator an der Smithsonian Institution) und alle weiteren 32, aus 14 Ländern stammenden Mitglieder der Arbeitsgruppe. Der Artikel wird ungekürzt, von der Redaktion möglichst wortgetreu ins Deutsche übersetzt (und mit einigen Untertiteln) wiedergegeben.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien cc-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


Das Anthropozän im ScienceBlog:

05.08.2021, Gerd Gleixner: Erdoberfläche - die bedrohte Haut auf der wir leben

22.01.2016, Walter Kutschera: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän.

01.08.2014, Reinhard Hüttl: Vom System Erde zum System Erde-Mensch


 

inge Thu, 25.04.2024 - 18:28

In den Bergen von Europas Metallabfällen lagern Reichtümer

In den Bergen von Europas Metallabfällen lagern Reichtümer

Do,18.04.2024 — Redaktion

Redaktion

Icon Chemie

Metalle sind für neue Technologien unverzichtbar, doch ihre Gewinnung hinterlässt Berge von Abfällen, die eine potenziell gefährliche Umweltbelastung darstellen aber auch Rohmaterial für das Recycling dieser Metalle und die Schaffung wertvoller Industriematerialien bieten. 2 EU-finanzierte Projekte haben sich mit diesem Problemkreis befasst mit dem Ziel eine weitestgehende Wiederverwendung/Verwertung der Abfallberge zu erreichen und nahezu kostendeckend vorzugehen: In "MoveAL" wurden Technologien zur Aufwertung von Bauxitrückständen – dem Nebenprodukt der Aluminiumherstellung - vorgestellt. In "NEMO" ging es um die Gewinnung von Metallen aus sulfidischen Bergbauabfällen mittels modernster Technologien der Biolaugung.*

In der westirischen Stadt Limerick wird auf dem Gelände einer Aluminiumhütte eine 500 Meter lange gepflasterte Straße gebaut, basierend auf einem Experiment, das Europa helfen könnte, Industrieabfälle zu reduzieren. Die Betonstraße auf dem Gelände der Aughinish-Hütte hat einen Unterbau aus Materialien, die Bauxitrückstände enthalten, die auch als Rotschlamm bekannt sind.

Schlammige Materialien

Rotschlamm ist das, was bei der Produktion von Aluminium übrig bleibt - dem Metall, das in allem und jedem - von Küchenfolie und Bierdosen bis hin zu Elektroautos und Flugzeugrümpfen - Anwendung findet. Aluminium wird aus Bauxit gewonnen, einem aluminiumhaltigen Gestein, das aus einem rötlichen Lehmboden entsteht. Während Aluminium im modernen Leben unzählige kommerzielle Verwendungsmöglichkeiten findet, ist dies bei Bauxitrückständen nicht der Fall. Der Schlamm landet in der Regel auf Mülldeponien, nimmt immer mehr Platz ein und stellt eine verpasste Recyclingmöglichkeit dar. Abbildung 1.

Abbildung 1. Rotschlamm, der bei der Aluminiumproduktion anfällt. EU-Forscher suchen nach industriellen Verwendungsmöglichkeiten. © Igor Grochev, Shutterstock.com

Eine Gruppe von Forschern erhielt EU-Mittel, um diese Herausforderungen zu bewältigen, und kam auf die Idee, Bauxitrückstände für die Straße in der Aluminium-Hütte Aughinish zu verwenden. Ihr Projekt mit der Bezeichnung RemovAL (https://cordis.europa.eu/project/id/776469) hatte eine Laufzeit von fünf Jahren und lief bis April 2023.

"Deponierung ist eine Praxis, von der wir uns verabschieden wollen", sagte Dr. Efthymios Balomenos, der das Projekt koordinierte. "Selbst wenn die Umwelt nicht geschädigt wird, verbraucht man immer noch viel Platz und wirft die Hälfte des Materials weg."

Einfache Zahlen verdeutlichen die Problematik für Industrie und Gesellschaft:

Für jede Tonne Aluminium, die produziert wird, fallen etwa zwei Tonnen Bauxitrückstände an. Weltweit fallen jedes Jahr etwa 150 Millionen Tonnen Rotschlamm aus der Aluminiumproduktion an - das sind 20 Kilogramm pro Person weltweit. Davon werden nicht mehr als 3 % recycelt, der Rest kommt auf die Deponien. Weltweit lagern mehr als 4 Milliarden Tonnen Bauxitrückstände, und diese Zahl könnte sich bis 2050 auf 10 Milliarden Tonnen mehr als verdoppeln, so die Aluminium Stewardship Initiative (https://aluminium-stewardship.org/bauxite-residue-management-risks-opportunities-and-asis-role), eine standardsetzende Organisation, die auf "bahnbrechende Lösungen" für den Rotschlamm drängt.

Ideenlabors

Bauxit ist nach der französischen Stadt Les Baux benannt, in der das Erz 1821 entdeckt wurde.

In Europa fallen jährlich etwa 7 Millionen Tonnen Bauxitrückstände an. Der Rotschlamm wird zu künstlichen Hügeln aufgeschüttet, die der EU die Möglichkeit bieten, ihr Ziel einer Kreislaufwirtschaft mit mehr Recycling und weniger Abfall zu erreichen.

Am Projekt RemovAL waren eine Reihe akademischer und industrieller Teilnehmer beteiligt, darunter Aughinish Alumina, Rio Tinto in Frankreich und das griechische Bergbau- und Metallurgieunternehmen Mytilineos. Um Ideen für potenzielle kommerzielle Verwendungen von Bauxitrückständen zu testen, wurden Demonstrationsprojekte an Industriestandorten in Deutschland, Griechenland und Irland durchgeführt. Das primäre Ziel bestand darin, die Abfallmengen zu verringern und dies unter Vermeidung großer zusätzlicher Kosten.

"Unser Ziel war es, fast kostendeckend zu arbeiten und nahezu keine Abfälle zu erzeugen", so Balomenos, der als Berater bei Mytilineos tätig ist.

Straßen vorneweg

Das RemovAL-Team hat gezeigt, dass Bauxitrückstände als erste Fundamentschicht oder Unterbau für Straßen verwendet werden können. Der Unterbau einer Straße besteht in der Regel aus minderwertigem Schotter, liegt auf dem Boden auf und bildet einen stabilen Unterbau für die nächste, höherwertige Fundamentschicht.

Typischerweise bestehen Bauxitrückstände zu etwa zwei Fünfteln aus Eisenoxid, zu einem Fünftel aus Aluminiumoxid, zu 6 % aus Kieselsäure und zu 5 % aus Titan. Rotschlamm enthält sogar Seltene Erden - eine Gruppe von 17 Metallelementen mit besonderen Eigenschaften, die technologische Fortschritte in einer Reihe von Branchen ermöglichen.

"Das ist eine ganze Menge Material, selbst wenn man es nur als potenzielle Eisenquelle betrachtet", so Balomenos.

An den Standorten in Griechenland und Norwegen wurden im Rahmen des Projekts Bauxitrückstände in einem elektrischen Lichtbogenofen geschmolzen, um eine Eisenlegierung herzustellen, die sich für die Stahlherstellung eignet. RemovAL extrahierte auch die seltene Erde Scandium, die in der Luft- und Raumfahrtindustrie verwendet wird, um Festigkeit und Korrosionsbeständigkeit von Bauteilen sicherzustellen Anschließend wurde der verbleibende Rückstand zur Herstellung von Material verwendet, das der Zementmischung zugesetzt werden kann.

Die Vorführungen waren zwar ein technischer Erfolg, doch laut Balomenos gibt es noch immer Kostenhürden - vor allem, weil die Möglichkeiten zur Wiederverwendung von Bauxitrückständen weniger rentabel sind als die Verwendung von lokal beschafften "neuen" Rohstoffen.

"Letzten Endes ist die Deponierung die einzige finanziell tragfähige Option für die Industrie", sagt er.

Um den Aluminiumsektor umweltfreundlicher zu gestalten, müsse Europa Anreize wie Subventionen oder Vorschriften bieten, um die Verwendung von Bauxitrückständen und anderen metallurgischen Nebenprodukten gegenüber neu abgebauten Rohstoffen zu fördern, so Balomenos.

Weitere Metalle

Das Problem der Metallabfälle geht in Europa weit über das von Aluminium hinaus.

Andere von der EU unterstützte Forscher, zusammengeschlossen in einem Projekt namens NEMO (https://cordis.europa.eu/project/id/776846), haben versucht kommerzielle Verwendungsmöglichkeiten für Abfallhalden zu finden, die beim Abbau von Kupfer, Zink, Blei und Nickel anfallen.

In Europa gibt es schätzungsweise 28 Milliarden Tonnen Erzrückstände, so genannte Tailings, aus der früheren Produktion dieser Metalle, und jedes Jahr fallen weitere 600 Millionen Tonnen an.

Kupfer, Zink, Blei und Nickel sind für die Energiewende in Europa unerlässlich. Ohne sie wären Windturbinen, Elektrofahrzeuge und viele andere saubere Technologien nicht möglich. Doch die Abraumhalden haben einen eigenen ökologischen Fußabdruck. Diese Abfälle werden häufig in Absetzteichen gelagert, enthalten Schwefel und erzeugen bei Regen Schwefelsäure.

"Diese Schwefelsäure kann potenziell gefährliche Elemente in die Umwelt, den Boden und das Wasser auswaschen", so Dr. Peter Tom Jones, Direktor des KU Leuven Institute for Sustainable Metals and Minerals in Belgien. "Die saure Drainage von Minen ist eines der größten Probleme der Bergbauindustrie beim Umgang mit sulfidischen Erzen".

Vielversprechende Technik

Jones war Teilnehmer von NEMO, das im November 2022 nach viereinhalb Jahren endete.

Die Forscher haben Standorte in Finnland und Irland genutzt, um die Durchführbarkeit einer als Biolaugung bekannten Technik zu testen, mit der wertvolle Metalle aus Bergwerksabfällen entfernt und die verbleibenden Abfälle in ein Material umgewandelt werden können, das nicht nur sicherer ist, sondern auch als Zusatzstoff bei der Zementherstellung dienen könnte. Abbildung 2.

Abbildung 2. Das NEMO-Konzept. Sulfidhaltige Bergbaurückstände werden derzeit in der Regel in Haldenlagern abgelagert. NEMO zielt auf die weitere Behandlung dieser Rückstände ab, um wertvolle Metalle und Mineralien zu gewinnen, während gefährliche Elemente konzentriert und die Restmatrix in Zement und Baumaterialien verwendet werden. (Bild von Redn. Eingefügt. Quelle: https://h2020-nemo.eu/project-2/)

Wertvolle Metalle können bereits durch ein Verfahren namens Auslaugung aus Abfällen zurückgewonnen werden. Dabei werden Chemikalien, in der Regel Säuren, eingesetzt, um die Metalle aufzulösen und aus dem Abfall herauszulösen, so dass sie zurückgewonnen werden können.

Die Biolaugung ähnelt zwar der chemischen Auslaugung, lässt aber lebende Organismen die Arbeit erledigen. Mikroben zehren von den Elementen in den Minenabfällen und schaffen dann eine saure Umgebung, die die Metalle auflöst. Das Verfahren hat das Potenzial, billiger und effektiver zu sein als die chemische Laugung.

Die Forscher haben gezeigt, dass die Biolaugung ein gangbarer Weg ist, um Metalle wie Nickel aus Abraum zu gewinnen. Die Qualität der Metalle wäre gut genug, um beispielsweise Batterien herzustellen. Sie fanden auch heraus, dass die Biolaugung mit zusätzlichen Rückgewinnungsverfahren wertvolle seltene Erden aus bestimmten Bergbauabfällen extrahieren könnte. Außerdem waren die Abfälle nach der Biolaugung weniger sauer und konnten zu einem Zusatzstoff für Zementmischungen verarbeitet werden.

Kostenfragen

Wie auch das RemovAL-Team stellten die NEMO-Forscher jedoch fest, dass diese Verfahren derzeit zu kostspielig sind, um kommerziell interessant zu sein.

"Es ist eine Sache, die Technologie zur Umwandlung von Abraum in wiedergewonnene Metalle und Baumaterialien zu entwickeln", so Jones. "Es ist etwas ganz anderes, dies auf eine Weise zu tun, die wirtschaftlich machbar ist."

Er sagt, dass die relativ geringen Mengen an kritischen Metallen in den Abgängen bedeuten, dass die Betriebskosten tendenziell höher sind als die potenziellen Einnahmen und dass daher der Abbau von Rohstoffen oft eine billigere Option ist, insbesondere wenn er in Niedriglohnländern erfolgt, in denen die Standards für Umwelt, Soziales und Unternehmensführung (ESG) niedriger sind.

Dennoch hat NEMO dazu beigetragen, Technologien zu entwickeln, die den Weg zu einer effizienten Rückgewinnung von Metallen aus abgebauten Materialien weisen und die Abfälle reinigen.

Mit dem richtigen Rechtsrahmen und den richtigen Anreizen könnten die Biolaugung und ähnliche neue Technologien wirtschaftlicher werden. In der Zwischenzeit können diese Verfahren Europa helfen, sein Ziel zu erreichen, die Versorgung mit kritischen Rohstoffen zu erweitern, indem Abraumhalden beseitigt und die Erzförderung verbessert wird.


 *Dieser Artikel wurde ursprünglich am 12. April 2024 von Michael Allen in Horizon, the EU Research and Innovation Magazine unter dem Titel "The riches in Europe’s mountains of metals waste"  https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/riches-europes-mountains-metals-waste publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 wurde von der Redaktion aus https://h2020-nemo.eu/project-2/ eingefügt.


Zur Verwertung der Abfallberge

EU-Research:

HORIZON: the EU Research & Innovation magazine: The riches in Europe’s mountains of metals waste (April 2024). Video 0:59 min. https://www.youtube.com/watch?v=gwiNoOPnf4E

Aus der Max-Planck-Gesellschaft:

MPG: Grüner Stahl aus giftigem Rotschlamm (Jänner 2024). https://www.mpg.de/21440660/rotschlamm-aluminiumindustrie-gruener-stahl

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min. https://www.youtube.com/watch?v=a_yUKX8zQfI


 

inge Thu, 18.04.2024 - 22:56

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Do, 11.04.2024 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr Tropische Passatwolken wirken wie ein Kühlelement im Klimasystem: In der Äquatorzone dienen sie als Schutzschirm gegen die wärmende Sonnenstrahlung. Doch reduziert der menschengemachte Klimawandel möglicherweise ihre Dichte, sodass sich die Erderwärmung verstärkt? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Eurec4a-Feldstudie, die Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, mitinitiiert hat. Diese Studie hat mit vier Forschungsschiffen, fünf Flugzeugen und weiteren Instrumenten die tropischen Passatwolken untersucht und einen bislang unbekannten Feuchtigkeitskreislauf - die Flache Mesoskalige Umwälzzirkulation - entdeckt. Ein besseres Verständnis davon, wie sich in Passatwolken Niederschlag bildet und warum die Passatwolken verschiedene Formen annehmen, hilft Klimamodelle und ihre Prognosen zu präzisieren.*

Anfang 2020 versammelte die Klimaforschung vor Barbados eine See- und Luftflotte, wie sie vorher nur selten an den Start gegangen war: Vier Forschungsschiffe, darunter die beiden deutschen Schiffe Meteor und Maria S. Merian, und fünf Forschungsflugzeuge, darunter der Jet Halo des Deutschen Zentrums für Luft- und Raumfahrt (DLR), eine französische ATR -42 und eine US-amerikanische Lockheed WP-3D Orion Hurricane Hunter, gingen in den Tropen auf Wolkenjagd. Auf Barbados nahm das große Wolkenradar Poldirad des DLR seinen Betrieb auf. Abbildung 1. Mehr als 300 Forschende aus 20 Nationen beteiligten sich an dieser Großoperation. Das Untersuchungsobjekt: die kleinen, niedrigen Passatwolken.

Abbildung 1: Aufbau des Wolkenradars Poldirad (Polarisations-Doppler-Radar) auf Barbados. © MPI-M

Eurec4a hieß die vierwöchige Kampagne, das steht für „Elucidating the role of clouds-circulation coupling in climate“, also „Klärung der Rolle der Wolken-Zirkulations-Kopplung für das Klima“. Natürlich spielt der Name auch auf Archimedes an; der soll beim Baden das Gesetz des Auftriebs entdeckt und gerufen haben: „Heureka!“ - „Ich habs gefunden!“ Darauf weist Bjorn Stevens hin, denn: „Bei Wolken geht es wirklich um Auftrieb!“ Der Direktor am Max-Planck-Institut für Meteorologie in Hamburg hat die Eurec4a -Kampagne gemeinsam mit seiner französischen Kollegin Sandrine Bony, Direktorin am Centre National de la Recherche Scientifique in Paris, konzipiert und geleitet. Unterstützt wurden sie vor Ort durch David Farrell, Leiter des Caribbean Institute for Meteorology und Hydrology. Stevens hat auch gemeinsam mit Farrell das Barbados Cloud Observatory am östlichsten Punkt der Insel aufgebaut, das 2010 in Betrieb ging.

Aber warum treibt die Klimaforschung einen solchen Aufwand um kleine Wölkchen in den Tropen?

Passatwolken sind niedrige Wolken, sie bilden sich schon in etwa 700 Metern Höhe und dehnen sich – meist – nur bis in zwei Kilometer Höhe aus. Dennoch stellen sie ein Schwergewicht im Klimasystem dar, weil sie so viele sind. Sie sind gesellig wie eine Schafherde und bedecken mehr als 30 Prozent der Gesamtfläche der Passatwindzone, die wie ein Gürtel ein Fünftel der Erde in den Tropen und Subtropen umspannt. Damit bilden die Wolken zusammen einen großen Spiegel, der einen beträchtlichen Teil der Sonnenstrahlung ins All reflektiert und somit die Erde kühlt. Da die Passatwolken eine viel größere Fläche bedecken als das Polareis und zudem fast senkrechter Sonneneinstrahlung ausgesetzt sind, ist ihre Spiegelwirkung für die Wärmestrahlung viel gewichtiger als die der großen Eisflächen in der Arktis und der Antarktis.

Würde nun die Dichte der Passatwolken mit dem Klimawandel abnehmen, dann hätte das erhebliche Auswirkungen auf das Erdklima. Diese Besorgnis lösten die Ergebnisse einiger Klimastudien aus, insbesondere eine wissenschaftliche Arbeit, die 2014 in der britischen Fachzeitschrift Nature erschien. Zugespitzt gesagt, war das Ergebnis dieser Klimasimulationen, dass die Erderwärmung die Passatwolken teilweise wegtrocknen könnte. Die Folge wäre also eine Verstärkung der Erwärmung, was wiederum die Passatwolken-Bedeckung reduzieren würde. „Positive Rückkopplung“ ist der Fachbegriff für einen solchen Teufelskreis.

Nun ist es so, dass die großen, erdumspannenden Klimamodelle zwar sehr zuverlässig geworden sind, wenn es um die Simulation globaler Trends geht: Dass die Menschheit durch ihre Emissionen von Treibhausgasen die Erde erwärmt, steht wissenschaftlich außer Zweifel. Aber mit der Simulation der Wolkenbildung und folglich mit der Frage, wie Wolken auf die Erderwärmung antworten werden, tun sich heutige Klimamodelle recht schwer. Sie konnten die kleinteiligeren Prozesse, die dabei eine Rolle spielen, nicht erfassen. Und es gibt immer noch Wissenslücken, wenn es um ein genaueres Verständnis geht, wie Wolken entstehen und wie sie sich verhalten. Deshalb sollte Eurec4a die Passatwolken vor Ort durchleuchten. Die vierwöchige Kampagne sollte Daten über ihr Entstehen und Vergehen sammeln, über ihre Reaktion auf wärmere, kältere, trockenere und feuchtere Wetteränderungen. Dazu liefen diverse Forschungsaktivitäten parallel, eng aufeinander abgestimmt. Den Kern dieser Wolkenforschung bildete ein zylinderförmiges Volumen von rund 10 Kilometern Höhe und circa 220 Kilometern Durchmesser. In diesem Volumen versuchte das Team vor allem die Luftbewegungen möglichst lückenlos zu erfassen, zusammen mit der transportierten Feuchtigkeit. Grundsätzlich entstehen Kumuluswolken, umgangssprachlich: Quellwolken, aus Luft, die wärmer ist als ihre Umgebung und mehr verdunstendes Wasser aufnehmen kann. Da Wassermoleküle leichter als Sauerstoffmoleküle sind, sorgt ein höherer Feuchtegehalt sogar für mehr Auftrieb als eine höhere Temperatur. Die Luft steigt auf, Konvektion entsteht.

In etwa 700 Metern Höhe kondensiere dann der mittransportierte Wasserdampf zu Wolkentröpfchen, erklärt Raphaela Vogel. Sie hat an Eurec4a teilgenommen und ist heute wissenschaftliche Mitarbeiterin der Universität Hamburg. „Deshalb haben diese Kumuluswolken unten an der Basis so eine messerscharfe Kante“, erklärt sie. Das kann man auch in Europa bei schönem Sommerwetter gut beobachten. Vogel hat am Max-Planck-Institut für Meteorologie promoviert und war als Postdoktorandin in Bonys Gruppe auf Barbados dabei. Ihre Aufgabe war es damals, das Flugprogramm als leitende Wissenschaftlerin zu koordinieren. Dazu flog sie meist auf der französischen ATR -42 mit, gelegentlich auch auf der deutschen Halo. Es sei eine sehr aufregende Zeit gewesen, erzählt sie begeistert, die Kampagne habe das internationale Team zusammengeschweißt.

Flugzeuge für jedes Wolkenstockwerk

Der deutsche Jet Halo war zuständig für das höchste Stockwerk. Er flog den oberen Kreisabschnitt des Zylinders im Lauf der vier Wochen 72-mal ab, hinzu kamen 13 solcher Rundflüge mit der amerikanischen WP-3D. Und jedes Mal saß Geet George im Heck, damals Doktorand in Stevens’ Gruppe und heute Assistenzprofessor an der Technischen Universität Delft. Er kümmerte sich um eine zentrale Messung: Auf exakt zwölf Positionen des 360-Grad-Rundkurses, wie die Fünfminutenstriche auf einem Uhrenziffernblatt, schoss er Wurfsonden aus dem Flugzeug. Diese schwebten dann an Fallschirmen die zehn Kilometer hinunter zur Meeresoberfläche. Ihre Pappröhren enthielten einen Sender, drei Sensoren für Druck, Temperatur und den relativen Feuchtegehalt der Umgebungsluft sowie einen GPS-Empfänger. Auf ihrem etwa zwölfminütigen Weg nach unten sendeten zwei- bis viermal pro Sekunde ihre Messwerte und Positionen an Halo. Besonders wichtig waren die GPS-Daten, denn sie lieferten die Information, wie weit der auf der jeweiligen Höhe herrschende Wind die Sonden zur Seite blies. Aus diesen Daten errechnete George, welche Luftmassen durch die gedachte Wand in das umzirkelte Messvolumen hineinflossen – oder hinaus. Da die Erhaltungssätze der Physik verbieten, dass Luft einfach verschwindet oder hinzukommt, lässt sich daraus errechnen, wie sich die Konvektion innerhalb des Zylinders verhält.

Abbildung 2: Mit einem Laser werden Eigenschaften der Wolken gemessen und daraus Temperatur und Feuchtigkeitsprofile abgeleitet. (Foto: MPI-M, F. Batier; © MPI-M )

Die französische ATR -42 hatte die Aufgabe, innerhalb des gedachten Messzylinders viel tiefer, auf Höhe der Wolkenbasis, zu fliegen. Besonders wichtig waren dabei Instrumente, die die Wolken seitlich mit Radar und Lidar, eine Art Laserscanner, abtasteten. Abbildung 2. Sie lieferten vor allem Informationen über die Wolkentröpfchen und deren Bewegungen. Damit diese Instrumente möglichst horizontal blickten, musste das Flugzeug waagerecht im Geradeausflug ausgerichtet sein. Daher flog die ATR -42 immer wieder einen Kurs ab, der wie bei einem römischen Wagenrennen aus zwei engen Kurven und langen geraden Streckenabschnitten bestand. Auch hier war Disziplin gefordert, selbst wenn es kaum Wolken gab, um in den vier Wochen ein Gesamtbild bei allen Wetterlagen zu erhalten. „Das war nicht immer leicht durchzusetzen“, erzählt Raphaela Vogel lachend, „wenn etwas weiter weg ein schönes Gewitter lockte.“ Im Nachhinein ist sie vor allem beeindruckt davon, wie zuverlässig die Eurec4a -Daten sind.

Aber was kam nun dabei heraus?

Dazu erklärt die Forscherin zunächst, was bei der Wolkenbildung grundsätzlich geschieht: Feuchte, von der Sonne erwärmte Luft steigt über dem Wasser auf, zum Ausgleich muss kühlere, trockene Luft aus größerer Höhe absinken. Wenn die feuchte Luft in diesem Konvektionsaufzug in die Höhe fährt, sinkt ihre Temperatur, und so kondensiert ein Teil des Dampfs zu Wolkentröpfchen. Diese feuchten, tröpfchenhaltigen Luftmassen vermischen sich mit den von oben kommenden trockeneren Luftmassen. Das lässt wieder einen Teil der Tropfen verdunsten. Dabei verschwindet das Wasser nicht, es wird nur wieder gasförmig und trägt so nicht zur Wolke bei. Ein wärmeres Klima allerdings könnte nun bewirken, dass sich weniger Wolkentröpfchen bilden, weil die von oben kommende Luft durch die Erderwärmung mehr Wasserdampf aufnehmen kann. Die Folge wäre, dass immer weniger Passatwolken entstehen, was wiederum – wegen der abnehmenden Spiegelwirkung – die Erderwärmung beschleunigen würde. Das wäre die bereits erwähnte positive Rückkopplung.

Abbildung 3. Quellwolken bilden sich dort, wo warme, feuchte Luft aufsteigt; zwischen den Wolken sinkt kühlere, trockene Luft hinab. Diese konvektive Strömung ist seit Langem bekannt. Im Eurec4a-Projekt haben Forschende nun eine mesoskalige Luftzirkulation über 100 bis 200 Kilometer entdeckt, die Feuchtigkeit dorthin bringt, wo die Wolken entstehen. Es ist daher nicht zu befürchten, dass die Passatwolken infolge der Erderwärmung wegtrocknen. © MPG

Den Ergebnissen der Eurec4a -Kampagne zufolge ist diese Rückkopplung bei Weitem nicht so stark, wie einige Klimamodelle befürchten ließen. Abbildung 3. Das zeigte ein Team um Raphaela Vogel, zu dem auch Bjorn Stevens und Sandrine Bony gehörten, in einer Publikation über die wichtigsten Resultate der Feldstudie im Fachblatt Nature im Dezember 2022. „Das sind doch mal gute Neuigkeiten für uns Menschen“, sagt Raphaela Vogel. Warum das so ist, erklärt Geet George. Er war maßgeblich an einer zweiten wichtigen Veröffentlichung zu den Ergebnissen beteiligt, die im Juli 2023 in Nature Geoscience erschien. Entscheidend seien atmosphärische Zirkulationen, erklärt der Wissenschaftler, die so klein sind, dass sie durch das Raster bisheriger globaler Klimamodelle fallen.

Genug Nachschub an Feuchtigkeit

Diese „flachen mesoskaligen Umwälzzirkulationen“, englisch shallow mesoscale overturning circulations, erstrecken sich über Flächen in der Größenordnung des von Halo umflogenen Gebiets und reichen bis in etwa 1,5 Kilometer Höhe. „Mesoskalig“ bedeutet, dass es um Prozesse in mittelgroßen Räumen des Klimasystems von grob 100 bis 200 Kilometer Ausdehnung geht. Und diese Zirkulation durchmischt feuchte und trockene Luftmassen kräftiger, als einige globale Klimamodelle dies erwarten ließen. Grundsätzlich funktioniert sie wie die Konvektion, die Wolken entstehen lässt, nur dass sie sich genau in diesen mittelgroßen Räumen abspielt, die bei Barbados umflogen wurden. Sie liefert genügend Nachschub an Feuchtigkeit, um das Wegtrocknen der Wolkentröpfchen in einer wärmeren Umgebung weitgehend auszugleichen. Die aufsteigende, feuchte Luft und die fallende, trockene Luft bilden zusammen die aufsteigenden und absteigenden Teile der flachen, mesoskaligen Zirkulation – wie bei einem altmodischen Paternosteraufzug, der mit unterschiedlich besetzten Kabinen auf einer Seite hinauf- und daneben hinunterfährt.

Wir haben ein neues Zirkulationssystem identifiziert, das die Variabilität in der Wolkenbedeckung beeinflusst“, bilanziert Bjorn Stevens. „Und dieser Mechanismus existiert in unseren bisherigen Klimamodellen nicht!“ Die Entdeckung, wie bedeutend diese flache Zirkulation in Räumen von etwa 100 bis 200 Kilometern für die heutige und zukünftige Existenz der Passatwolken ist, war die wichtigste Erkenntnis von Eurec4a.

Darüber hinausgab es noch andere neue Einsichten ins Wolkengeschehen, zum Beispiel wie Bewegung und Organisation der Passatwindwolken den Niederschlag aus ihnen beeinflussen. Unter welchen Bedingungen aus Wolkentröpfchen Regen, Schnee oder Hagel wird, kann die Klimaforschung noch nicht genau erklären, dies ist aber für Wettervorhersagen und Simulationen regionaler Klimaveränderungen relevant. Um die Niederschlagsbildung in Passatwolken besser zu verstehen, hat Jule Radtke als Doktorandin am Max-Planck-Institut für Meteorologie die Messungen von Poldirad auf Barbados ausgewertet. „Poldirad“ steht für Polarisations-Doppler-Radar. Dieser technische Terminus besagt im Kern, dass das Großgerät über das Radarecho sehr genau die Bewegungen der Tröpfchen in einer Wolke verfolgen kann. Normalerweise steht Poldirad am DLR-Standort in Oberpfaffenhofen. Mit finanzieller Unterstützung der Max-Planck-Förderstiftung wurde die Anlage für Eurec4a demontiert und auf einem Schiff über den Atlantik geschickt. Nach mehreren Monaten kam sie in Barbados an und blieb erst einmal in den Zollformalitäten stecken. Doch trotz aller Hindernisse gelang es dem Team, das Radargerät rechtzeitig in der Nähe des Barbados Cloud Observatory in Betrieb zu nehmen.

Blumen und Fische am Himmel

Abbildung 4. In den Tropen und Subtropen bilden sich in einem Gürtel, in dem der Passatwind vorherrscht, zahllose vielgestaltige Wolken, die das Klima kühlen, da sie Sonnenlicht reflektieren. Die hier gezeigten Formen werden als Blume bezeichnet. (Foto: MPI für Meteorologie / NASA World view.)

Radtke untersuchte mit Daten von Poldirad, welchen Einfluss das Herdenverhalten der Passatwolken auf ihren Niederschlag hat. „Früher hieß es immer, dass diese kleinen Passatwindwolken Schönwetterwolken sind, die nicht hoch wachsen und daher auch nicht regnen“, sagt die Klimaforscherin, „und dass sie sich eher zufällig verteilen.“ Schon vor Eurec4a war aber klar, dass dieses Bild nicht stimmt. Radtke kam zu dem Ergebnis, dass der Herdentrieb einen deutlichen Einfluss auf das Regenverhalten der Wolken hat. Drängen sich die Wolken stärker zusammen, regnet es aus ihnen öfter. Denn offenbar schützen sie sich gegenseitig vor der Sonne. Das bewirkt eine feuchtere Atmosphäre und verhindert, dass Regentropfen wieder verdunsten, bevor sie den Boden erreichen. Dafür regnet es aus den Wolken in der Herde schwächer, weil in ihnen weniger Regen gebildet wird. „Das könnte daran liegen, dass da auch jüngere oder ältere Wolken mit herumhängen“, sagt Radtke lachend,„die noch nicht oder nicht mehr zum Niederschlag beitragen.“

Dass die Selbstorganisation der Wolken sehr komplex ist, hatte Bjorn Stevens’ Team schon in der Vorbereitungsphase zu Eurec4a entdeckt. Mithilfe von Maschinenlernen und Mustererkennung hatten die Hamburger in Satellitenbildern vier verschiedene Herdenmuster identifiziert, die sie „Zucker (Sugar)“, „Kies (Gravel)“, „Blumen (Flowers)“ und „Fisch (Fish)“ tauften. Letztere Struktur erinnert tatsächlich an ein Fischskelett. Gemeinsam mit Hauke Schulz, der heute an der University of Washington in Seattle forscht, untersuchte Stevens unter anderem, ob ein hochauflösendes Klimamodell, das auf ein kleineres Gebiet beschränkt ist, um Rechenleistung zu sparen, mit den Eurec4a -Daten diese Muster simulieren kann. Für „Fisch“ und „Kies“ gelang die Simulation schon recht gut, für „Blumen“ nicht. Wie wichtig es ist, dass zukünftige Klimamodelle diese Strukturen ganz genau simulieren können, das sei noch offen, betont Stevens. Zumindest die durchschnittliche Wolkenbedeckung müssen die Modelle jedenfalls möglichst genau berechnen, die Wolkenform könnte dabei ein relevanter Faktor sein. Abbildung 4. Die Lehre aus Eurec4a sei, dass Klimamodelle grundsätzlich viel feiner gestrickt sein müssen, um solche mesoskaligen Vorgänge auch in einem künftigen, wärmeren Klima simulieren zu können.

Bjorn Stevens ist optimistisch, dass die hochauflösenden Klimamodelle der Zukunft wesentlich genauere Vorhersagen für kleinräumige Vorgänge ermöglichen werden. Erst wenn Klimamodelle die Prozesse in der Atmosphäre noch besser erfassen, können sie etwa regionale Klimaveränderungen genauer prognostizieren. Dabei hilft sicher auch, dass der Klimaforschung immer leistungsfähigere Supercomputer zur Verfügung stehen. Die Feldforschung in der Natur werden aber auch diese Computer nicht ersetzen können. Im August und September 2024 läuft die Nachfolge-Feldstudie Orcestra, und wieder wird Barbados die Basis sein.


 Vogel, R., Albright, A.L., Vial, J. et al. Strong cloud–circulation coupling explains weak trade cumulus feedback. Nature 612, 696–700 (2022).https://doi.org/10.1038/s41586-022-05364-y

George, G., Stevens, B., Bony, S. et al. Widespread shallow mesoscale circulations observed in the trades. Nat. Geosci. 16, 584–589 (2023). https://doi.org/10.1038/s41561-023-01215-1


 * Der Artikel ist erstmals im Forschungsmagazin 1/2024 der Max-Planck-Gesellschaft unter dem Titel "Ein Schirm aus Blumenwolken"https://www.mpg.de/21738713/W004_Umwelt-Klima_052-057.pdf erschienen und wird mit Ausnahme des Titels und des Abstracts in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


 Klima/Klimawandel im ScienceBlog

ist ein Themenschwerpunkt, zu dem bis jetzt 52 Artikel erschienen sind.

Das Spektrum reicht von den Folgen des Klimawandels über Strategien der Eindämmung bis hin zu Klimamodellen: Klima & Klimawandel


 

inge Thu, 11.04.2024 - 12:21

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Do, 04.04.2024 — Inge Schuster

Inge Schuster

Icon Chemie

Obwohl Fluor zu den am häufigsten vorkommenden Elementen der Erdkruste zählt, hat die belebte Natur von der Schaffung fluorierter organischer Verbindungen abgesehen, da sie offensichtlich mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen inkompatibel sind. Vor 70 Jahren haben synthetisch hergestellte fluororganische Verbindungen, insbesondere per- und polyfluorierte Alkylverbindungen (PFAS) ihren Siegeszug durch die Welt angetreten. Deren herausragende Eigenschaften - Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser - haben sich leider auch als enorm hohe Persistenz gegenüber natürlich entstandenen Abbaumechanismen erwiesen. Dass PFAS in Umwelt und Organismen akkumulieren, war den führenden Industrieunternehmen schon länger bekannt, im Bewusstsein der akademischen Welt und der Bevölkerung samt ihren zögerlich agierenden Vertretern ist das Problem erst im Jahr 2000 angekommen.

Fluor, das leichteste Element aus der Grupe der Halogene (7. Hauptgruppe im Periodensystem, die auch Chlor, Brom und Jod enthält) ist extrem reaktiv und bildet mit nahezu allen Elementen des Periodensystems enorm feste Verbindungen. In der Erdkruste gehört Fluor zu den am häufigsten vorkommenden Elementen und liegt hier in Form von anorganischen Verbindungen - in Mineralien wie u.a. Flussspat, Fluorapatit und Kryolith - vor. Von minimalen Ausnahmen abgesehen hat die belebte Natur allerdings für Fluor keine Verwendung gefunden: Seitdem vor rund 80 Jahren die erste natürlich entstandene Fluorkohlenstoff-Verbindung, die Fluoressigsäure (CH2FCO2H, Abbildung 1), entdeckt wurde, hat man trotz immer besser werdender Analysemethoden und einer immer größeren Fülle an untersuchbarer Spezies erst um die 30 natürlich entstandene Fluorkohlenstoff-(fluororganische)-Verbindungen gefunden, zumeist von der Fluoressigsäure abgeleitete Fluor-Fettsäuren und Fluoraminosäuren. Deren Vorkommen ist auf einige wenige Pflanzenarten, Bakterienstämme (Streptomyces) und eine Meeresschwammart beschränkt. Die bereits erwähnte Fluoressigsäure wird u.a. vom südafrikanischen Strauch Gifblaar synthetisiert und - offensichtlich zur Abwehr von Fressfeinden - in dessen Blättern gespeichert: es ist eine hochgiftige Verbindung, es heißt: "ein Blatt reicht um eine Kuh zu töten". Die Toxizität beruht auf der strukturellen Ähnlichkeit mit der Essigsäure, die eine zentrale Rolle im Stoffwechsel aller aerober Organismen spielt: Fluoressigsäure wird an deren Stelle in den Citratzyklus eingeschleust und bringt diesen zum Erliegen.

Abbildung 1: Fluororganische Verbindungen werden nahezu ausschließlich synthetisch durch Menschenhand hergestellt. Beschreibung der abgebildeten Substanzen im Text.

Die Natur verzichtet auf fluororganische Verbindungen

Die Bindung von Fluor an Kohlenstoff ist die stärkste Einfachbindung in der organischen Chemie, bei weitem stärker als dessen Bindung zu den anderen Elementen Wasserstoff, Sauerstoff, Stickstoff, Schwefel und Phosphor und sie nimmt an Stärke noch zu, wenn mehrere Fluoratome am selben Kohlenstoff gebunden sind, wie beispielsweise im Tetrafluorkohlenstoff (CF4) mit einer Dissoziationsenergie von 130 kcal/mol oder in den künstlich hergestellten Per- und Polyfluoralkyl Stoffen.

Wird in einer Kohlenstoff-Wasserstoffbindung der Wasserstoff durch ein Fluoratom ersetzt, so ändert sich die Größe des gesamten Moleküls nur wenig, da der Atomradius von Fluor nicht viel größer als der von Wasserstoff ist. Das modifizierte Molekül wird meistens noch in die Bindungsstelle seines vormaligen Enzyms, seines vormaligen Rezeptors passen; allerdings haben sich seine Gesamteigenschaften verändert und damit die Spezifität und Stärke der Bindung und damit die Auswirkungen auf den vormaligen Rezeptor/das Enzym und dessen Funktion im Stoffwechsel verändert: i) Der Ersatz von Wasserstoff kann aber zu einer anderen Stereochemie des Moleküls geführt haben, wenn ein asymmetrisches (im Spiegelbild nicht deckungsgleiches - chirales) C-Atom entstanden ist. ii) Da Fluor das elektronegativste, d.i. das am stärksten Elektronen anziehende Element ist, weist die Kohlenstoff-Fluorbindung ein Dipolmoment (δ+C–δ−F) mit negativer Teilladung am Fluor auf. Fluor kann so mit (partiell) positiv geladenen Atomen wie dem an Sauerstoff oder Stickstoff gebundenen Wasserstoff Bindungen - Wasserstoffbrücken - ausbilden. (Auswirkungen eines teilweisen Einbaus von Fluor auf die Basenpaarungen der DNA oder auf die Wechselwirkungen zwischen Proteinen? Undenkbar) iii) Mit der Einführung von Fluor hat die Lipophilie der Verbindung und damit die Löslichkeit in und der Durchtritt durch Membranen zugenommen. iv) Wenn es vor allem um den Abbau/das Recyceln der fluorierten Verbindung geht - die Kohlenstoff-Fluor-Bindung lässt sich durch bereits entwickelte Enzymsysteme nicht so leicht wie eine Kohlenstoff- Wasserstoff-Bindung auflösen.

In Summe: fluorierte organische Verbindungen erweisen sich als nur wenig kompatibel mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen.

Fluororganische Verbindungen sind also anthropogen

Die Produktion derartiger Stoffe begann vor 90 Jahren mit dem Halogenkohlenwasserstoff Freon-12 (Dichlordifluormethan - CCl2F2; Abbildung 1), einem ungiftigen, verflüssigbaren Gas, das als Kältemittel in Kühlsystemen und später auch als Treibgas in Sprühdosen eingesetzt wurde. Als erkannt wurde, dass Freon und weitere Halogenkohlenwasserstoffe auf die schützende Ozonschicht der Erde zerstörend wirken, wurde deren Herstellung und Verwendung ab 1987 über das Montreal Protokoll verboten.

Zwei Entwicklungen haben dann einen ungeahnten Boom an synthetisch produzierten Fluorverbindungen ausgelöst.

In der medizinischen Chemie

wurde 1954 mit dem Aldosteronderivat Fludrocortison (Abbildung 1) erstmals ein fluoriertes Pharmazeutikum erfolgreich auf den Markt gebracht, das von der WHO in die Liste der essentiellen Arzneimittel aufgenommen wurde. Die gezielte Einführung von Fluor gehörte bald zu den aussichtsreichsten Strategien der medizinischen Chemie, um die Wirkdauer und insgesamt die Wirksamkeit von Entwicklungssubstanzen zu optimieren. Zwei Fluor-Effekte sind dabei von besonderer Bedeutung: i) Fluorierung an Schwachstellen, d.i. an leicht metabolisierbaren Stellen eines Moleküls soll diese Reaktionen erschweren/verhindern und damit die biologische Stabilität der Verbindung und dadurch deren Blutspiegel und Wirkdauer erhöhen. ii) Fluorierung erhöht den lipophilen Charakter von Molekülen und soll so deren Durchtritt durch Lipidmembranen und damit deren Aufnahme in den Organismus und in seine Zellen erleichtern.

In den letzten 3 Jahrzehnten hat der Anteil der fluorierten Wirkstoffe besonders stark zugenommen - bis zu 50 % der neu registrierten synthetischen Pharmaka enthalten heute ein oder mehrere Fluorgruppen und insgesamt über 20 % aller derzeit im Handel erhältlichen Arzneimittel sind bereits Fluorpharmazeutika.

Neue Untersuchungen weisen allerdings auch auf eine Kehrseite der Fluorierung hin: In chemisch instabilen Molekülen und im Verlauf von enzymatischen Reaktionen kann auch die sehr feste Kohlenstof-Fluor-Bindung heterolytisch gespalten werden (d.i. die Bindungselektronen bleiben am Fluor) und Fluorid (F-) wird freigesetzt [Yue Pan, 2019]. Diese Freisetzung lässt sich sehr gut an verschiedenen, mit dem 18Fluor-Isotop markierten Verbindungen verfolgen, die zur Diagnose und auch zur Therapie diverser Tumoren in der Positron-Emissionstomographie (PET) eingesetzt werden (beispielsweise: [Ying-Cheng Huang et al.2016]).

Chronisch anhaltende Fluorid-Zufuhr von täglich mehr als 10 mg Fluorid kann zu schmerzhaften Veränderungen in Knochen und Gelenken (Skelettfluorose) führen. Ein klinisch belegtes Beispiel für die Freisetzung von Fluorid und dessen Folgen bietet das Antimykotikum Voriconazol, das bei Langzeittherapie zu erhöhten Fluoridspiegeln im Plasma und als Folge zu schmerzhaften Beinhautentzündungen und Knochenwucherungen führen kann.

In industriellen Anwendungen

hat die Entdeckung von Teflon (Polytetrafluorethylen, Abbildung 1) und seinen herausragenden Eigenschaften seit den 1950er Jahren zur Entwicklung von mehr als 10 000 unterschiedlichen Stoffen aus der Kategorie der per- und polyfluorierten Alkylverbindungen (PFAS) geführt; dies sind Verbindungen an denen die Wasserstoffatome an den Kohlenstoffatomen ganz oder teilweise durch Fluoratome ersetzt sind (Abbildung 1). Aufgrund der Chemikalienbeständigkeit und wasser-, hitze-, und schmutzabweisenden Eigenschaften wurden und werden PFAS in diversesten Artikeln eingesetzt. Das Spektrum reicht von Feuerlöschschaum bis hin zu wasserdichter Bekleidung, von schmutzabweisenden Beschichtungen bis zu antihaftbeschichtetem Kochgeschirr, von Dichtungsmaterial bis hin zu in Chemielabors und in der Medizintechnik verwendeten inerten Materialien. Zwei der in verschiedenen Anwendungen am häufigsten verwendeten PFAS-Verbindungen sind Perfluoroctansäure (PFOA) und Perfluoroctansulfonsäure (PFOS) (Abbildung 1). Diese langkettigen Stoffe entstehen durch Umweltprozesse auch aus anderen instabileren PFAS.

Die Widerstandsfähigkeit dieser ungemein nützlichen Stoffe ist leider auch die Basis ihrer negativen Auswirkungen auf Mensch und Umwelt: Geschützt durch die dichte Hülle aus Fluoratomen ist das Kohlenstoffskelett praktisch nicht abbaubar; die "Ewigkeitschemikalien" akkumulieren in Boden und Grundwasser und gelangen über Wasser und Nahrungsketten in Mensch und Tier.

Abbildung 2: Die weit verbreitete Verwendung von PFAS hat dazu geführt, dass diese in der Umwelt nun allgegenwärtig sind. Das Vorhandensein von PFAS im Ökosystem bedeutet, dass sie in verschiedene terrestrische und aquatische Nahrungsketten und -netze gelangen und schließlich den Menschen als Endverbraucher erreichen (Quelle: Figure 3 in Wee, S.Y., Aris, A.Z. (2023). https://doi.org/10.1038/s41545-023-00274-6.. Lizenz: cc-by)

Für den Haushalt war es eine großartige Erneuerung: Ab den 1960er Jahren konnten Stoffe, Teppiche, Polstermöbel u.a. mit dem Fleckenschutzmittel Scotchgard der US-amerikanischen Firma 3M imprägniert werden. Erst als sich im Jahr 2000 herausstellte, dass der Hauptbestandteil von Scotchgard, das langkettige Perfluoroctanylsulfonat (PFOS; Abbildung 1), bereits in der Umwelt und in der menschlichen Bevölkerung nachweisbar geworden war, hat eine hektische Forschung zu möglichen Konsequenzen von PFAS, insbesondere von PFOS und PFOA, auf Mensch und Umwelt begonnen. Seit 2000 sind In der Datenbank PubMed (https://pubmed.ncbi.nlm.nih.gov//; abgerufen am 2.4.2024) jeweils rund 5000 Untersuchungen über PFOS und ebenso viele über PFOA erschienen, darunter rund 1300 zur Toxizität, etwa 1700 zur Exposition des Menschen gegenüber PFOS und PFOA und rund 300 zur Schaffung von unproblematischeren Alternativen. Eine kürzlich erschienene Arbeit gibt einen umfassenden Überblick über die Freisetzung von PFAS aus diversen Produkten und die Wege, die zur Exposition des Menschen führen ([Wee, S.Y., Aris, A.Z. (2023)]; graphisch zusammengefasst in Abbildung 2).

Die wachsende Sorge über die Umweltverschmutzung mit PFAS und die gesundheitlichen Auswirkungen von langkettigen PFAS, insbesondere PFOA und PFOS, haben zu Bemühungen geführt, die Produktionsmethoden zu regulieren und Richtlinien zur Überwachung festzulegen (im Stockholmer Übereinkommen über persistente organische Schadstoffe, https://www.pops.int/). Der größte PFAS-Produzent, die 3M Company und auch der globale Player DuPont haben die Produktion und Verwendung von PFOA uns PFOS bereits eingestellt und andere Unternehmen folgen. Allerdings gibt es - vor allem in Kontinentalasien - neue Hersteller von langkettigen PFAS.

Die Europäische Chemikalienagentur (ECHA) hat im März 2024 die nächsten Schritte für die wissenschaftliche Bewertung des Beschränkungsdossiers für PFAS vorgestellt. Der Vorschlag sieht vor, dass PFAS nur noch in Bereichen zum Einsatz kommen dürfen, in denen es auf absehbare Zeit keine geeigneten sicheren Alternativen geben wird bzw. wo die sozioökonomischen Vorteile die Nachteile für Mensch und Umwelt überwiegen. Tatsächlich gibt es ja für viele dieser Stoffe - u.a. in den Chemielabors (Schläuche, inerte Gefäße) und in der medizinischen Anwendung (Stents, Prothesen) keine offensichtlichen Alternativen.

Die Problematik der Abwägung von Risiko und alternativlosem Inverkehrbringen bestimmter PFAS-Produkte und die hohe Persistenz dieser Produkte lassen befürchten, dass PFAS noch lange Zeit unsere Böden und Gewässer kontaminieren werden.

Die PFAS- Exposition

Menschen und Tiere sind permanent PFAS-Kontaminationen ausgesetzt, viele davon sind es bereits seit Jahrzehnten. PFAS gelangen in unsere Organismen durch direkten Kontakt über die Haut oder durch Inhalation oder über den Verdauungstrakt, d.i. über kontaminierte Nahrung und Trinkwasser. Im Organismus angelangt sind langkettige PFAS praktisch nicht abbaubar, zirkulieren, werden nur sehr langsam ausgeschieden und akkumulieren, solange die Aufnahme aus kontaminierten Quellen weiter besteht. Angaben über die Verweildauer im Organismus beruhen häufig auf Schätzungen und gehen weit auseinander.

Konkretere Zahlen hat eine Studie an 106 Personen aus Ronneby (Schweden) geliefert, deren Trinkwasser von der Mitte der 1980er Jahre an mit PFAS kontaminiert war (Quelle: Löschschaum von einem nahegelegenen Flugfeld). Nach Bereitstellung von sauberem Wasser Ende 2013 wurden über 33 Monate lang die PFAS-Spiegel im Blutserum und daraus die Halbwertszeiten des Absinkens bestimmt: die Mittelwerte lagen für PFOA bei 2,7 Jahren, für PFOS bei 3,5 Jahren und für das kürzerkettige PFHxS (Perfluorohexane sulfonate) bei 5,3 Jahren.

Erschreckend hoch waren die anfänglichen Serumspiegel, die im Mittel für PFHxS bei 277 ng/ml (12 - 1 660), für PFOS bei 345 ng/ml (24 - 1 500) und für PFOA bei 18 ng/ml (2,4 - 9,2) lagen [Li Y, Fletcher T, Mucs D, et al., 2019].

Diese Serumwerte sind vor dem Hintergrund des Leitfadens der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/ zu sehen:

a) < 2 ng / mL , gesundheitsschädliche Wirkungen sind nicht zu erwarten;

b) 2 - 20 ng / mL , mögliche schädliche Wirkungen, insbesondere bei empfindlichen Bevölkerungsgruppen; und

c) > 20 ng / mL , erhöhtes Risiko für schädliche Wirkungen. Säuglinge und Kleinkinder gelten als besonders empfindlich gegenüber PFAS-Exposition.

Wie groß das Problem der menschlichen Exposition bereits ist, wird aus der Kontamination des Trinkwassers mit den sehr häufig verwendeten PFOA und PFOS ersichtlich, die bereits weltweit detektierbar sind. Abbildung 3 zeigt Höchstwerte, die in einzelnen Regionen gemessen wurden, wobei die US und Schweden mit ihrer umfangreichen Produktion und Konsum von PFAS Hotspots bilden [Wee S.Y., Aris, A.Z. (2023)]. Die Produktion von PFAS in diesen Ländern wurde zwar eingestellt und hat dort zu einem Absinken der Blutspiegel geführt. Dafür hat die Produktion in den Entwicklungsländern erheblich zugenommen. Emission von PFAS und Kontamination werden auch vom Wohlstand (dem BIP) der einzelnen Gebiete beeinflusst, der unmittelbar mit Produktion, Verbrauch und Entsorgung von PFAS-Produkten zusammen hängt.

Abbildung 3: Produktion und globale Verbreitung/Verwendung von PFOA und PFOS spiegeln sich in der Kontamination des Trinkwassers wieder. Konzentrationen in Oberflächen- und Grundwasser, in Leitungswasser und in abgefülltem Wasser sind gemessene Maximalwerte in den einzelnen Staaten und sind in erster Linie auf die anhaltende Verschmutzung durch verschiedene Erzeuger, unvollständige Beseitigungsmethoden und unzureichende Überwachung- und Managementpraktiken erklärbar. NA: keine Angaben.(Quelle: Figure 4 in Wee S.Y., Aris, A.Z. (2023) https://doi.org/10.1038/s41545-023-00274-6. Lizenz: cc-by. Grundkarte mit freundlicher Genehmigung von https://www.mapchart.net/; Lizenz cc-by-sa.)

Die am häufigsten verwendeten PFAS werden wohl noch viele Jahre in der Umwelt gemessen werden können (insbesondere in der Nähe von Flughäfen und Militärstützpunkten), zu der Vielfalt der bereits produzierten und angewandten Tausenden anderen PFAS mit unterschiedlichen Eigenschaften fehlen ausreichend Informationen über Kontaminierungen, Expositionen und mögliche Gesundheitsrisiken und das gilt auch für die neu eingeführten PFAS-Ersatzstoffe.

Ein globales Gesundheitsproblem

Dass akkumulierende PFAS unserer Gesundheit schaden, ist unbestritten auch, wenn die Mechanismen wie und wo PFAS was bewirken noch ziemlich unbekannt sind.

PFAS sind stark lipophile Moleküle, die sich mehr und mehr in Membranen einlagern (und dort wie und was stören). Enzyme (vor allem aus den Cytochrom P450-Familien) scheitern am Versuch PFAS mittels aktiviertem Sauerstoff abzubauen. Sie setzen bloß den aktivierten Sauerstsoff (ROS) frei, der dann Entzündungsreaktionen auslöst, während PFAS-Moleküle weiter unbehelligt für Jahre im Organismus zirkulieren können und immer mehr werden.

Eine Fülle an gesundheitlichen Beeinträchtigungen wurde mit PFAS in Verbindung gebracht - vor allem Leberschäden, Krebserkrankungen im Umfeld von Produktionsstandorten mit sehr hoher Exposition, Nierenerkrankungen, Schilddrüsenerkrankungen, neurodegenerative Erkrankungen und der gesamte Komplex der Fettstoffwechselstörungen und damit verbundene Herz-Kreislauferkrankungen [Sunderland et al., 2019].

Ausreichende Evidenz für einen Zusammenhang mit der PFAS-Exposition gibt es bislang erst für wenige Krankheiten/Auswirkungen auf die Gesundheit. Die oben erwähnten "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" hat diese 2022 zusammengefasst. Es sind dies:

  •  verminderte Antikörperreaktion (bei Erwachsenen und Kindern),
  • Fettstoffwechselstörung (Dyslipoproteinämie; bei Erwachsenen und Kindern), 
  • vermindertes Wachstum von Säuglingen und Föten und
  • erhöhtes Risiko für Nierenkrebs (bei Erwachsenen).

Seit der Einführung der PFAS-Materialien und dem Bekanntwerden der damit für Umwelt und Gesundheit verbundenen Probleme sind Jahrzehnte ungenützt verstrichen. Dass sich die Industrie bereits viel früher über diese Risiken ihrer Erfindungen im Klaren war, ist in höchstem Maße erschreckend. Der für seine lebenslangen Forschungen über Umwelt verschmutzende Chemikalien berühmte Umweltmediziner Philippe Grandjean fasst diesen skandalösen Umstand und die zögerlichen Reaktionen der Entscheidungsträger in einem überaus kritischen, 2018 publizierten Artikel zusammen (Übersetzt aus [P. Grandjean, 2018]):

"Frühe Forschungsergebnisse über die Exposition gegenüber PFAS in der Umwelt und ihre Auswirkungen auf die Gesundheit wurden erst mit erheblicher Verzögerung verfügbar und bei den ersten Regulierungsentscheidungen zur Verringerung der Exposition nicht berücksichtigt. Erst in den letzten zehn Jahren hat sich die umweltmedizinische Forschung auf die PFAS konzentriert und wichtige Risiken für die menschliche Gesundheit, z. B. für das Immunsystem, aufgedeckt. Obwohl die Richtwerte für PFAS im Trinkwasser im Laufe der Zeit gesunken sind, sind sie immer noch zu hoch, um vor einer solchen Toxizität zu schützen. Während die am häufigsten verwendeten PFAS noch viele Jahre in der Umwelt verbleiben werden, werden neue PFAS-Ersatzstoffe eingeführt, obwohl nur wenige Informationen über negative Gesundheitsrisiken verfügbar sind. In Anbetracht der gravierenden Verzögerungen bei der Entdeckung der Toxizität von PFAS, ihrer Persistenz in der Umwelt und ihrer Auswirkungen auf die öffentliche Gesundheit sollten PFAS-Ersatzstoffe und andere persistente Industriechemikalien vor einer weit verbreiteten Verwendung einer eingehenden Forschungsprüfung unterzogen werden."

Grandjean tritt auch als Topexperte in einer 2023 erschienenen Dokumentation auf, die enthüllt, was die PFAS-Produzenten Dupont und 3M schon früh über die Risiken ihrer Verbindingen wussten. [Zembla - The PFAS Cover-up; 2023].


Zitierte Literatur:

Grandjean P. Delayed discovery, dissemination, and decisions on intervention in environmental health: a case study on immunotoxicity of perfluorinated alkylate substances. Environ Health. 2018 Jul 31;17(1):62. DOI: 10.1186/s12940-018-0405-y

Leitfaden der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/

Sunderland EM, Hu XC, Dassuncao C, Tokranov AK, Wagner CC, Allen JG. A review of the pathways of human exposure to poly- and perfluoroalkyl substances (PFASs) and present understanding of health effects. J Expo Sci Environ Epidemiol. 2019 Mar;29(2):131-147. DOI: 10.1038/s41370-018-0094-1

Wee, S.Y., Aris, A.Z. Revisiting the “forever chemicals”, PFOA and PFOS exposure in drinking water. npj Clean Water 6, 57 (2023). https://doi.org/10.1038/s41545-023-00274-6

Li Y, Fletcher T, Mucs D, et al. Half-lives of PFOS, PFHxS and PFOA after end of exposure to contaminated drinking water. Occup Environ Med 2018;75:46–51. doi: DOI: 10.1136/oemed-2017-104651

Ying-Cheng Huang et al., Synthesis and Biological Evaluation of an 18Fluorine-Labeled COX Inhibitor—[18F]Fluorooctyl Fenbufen Amide—For Imaging of Brain Tumors. Molecules 2016, 21, 387; doi: 10.3390/molecules21030387

Yue Pan, The Dark Side of Fluorine. ACS Med. Chem. Lett. 2019, 10, 1016−1019. DOI: 10.1021/acsmedchemlett.9b00235

Zembla - The PFAS Cover-up. Video 51.03 min. https://www.youtube.com/watch?v=y3kzHc-eV88


Verwandte Themen imScienceBlog

Redaktion, 21.03.2024: Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Roland Wengenmayr, 11.03.2021: Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?


 

inge Thu, 04.04.2024 - 12:03

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Do,21.03.2024 — Redaktion

Redaktion

Icon Chemie

Ein bestürzender Report ist vergangene Woche erschienen (M.Wagner et al., 2024): Wissenschafter aus Norwegen und der Schweiz haben einen umfassenden Überblick über mehr als 16 000 Chemikalien gegeben, die zur Produktion von Kunststoffen verwendet werden, in diesen potentiell enthalten sind und von diesen freigesetzt werden können. Von mehr als 9000 dieser Substanzen fehlen Angaben wo und wie sie eingesetzt werden, bei mehr als 10 000 Substanzen gibt es keine Informationen zum Gefährdungsrisiko. Über 4 200 Kunststoffchemikalien werden als bedenklich betrachtet, da sie persistent sind und/oder sich in der Biosphäre anreichern und/oder toxisch sind, davon unterliegen 3 600 weltweit keinen Regulierungen. Eine Schlussfolgerung der Forscher: bedenkliche Chemikalien können in allen Kunststoffarten vorkommen.Um zu besserer Chemikaliensicherheit und Nachhaltigkeit zu gelangen, empfehlen sie ein Bündel an Maßnahmen zur politischen Umsetzung.

Die wichtigsten Aussagen der Forscher werden im folgenden Artikel ungefiltert aufgezeigt: in Form der "Executive Summary" des Reports, die hier in deutscher Übersetzung und ergänzt mit einigen Abbildungen aus dem Report vorliegt.

Das Ausmaß der Chemikalien bei Kunststoffen

Chemikalien sind ein essentielles Merkmal aller Materialien und Produkte aus Kunststoff und der Schlüssel, um deren Vorzüge zu erzielen. Allerdings werfen Kunststoffchemikalien erhebliche Bedenken zu Umwelt und Gesundheit auf. Die Vielfalt der Kunststoffchemikalien und ihre problematischen Eigenschaften machen eine umfassende Analyse zum Schutz der menschlichen Gesundheit und der Umwelt während des gesamten Lebenszyklus von Kunststoffen erforderlich. Der PlastChem-Bericht "State-of-the-science on plastic chemicals" gibt einen sorgfältigen und umfassenden Überblick über den aktuellen wissenschaftlichen Kenntnisstand der chemischen Dimension von Kunststoffen, einschließlich der Gefahren, Funktionen, Verwendungen, Produktionsmengen und des rechtlichen Status von Kunststoffchemikalien [1].

Warum spielen Kunststoffchemikalien eine Rolle?

Abbildung 1. Anzahl der Chemikalien von denen die Verwendung bei der Kunststoffproduktion, das Vorhandenseins in den Kunststoffen und die Freisetzung aus Kunststoffen nachgewiesen ist. Chemikalien mit unschlüssigen Ergebnissen sind ebenfalls angeführt. Bei den Informationen über Verwendung, Vorhandensein und Freisetzung gibt es erhebliche Überschneidungen, so dass hier für jede Chemikalie der höchste Beweisgrad angegeben wird. (Quelle: Figure 7 in M. Wagner et al., 2024,[1]. von Redn. deutsch übersetzt. Lizenz cc-by-sa-nc-4.0.)

Die weltweite Kunststoffindustrie verwendet eine Vielzahl von Chemikalien, von denen viele nachweislich die Umwelt verschmutzen und schädliche Auswirkungen auf Wildtiere, Menschen und Ökosysteme haben. Viele andere Kunststoffchemikalien sind noch unzureichend untersucht (Abbildung 1).

Die bekannten nachteiligen Auswirkungen in Verbindung mit Datenlücken und bruchstückhaften wissenschaftlichen Erkenntnissen stellen ein gewaltiges Hindernis für die Bewältigung der Risiken dar, die durch die Belastung mit Chemikalien während des gesamten Lebenszyklus von Kunststoffen entstehen. Darüber hinaus verhindert dies auch den Übergang zu einer schadstofffreien Zukunft, indem es Innovationen im Hinblick auf sicherere und nachhaltigere Materialien und Produkte behindert.

Was ist über Kunststoffchemikalien bekannt?

Abbildung 2. Anzahl der Kunststoffchemikalien nach ihrem jährlichen Produktionsvolumen. Die Zahlen sind kumuliert, d. h. die Anzahl der Chemikalien mit ≥10 Tonnen umfasst alle Chemikalien mit einem höheren Produktionsvolumen. (Quelle: Figure 5 in M. Wagner et al., 2024,[1].Lizenz cc-by-sa-nc-4.0.)

Der Bericht über den Stand der Wissenschaft fasst die Erkenntnisse über mehr als 16 000 Chemikalien zusammen, die potentiell in Kunststoffmaterialien und -produkten verwendet werden oder enthalten sind. Nur 6 % dieser Chemikalien unterliegen derzeit internationalen Regulierungen, obwohl eine weitaus größere Zahl in großen Mengen hergestellt wird und ein hohes Expositionspotenzial aufweist. Abbildung 2 gibt einen Überblick über Zahl und Produktionsvolumina von Kunststoffchemikalien.

Mehr als 4200 Kunststoffchemikalien sind bedenklich, weil sie persistieren, in der Biosphäre akkumulieren, mobil und/oder toxisch (PBMT) sind. Was unter diesen Gefährdungskriterien zu verstehen ist, zeigt Abbildung 3.

Abbildung 3. Abbildung 3. Die 4 Gefährdungskriterien Persistenz, Bioakkumulation, Mobiliät und Toxizität - PBMT. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; von Redn. deutsch übersetzt.Lizenz cc-by-nc-sa-4.0.),

Über 1300 der bedenklichen Chemikalien sind zur Verwendung in Kunststoffen auf dem Markt, und 29 - 66 % der verwendeten oder in gut untersuchten Kunststoffarten gefundenen Chemikalien sind bedenklich.

Dies bedeutet, dass bedenkliche Chemikalien in allen Kunststoffarten vorkommen können.

Der Bericht zeigt auch eklatante Datenlücken auf: Bei mehr als einem Viertel der bekannten Kunststoffchemikalien fehlen grundlegende Informationen über ihre Identität, und bei mehr als der Hälfte sind die Informationen über ihre Funktionen und Anwendungen in der Öffentlichkeit unklar oder fehlen ganz (siehe Abbildung 1). Darüber hinaus sind die Daten zum Produktionsvolumen nicht weltweit repräsentativ und auf bestimmte Länder beschränkt.

Abbildung 4. Übersicht über Kunststoffchemikalien, die als gefährlich, weniger gefährlich und ungefährlich eingestuft sind und von denen keine Gefährdungsdaten vorliegen. Die rechte Seite zeigt, welche Gefahrenkriterien (PBMT: siehe Abb.3) und Eigenschaften die betreffenden Chemikalien erfüllen. Abkürzungen: STOT: spezifische Organ-Toxizität; CMR: carcinogen, mutagen, reproduktionsschädigend; EDC: endokriner Disruptor; POP: persistierende organische Pollution; PBT: persistent, bioakkumulierend, toxisch; PMT: persistent, mobil, toxisch; vPvB: sehr persistent, sehr bioakkumulierend; vPvM: sehr persistent, sehr mobil. (Quelle: Figure 11 in M. Wagner et al., 2024,[1]. von Redn. modifiziert und deutsch übersetzt. Lizenz cc-by-nc-sa-4.0.)

Besonders wichtig ist, dass für mehr als 10 000 Chemikalien keine Informationen über die Gefahren vorliegen, obwohl diese Informationen für eine ordnungsgemäße Bewertung und Handhabung dieser Chemikalien unerlässlich sind (Abbildung 4). Dies unterstreicht den Bedarf an transparenteren Informationen über die Identität, die Gefahren, die Funktionen, die Produktionsmengen und das Vorkommen von Kunststoffchemikalien in Kunststoffen.

Auf welche Kunststoffchemikalien kommt es besonders an?

Der Bericht skizziert einen systematischen Ansatz zur Identifizierung und Prioritätensetzung von besorgniserregenden Chemikalien, wobei ein gefahren- und gruppenbasierter Rahmen verwendet wird, der auf vier entscheidenden Gefährdungskriterien (PBMT; Abbildung 3) basiert. Diese Methode ermöglicht eine effiziente Identifizierung von Chemikalien, die weitere politische Maßnahmen erfordern. Ein solcher Ansatz löst auch die großen Herausforderungen, die mit der Risikobewertung von mehr als 16.000 Kunststoffchemikalien verbunden sind, einschließlich des immensen Ressourcenbedarfs, der Investitionen und der technischen Herausforderungen zur Ermittlung zuverlässiger Expositionsdaten (d. h. der Konzentration von Kunststoffchemikalien in der Umwelt, in der Tierwelt und beim Menschen).

Unter Anwendung eines strengen und umfassenden gefahren- und gruppenbasierten Ansatzes werden in dem Bericht 15 prioritäre Substanzgruppen bedenklicher Kunststoffchemikalien identifiziert (Abbildung 5) und über 4200 bedenkliche Chemikalien, von denen ca. 3600 derzeit weltweit nicht reguliert sind. Außerdem werden zusätzliche Strategien zur weiteren Priorisierung von Kunststoffchemikalien für politische Maßnahmen vorgestellt und Ansätze zur Identifizierung bedenklicher Polymere aufgezeigt

Abbildung 5. Prioritäre 15 Substanzgruppen von Kunststoffchemikalien, die Anlass zu Besorgnis sind. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Wie kann diese Evidenz in politische Maßnahmen umgesetzt werden?

Empfehlung 1: Umfassende und effiziente Regulierung von Kunststoffchemikalien

Die große Zahl und die vielfältigen bekannten Gefahren erfordern neue Ansätze, um Kunststoffchemikalien umfassend und effizient zu regeln. Dies kann durch die Umsetzung eines gefahren- und gruppenbasierten Ansatzes zur Ermittlung bedenklicher Kunststoffchemikalien erreicht werden. Eine solche Strategie ist von entscheidender Bedeutung, um die Grenzen der derzeitigen Bewertungssysteme zu überwinden und die Innovation hin zu sichereren Kunststoffchemikalien zu fördern.

Dementsprechend sollten die politischen Entscheidungsträger die PBMT-Kriterien übernehmen und den 15 Gruppen und 3600 bedenklichen Chemikalien Vorrang bei der Regulierung einräumen, da sie derzeit auf globaler Ebene nicht reguliert sind.

Empfehlung 2: Transparenz bei Kunststoffchemikalien fordern

Mehr Transparenz bei der chemischen Zusammensetzung von Kunststoffen ist unerlässlich, um Datenlücken zu schließen, ein umfassendes Management von Kunststoffchemikalien zu fördern und Rechenschaftspflicht über die gesamte Wertschöpfungskette von Kunststoffen zu schaffen. Eine einheitliche Berichterstattung, die Offenlegung der chemischen Zusammensetzung von Kunststoffmaterialien und -produkten sowie ein "Keine Daten, kein Markt"-Ansatz werden empfohlen, um sicherzustellen, dass wesentliche Informationen über Kunststoffchemikalien öffentlich zugänglich werden. Dies dient dem doppelten Zweck, Sicherheitsbewertungen und Entwicklung von sichereren Kunststoffen zu erleichtern.

Empfehlung 3: Vereinfachung von Kunststoffen in Richtung Sicherheit und Nachhaltigkeit

Die vielen auf dem Markt befindlichen Kunststoffchemikalien erfüllen oft ähnliche und manchmal unwesentliche Funktionen. Diese Komplexität und Redundanz stellen ein großes Hindernis für Governance und Kreislaufwirtschaft dar. Das Konzept der chemischen Vereinfachung bietet die Möglichkeit, die Auswirkungen von Kunststoffen zu verringern, indem ein innovationsfreundlicher und evidenzbasierter Weg in die Zukunft eingeschlagen wird. Die Vereinfachung kann durch die Förderung von Maßnahmen erreicht werden, die die Verwendung von weniger und sichereren Chemikalien begünstigen, sowie durch die Annahme von Konzepten für die erforderliche Verwendung und die sichere Gestaltung, um Innovationen zu lenken.

Empfehlung 4: Aufbau von Kapazitäten zur Entwicklung sichererer und nachhaltigerer Kunststoffe

Um Kunststoffchemikalien wirksam zu handhaben und Innovationen in Richtung sicherer und nachhaltiger Kunststoffe zu fördern, sollten im öffentlichen und privaten Sektor technische, institutionelle und kommunikative Kapazitäten aufgebaut werden. Dazu gehört die Förderung des globalen Wissensaustauschs, die Schaffung eines gleichberechtigten Zugangs zu technischen Fähigkeiten und die Verbesserung der institutionellen Ressourcen für ein effektives Management von Kunststoffchemikalien. Durch die Einrichtung einer Plattform für den Wissensaustausch, die internationale Zusammenarbeit und die Zuteilung von Ressourcen regt der Bericht zu kollektiven Anstrengungen an, um gemeinsame Lösungen zu entwickeln und sicherzustellen, dass Wissen, Technologie und Infrastruktur auf offene, faire und gerechte Weise verfügbar sind.

Abbildung 6. Kunststoffchemikalien: Stand der Wissenschaft und empfohlene Maßnahmen zur politischen Umsetzung. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Abbildung 6. fasst den derzeitigen wissenschaftlichen Stand über Kunststoffchemikalien und die empfohlenen Maßnahmen zur politischen Umsetzung zusammen.

Welche positiven Auswirkungen hat es sich mit Kunststoffchemikalien zu befassen?

Eine umfassende Auseinandersetzung mit besorgniserregenden Kunststoffchemikalien und -polymeren wird erheblichen Nutzen für Umwelt und menschliche Gesundheit mit sich bringen, Innovationen zu sichereren Kunststoffchemikalien, -materialien und -produkten fördern und den Übergang zu einer untoxischen Kreislaufwirtschaft unterstützen. Die vorgeschlagenen Konzepte für Kunststoffchemikalien und Polymere sollen den Stand der Wissenschaft mit den politischen und rechtlichen Rahmenbedingungen in Einklang bringen und so eine fundierte Entscheidungsfindung und verantwortungsvolle Innovationen in allen Sektoren erleichtern.

Da kein Land in der Lage ist, das grenzüberschreitende Problem der Kunststoffchemikalien und -polymere allein anzugehen, ist dem Stand der Wissenschaft entsprechend eine kollektive globale Reaktion am besten geeignet, um die Auswirkungen auf Umwelt und Gesundheit zu mindern. Eine evidenzbasierte Politik, die der Chemikaliensicherheit und Nachhaltigkeit Vorrang einräumt, wird einen Weg zu einer sicheren und nachhaltigen Zukunft bieten.


Der PlastChem-Bericht:

Martin Wagner, Laura Monclús, Hans Peter H. Arp, Ksenia J. Groh, Mari E. Løseth, Jane Muncke, Zhanyun Wang, Raoul Wolf, Lisa Zimmermann (14.03.2024) State of the science on plastic chemicals - Identifying and addressing chemicals and polymers of concern. http://dx.doi.org/10.5281/zenodo.10701706.  Lizenz: cc-by-sa-4.0.

Der Bericht

  • wird von einer öffentlich zugänglichen, umfassenden Zusammenstellung von Informationen über bekannte Kunststoffchemikalien begleitet, der PlastChem-Datenbank: plastchem_db_v1.0.xlsx
  • wurde am 14. März 2024 im Rahmen einer Online-Veranstaltung des Geneva Environment Network vorgestellt: Launch and Panel Discussion: State of the Science on Plastic Chemicals. Video 1:30:25 (mit Transkript) https://www.youtube.com/watch?v=zM-xbq_QyG8
  • ist im Vorfeld der April-Sitzung des Fourth Intergovernmental Negotiating Committee on Plastic Pollution (INC-4, in Ottawa, Ontario) erschienen, eines Ausschusses des Umweltprogramms der Vereinten Nationen, der bis Ende des Jahres ein globales Plastikabkommen mit 175 Ländern ausarbeiten soll.

 

inge Fri, 22.03.2024 - 00:40

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Fr, 15.03.2024 — Ricki Lewis

Ricki Lewis

Icon Nahrung

Im Labor aus tierischen Zellen gezüchtetes Fleisch ist bislang ein Fehlschlag geblieben. Schlangen könnten eine neue Quelle für die Fleischzucht darstellen. Eine australische Forschergruppe hat mehr als 4600 Tiere von zwei großen Pythonarten über 12 Monate hinweg auf Farmen in Thailand und Vietnam - wo Schlangenfleisch als Delikatesse gilt - untersucht. Sie haben festgestellt, dass Pythons hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit sind und in der Lage Proteine weitaus effizienter als alle anderen bisher untersuchten Arten zu produzieren. Die Genetikerin Rick Lewis berichtet über Pythonzucht als eine der Antworten auf eine Klimawandel-bedingte, weltweite Ernährungsunsicherheit.*

Die Biotechnologie hat viele Probleme gelöst, von rekombinanter DNA und monoklonalen Antikörpern über Gentherapie und Transplantation von Stammzellen bis hin zu Impfstoffen auf RNA-Basis und gentechnisch veränderten Pflanzen, die Krankheiten und Pestiziden widerstehen.

Im Gegensatz dazu ist das so genannte kultivierte Fleisch bisher ein Fehlschlag geblieben.

Eine ausführliche Stellungnahme dazu von Joe Fassler ist in der New York Times vom 9. Februar unter dem Titel Die Revolution, die auf dem Weg zur Mahlzeit verkommen ist (The Revolution That Died on Its Way to Dinner ) erschienen. Der Autor setzt sich darin mit den unrealistischen Erwartungen, Verkettungen und Pannen auseinander, die verhindert haben, was er sich unter "einer Hightech-Fabrik mit Stahltanks" vorstellt, "die so hoch sind wie Wohnhäuser, und Fließbändern, die jeden Tag Millionen Kilo fertig geformter Steaks ausrollen - genug, um eine ganze Nation zu ernähren."

Die Herstellung von Fleisch

Gezüchtetes Fleisch zielt darauf ab, Fleisch außerhalb von Körpern nachzubauen. Es handelt sich dabei nicht um einen mit Erbsenprotein voll gepackten Beyond Burger oder einen raffiniert auf Hämoglobin basierenden Impossible Burger, sondern um tierische Zellen, die in einer Suppe aus Nährstoffen gebraut werden, unter Zusatz von Hormonen, welche die Entwicklung in Richtung Muskel-, Fett- und Bindegewebe lenken, um das Ergebnis dann in Formen zu bringen, die Restaurantgerichten ähneln.

Wenn wir so geheimnisvolle Lebensmittel wie Hot Dogs, Fischstäbchen, Gyros und Chicken Nuggets essen können, warum dann nicht auch einen gezüchteten Fleischklumpen?

Das Mantra für Fleischesser besagt, dass bei den im Labor gezüchteten Sorten keine Tiere getötet werden und der Zerstörung von Wäldern zwecks Schaffung von Weideflächen entgegen gewirkt werden könne. Seit 2016 sind Milliarden in die Erforschung von kultiviertem Fleisch investiert worden, entstanden sind aber nur eine Handvoll Produkte, in Singapur, den Vereinigten Staaten und Israel.

Als Biologin kann ich mir nicht vorstellen, wie man geschmackvolle Teile eines Tierkörpers reproduzieren kann, die im Laufe der Jahrtausende von der Evolution immer mehr verfeinert wurden. Würden die Züchter Aktin- und Myosinfasern dazu bringen, sich zu Skelettmuskelfasern zu verflechten, welche der Form nach einem Ribeye-Steak oder einem Kronfleisch entsprechen? Wie genau reproduziert das Gebräu aus Nährstoffen und Hormonen die biochemischen Kaskaden, welche Zellteilung und Zelldifferenzierung bei der Bildung von Organen aus nicht-spezialisierten Vorläuferzellen organisieren? Würden die Versuche stattdessen zu einem Mischmasch von Zelltypen führen?

Und dann ist da noch die Frage des Scale-ups. Ein Prototyp für 10.000 Dollar ist nicht gerade ermutigend.

Als ob diese Herausforderungen nicht schon entmutigend genug wären, haben einige Versuche, Fleisch zu züchten, zu Produkten geführt, die Zellen von Mäusen oder Ratten enthalten. Huch! Nun, das sind auch Säugetiere.

Fleischzüchter - die Unternehmen

Mehr als 20 Unternehmen forschen an kultiviertem Fleisch, darunter Upside Foods, New Age Eats, BlueNalu, das zellgezüchteten" Blauflossenthunfisch anbietet und Shiok Meats aus Singapur mit kultivierten Krustentiere (sogenannten Meeresfrüchten).

Auf der Website von Vow (Sidney, Australien) werden die einzelnen Schritte der Fleischzüchtung sobeschrieben (https://www.vowfood.com/what-we-do):

  • "Zellkuration: Wir züchten die perfekte Kombination von Zellen hinsichtlich ihrer Fähigkeit zur Selbsterneuerung und für idealen Geschmack, Textur und Aromen.
  • Vorbereiten und nähren: Wir fügen essenzielle Mikronährstoffe zu, die dazu beitragen, ein schmackhaftes, strukturiertes Fleischprofil zu erzeugen. Es ist wie Ihre bevorzugte Rezeptur, aber auf molekularer Ebene, und bietet Qualität, Reinheit und Konsistenz besser als jedes andere Fleisch. Immer.
  • Purer Nährwert: Wir setzen die Zellen in unsere klimatisierten Kultivatoren und sorgen so für einen natürlichen Verlauf der Bildung von Muskel-, Fett- und Bindegewebe auf die sicherste Art und Weise.
  •  Wir verpacken sie zu einer Reihe von Markenprodukten für den Verbraucher."

Warum sind Schlangen interessant?

Ökonomischer als der Versuch, die Natur nachzubilden und zu verändern, um Steaks und Sushi zu züchten, könnte es sein, neue Quellen für die Fleischzucht zu finden. Diesbezüglich ist kürzlich unter dem Titel "Pythonzucht als flexible und effiziente Form der landwirtschaftlichen Nahrungsmittel-sicherheit (Python Farming as a flexible and efficient form of agricultural food security) eine Arbeit in Scientific Report erschienen [1]. Darin untersuchen Daniel Natusch und seine Kollegen von der Macquarie University in Sydney die Möglichkeit, Reptilien zu züchten, die ja in Asien bereits ein Grundnahrungsmittel sind.

Abbildung 1. Netzpython (links) und Burmesischer Python (rechts). Die beiden Arten leben hauptsächlich in den Tropen Südostasiens und gehören zu größten Schlangen der Welt. Ausgewachsene weibliche Netzpythons werden bis zu 7 m lang und bis zu 75 kg schwer. Burmesische Pythons sind etwas kleiner. Die Tiere sind Fleischfresser, verzehren u.a. Nagetiere aber auch mache Insekten (Grillen). (Quellen: Links: Rushenby, Malayopython reticulatus, Reticulated python - Kaeng Krachan District, Phetchaburi Province (47924282891) cc-by-sa. Rechts: gemeinfrei.)

Die Forscher haben die Wachstumsraten von 4.601 Netzpythons und burmesischen Pythons in zwei Farmen in Thailand und Vietnam analysiert. Abbildung 1.Die Tiere wurden wöchentlich mit wild gefangenen Nagetieren und Fischmehl gefüttert und ein Jahr lang wöchentlich gewogen und gemessen.

Wie die Forscher berichten, sind Schlangen eine gute Nahrungsquelle. Im Vergleich zu Hühnern, Kühen und Ziegen fressen sie nicht oft. Und 82 % der Masse einer lebenden Schlange können zu "verwertbaren Produkten" werden, schreiben die Forscher.

Beide Arten sind schnell gewachsen - bis zu 46 Gramm pro Tag, wobei die Weibchen schneller wuchsen als die Männchen. Die Wachstumsrate in den ersten beiden Lebensmonaten sagte am besten die spätere Körpergröße voraus.

Die Forscher wählten außerdem 58 Schlangen auf der Farm in Ho Chi Minh Stadt (Vietnam) aus und fütterten sie mit unterschiedlicher proteinreicher Kost, u.a. mit Huhn, Schweinefleischabfällen, Nagetieren und Fischmehl. Für je 4,1 Gramm verzehrter Nahrung konnten die Forscher 1 Gramm Pythonfleisch ernten. "Hinsichtlich des Verhältnisses von Nahrung und Proteinverwertung übertreffen Pythons alle bisher untersuchten landwirtschaftlichen Arten", schreiben die Forscher.

Ein weiteres positives Ergebnis: die Reptilien konnten über lange Zeiträume (20 bis zu 127 Tage) fasten, ohne viel an Körpermasse zu verlieren - rein theoretisch könnte man das Füttern für ein Jahr aussetzen - was bedeutet, dass sie weniger Arbeit für die Fütterung benötigten als herkömmliche Zuchttiere.

Und ja, Schlangenfleisch schmeckt wie Huhn aber geschmackvoller.


Anmerkung der Redaktion

Die Washington Post hat den Artikel von Natusch et al., [1] gestern unter dem Titel "Want a more sustainable meat for the grill? Try a 13-foot python steak." kommentiert https://www.washingtonpost.com/climate-solutions/2024/03/14/snake-meat-food-sustainability-python/:

Wenn auch Schlangen in absehbarer Zeit wohl kaum einen großen Teil der westlichen Ernährung ausmachen werden, so spricht dennoch Einiges für eine Pythonzucht als Antwort auf eine weltweite Ernährungsunsicherheit infolge des Klimawandels. 

     Pythons sind recht einfach zu halten -sie sind von Natur aus sesshaft und koexistieren problemlos mit anderen Schlangen. Es gibt nur wenige der komplexen Tierschutzprobleme, die bei Vögeln und Säugetieren in Käfigen auftreten.

    Pythons sind hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren. Sie brauchen sehr wenig Wasser. Ein Python kann von dem Tau leben, der sich auf seinen Schuppen bildet. Theoretisch könnte man einfach ein Jahr lang aufhören, sie zu füttern.

In einer Welt, in der Prognosen zufolge der Klimawandel zu extremeren Wetter- und Umweltkatastrophen führen wird, ist eine Art, die hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit ist und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren, "fast ein wahr gewordener Traum".


 [1] Natusch, D., Aust, P.W., Caraguel, C. et al. Python farming as a flexible and efficient form of agricultural food security. Sci Rep 14, 5419 (2024). https://doi.org/10.1038/s41598-024-54874-4


* Der Artikel ist erstmals am 14. März 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Cultivated Meat? Let Them Eat Snake" https://dnascience.plos.org/2024/03/14/cultivated-meat-let-them-eat-snake/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


Artikel in ScienceBlog.at

I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?


 

inge Fri, 15.03.2024 - 18:14

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Do, 07.03.2024 — Christina Beck

Christina Beck

Icon Molekularbiologie

Laut einer 2023 veröffentlichten Studie der Weltgesundheitsorganisation ist jeder sechste Mensch im gebärfähigen Alter zumindest zeitweise unfruchtbar. Prof. Dr. Melina Schuh, Direktorin am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen) und ihr Team erforschen den Reifungsprozess der Eizelle und zeigen, dass und warum dieser sehr fehleranfällig ist und zu falscher Chromosomenverteilung (Aneuploidie) in der Eizelle führen kann: Diesen Eizellen dürfte ein wichtiges Motor-Protein (KIFC1) zur Stabilisierung der Maschine fehlen, welche die Chromosomen während der Zellteilung korrekt trennen sollte. Das Einbringen dieses Motor-Proteins in menschliche Oozyten stellt somit einen möglichen neuen Ansatz dar, um Kinderwunsch erfolgreicher behandeln zu können. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber und über den bislang noch nicht völlig verstandenen Prozess, der am Anfang unseres Lebens steht.*

Global sind 17,5 Prozent aller Männer und Frauen demnach an einem Punkt in ihrem Leben davon betroffen, kein Kind zeugen zu können. Ausgewählt und ausgewertet wurden dazu 133 aus weltweit mehr als 12.000 Studien, die zwischen 1990 und 2021 entstanden sind. In Deutschland ist fast jedes zehnte Paar zwischen 25 und 59 Jahren ungewollt kinderlos. Die Gründe dafür sind vielfältig und – das ist wichtig zu wissen – betreffen beide Geschlechter. Tatsächlich sind die medizinischen Ursachen für Unfruchtbarkeit bei Männern und Frauen gleichverteilt (Abbildung 1). Die Hauptursache für ungewollte Kinderlosigkeit liegt hierzulande vor allem darin, dass die Menschen sich immer später für eine Elternschaft entscheiden. Das betrifft Männer wie Frauen gleichermaßen. Das Alter der Erstgebärenden ist in den vergangenen Jahrzehnten stetig gestiegen, ebenso wie das der Väter.

Abbildung 1: Verteilung der Unfruchtbarkeit: Verschiedene physiologische Faktoren können zur Unfruchtbarkeit beitragen und betreffen die Frau, den Mann oder beide Partner. Die prozentualen Anteile unterscheiden sich je nach Studie und untersuchten Kriterien. Die Angaben in der Abbildung stellen ungefähre Werte dar. (© Zahlen nach Forti, G. (1998), doi: 10.1210/jcem.83.12.5296 // Grafik: HNBM CC BY-NC-SA 4.0)

So waren einer Studie des Max-Planck-Instituts für demografische Forschung in Rostock zufolge schon 2013 sechs Prozent aller Neuväter in Deutschland 45 Jahre oder älter und damit fast drei Mal so viele wie noch 1995. Es ist zwar richtig, dass Männer im Durchschnitt deutlich länger fruchtbar sind als Frauen. Etwa ab 40 bis 50 Jahren verschlechtert sich jedoch die Funktion der Spermien, weil sich genetische Defekte in den Samenzellen häufen. Wenn es insgesamt mehr Spermien mit Chromosomenstörungen gibt, dann dauert es länger, bis die Frau schwanger wird. Und abgesehen vom Alter gibt es weitere Faktoren, die die Zeugungsfähigkeit von Männern einschränken können – medizinische ebenso wie durch den Lebensstil implizierte wie Alkohol, Rauchen oder Übergewicht.

Keine lebenslange Reserve

Bei Frauen enden die fruchtbaren Jahre deutlich früher. Im Alter zwischen 20 und 24 Jahren haben sie ihre höchste Fruchtbarkeit. Je älter Frauen werden, desto mehr sinkt jedoch die Wahrscheinlichkeit, schwanger zu werden, während die Wahrscheinlichkeit einer Unfruchtbarkeit ansteigt (Abbildung 2). Und das hängt ganz maßgeblich mit den Eizellen zusammen. So wird eine Frau bereits mit ihrer gesamten Reserve an Eizellen geboren. Im Laufe des Lebens entstehen keine neuen Eizellen mehr. Bei Geburt sind rund eine Million unreife Eizellen (Oozyten) angelegt. Die meisten sterben ab – zu Beginn der Pubertät sind noch etwa 300.000 übrig. Ihre Zahl nimmt dann weiter kontinuierlich ab. Bei einer von 100 Frauen ist die Eizellreserve bereits vor dem 40. Lebensjahr komplett erschöpft. Auch die Qualität der Eizellen sinkt ab dem 35. Lebensjahr deutlich. So steigt der Anteil jener Eizellen, die eine von der Norm abweichende Anzahl an Chromosomen aufweisen (man bezeichnet diese Eizellen als aneuploid). Bei Frauen ab 35 Jahren treten bei mehr als 50 Prozent der Eizellen Aneuploidien auf. Man spricht hier vom „maternal age effect“ (mütterlicher Alterseffekt).

Abbildung 2: Die biologische Uhr tickt © Quellen: Carcio, H. A.: Management of the Infertile Woman; Rosenthal, M. S.: The Fertility Sourcebook (1998) // Grafik: HNBM

Am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften in Göttingen erforscht das Team um Melina Schuh die Entwicklung von Eizellen – und was dabei alles schief gehen kann. Denn tatsächlich sind bereits bei jungen Frauen im Alter von 20 bis Anfang 30 mehr als 20 Prozent der Eizellen aneuploid. „Im Gegensatz dazu sind nur ein bis zwei Prozent der Spermien und weniger als ein Prozent der meisten somatischen Zelltypen aneuploid“, erklärt Schuh. Wenn diese fehlerhaften Eizellen befruchtet werden, dann führt das typischerweise zu Fehlgeburten oder auch zu Unfruchtbarkeit. Statistisch führt nur jede dritte Befruchtung bei Frauen zu einer erfolgreichen Schwangerschaft.

Falsch aussortiert

Eine reife Eizelle entwickelt sich aus einer Oozyte, die noch jeweils zwei Kopien von jedem Chromosom besitzt, also diploid ist. Um ein befruchtungsfähiges Ei zu werden, muss sie daher die Hälfte ihrer 46 Chromosomen ausschleusen. Dies geschieht einmal pro Menstruationszyklus in einer spezialisierten Zellteilung, der Reifeteilung I. Dabei werden die homologen Chromosomen der Oozyten mithilfe einer komplexen Maschinerie – dem Spindelapparat – getrennt. Er besteht aus Spindelfasern, die sich während der Meiose an die Chromosomen anheften. Die Fasern ziehen dann jeweils eines der homologen Chromosomen zu den gegenüberliegenden Polen der Spindel. Die Oozyte teilt sich dazwischen in eine große, nun haploide Eizelle und eine deutlich kleinere „Abfallzelle“, den sog. Polkörper. Abbildung 3.

 

Abbildung 3: . Reifeteilung einer menschlichen Oozyte. Diese Vorläuferzelle der Eizelle ist diploid, d.i. sie besitzt noch zwei Kopien eines jeden Chromosoms. Während der Reifeteilung halbiert der Spindelapparat (grün) den Chromosomensatz, indem er die Chromosomenpaare (magenta) voneinander trennt. (Quelle: © Chun So / MPI für Multidisziplinäre Naturwissenschaften.)

„Genau das klappt jedoch oftmals nicht zuverlässig, sodass eine Eizelle mit falscher Chromosomenzahl entsteht“, erklärt Melina Schuh. Das Max-Planck-Forschungsteam will daher verstehen, wie die Zelle die Chromosomen vorbereitet, um sie in den Polkörper zu entsorgen, und wie die Maschinerie im Detail funktioniert, die die Chromosomen zwischen Eizelle und Polkörper verteilt. Die große Herausforderung dabei: Bei Säugetieren entwickeln sich die Oozyten im Inneren des Körpers. Um diesen Vorgang überhaupt untersuchen zu können, musste Schuh einen Weg finden, die Zellen außerhalb des Körpers zu kultivieren, und zwar so, dass sie diese über viele Stunden hinweg unter einem hochauflösenden Mikroskop untersuchen kann – eine Pionierleistung, die ihr schon während ihrer Promotion gelang.

Wichtiger Brückenbauer

„Was wir bereits wussten ist, dass menschliche Eizellen häufig Spindeln mit instabilen Polen bilden. Solche labilen Spindeln ordnen die Chromosomen bei der Zellteilung falsch an oder bringen sie durcheinander“, berichtet Schuh. Damit sind menschliche Oozyten im Tierreich eher eine Ausnahme. „Die Spindeln anderer Säugetier-Oozyten waren in unseren Experimenten sehr stabil“, so die Max-Planck-Direktorin. Um herauszufinden, was menschliche Spindeln derart labil macht, verglich das Team das molekulare Inventar an Proteinen, das für die Spindelstabilität erforderlich ist, in verschiedenen Säugetier-Oozyten. Für diese Versuche nutzten die Forschenden auch unbefruchtete unreife menschliche Eizellen, die nicht für die Kinderwunschbehandlung verwendet werden konnten und von den Patientinnen gespendet wurden. Ein Motorprotein (Motorproteine erzeugen Bewegungen innerhalb der Zelle) mit dem Namen KIFC1 weckte besondere Aufmerksamkeit: Es baut Brücken zwischen den Spindelfasern, hilft so, die Fasern richtig auszurichten, und verhindert, dass sie auseinanderfallen. Interessanterweise enthalten Oozyten von Mäusen und Rindern im Vergleich zu menschlichen Oozyten deutlich mehr von diesem Protein. Beeinflusst die Menge des Proteins somit möglicherweise die Stabilität der Spindeln?

Abbildung 4: Instabile Spindeln. Oben: Entfernt man den molekularen Motor KIFC1 aus Mäuse- und Rinder-Oozyten, entstehen multipolare Spindeln und Fehler bei der Chromosomentrennung, wie sie auch bei menschlichen Oozyten mit instabilen Spindeln beobachtbar sind. Die gelben Pfeile weisen auf die instabilen Spindelpole. Unten: Menschliche Eizellen bilden oft Spindeln mit mehreren Polen (blaue Kreise). Wird zusätzliches KIFC1 in die Eizelle eingebracht, verbessert es die Stabilität der bipolaren Spindel, indem es deren Mikrotubuli (blau) vernetzt. Die homologen Chromosomen (magenta) werden korrekt getrennt. © Foto: Chun So / MPI für Multidisziplinäre Naturwissenschaften; Grafik: HNBM / CC BY NC-SA 4.0

Um das herauszufinden, entfernten die Forschenden KIFC1 aus den Oozyten von Mäusen und Rindern. Das Ergebnis: Ohne das Protein bildeten auch Mäuse- und Rinder-Oozyten instabile Spindeln und es kam zu mehr Fehlern bei der Chromosomentrennung (Abbildung 4). „Unsere Versuche legen tatsächlich nahe, dass KIFC1 entscheidend dazu beiträgt, Chromosomen bei der Meiose fehlerfrei zu verteilen“, erklärt Schuh. Könnte das Protein daher ein Ansatzpunkt sein, um Fehler bei der Chromosomentrennung in menschlichen Eizellen zu reduzieren? „Für uns war die spannende Frage, ob die Spindel stabiler wird, wenn wir zusätzliches KIFC1 in menschliche Oozyten einbringen“, erklärt Schuh. Unter dem Mikroskop waren in den Zellen, die zusätzliche Mengen des Motorproteins enthielten, die Spindeln deutlich intakter und es traten weniger Fehler beim Trennen der Chromosomen auf. „Das Einbringen von KIFC1 in menschliche Oozyten ist somit ein möglicher Ansatz, um Fehler in Eizellen zu reduzieren“, hofft die Max-Planck-Forscherin.

Aber das ist nicht der einzige Entwicklungsschritt, der fehlerbehaftet ist (Abbildung 5). Das Göttinger Team hat sich insbesondere gefragt, warum das Risiko, aneuploide Eizellen zu erzeugen, für Frauen in fortgeschrittenem Alter deutlich höher ist und dabei das sogenannte Zygoten-Stadium in den Blick genommen, also die Phase direkt nach der Vereinigung von Spermium und Eizelle. Während nämlich in der Reifeteilung I die homologen Chromosomen auf Eizelle und Polkörper verteilt werden, werden in der Reifeteilung II nach der Befruchtung die Schwesterchromatiden eines jeden homologen Chromosoms voneinander getrennt und auf die Zygote und einen zweiten Polkörper verteilt.

Abbildung 5: Was alles bei der Verteilung schief gehen kann. Reifeteilung I: Während der Reifeteilung I kann es zu einer fehlerhaften Trennung kommen, bei der die homologen Chromosomen falsch verteilt werden (Ia). Es kann auch ein einzelnes Chromatid falsch zugeordnet werden (Ib) oder beide Schwesterchromatiden verteilen sich umgekehrt (Ic). Durch diese inverse Verteilung besitzt die Eizelle zwar die richtige Chromosomenzahl, doch die Chromatiden stammen von verschiedenen homologen Chromosomen und sind nicht mehr durch Kohäsin verbunden, was die Ausrichtung und Trennung in der Reifeteilung II beeinträchtigen kann.

Reifeteilung II: In der Reifeteilung II kann es zu einer fehlerhaften Trennung kommen, bei der beide Schwesterchromatiden entweder in der Zygote verbleiben (IIa) oder im zweiten Polkörper entsorgt werden (IIb). © MPI für Multidisziplinäre Naturwissenschaften / Grafik: HNBM / CC BY-NC-SA 4.0

Alter Chromosomen-Kleber

Ringförmige Proteinstrukturen, sogenannte Kohäsin-Komplexe, halten die Schwesterchromatiden zusammen. Sie werden im weiblichen Embryo sehr früh während der DNA-Verdopplung installiert. Studien an Maus-Oozyten zeigen, dass Kohäsin-Komplexe später im Leben nicht mehr neu installiert werden können. „Wenn dies auch für menschliche Oozyten gilt, dann müssen Kohäsin-Komplexe die Chromosomen mehrere Jahrzehnte des Lebens zusammenhalten, bevor sie bei einem Ovulationszyklus zur korrekten Chromosomentrennung beitragen“, erklärt Schuh. Mit fortschreitendem Alter geht das Kohäsin jedoch verloren – zumindest bei der Maus –, was zu einer vorzeitigen Trennung der Schwesterchromatiden während der Reifeteilung I führt. „Wenn die Schwesterchromatiden bereits getrennt sind, dann werden sie zufällig und somit gegebenenfalls eben fehlerhaft zwischen den beiden Spindelpolen verteilt“, erklärt die Wissenschaftlerin. Ob Kohäsin auch in menschlichen Eizellen aus den Chromosomen verloren geht, ist noch nicht klar. Allerdings erfahren Chromosomen in menschlichen Oozyten während der Alterung ähnliche Strukturveränderungen wie die Forschenden sie in Oozyten älterer Mäuse beobachten.

Kinderwunsch erfüllen

Es besteht also weiterhin Forschungsbedarf und somit viel Arbeit für Melina Schuh und ihr Team in Göttingen. Für die Durchführung entsprechender Studien bedarf es immer wieder auch neuer Methoden, die in Schuhs Abteilung in den vergangenen Jahren entwickelt wurden, wie beispielsweise jene, mit der Proteine aus Eizellen funktional untersucht werden können. Ihr erklärtes Ziel dabei: „Wir möchten mehr Paaren helfen, ihren Kinderwunsch zu erfüllen und auch dazu beitragen, dass es mehr Geburten mit weniger In-vitro-Fertilisationszyklen gibt, dass also Kinderwunschbehandlung effizienter ablaufen kann“, so die Forscherin.


 *Der Artikel ist erstmals unter dem Titel: "Chromosomen-Durcheinander in der Eizelle" https://www.max-wissen.de/max-hefte/meiose/ in BIOMAX 39, Frühjahr 2024 erschienen und wurde mit Ausnahme des Abstracts und der Legende zu Abbildung 3 unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

Meiose-Forschung am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen): https://www.mpinat.mpg.de/de/mschuh

Von der Erforschung der Eizelle bis zum Kinderwunsch | Prof. Dr. Melina Schuh. Video (12.2023) 1:01:55. https://www.youtube.com/watch?v=em-C4OMwEYc


 

inge Thu, 07.03.2024 - 14:52

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Do, 29.02.2024 — IIASA

IIASA Logo

Icon Klima

Während eines Krieges können aufgrund militärischer Aktionen die Treibhausgasemissionen erheblich ansteigen; die Leitlinien des Weltklimarats (IPCC) zur Emissionsberichterstattung sind allerdings ausschließlich auf Friedensszenarien zugeschnitten. Eine kürzlich veröffentlichte Studie bringt nun erstmals etwas Licht in die mit Krieg verbundenen Treibhausgasemissionen. Mit dem Hauptaugenmerk auf diese hat ein internationales Team von Wissenschaftlern, darunter mehrere Forscher vom Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) die ersten 18 Monate seit Beginn des Krieges in der Ukraine und dessen Folgen untersucht [1]. Die Ergebnisse zeigen die Grenzen des derzeitigen Rahmens für die Emissionsberichterstattung im Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (UNFCCC) auf.*

Bewaffnete Konflikte auf der ganzen Welt lasten am schwersten auf den Schultern der einfachen Bevölkerung und führen zu erhöhter Verwundbarkeit, Sterblichkeit und Morbidität sowie zu politischer Instabilität und Zerstörung der Infrastruktur. Abgesehen von den sozialen, wirtschaftlichen und politischen Folgen haben bewaffnete Konflikte jedoch auch schwerwiegende Auswirkungen auf die Umwelt und führen zu deren verstärkter Zerstörung und Verschmutzung. Abbildung 1. Schlussendlich bringen sie zusätzliche Belastungen für den internationalen politischen Rahmen und zeigen Herausforderungen auf, die man bis dahin möglicherweise noch nicht berücksichtigt hatte.

Abbildung 1. Veranschaulichung der durch militärische Aktionen in der Ukraine verursachten Treibhausgasemissionen, die in der offiziellen nationalen Berichterstattung und den globalen Schätzungen möglicherweise nicht berücksichtigt werden: Einsatz von Bomben, Raketen, Artilleriegeschossen, Minen und Kleinwaffen (a); Verwendung von Erdölprodukten für militärische Zwecke (b); Emissionen aus Bränden von Erdölprodukten in Erdöllagern (c); Emissionen aus Bränden von Gebäuden und Infrastruktureinrichtungen (d); Emissionen aus Waldbränden und Bränden auf landwirtschaftlichen Flächen (e); Emissionen aus Müll/Abfall (f).(Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Im Rahmen des Pariser Abkommens sind die Unterzeichnerstaaten verpflichtet, ihre Treibhausgas-emissionen an das UNFCCC zu melden, um die Bemühungen zur Emissionsreduzierung zu evaluieren und strengere Ziele zur Begrenzung des globalen Temperaturanstiegs festzulegen.

In einer Studie, die in der Fachzeitschrift Science of the Total Environment veröffentlicht wurde, zeigen die Autoren, dass eine genaue Erfassung der in die Atmosphäre abgegebenen Treibhausgas-emissionen notwendig ist [1].

"Unsere Ergebnisse zeigen, dass militärische Emissionen eine ungewöhnliche Herausforderung darstellen, da sie in den derzeitigen Berichterstattungsrahmen nicht explizit berücksichtigt werden; THG-Emissionen, insbesondere solche aus menschlichen Aktivitäten, werden in der Regel anhand sogenannter "Aktivitätsdaten" wie Kraftstoffverbrauch, Verkehrszählungen und anderen sozioökonomischen Daten geschätzt", erklärt Linda See, Studienautorin und Mitglied der Forschungsgruppe Novel Data Ecosystems for Sustainability des IIASA Advancing Systems Analysis Program.

Der Hauptautor der Studie, Rostyslav Bun, Professor an der Lviv (Lemberg) Polytechnic National University in der Ukraine und der WBS University in Polen, hat die Auswirkungen des Krieges auf die Fähigkeit der Ukraine kommentiert, seit 2022 grundlegende Aktivitätsdaten zu sammeln; er hat darauf hingewiesen, dass infolge des Kriegs die Infrastruktur des Landes, einschließlich der Möglichkeiten der Datenerhebung, erheblich beeinträchtigt und zerstört wurde. Darüber hinaus betont Bun, dass bei Befolgung der aktuellen UN-Konvention alle Emissionen der Ukraine zugerechnet würden, einschließlich derjenigen, die aus kriegsbedingten Schäden resultieren.

"Auch wenn die Verfolgung von kriegsverursachten Emissionen aufgrund der Art der militärischen Aktivitäten und des Mangels an Informationen eine Herausforderung darstellt, schätzt unsere Studie die Treibhausgasemissionen anhand der besten verfügbaren Daten", erklärt Matthias Jonas, Mitautor der Studie und Gastwissenschaftler im IIASA Advancing Systems Analysis Program. "Die internationalen politischen Rahmenwerke sind auf eine derartige Situation nicht vorbereitet und dies zeigt eine wichtige Einschränkung unseres derzeitigen Ansatzes für das Netto-Null-Emissionen Ziel auf. Dieses geht von einer Welt ohne Konflikte aus und entspricht leider nicht der Realität, mit der wir heute konfrontiert sind. Wenn auch bewaffnete Konflikte zweifellos die lokale Bevölkerung am härtesten treffen, ist es wichtig, dass wir auch die Auswirkungen analysieren, die sie auf unsere Umwelt auf globaler Ebene haben können."

Abbildung 2. Treibhausgasemissionen in Friedenszeiten versus Kriegszeiten. Eine Analyse der öffentlich zugänglichen Daten gestützt auf das Urteil von Experten, um Emissionen aus (1) dem Einsatz von Bomben, Raketen, Artilleriegeschossen und Minen, (2) dem Verbrauch von Erdölprodukten für militärische Operationen, (3) Bränden in Erdöllagern und Raffinerien, (4) Bränden in Gebäuden und Infrastruktureinrichtungen, (5) Bränden auf Wald- und landwirtschaftlichen Flächen und (6) der Zersetzung von kriegsbedingtem Müll zu schätzen. Die Schätzung dieser kriegsbedingten Emissionen von Kohlendioxid, Methan und Lachgas für die ersten 18 Monate des Krieges in der Ukraine beläuft sich auf 77 MtCO2-eq. mit einer relativen Unsicherheit von +/-22 % (95 % Vertrauensintervall)). (Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Die Studie konzentriert sich auf Emissionen, die aus kriegsbedingten Aktivitäten resultieren und in den offiziellen nationalen Berichten  nicht erfasst sein dürften. Sie legt nahe, dass die Summe dieser "nicht erfassten" Emissionen von Kohlendioxid, Methan und Lachgas in den 18 Monaten des Krieges die jährlichen Emissionen einiger europäischer Länder wie Österreich, Ungarn und Portugal überstiegen hat. Abbildung 2.

"Der Krieg beeinträchtigt unsere Befähigung, Emissionen über die auf Aktivitätsdaten basierende Berichterstattung global und nicht nur regional zu überwachen, wie dies bei der globalen Ernährungssicherheit und bei humanitären Fragen der Fall ist", fügt Tomohiro Oda, leitender Wissenschaftler bei der Universities Space Research Association in den USA, hinzu und unterstreicht damit die Bedeutung der Emissionsüberwachung durch Atmosphärenbeobachtung, die unabhängig von Aktivitätsdaten ist.

Die Ergebnisse der Studie werden auf der Generalversammlung 2024 der Europäischen Geowissenschaftlichen Union (EGU) in Wien, Österreich, im April 2024 vorgestellt und weiter diskutiert.


[1] Bun, R., Marland, G., Oda, T., See, L. et al. (2024). Tracking unaccounted greenhouse gas emissions due to the war in Ukraine since 2022. Science of the Total Environment, 914. https://doi.org/10.1016/j.scitotenv.2024.169879https://www.sciencedirect.com/science/article/pii/S0048969724000135


*Der Artikel " Significant greenhouse gas emissions resulting from conflict in Ukraine" ist am 15.Feber 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/feb-2024/significant-greenhouse-gas-emissions-resulting-from-conflict-in-ukraine). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Abbildungen aus der Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 01.03.2024 - 00:08

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Do,22.02.2024 — Redaktion

RedaktionIcon Friede

Der durch nichts zu rechtfertigende russische Überfall auf die Ukraine am 24.Feber 2022 hat damals in Russland einen sofortigen Tsunami des Protests ausgelöst: Bis zum 4. März haben über 1,18 Millionen Russen Petitionen gegen den Krieg mit der Ukraine unterschrieben. Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und andere haben darin den Krieg als ungerechtfertigt, schändlich und kriminell bezeichnet. Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher "Falschinformationen" über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben die Initiatoren der Aufrufe diese gelöscht. Um den mutigen Protest der Russen in Erinnerung zu rufen, stellen wir den Blogartikel vom 4.3.2022 nochmals online.

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben (Blogartikel vom 4.3.2022):

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts (3.3.2022) hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung 2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg)

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Nachsatz 22.2.2024

Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher Falschinformationen über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. (https://orf.at/stories/3251037/) Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.

-----------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

----------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.


 

inge Thu, 22.02.2024 - 17:03

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Fr, 16.02.2024 — Redaktion

Redaktion

Icon Nahrung

Eine kürzlich publizierte Studie, die an den US-National Intitutes of Health (NIH) unter streng kontrollierten klinischen Bedingungen durchgeführt wurde, zeigt signifikante Auswirkungen einer Umstellung auf zwei gegensätzliche Ernährungsformen, auf die vegane oder die ketogene Diät. Neben einer Veränderung des Stoffwechsels und der Darmflora reagiert vor allem das Immunsystem schnell und unterschiedlich auf die veränderte Kost. So verstärkte die vegane Ernährung die Reaktionen der ersten unspezifischen Abwehr von Krankheitserregern - der angeborenen Immunantwort -, während die ketogene Ernährung eine Hochregulierung von Signalwegen und Zellen der später einsetzenden, erregerspezifischen adaptiven Immunantwort auslöste.

Unsere Ernährung hat weitreichende direkte Auswirkungen auf unsere Physiologie und auch indirekte infolge der unterschiedlichen Zusammensetzung des mit uns in Symbiose lebenden Mikrobioms und seiner Stoffwechselprodukte. Welche Ernährungsform aber welche Auswirkungen auf welche Vorgänge - beispielsweise auf unsere Immunantwort - hat, ist jedoch noch weitgehend unbekannt. Zu vielfältig sind die Ernährungsweisen, zu unterschiedlich die individuellen Reaktionen. Trotz einer im letzten Jahrzehnt ungemein boomenden Forschung - die US-Datenbank PubMed verzeichnet zu "diet & health" fast 130 000 Publikationen, davon rund 10 100 zu "diet & immune system" - mangelt es an qualitativ hochwertigen Studien, vor allem an rigoros konzipierten klinischen Studien zu den Auswirkungen einzelner Diäten und noch viel mehr zum Vergleich von Diäten.

Welche Folgen kann aber der nun weltweit steigende Trend zu einer pflanzenbasiertetn Ernährungsform haben?

Eine randomisierte klinische Studie zum Vergleich zweier Diäten ....

Ein Forscherteam um Yasmine Belkaid vom National Institute of Allergy and Infectious Diseases (NIAID, NIH)) in Bethesda/Maryland hat nun in einer randomisierten klinischen Studie die Auswirkungen von zwei gegensätzlichen Ernährungsformen - einer ketogenen Diät und einer veganen Diät auf Immunsystem, Mikrobiom und Stoffwechsel untersucht. Erstmals konnte mit Hilfe eines Multiomics-Ansatzes (d.i . der Analyse von Transcriptom, Proteom, Metabolom und Mikrobiom; siehe weiter unten) ein detailliertes Bild von den mit den Diätumstellungen verbundenen Veränderungen auf menschliche und mikrobielle Systeme gegeben werden. Die wesentlichen Ergebnisse sind zusammen mit einem ausführlichen Datenmaterial kürzlich im Fachjournal Nature Medicine erschienen [1].

Beide Arten der Ernährung wurden in der Vergangenheit mit unterschiedlichen gesundheitlichen Vorteilen assoziiert: vegane Kost mit weniger Entzündungserkrankungen, einem reduziertem Risiko für Herz-Kreislauferkrankungen und einer insgesamt höheren Lebenserwartung; ketogene Kost mit positiven Effekten auf das Zentralnervensystem (niedrigere Neuroinflammation und anti-epileptisch wirksam).

Die klinische Studie wurde an einer heterogen zusammengesetzten Gruppe von 20 Teilnehmern ausgeführt. Es handelte sich dabei um gesunde Männer und Frauen im Alter von 18 - 50 Jahren mit konstantem Körpergewicht, die über die Versuchsdauer von 4 Wochen stationär in der Klinik (Metabolic Clinical Research Unit at the NIH Clinical Center) aufgenommen waren; dies ermöglichte den Forschern genau zu verfolgen, was die Probanden konsumierten.

Aufgeteilt auf 2 Gruppen begann die erste Gruppe mit einer zweiwöchigen veganen Diät und stieg dann sofort auf eine ketogene Diät um, während die zweite Gruppe mit einer ketogenen Diät anfing und auf eine vegane Diät umstieg. Abbildung 1. Die ketogene kohlenhydratarme Diät bestand zu 75.8% aus Fett, zu 10.0% aus Kohlenhydraten, die vegane, fettarme Diät zu 10.3% aus Fett und zu 75.2% aus Kohlenhydraten. Die ketogene Diät enthielt Produkte tierischen Ursprungs, einschließlich Fleisch, Geflügel, Fisch, Eier, Milchprodukten und Nüssen, die vegane Diät Hülsenfrüchte, Reis, Wurzelgemüse, Sojaprodukte, Mais, Linsen, Erbsen, Vollkornprodukte, Brot und Obst. Beide Diäten enthielten nicht-stärkehaltiges Gemüse (1 kg/Tag) und nur minimale Anteile an hochverarbeiteten Lebensmitteln; die vegane Kost war ballaststoffreicher und zuckerärmer als die ketogene Kost. Den Studienteilnehmern stand es frei so viel von den Speisen zu essen, wie sie wollten (nebenbei: von der ketogenen Kost wurde mehr konsumiert).

....mit Hilfe eines Multiomics Ansatzes .....

Die Auswirkungen der beiden Diäten wurden mit Hilfe eines "Multiomics"-Ansatzes untersucht. Dazu wurden Blut-, Urin- und Kotproben analysiert um die Gesamtheit der darin ersichtlichen Reaktionen des Körpers sowie des im Darm ansässigen/sezernierten Mikrobioms zu erfassen:

  • die biochemischen Reaktionen im Transkriptom (der mittels RNA-Sequenzierung erhaltenen Genexpression) und im Proteom (der Gesamtheit der in den Proben vorliegenden Proteine),
  • die Zusammensetzung der Blutkörperchen und des Mikrobioms und deren zelluläre Reaktionen,
  • die Reaktionen des Stoffwechsels im Metabolom (der Gesamtheit der Stoffwechselprodukte in den Proben) . Abbildung 1.

Abbildung 1: Schematische Darstellung des Versuchsaufbaus. Zwanzig Teilnehmer (Frauen pink, Männer blau) wurden in zwei Gruppen aufgeteilt , wobei Gruppe A mit einer zweiwöchigen veganen Diät begann und dann sofort auf eine ketogene Diät umstieg, während Gruppe B mit einer ketogenen Diät begann und auf eine vegane Diät umstieg. Blut-und Urinproben wurden unmittelbar vor der ersten Diät als Ausgangswert und am Ende der ersten und zweiten Diät entnommen. Im Blut erfolgten Analysen zur Proteinzusammensetzung (SomatLogic), Genexpression mittels RNA-Sequenzierung (RNA-seq), Zusammensetzung der Zellpopulation (Flow Cytometry) und Spiegel von Metaboliten (Metabolomics), Metabolitenspiegel wurden auch im Harn bestimmt. Für die Kot-Proben zur mikrobiologischen Metagenom-Sequenzierung (Microbiome) wurden die Daten an verschiedenen Tagen erhoben. (Quelle: Fig. 1a in Link, V.M. et al., Nat Med (2024) [1].Lizenz: cc-by. https://doi.org/10.1038/s41591-023-02761-2)

.....ermöglicht erstmals einen Blick auf das Gesamtbild der Auswirkungen

Das erstaunliche Ergebnis: Trotz der geringen Zahl der Teilnehmer, deren Verschiedenheit und der kurzen Beobachtungszeit hat die 2-wöchige kontrollierte Ernährungsintervention ausgereicht, um die Immunität des Wirts und die Zusammensetzung des Mikrobioms signifikant und - abhängig von der Diät - unterschiedlich zu beeinflussen.

Auswirkungen auf das Immunsystem

Die vegane Diät hat sich vor allem auf das angeborene Immunsystem ausgewirkt und Leukozyten und Signalwege (über Interferone) hochreguliert, die mit der antiviralen Immunität assoziiert sind. (Angeborene Immunität: die rasch einsetzende, unspezifisch wirkende erste Abwehrlinie, die in Form von Makrophagen, Granulozyten, dem Komplement und freigesetzten Signalmolekülen gegen Krankheitserreger vorgeht.)

Auch rote Blutkörperchen (Erythrocyten) gehören zu den wichtigen Modulatoren der angeborenen Immunität. Die vegane Ernährung hat deren Bildung (Erythropoiese) und den Stoffwechsel des Häm (dem Sauerstoff-transportierenden, farbgebenden Eisen-haltigen Komplex von Hämoglobin) deutlich erhöht (dies könnte auf den höheren Eisengehalt dieser Diät zurückzuführen sein).

Die ketogene Diät führte dagegen zu einem signifikanten Anstieg der biochemischen und zellulären Prozesse, die mit der adaptiven Immunität verbunden sind, einschließlich der Aktivierung von T-Zellen, der Anreicherung von B-Zellen und der Antikörper-produzierenden Plasmazellen. (Adaptive Immunität: die spezifisch wirkende zweite, viel später einsetzenden Abwehrlinie der Immunreaktion, in der B-Zellen Antikörper gegen Erreger freisetzen und T-Zellen diese direkt angreifen und Zytokine gegen diese sezernieren.)

Die beiden Diätformen zeigten unterschiedliche Auswirkungen auf insgesamt 308 mit Krebs assoziierte Signalwege und könnten so den Verlauf von Krebserkrankungen beeinflussen. Vegane Kost aktivierte 242 Signalwege (davon 4 in sehr hohem Ausmaß), ketogene Kost 66 Wege. Erste Hinweise sprechen dafür, dass ketogene Ernährung in Verbindung mit anderen Krebstherapien von Vorteil sein könnten.

Auswirkungen auf die Plasmaproteine

Die ketogene Diät wirkte sich stärker auf den Gehalt von Proteinen im Blutplasma aus als die vegane Diät. Von den rund 1300 im Proteom bestimmten Proteinen zeigten mehr als 100 veränderte Spiegel nach Umstellung von Normalkost auf die ketogene Kost, dagegen nur wenige nach der Umstellung auf vegane Diät. Bei den weiblichen Teilnehmern waren die Veränderungen nach einer ketogenen Diät wesentlich größer, was auf eine mögliche geschlechtsspezifische Reaktion auf die Diät hinweist. Zu diesen geschlechtsspezifischen Unterschieden in der Proteinhäufigkeit gehörten Proteine, die mit dem Glukosestoffwechsel sowie mit der Immunität in Verbindung stehen.

Auswirkungen auf das Mikrobiom

Die Ernährung ist der wichtigste Regulator des Mikrobioms und beeinflusst dessen Zusammensetzung und Funktion.

Beide Diäten haben zu Veränderungen in der Häufigkeit der Darmbakterienarten geführt, vor allem von Actinobacteria, Bacteroidetes, Proteobacteria und am stärksten von Firmicutes; insgesamt waren 26 Arten betroffen, 18 davon kamen bei veganer Diät häufiger vor.

Übereinstimmend mit der Diät waren die meisten, der nach einer veganen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von pflanzlichen Polysacchariden assoziiert, während die nach einer ketogenen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von sowohl pflanzlichen als auch tierischen Polysacchariden zu tun hatten.

Im Vergleich zur Ausgangsdiät und zur veganen Diät führte die ketogene Diät zu einer erheblichen Herunterregulierung des mikrobiellen Genvorkommens und dies spiegelte sich in der Herabregulierung zahlreicher mikrobieller Stoffwechselwege wider, wie der Biosynthese von 12 Aminosäuren (darunter essentielle und verzweigte Aminosäuren) und von 9 Vitaminen (darunter B1. B5 und B12).

Effekte auf die Blut- und Harnspiegel der Stoffwechselprodukte (Metaboliten)

Insgesamt wurden im Metabolom des Plasmas 860 Metabolite erfasst; 54 davon waren bei veganer, 131 bei ketogener Ernährung hochreguliert. Die betroffenen Metabolite und das Ausmaß ihrer geänderten Gehalte bieten zweifellos Raum für Hypothesen/Spekulationen zu Nutzen oder Schaden der einen oder anderen Art der Diät.

Die stärkste Veränderung erfuhren die Lipidspiegel.

Der Lipidstoffwechsel war in der Keto-Diät stark gesteigert, da in dieser kohlenhydratarmen Kost Lipide ja zur Energieversorgung der Zellen herangezogen werden. Im Einklang mit der fettreichen Kost, fanden sich mehr Lipide (81) angereichert im Plasma als bei der veganen Kost mit 22 Lipiden. Erhöht wurden bei der Keto-Diät die Gehalte an Lipiden mit gesättigten Fettsäuren, im Fall der veganen Diät waren es Lipide mit ungesättigten Fettsäuren.

Sowohl die ketogene als auch die vegane Kost war mit einem gesteigerten Stoffwechsel von Aminosäuren korreliert. War es bei der ketogenen Diät vor allem die Steigerung der Stoffwechselwege zur Nutzung der essentiellen Aminosäuren Valin, Leucin und Isoleucin, so war bei der veganen Kost der Metabolismus der Aminosäuren Alanin, Asparaginsäure, Glutaminsäure und Arginin erhöht.

Der Vergleich von Plasma- und Urinproben zeigte insgesamt 4 Signalwege, die in beiden Probenarten verstärkt waren: alle waren mit der Hochregulierung der Aminosäure- und Vitaminbiosynthese bei der ketogenen Ernährung korreliert.

Auswirkungen der beiden Diätformen, zusammengefasst

Abbildung 2: Eine Zusammenfassung der wesentlichen Veränderungen nach der Umstellung auf vegane oder ketogene Kost. Pfeile deuten Zunahme oder Abnahme von Reaktionswegen, Metaboliten und Zelltypen an. (Quelle: Fig. 5d in Link, V.M. et al., Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2. Lizenz cc-by)

Trotz der geringen Zahl an Teilnehmern und der Heterogenität ihrer Zusammensetzung ließen sich aus dem komplexen Datensatz von Proteinen, mikrobiellen Enzymen und Stoffwechselprodukten einige grundlegende Unterschiede in den Auswirkungen von veganer und ketogener Diät erkennen, die in Abbildung 2 zusammengefasst sind.

Von primärer Bedeutung sind die neu beschriebenen Effekte auf das Immunsystem: Bereits eine zwei Wochen dauernde Umstellung auf eine der beiden Diätformen reicht aus, um das angeborene oder das adaptive Immunsystem - also die primäre unspezifische Abwehr von Erregern oder die darauf folgende spezifische, über lange Zeit persistierende Abwehr - anzukurbeln.

Um herauszufinden, wie die Diätformen die Abwehr von Krankheitserregern im realen Leben beeinflussen - ob vegane Kost Ansteckung und Verlauf von Infektionen günstig beeinflussen kann und, ob ketogene Kost die Aussichten in der Krebstherapie verbessert -, sind epidemiologische Studien am Menschen und mechanistische Untersuchungen  an Tiermodellen erforderlich.


  [1) Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2


 

inge Fri, 16.02.2024 - 18:15

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Mo, 12.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Erst vor wenigen Jahren wurden zwei Drainagesysteme entdeckt, die Abfallprodukte des Stoffwechsels aus dem Gehirngewebe ausschleusen können: das glymphatische System und ein Lymphsystem in den Hirnhäuten. Koreanische Forscher um Gou Young Koh haben nun eine wesentliche Komponente des Drainagesystems hinzugefügt: ein verschlungenes Netzwerk von Lymphgefäßen im hinteren Teil der Nase (der nasopharyngeale lymphatische Plexus), das eine entscheidende Rolle auf dem bislang unbekannten Weg des Liquorabflusses aus dem Gehirn spielt. Die Stimulierung des Liquorabflusses und damit der darin gelösten toxischen Proteine könnte eine neue erfolgversprechende Strategie zur Behandlung von bislang nur unzulänglich therapierbaren neurodegenerativen Erkrankungen sein.

"Wir sagen, dass wir Demenz verhindern können, wenn wir viel lachen oder viel reden. Das ist kein Scherz. Lachen und Sprechen stimulieren die Lymphgefäße und fördern den Abfluss des Liquors. Ich möchte ein Medikament oder ein Hilfsmittel entwickeln, das die Verschlimmerung von Demenz verhindern kann, indem ich die Forschungsergebnisse des Zentrums für Gefäßforschung nutze."

Gou Young Koh, Director, Center for Vascular Research, IBS

Eine Balance von Versorgung und Entsorgung

Unsere Organe sind auf die kontinuierliche, über den Blutstrom erfolgende Zufuhr von Nährstoffen angewiesen und ebenso auf den Abtransport von Abfallprodukten über das Lymphsystem. Dieses dichte Netzwerk aus verästelten Lymphgefäßen durchzieht unsere Gewebe und fungiert als Drainagesystem. Es verhindert, dass aus den Blutkapillaren in den extrazellulären Raum der Gewebe (das Interstitium) austretende größere Moleküle (vor allem Plasmaproteine), überschüssige Gewebsflüssigkeit, Immunzellen, Abbauprodukte von Zellen ebenso aber auch Partikel und Mikroorganismen sich dort ansammeln. Diese Stoffe treten durch die durchlässigen Wände in Lymphkapillaren ein und werden in der Lymphflüssigkeit durch die Lymphknoten hindurch wieder dem Blutkreislauf und der Ausscheidung zugeführt.

Wie entsorgt das Gehirn seine Abfallprodukte?

Das Gehirn unterscheidet sich von den peripheren Organen u.a. dadurch, dass eine sogenannte Blut-Hirn-Schranke den unkontrollierten Eintritt von Proteinen, Partikeln und Flüssigkeit in das Organ verhindert. Auf Grund des enorm hohen Stoffwechsels - bei rund 2 % unseres Körpergewichts benötigt das Gehirn 20 % des in den Organismus gepumpten Blutes zu seiner Versorgung - entstehen reichlich Abfallprodukte, die in das Interstitium des Gehirngewebes (des Parenchyms) abgegeben werden. Zu solchen Produkten zählen auch fehlgefaltete/aggregierte Proteine, deren Akkumulierung im Gehirngewebe schwere Schädigungen des Nervensystems auslösen kann. Derartige toxische Produkte sind ein gemeinsames Merkmal von neurodegenerativen Erkrankungen, wie der Alzheimer-Krankheit, Parkinson-Krankheit, Huntington-Erkrankung und der amyotrophen lateralen Sklerose.

Bis vor wenigen Jahren rätselte man, wie Abfallprodukte, insbesondere toxische Proteine, aus dem Gehirn ausgeschleust werden können. Die vorherrschende Lehrmeinung besagte ja, dass das Gehirn über kein Lymphdrainagesystem verfügt. Dass dieses Dogma falsch war, wurde 2012 und 2015 durch Studienbewiesen. Demzufolge verfügt das Gehirn sogar über zwei Systeme zum Transport von Abfallprodukten [1]:

Das glymphatische System ...

bewirkt, dass der Liquor (Cerebrospinalflüssigkeit: CSF) das Gehirn durchströmt und sich mit der interstitiellen Flüssigkeit (ISF) und den darin gelösten Stoffen austauscht.

Abbildung 1: Das glymphatische System. Wie Liquor, interstitielle Flüssigkeit und darin gelöste Abfallprodukte im Hirn zirkulieren. A. Liquor fließt über periarterielle Räume, gebildet von den Endfortsätzen von Gliazellen (Astrozyten) ins Gehirn; Wasserkanäle (Aquaporin 4) der Gliazellen regen hier den Austausch von Liquor und interstitieller Flüssigkeit mit den darin gelösten Abfallprodukten an und treiben diese in den abfließenden perivenösen Raum. B. Die perivenöse Flüssigkeit und die gelösten Stoffe fließen dann über große Venen aus dem Gehirn ab, dargestellt am Beispiel eines Mäusehirns . Aus dem subarachnoidalen Liquor können gelöste Stoffe (wie Amyloid-β) den Schädel u.a. über Lymphgefäße der Hirnhäute verlassen. (Abbildung unverändert übernommen aus: Leveaux et al., 2017 [1]. Lizenz cc-by)

Liquor wird kontinuierlich in den Hirnkammern (Ventrikeln) gebildet (etwa 500 ml/Tag), füllt diese und ein Teil gelangt auch in den spaltförmigen Subarachnoidalraum, der zwischen der mittleren Hirnhaut (Arachnoidea mater) und der inneren Hirnhaut (Pia mater) liegt.

Von hier durchfließt der Liquor perivaskulär - d.i. in einem engen, durch die Endfüßchen von Gliazellen (Astrozyten) um die arteriellen Blutgefäße gebildeten Transportraum - das Gehirn (Abbildung 1 A).

Der Austausch von gelösten Stoffen zwischen Liquor und ISF wird in erster Linie durch den arteriellen Pulsschlag gesteuert, wobei die von Gliazellen in den Endfortsätzen exprimierten Wasserkanäle (Aquaporine) essentiell involviert sind. Das Pulsen von Liquor in das Gehirngewebe treibt die Flüssigkeit und die darin gelösten Stoffe in Wellen durch den extrazellulären Raum in die perivenösen Räume. Von hier gelangen sie in wieder in den subarachnoidalen Liquor, können in Lymphgefäße in den Hirnhäuten eintreten und über diese den Schädel verlassen (Abbildung 1 B).

... aktiviert "Gehirnwäsche" im Schlafzustand

Eine besonders wichtige Entdeckung im Jahr 2013 zeigt, dass das glymphatische Transportsystem im Schlafzusstand aktiviert ist [2]: während des Schlafens dehnt sich der extrazelluläre Raum im Hirngewebe um 60 % aus. Dies führt zu einem stark gesteigerten Austausch von Liquor - ISF Austausches und damit zu einer erhöhten Rate der Beseitigung von Abfallprodukten - beispielsweise von Beta-Amyloid, Tau-Protein oder alpha Synuclein - gegenüber dem Wachzustand gesteigert.

Das in den Hirnhäuten lokalisierte Lymphsystem

Abbildung 2: 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: Kopie aus [3]; das Bild stammt aus https://elifesciences.org/articles/29738. Lizenz cc-by)

Erst 2015 gelang erstmals der Nachweis von Lymphgefäßen in der äußeren Hirnhaut - der Dura Mater - von Mäusehirnen; diese sehr schwer detektierbaren Gefäße wurden mit ausgeklügelten MRT-Techniken nicht-invasiv zwei Jahre später auch in der Dura Mater des Menschen festgestellt (dazu eine ausführlichere Darstellung im ScienceBlog [3]).

Ebenso wie im peripheren Lymphsystem verlaufen die meningealen (Meninges = Hirnhäute) Lymphgefäße entlang der Blutgefäße, sind aber weniger dicht und verästelt angelegt. Abbildung 2.

Die Lymphgefäße drainieren überschüssige Flüssigkeit und Stoffwechselprodukte der Hirnhäute, transportieren ebenso Immunzellen und dazu - im Anschluss an das glymphatische System - die Mischung aus Liquor und ISF mit den darin gelösten Abfallprodukten des Hirngewebes.

Der nasopharyngeale lymphatische Plexus

Dass das meningeale Lymphsystem schlussendlich zu den tiefen Halslymphknoten außerhalb des Schädels drainiert, ist evident, nicht klar war aber auf welchen Wegen der Abfluss stattfindet und wie er reguliert wird . Ein Team um Gou Young Koh, einem Pionier der Gefäßforschung, Gründungsdirektor und Direktor des Zentrums für Gefäßforschung am Institute for Basic Schiene (IBS) in Daejeon, Korea, hat nun eine entscheidende Schaltstelle auf diesem Weg entdeckt [4].

Das Forscherteam hat dazu transgene Mäuse mit fluoreszierenden Markern zur Sichtbarmachung der Lymphgefäße eingesetzt und die Liquor-/Lymphwege mittels ausgefeilten histologischen, biochemischen und bildgebendern Verfahren untersucht. Um festzustellen, ob die Ergebnisse an der Maus auch für Primaten Relevanz haben, wurden auch einige Versuche am Nasopharynx von Affen (Macaca fascicularis) angestellt.

Die Studie wurde kürzlich im Fachjournal Nature publiziert, die Bedeutung der Ergebnisse ist am Titelblatt des Journals durch ein ganzseitiges Bild zum "Brain Drain" hervorgehoben [4].

Abbildung 3: Schematische Darstellung der Lymphregionen 1, 2 und 3, die über den nasopharyngealen Lymphgefäßplexus (NPLP) zu den medialen tiefen Halslymphgefäßen und den tiefen Halslymphknoten drainieren, Oben: Versuche an Mäusen. Die in den NPLP drainierende Lymphregion 1 umfasst Lymphgefäße in der Nähe der Hypophyse und des Sinus cavernosus liegen. Lymphregion Nr. 2 umfasst Lymphgefäße im vorderen Bereich der basolateralen Dura in der Nähe der mittleren Meningealarterie und des Sinus petrosquamosus (PSS), die entlang der Arteria pterygopalatina (PPA) zum NPLP verlaufen. Die ableitende Lymphregion 3 umfasst Lymphgefäße in der Nähe des Siebbeins (cribriform plate), die zu Lymphgefäßen in der Riechschleimhaut drainieren und zum NPLP führen. Lymphgefäße in der hinteren Region der basolateralen Dura leiten um den Sinus sigmoideus allerdings nicht in den NPLP, sondern durch das Foramen jugulare über die seitlichen tiefen Halslymphgefäße, zu den tiefen Halslymphknoten.(Quelle: Ausschnitt aus Fig. 3 Nature (2024). DOI: 10.1038/s41586-023-06899-4; Lizenz cc-by) Unten: Basierend auf den Ergebnissen an Mäusen und Makaken ist die angenommene Drainierung von Liquor über das nasopharyngeale Lymphgeflechts beim Menschen zu den tiefen zervikalen Lymphgefäßen und Lymphknoten skizziert. (Credit: Institute of Basic Science)

An Hand von vielen hervorragenden fluoresenzmikroskopischen Bildern zeigt die Studie im hinteren Teil der Nase, dem Nasopharynx (Rachenraum), ein wie ein Spinnennetz verschlungenes Netzwerk von Lymphgefäßen, den nasopharyngealen lymphatischen Plexus (NPLP), der als wesentlicher Knotenpunkt für den Abfluss von Liquor zu den tiefen Halslymphknoten im Nacken fungiert. In dem, sich von der Schädelbasis bis zum weichen Gaumen des Mundes erstreckenden Nasopharynx, reicht das Netzwerk der Lymphgefäße bis zur Gehirnbasis; diese vereinigen sich dann zu einigen wenigen Lymphgefäßsträngen, die mit den Halslymphknoten verbunden sind. Aus drei Regionen des Gehirns wird Liquor über Lymphgefäße in der Dura mater in den NPLP abgeleitet und drainiert von dort über die tiefen Halslymphgefäße in die tiefen Halslymphknoten.

Nur das Lymphgefäß in den Hirnhäuten der seitlichen Schädelbasis entsorg auf einem anderen Weg - über die seitlichen Halslymphgefäße - in den tiefen Halslymphknoten. Abbildung 3 (oben) gibt einen Überblick über die Abflusswege (leider nicht für rasches Überfliegen geeignet).

Die Ähnlichkeit des lymphatischen Netzwerks im Nasopharynx von Maus und Affe und seiner Funktion, lässt auf eine Konservierung dieses Drainagesystem bei den Spezies und damit auch auf sein Vorkommen und seine Rolle in der Entsorgung von Abfallprodukten des Gehirns beim Menschen schließen (Abbildung 3, unten).

Aktivierung der tiefen Halslymphgefäße

Ein sehr wichtiger Befund der Studie: die tiefen Halslymphgefäße sind von glatten Muskelzellen umhüllt, die pharmakologisch moduliert werden können, sodass sie die Gefäße zusammendrücken oder erweitern und damit den Liquorfluss regulieren.

Die Forscher haben dies demonstriert: mit Natriumnitroprussid (das Stickstoffmonoxid - NO -  freisetzt) konnte eine Muskelentspannung und damit eine Gefäßerweiterung bewirkt werden, mit Phenylephrin - einem Adrenalin-Analogon - eine Gefäßkontraktion.

Diese pharmakologischen Auswirkungen blieben auch bei alten Mäusen aufrecht, während das Lymphgeflecht im Nasopharynx geschrumpft war, und die Drainage von Liquor abgenommen hatte.

Die Aktivierung der tiefen Halslymphgefäße könnte somit zu einer erfolgversprechende Strategie werden, um bei neurodegenerativen Erkrankungen den Abfluss von Liquor und damit von toxischen Abfallprodukten zu steigern.


 [1] A. Leveaux et al., Understanding the functions and relationships of the glymphatic system and meningeal lymphatics. Clin Invest. 2017 Sep 1; 127(9): 3210–3219. Published online 2017 Sep 1. doi: 10.1172/JCI90603

[2] L.Xie et al., Sleep Drives Metabolite Clearance from the Adult Brain. Science. 2013 Oct 18; 342(6156): 10.1126/science.1241224. doi: 10.1126/science.1241224

[3] Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.

[4] Yoon, JH., et al., Nasopharyngeal lymphatic plexus is a hub for cerebrospinal fluid drainage. Nature 625, 768–777 (2024). https://doi.org/10.1038/s41586-023-06899-4


Aus dem Center for vascular Research (Korea)

Homepage des Center for Vascular Research at the Institute for Basic Science (Korea): https://vascular.ibs.re.kr/

Rezente Artikel im Online Magazin (2023) IBS Research 20th.pdf:

Seon Pyo HONG, Why We Focus on Vessels

Koh Gou Young, The Key to Solving Degenerative Brain Disease: Vessels


 

inge Mon, 12.02.2024 - 17:09

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Mo, 05.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Nachdem fast 20 Jahre lang keine neuen Alzheimer-Medikamente den Markt erreicht hatten, erhielt 2021 der Anti-Amyloid Antikörper Aduhelm des US-Biotechkonzerns Biogen als erster Vertreter einer neuen Klasse von Therapeutika die Zulassung durch die US-Behörde FDA. Dass die Entscheidung trotz des Fehlens eindeutiger Nachweise der Wirksamkeit und des Auftretens bedenklicher Nebenwirkungen erfolgte, löste enorme Kritik aus und das von skeptischen Ärzten kaum verschriebene Präparat wurde zum Flop. Vor 5 Tagen hat Biogen nun mitgeteilt, dass Entwicklung und Vermarktung von Aduhelm einstellt gestellt wird und freiwerdende Ressourcen nun seunem zweiten (im Juli 2023 registrierten) Anti-Amyloid -Antikörper Leqembi (Lecanemab) gewidmet werden sollen.

Für den US-Biotechkonzern Biogen war Aduhelm die bahnbrechende Entdeckung, die den Weg für eine neue Klasse von Medikamenten in der Alzheimer -Therapie ebnete und Forschung und nötige Investitionen in diesem Bereich wieder möglich machte. Waren die bis jetzt wenigen verfügbaren Therapien bestenfalls geeignet Symptome der Alzheimer-Krankheit etwas abzumildern, so sollte nun erstmals der (?) zugrundeliegende Krankheitsprozess beeinflusst werden.

Beta-Amyloid als Target für Alzheimer-Therapeutika

Ein zentrales Element der Erkrankung ist die massive Ablagerung von unlöslichen Protein-Plaques zwischen den Nervenzellen; diese lösen eine Kaskade von pathophysiologischen Ereignissen aus: Schädigungen von Nervenzellen und deren Funktionen, Unterbindungen der Nervenverbindungen und schlussendlich Absterben der Nervenzellen. Wie heute mittels der nicht-invasiven Positronen-Emissionstomographie (PET) gezeigt werden kann, sind solche Plaques bereits Jahre, bevor noch die ersten Symptome auftreten, nachweisbar.

Die Zusammensetzung der Plaques wurde schon vor 40 Jahren aufgeklärt: Sie bestehen aus aggregierten, etwa 40 Aminosäuren langen Beta-Amyloid- Peptidketten, die aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden, das in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert ist. Abbildung 1.

Abbildung 1: Bildung von Beta-Amyloid-Plaques. Enzyme wirken auf das in den Zellmembranen sitzende Amyloid-Vorläuferprotein ein und zerschneiden es in Fragmente. Zu den Bruchstücken gehören die etwa 40 Aminosäuren langen Beta-Amyloidpeptide (gelb), die im extrazellulären Raum zu unlöslichen Plaques aggregieren können. (Bild: http://www.nia.nih.gov/Alzheimers/Resources/HighRes.htm, gemeinfrei)

Seit mehr als 30 Jahren gehört Hemmung der Bildung von Amyloid-Aggregaten/Auflösung der Amyloid-Plaques zu den wichtigen Strategien in Forschung und Entwicklung von Alzheimer-Therapeutika. Laut der kuratierten Datenbank von Alzforum (https://www.alzforum.org/therapeutics) sind bis jetzt insgesamt 314 unterschiedliche Target-Typen in Tausenden klinischen Studien geprüft worden, 81 dieser Targets beziehen sich auf Beta-Amyloid, 9 davon sind Antikörper gegen Beta-Amyloid.

Die Ausbeute an registrierten Präparaten ist äußerst ernüchternd: seit den 1990-er Jahren wurden insgesamt nur 9 Medikamente zugelassen, davon 2 mit Bezug auf Amyloid-Beta (bei beiden handelt es sich um Antikörper gegen Beta-Amyloid). Abbildung 2.

Die Misserfolgsquote von über 97 % ist damit bedeutend höher als für Pharmaka in anderen Indikationen, wo 5 % (im Tumorgbiet) bis 10 % derer, die in die klinische Phase gelangen, auf dem Markt landen.

Abbildung 2: Alle bisherigen Alzheimer Targets, die in die klinische Entwicklung gelangten (314), etwa ein Viertel davon (81) betreffen die Blockierung/Auflösung der Amyloid-Plaques.(Grafik aus den Daten vom Alzforum erstellt; https://www.alzforum.org/therapeutics.)

Neben der marginalen Erfolgsrate ist auch die Wirksamkeit der registrierten Präparate bescheiden: sie können den fortschreitenden kognitiven Abbau etwas verlangsamen, nicht aber stoppen oder gar rückgängig machen.

Die Aduhelm-Saga

Nachdem fast 20 Jahre lang die Entwicklung von Alzheimer-Therapeutika nur Misserfolge gezeitigt hatte, wurde im Juli 2021 von der US-amerikanischen Food and Drug Administration (FDA) ein neues Präparat - Aduhelm (Aducanumab) - zugelassen, genauer gesagt: Aduhelm erhielt eine beschleunigte Zulassung unter der Voraussetzung, dass eine Phase 4 -Studie die klinische Wirksamkeit des Medikaments bestätigen würde und die Anwendung sich auf Patienten in frühem Krankheitsstadium mit milden Symptomen beschränkte.

Forschung und Entwicklung von Aduhelm

Aduhelm ist eine Entdeckung des Schweizer Biotech-Unternehmens Neurimmune, eines Spin-offs der Universität Zürich, das um das Jahr 2000 schützende Anti-Amyloid-Antikörper bei gesunden älteren Menschen und Patienten mit langsam fortschreitender Demenz entdeckte und daraus den monoklonalen humanen Antikörper Aduhelm entwickelte [1].

Dieser Antikörper bindet spezifisch an eine Stelle (Epitop) des Amyloids in den Geweben der Patienten. Intravenös verabreicht passiert Aduhelm die Blut-Hirn-Schranke, bindet an das Beta-Amyloid im Gehirn und löst damit Immunreaktionen aus, die die Amyloid-Ablagerungen auflösen und beseitigen.

2007 hat Neurimmune den Antikörper an das US-Biotechunternehmen Biogen - einem Pionier in der Alzheimer-Forschung - auslizensiert, der diesen dann - zusammen mit dem japanischen Konzern Eisai - präklinisch und klinisch entwickelte.

In einer Studie im Jahr 2016 konnte mit Hilfe der Positron Emission Tomographie (PET) gezeigt werden, dass der Antikörper dosis- und zeitabhängig die Beta-Amyloid-Ablagerungen auflöste - nicht gezeigt wurde aber, wieweit die Reduktion der Plaques mit einer besseren kognitiven Leistung korrelierte.

Bezüglich der kognitiven Leistung lieferten 2019 zwei große klinische Studien an Patienten mit leichten Symptomen im frühen Stadium der Alzheimer-Krankheit widersprüchliche Ergebnisse: Obwohl die Behandlung mit Aduhelm die Amyloid-Ablagerungen stark reduzierte, konnte in einer der Studien (ENGAGE) keine Verbesserung der Gedächtnisleistungen im Vergleich zur Plazebogruppe gezeigt werden. In der zweiten Studie (EMERGE) war nach Auswertung weiterer Daten ein leichter Unterschied (18 - 22 % verlangsamte Verschlechterung gegenüber der Kontrollgruppe) in der hochdosierten Medikamentengruppe zu sehen. Die Reduktion der Plaques rief bei bis zu einem Drittel der Patienten Nebenwirkungen hervor, die im Gehirnscan als Schwellungen und Mikroblutungen des Gehirns erkennbar waren (sogenannte Amyloid-bedingte Bildgebungsanomalien (ARIA)) und in einigen Fällen schwerwiegende Folgen hatten.

Eine umstrittene Zulassung

2020 haben Biogen/Eisai den Zulassungsantrag bei der FDA eingereicht.

Die wissenschaftlich hochrangigen Mitglieder eines unabhängigen Beratergremiums der FDA haben wegen des Fehlens eindeutiger Wirksamkeitsnachweise und bedenklicher Sicherheitsaspekte gegen die Zulassung gestimmt. Die FDA hat dennoch am 7. Juni 2021 für eine beschleunigte Zulassung entschieden, wobei sie den Nachweis der Plaque-Reduktion durch Aduhelm als Surrogatmarker - Ersatzmesswert - für die wahrscheinliche Wirkung am Patienten akzeptierte. Der FDA schien es wichtig, dass nach fast 20 Jahren von Misserfolgen nun mit Aduhelm der erste Vertreter einer neuen Klasse von Alzheimer-Therapeutika registriert wurde.

Viele Experten haben die Zulassung als eine der schlechtesten Entscheidungen der FDA bezeichnet. Die Zulassung stieß auch auf heftige Kritik vieler Organisationen wie beispielsweis des amerikanischen Konsumentenschutzes ("Die Entscheidung zeigt eine rücksichtslose Missachtung der Wissenschaft und schadet der Glaubwürdigkeit der Behörde"), ebenso wie der Medien (New York Times: "How Aduhelm, an Unproven Alzheimer's Drug, Got Approved").

Angesichts einer fragwürdigen Wirksamkeit und mangelnder Sicherheit verweigerte die Europäische Arzneimittel-Agentur (EMA) jedenfalls die Zulassung.

Aduhelm wird ein Flop...

Biogen hatte anfänglich den Preis des Medikaments auf 56.000 US-Dollar pro Jahr und Patient festgesetzt und später auf die Hälfte reduziert. Der hohe Preis und die Skepsis gegen das Medikament führten zu viel, viel weniger Verschreibungen als Biogen erwartet hatte. Dazu kam, dass dies US-Krankenversicherung Medicare die Erstattung auf Patienten beschränkte, die an klinischen Studien teilnahmen. Biogen konnte damit nur einen Bruchteil der erwarteten Umsätze einfahren.

Die Firma hat nun die klinische Studie ENVISION, mit der sie den von der FDA geforderten Wirksamkeitsnachweis erbringen wollte, weitere Entwicklungsarbeiten und das Marketing gestoppt und die Rechte an Aduhelm dem ursprünglichen Entdecker Neurimmune zurückgegeben.

... Nachfolger Leqembi bereits vorhanden

Dieser Schritt war offensichtlich nicht nur dem schlechten Abschneiden von Aduhelm geschuldet: Zusammen mit Eisai hatte Biogen ja mit Leqembi (Lecanemab) bereits einen Nachfolger mit besseren Erfolgsaussichten entwickelt. Dessen Wirksamkeit - eine bescheidene Verlangsamung des kognitiven Abbaus um 27 % - bei Patienten im frühen Stadium der Erkrankung (Studie CLARITY AD) reichte der FDA, um Leqembi 2023 als zweiten Amyloid-Antikörper zuzulassen - allerdings mit einer Black-Box-Warnung (das bedeutet: das Medikament kann ernste bis lebensbedrohende Nebenwirkungen ausllösen), da auch Leqembi die von Aduhelm bekannten Nebenwirkungen, Amyloid-bedingte Bildgebungsanomalien, hervorruft.

Leqembi gilt als Hoffnungsträger, da derzeit keine Therapie am Markt ist, die den Krankheitsprozess umkehreren/stoppen kann oder zumindest einen günstigeren Verlauf verspricht. Allerdings steht nun offensichtlich ein neuer Amyloid-Antikörper - Donanemab - des Pharmakonzerns Eli Lilly vor der Zulassung. Von Donanemab liegen als ausreichend eingestufte Wirksamkeitsdaten vor; allerdings ruft das Präparat - ebenso wie Aduhelm und Leqembi (und andere bis jetzt untersuchte Amyloid-Antikörper) - die auf Amlyoid-zurückführbaren Nebenerscheinungen - Gehirnschwellung en und Mikroblutungen - hervor.

Um der Konkurrenz zu begegnen, muss sich Biogen anstrengen und nun voll auf die Vermarktung von Leqembi konzentrieren.

Nachsatz

Ob die neuen Präparate die Alzheimer-Therapie revolutionieren werden, ist ungewiss. Das behandelbare Patientenkollektiv beschränkt sich (derzeit) ja nur auf Erkrankte im Frühstadium, die dazu auch u.a. mittels Gehirnscans selektiert und dann überwacht werden müssen, um die Amyloid-bedingten Nebenwirkungen möglichst gering zu halten. Da es derzeit keine Medikamente am Markt gibt, die Alzheimer heilen oder den Verlauf günstig modifizieren können, werden wohl viele dieser Patienten zu dem "Strohhalm" der Anti- Amyloid-Antikörper greifen und hoffen damit das Fortschreiten der Erkrankung längerfristig aufhalten zu können.


[1] Ch. Hock et al., Antibodies against Slow Cognitive Decline in Alzheimer’s Disease. Neuron, Vol. 38, 547–554, May 22, 2003.


Die Alzheimer-Erkrankung im ScienceBlog

Inge Schuster, 14.08.2022: Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Irina Dudanova, 23.09.2021: Wie Eiweißablagerungen das Gehirn verändern

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich


 

inge Mon, 05.02.2024 - 12:00

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Do, 25.01.2024 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Krebs im frühen Stadium zu erkennen und zu behandeln kann die Erfolgsaussichten für Patienten bedeutend verbessern. Eine neue Entwicklung zur möglichst frühen Erkennung von möglichst vielen Arten von Krebserkrankungen sind Multi-Cancer-Early-Detection (MCED) Tests, auch als Flüssigbiopsie bezeichnete Tests, die von Krebszellen ins Blut (und andere Körperflüssigkeiten) abgesonderte biologische Substanzen wie Tumor-DNA oder - Proteine messen. Wie großangelegte neue Untersuchungen zeigen, lassen MCED-Testes Rückschlüsse auf mehr als 50 unterschiedliche Tumoren - darunter viele seltene Krebsarten, die oft viel zu lange unentdeckt bleiben - und den Ort ihrer Entstehung zu. Die Genetikerin Rick Lewis berichtet über das vielversprechende Potential dieser neuen Bluttests.*

Eine 52-jährige Frau ist bei ihrer jährlichen ärztlichen Untersuchung. Der Arzthelfer erwähnt, dass er zwei zusätzliche Blutkonserven für neue Krebsfrüherkennungstests benötigt, von denen einer gerade von der FDA zugelassen wurde und der andere im Rahmen einer klinischen Studie verfügbar ist.

"Aber ich bekomme bereits Mammographien und Darmspiegelungen aufgrund der Familienanamnese, und mein Mann wird jedes Jahr auf Prostatakrebs untersucht. Warum brauche ich diese neuen Tests?", fragt die Patientin.

"Diese können Krebserkrankungen viel früher erkennen, und zwar anhand der DNA und der Proteine in Ihrem Plasma, also dem flüssigen Teil des Bluts. Da sind auch Krebsarten dabei, die viel seltener sind als Brust-, Dickdarm- und Prostatakrebs."

"OK", sagt die Patientin und krempelt einen Ärmel hoch. Sie würde zu den Ersten gehören, die sich der "Multi-Krebs-Früherkennung" (MCED) unterziehen - einem Bluttest, der Hinweise darauf findet, dass Krebszellen in den Blutkreislauf gelangt sind. Eine im frühen Stadium begonnene Behandlung hat eine höhere Erfolgswahrscheinlichkeit. Ein MCED-Bluttest könnte ein Gamechanger für Menschen sein, die noch nicht symptomatisch an Krebs erkrankt sind.

Eine Flüssigbiopsie

Krebserkrankungen sind für 1 von 6 Todesfällen verantwortlich; nur etwa 40 Prozent werden früh genug erkannt, um erfolgreich therapiert zu werden. Bei einer Mammographie wurde mein Brustkrebs frühzeitig entdeckt; ein Arzt, der eine Beule in meinem Hals bemerkte, fand Schilddrüsenkrebs.

Für diejenigen, die an Krebs erkrankt waren, kann mittels einer "Flüssigbiopsie" auf ein Rezidiv - die Rückkehr der Erkrankung - geschlossen werden; dabei wird eine Körperflüssigkeit - in der Regel Blut, aber möglicherweise auch Urin, Sputum oder Kot - auf winzige DNA-Stücke untersucht, die krebsverursachende Mutationen enthalten. Die Forschung an solchen Flüssigbiopsien begann vor drei Jahrzehnten.

Die DNA-Schnipsel werden als "zellfrei zirkulierende DNA" oder cfDNA bezeichnet. Durch Überlagerung der Fragmente lässt sich die gesamte Genomsequenz der im Blutkreislauf enthaltenen Krebszellen wieder zusammensetzen und daraus Mutationen identifiziert werden. Darüber hinaus kann die Expression von Krebsgenen (ob es nun eingeschaltete oder ausgeschaltete Gene sind) aus den Methylierungsmustern - Methylgruppen, die an der DNA kleben - abgeleitet werden. Bei Krebs kann ein Tumorsuppressor-Gen mit Methylgruppen umhüllt und stillgelegt (silenced) werden und damit seine Funktion als Tumor-Unterdrücker verlieren. Oder ein Onkogen kann durch den Wegfall von Methylgruppen aktiviert werden und Krebs verursachen.

Eine Flüssigbiopsie - eben nur ein Bluttest - ist viel weniger schmerzhaft und invasiv als eine herkömmliche chirurgisch erhaltene Biopsie, bei der Krebszellen aus einem festen Tumor entnommen werden. Und eine Tumor-DNA ist spezifischer als ein Protein-Biomarker, der auch auf gesunden Zellen vorhanden sein kann, auf Krebszellen aber häufiger vorkommt.

Flüssigbiopsien haben bislang ihren Fokus auf Menschen gerichtet, die bereits an Krebs erkrankt waren, um ein Wiederauftreten des Tumors zu erkennen oder das Ansprechen auf die Behandlung zu überwachen. Der Heilige Gral ist aber der Einsatz bei Menschen, die weder an Krebs erkrankt waren noch sich aufgrund von Risikofaktoren wie Alter oder Familiengeschichte anderen Untersuchungen wie beispielsweise dem PSA-Test unterziehen müssen. Eierstockkrebs ist das klassische Beispiel. Er wird oft erst spät diagnostiziert, weil  Verdacht erweckende Anzeichen - Blähungen und Müdigkeit - vage sind und häufig auftreten und leicht auf etwas Harmloses wie eine Umstellung der Ernährung oder des Sportprogramms zurückgeführt werden.

MCED-Bluttests sind besonders vielversprechend für die vielen seltenen Krebsarten, die oft viel zu lange unentdeckt bleiben. Sie werden wahrscheinlich auch ältere Screening-Methoden in Bezug auf Sensitivität (alle an Krebs Erkrankten werden als krank identifiziert) und Spezifität (alle nicht an Krebs Erkrankten werden als gesund erkannt) übertreffen.

Die neuen MCED-Bluttests - ein Typ ist zugelassen, ein anderer experimentell - weisen DNA oder Proteine nach. Abbildung.

Die MECD- Bluttests weisen im Blutplasma DNA-Stückchen (blau) oder Proteine (grün) nach, die von Tumoren in die Blutbahn abgesondert werden. (credit Jill George, NIH)

Verdächtige DNA

Bereits auf Rezept erhältlich ist die "Multi-Krebs-Früherkennung aus einer einzigen Blutabnahme" des US-Gesundheitsunternehmens GRAIL. Im Oktober 2023 veröffentlichte das Unternehmen die Ergebnisse seiner Pathfinder-Studie im Fachjournal The Lancet. Darin wurden 6 662 Erwachsene im Alter von 50 + ohne Symptome beobachtet, die den Test gemacht hatten [1].

Die Überprüfung von Methylierungsmustern (ob Krebsgene ein- oder ausgeschaltet sind) führte zu mehr als einer Verdopplung der Zahl der neu entdeckten Krebserkrankungen, wobei sich fast die Hälfte davon in frühen Stadien befand. Nach einer Nachuntersuchung auf der Grundlage der spezifischen Krebsarten wurden die meisten Diagnosen in weniger als drei Monaten gestellt, also weitaus schneller als bei herkömmlichen Screening-Tests.

Der DNA-MCED-Test, Galleri genannt, deckt mehr als 50 Krebsarten ab, darunter viele, die derzeit mit den empfohlenen Screening-Tests nicht erkannt werden. So erkennt Galleri drei Arten von Krebs des Gallengangs, sowie Krebsarten des Dünndarms, der Mundhöhle, der Vagina, des Blinddarms, des Penis, des Bauchfells und weitere Arten, sowie die üblichen Krebsarten wie Bauchspeicheldrüsen-, Prostata- und Blasenkrebs.

Maschinelles Lernen wird eingesetzt, um DNA-Methylierungsmuster mit nützlichen klinischen Informationen zu verknüpfen, wie in einem Bericht in der Zeitschrift Cancer Cell erläutert wird. Der Ansatz gibt Aufschluss über die Krebsart und das Ursprungsorgan und unterscheidet Krebszellen von normalen Zellen, die einfach nur alt sind und DNA absondern.

Der Test hat 36 Krebsarten bei 35 Teilnehmern identifiziert, wobei bei einer Person zwei Krebsarten diagnostiziert wurden. Bei den üblichen Krebsuntersuchungen wurden 29 Krebsarten festgestellt.

Untersuchung von Proteinen

Wie bei der DNA in Flüssigbiopsien beruht die Identifizierung von Proteinen im Blutplasma auf der Erfassung von vielen Stückchen an Information.

Bekannt sind Screening-Tests zum Nachweis bestimmter Proteine, die mit einem erhöhten Risiko für bestimmte Krebsarten in Verbindung gebracht werden: PSA steht für Verdacht auf Prostatakrebs, Östrogen- und Progesteronrezeptoren auf Brustkrebszellen sind für die Wahl der Therapie ausschlaggebend, erhöhte Werte von CA125 weisen auf Eierstockkrebs hin.

Dies ist jedoch nur ein winziger Ausschnitt dessen, was durch die Katalogisierung der Konzentrationen vieler Proteine im Blutplasma möglich ist - ein Proteomik- Ansatz (Anm. Redn.: Unter Proteom versteht man die Gesamtheit aller in einer Zelle oder einem Lebewesen unter definierten Bedingungen und zu einem definierten Zeitpunkt vorliegenden Proteine.)

Eine "Proof-of-Concept"-Studie, die eben im BMJ Oncology veröffentlicht wurde, hat Schlagzeilen gemacht: "Ein geschlechtsspezifisches Panel von 10 Proteinen kann 18 verschiedene Krebsarten im Frühstadium erkennen" [2]:

Forscher von Novelna Inc. in Palo Alto haben aus Plasmaproben von 440 Personen, bei denen vor der Behandlung 18 verschiedene Krebsarten diagnostiziert wurden, und von 44 gesunden Blutspendern proteinbasierte "Signaturen solider Tumore" in bestimmten Organen abgeleitet. Sie haben die Häufigkeit von mehr als 3.000 Proteinen gemessen und die mit den Krebsarten assoziierten hohen und niedrigen Spiegel festgestellt. Die Auswahl der zu untersuchenden Proteine erfolgte auf Grund der biochemischen Reaktionswege, an denen diese Proteine beteiligt sind und die bei Krebs gestört sind, wie z. B. Signaltransduktion, Zelladhäsion und Zellteilung.

Ein wichtiger Teil der Studie war die Berücksichtigung des biologischen Geschlechts, da bestimmte Krebsarten bei Männern oder bei Frauen viel häufiger auftreten. Auch hier half künstliche Intelligenz den Ursprungsort des Tumors zu identifizieren sowie innerhalb eines Körperteils abzugrenzen, beispielsweise zwischen medullärem und follikulärem bzw. papillärem Schilddrüsenkrebs sowie zwischen kleinzelligem und nicht-kleinzelligem Lungenkrebs zu unterscheiden.

Niedrige Spiegel von zehn Plasmaproteinen erwiesen sich als aussagekräftige Prädiktoren für 18 Arten von soliden Tumoren, die geschlechtsabhängig sind. Aus den Konzentrationen von 150 Proteinen konnte auf den Entstehungsort des Tumors geschlossen werden, die Proteinsignatur zeigte auch das Stadium an, sogar ein sehr frühes.

In einem Leitartikel, der den Bericht im BMJ Oncology begleitete, weist Holli Loomans-Kropp von der Ohio State University darauf hin, dass "feststellbare geschlechtsspezifische Unterschiede bei Krebs - einschließlich des Alters des Auftretens, der Krebsarten und der genetischen Veränderungen - darauf hindeuten, dass der Ansatz mit MCEDs von Nutzen sein wird.... Kehlkopf-, Rachen- und Blasenkrebs treten bei Männern häufiger auf, Anal- und Schilddrüsenkrebs bei Frauen. Krebserkrankungen, die auf Mutationen im p53-Gen zurückzuführen sind, beginnen bei Frauen früher. Und die akute lymphoblastische Leukämie wird bei Männern und Frauen durch unterschiedliche Arten von Mutationen ausgelöst."

Auch andere genetische Messgrößen unterscheiden sich zwischen den Geschlechtern, z. B. die Anzahl der Mutationen, Kopienzahlveränderungen und Methylierungsmuster. Gene auf dem X-Chromosom unterdrücken das Tumorwachstum, und wir Frauen haben natürlich zwei Xs im Vergleich zu einem bei den Männern.

-------------------------------------------------

In Zukunft wird ein Bluttest zur Früherkennung von Krebs vielleicht so zur Routine werden wie ein Cholesterin-Test. Krebs in einem frühen Stadium, auf eine so einfache Weise zu erkennen, verspricht schlussendlich viele Leben zu retten!


 [1] Nicholson B.D., et al., Multi-cancer early detection test in symptomatic patients referred for cancer investigation in England and Wales (SYMPLIFY): a large-scale, observational cohort study. Lancet Oncology (2023); 24/7: 733-743. https://doi.org/10.1016/S1470-2045(23)00277-2

[2] Budnik B, et al.: Novel proteomics-based plasma test for early detection of multiple cancers in the general population. BMJ Oncology 2024;3:e000073. doi: 10.1136/bmjonc-2023-000073.

[3] Loomans-Kropp H., Multi-cancer early detection tests: a strategy for improvement. BMJ Oncology 2024;3:e000184. doi: 10.1136/bmjonc-2023-000184


* Der Artikel ist erstmals am 11. Jänner 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Multi-cancer Early Detection Blood Tests (MCED) Debut "https://dnascience.plos.org/2024/01/11/multi-cancer-early-detection-blood-tests-mced-debut/  erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Thu, 25.01.2024 - 17:46

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

Do, 18.01.2024 — Redaktion

Redaktion

Icon Astronomie

Die Ozeane und die Atmosphäre der Erde verändern sich mit der Erwärmung des Planeten. Einige Meeresgewässer werden grüner, weil mehr mikroskopisch kleine Organismen blühen. In der Atmosphäre beeinträchtigen Staubstürme, die auf einem Kontinent entstehen, die Luftqualität eines anderen Kontinents, während der Rauch großer Waldbrände ganze Regionen tagelang einhüllen kann. Der neueste Erdbeobachtungssatellit der NASA mit der Bezeichnung PACE (Plankton, Aerosol, Wolken, Ozean-Ökosystem) wird im Februar 2024 gestartet und soll uns helfen, die komplexen Systeme, die diese und andere globale Veränderungen im Zuge der Klimaerwärmung bewirken, besser zu verstehen.*

Mit der fortschreitenden Erwärmung des Klimas, die möglicherweise zu mehr Waldbränden und damit zu einer stärkeren Ablagerung von Asche führt, können wir davon ausgehen, dass sich die Phytoplankton-Gemeinschaften verändern werden. Ivona Cetinić, Oceanographer - Ocean Ecology Lab at NASA Goddard.

"Der Ozean und die Atmosphäre interagieren auf eine Art und Weise, die nur durch kontinuierliche Forschung vollständig verstanden werden kann", sagte Jeremy Werdell, Projektwissenschaftler für die PACE-Mission am Goddard Space Flight Center der NASA in Greenbelt, Maryland, "Mit PACE werden wir unsere Augen für viele neue Aspekte des Klimawandels öffnen". Abbildung 1.

Abbildung 1. . PACE wird dazu beitragen, den Gesundheitszustand der Ozeane zu beurteilen, indem es die Verteilung von Phytoplankton misst - winzige pflanzenähnliche Organismen und Algen, die das marine Nahrungsnetz erhalten. Außerdem wird es die Aufzeichnungen wichtiger atmosphärischer Variablen im Zusammenhang mit der Luftqualität und dem Klima der Erde erweitern. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Der Ozean verändert seine Farbe

Die Auswirkungen des Klimawandels auf den Ozean sind vielfältig und reichen vom Anstieg des Meeresspiegels über marine Hitzewellen bis hin zum Verlust der Artenvielfalt. Mit PACE ((Plankton, Aerosol, Wolken, Ozean-Ökosystem) werden die Forscher in der Lage sein, die Auswirkungen auf das Meeresleben in seinen kleinsten Formen zu untersuchen.

Phytoplankton sind mikroskopisch kleine, pflanzenähnliche Organismen, die nahe der Wasseroberfläche schwimmen und das Zentrum des aquatischen Nahrungsnetzes bilden, das allen möglichen Tieren - von Muscheln über Fische bis hin zu Walen - Nahrung bietet. Es gibt Tausende von Phytoplanktonarten, die jeweils unterschiedliche Nischen im Ozean besetzen.

Abbildung 2. Im Frühjahr und Sommer sind in der Barentssee nördlich von Norwegen und Russland oft blaue und grüne Blüten von Phytoplankton zu sehen. Das Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord des NASA-Satelliten Aqua hat dieses Echtfarbenbild am 15. Juli 2021 aufgenommen. Bildnachweis: NASA Earth Observatory

Während ein einzelnes Phytoplankton in der Regel nicht mit bloßem Auge zu erkennen ist, können Gemeinschaften von Billionen von Phytoplankton, sogenannte Blüten, vom Weltraum aus gesehen werden. Blüten haben oft eine grünliche Färbung, was auf die Chlorophyllmoleküle zurückzuführen ist, die das Phytoplankton- wie die Landpflanzen - zur Energiegewinnung durch Photosynthese nutzt. Abbildung 2.

Laut Ivona Cetinić, einer Ozeanografin im Ocean Ecology Lab der NASA Goddard, reagiert das Phytoplankton auf Veränderungen in seiner Umgebung. Unterschiede in den Meerestemperaturen, den Nährstoffen oder der Verfügbarkeit von Sonnenlicht können dazu führen, dass eine Art aufblüht oder verschwindet.

Aus dem Weltraum lassen sich diese Veränderungen in den Phytoplankton-Populationen als Farbunterschiede erkennen, so dass Wissenschaftler die Abundanz und Vielfalt des Phytoplanktons aus der Ferne und im globalen Maßstab untersuchen können. Und Wissenschaftler haben kürzlich festgestellt, dass der Ozean etwas grüner wird.

In einer im Jahr 2023 veröffentlichten Studie haben die Forscher Daten zur Chlorophyllkonzentration genutzt, die das Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem Aqua-Satelliten der NASA über mehr als 20 Jahre gesammelt hatte, um festzustellen, nicht nur wann und wo Phytoplanktonblüten auftraten, sondern auch, wie gesund und reichlich vorhanden sie waren. Abbildung 3.

Abbildung 3. Analyse von Ozeanfarbdaten des MODIS-Instruments auf dem Aqua-Satelliten der NASA. Die Wissenschaftler stellten fest, dass Teile des Ozeans durch mehr Chlorophyll-tragendes Phytoplankton grüner geworden sind. Kredit: NASA-Erdbeobachtungsstelle

Das Ocean Color Instrument (OCI) von PACE, ein Hyperspektralsensor, wird die Meeresforschung einen Schritt weiterbringen, indem es den Forschern ermöglicht, das Phytoplankton aus der Ferne nach Arten zu unterscheiden. (In der Vergangenheit konnten die Arten nur direkt aus Wasserproben heraus bestimmt werden). Jede Gemeinschaft hat ihre eigene Farbsignatur, die ein Instrument wie OCI identifizieren kann.

Die Identifizierung von Phytoplanktonarten ist von entscheidender Bedeutung, da die verschiedenen Phytoplanktonarten sehr unterschiedliche Funktionen in aquatischen Ökosystemen haben. Sie haben nützliche Funktionen, wie die Versorgung der Nahrungskette oder die Aufnahme von Kohlendioxid aus der Atmosphäre für die Photosynthese. Einige Phytoplanktonpopulationen binden Kohlenstoff, wenn sie sterben und in die Tiefsee sinken; andere geben das Gas wieder an die Atmosphäre ab, wenn sie in der Nähe der Oberfläche zerfallen.

Einige jedoch, wie die in den schädlichen Algenblüten vorkommenden, können sich negativ auf Menschen und aquatische Ökosysteme auswirken. Das Vorhandensein schädlicher Algen kann uns auch etwas über die Qualität der Wasserquellen verraten, z. B. ob zu viele Nährstoffe aus menschlichen Aktivitäten vorhanden sind. Durch die Identifizierung dieser Gemeinschaften im Ozean können Wissenschaftler Informationen darüber gewinnen, wie und wo das Phytoplankton vom Klimawandel betroffen ist, und wie sich Veränderungen bei diesen winzigen Organismen auf andere Lebewesen und die Ökosysteme der Ozeane auswirken können.

Partikel in der Luft ernähren das Phytoplankton im Meer

Neben seiner Rolle als Gras des Meeres spielt das Phytoplankton auch eine Rolle in einem komplexen Tanz zwischen Atmosphäre und Ozean. Und PACE wird beide Partner in diesem Tanz beobachten.

Abbildung 4. Modell, das die Bewegung von Aerosolen über Land und Wasser im Aug. 2017 zeigt. Hurrikane und tropische Stürme zeichnen sich durch große Mengen an Meeressalzpartikeln aus, die von ihren wirbelnden Winden aufgefangen werden. Staub, der aus der Sahara weht, kann von Wassertröpfchen aufgefangen werden und aus der Atmosphäre abregnen. Rauch von massiven Waldbränden im pazifischen Nordwesten Nordamerikas wird über den Atlantik nach Europa getragen. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Mit einem Blick aus dem Weltraum über den gesamten Planeten innerhalb von 2 Tagen, wird PACE sowohl mikroskopisch kleine Organismen im Ozean als auch mikroskopisch kleine Partikel in der Atmosphäre, die so genannten Aerosole, verfolgen. Wie diese beiden interagieren, wird den Wissenschaftlern zusätzliche Erkenntnisse über die Auswirkungen des sich ändernden Klimas liefern. Abbildung 4.

Wenn sich beispielsweise Aerosolpartikel aus der Atmosphäre auf dem Ozean ablagern, können sie wichtige Nährstoffe liefern, die eine Phytoplanktonblüte auslösen. Winde tragen manchmal Asche und Staub von Waldbränden und Staubstürmen über den Ozean. Wenn diese Partikel ins Wasser fallen, können sie als Dünger wirken und Nährstoffe wie Eisen liefern, die das Wachstum der Phytoplanktonpopulationen fördern. Abbildung 5.

Abbildung 5. Visualisierung, die ein Beispiel für einen Waldbrand in den Bergen der Sierra Nevada zeigt. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Während das Farberkennungsinstrument von PACE Veränderungen im Phytoplankton erkennen wird, trägt der Satellit auch zwei als Polarimeter bezeichnete Instrumente - SPEXone und HARP2 - die Eigenschaften des Lichts (Polarisation) nutzen, um Aerosolpartikel und Wolken zu beobachten. Die Wissenschaftler werden in der Lage sein, die Größe, Zusammensetzung und Häufigkeit dieser mikroskopisch kleinen Partikel in unserer Atmosphäre zu messen.

Rauch, Schadstoffe und Staub sind auch der Ursprung der Wolken

Die neuen Daten von PACE zur Charakterisierung atmosphärischer Partikel werden es den Wissenschaftlern ermöglichen, eine der am schwierigsten zu modellierenden Komponenten des Klimawandels zu untersuchen: die Wechselwirkung zwischen Wolken und Aerosolen.

Wolken bilden sich, wenn Wasser auf Luftpartikeln wie Rauch und Asche kondensiert. Ein leicht zu erkennendes Beispiel sind Schiffsspuren, die entstehen, wenn Wasserdampf kondensiert und helle, tiefliegende Wolken auf von Schiffen ausgestoßenen Schadstoffen bildet. Abbildung 6.

Abbildung 6. Schiffsspuren über dem nördlichen Pazifik. NASA-Bild, aufgenommen am 3. Juli 2010 mit dem Satelliten Aqua. Kredit: NASA NASA

Verschiedene Arten von Aerosolen beeinflussen auch die Eigenschaften von Wolken, wie etwa ihre Helligkeit, die von der Größe und Anzahl der Wolkentröpfchen abhängt. Diese Eigenschaften können zu unterschiedlichen Auswirkungen - Erwärmung oder Abkühlung - auf der Erdoberfläche führen.

Eine helle Wolke oder eine Wolke aus Aerosolpartikeln, die tief über einem viel dunkleren Ozean schwebt, reflektiert beispielsweise mehr Licht zurück in den Weltraum, was eine lokale Abkühlung bewirkt. In anderen Fällen haben sowohl Wolken als auch Aerosole eine wärmende Wirkung, die als "Blanketing" bezeichnet wird. Dünne Wolkenfahnen hoch oben in der Atmosphäre absorbieren die Wärme von der Erdoberfläche und strahlen sie dann wieder in Richtung Boden ab.

"Aus der Klimaperspektive ist die Beziehung zwischen Aerosolen und Wolken eine der größten Unsicherheitsquellen in unserem Verständnis des Klimas", sagt Kirk Knobelspiesse, Leiter der Polarimetrie für die PACE-Mission bei der NASA Goddard. Die neuen Erkenntnisse des Satelliten über Aerosolpartikel werden den Wissenschaftlern helfen, Wissenslücken zu schließen und unser Verständnis dieser Beziehung zu vertiefen.


*Der vorliegende Artikel von Erica McNamee (NASA's Goddard Space Flight Center, Greenbelt, Md) ist unter dem Titel "NASA’s PACE To Investigate Oceans, Atmospheres in Changing Climate" am 11. Jänner 2024 auf der Website der NASA erschienen https://science.nasa.gov/earth/nasas-pace-to-investigate-oceans-atmospheres-in-changing-climate/. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


NASA im ScienceBlog

Redaktion, 29.06.2023: Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt.

Redaktion, 22.06.2023: Gibt es Leben auf dem Saturnmond Enceladus?

Redaktion, 27.04.2023: NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern.

Redaktion, 19.01.2023: NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen.

Redaktion, 05.01.2023: NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars.

Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan.

Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums.

Inge Schuster, 05.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen.


 

inge Wed, 17.01.2024 - 23:31

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Do, 11.01.2024 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Katalysatoren spielen als Reaktionsbeschleuniger in Natur und Technik eine entscheidende Rolle. Lebensprozesse werden von Enzymen angekurbelt und über neunzig Prozent aller von der Chemieindustrie eingesetzten Reaktionen benötigen einen Katalysator. Dazu zählt die Ammoniaksynthese, der die Menschheit den künstlichen Stickstoffdünger verdankt. Weil Ammoniak viel Wasserstoff enthält, ist es auch als Wasserstoffspeicher für eine zukünftige Energiewirtschaft interessant. Allerdings muss es dazu auch wieder effizient in Wasserstoff und Stickstoff zerlegt werden - der Schlüssel dazu sind neue Feststoffkatalysatoren. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Arbeiten von Prof. Dr. Claudia Weidenthaler, die mit ihrem Team am Max-Planck-Institut für Kohlenforschung in Mülheim an effizienten, preisgünstigen Katalysatoren für die Ammoniakzerlegung forscht.*

Katalysatoren eröffnen einer chemischen Reaktion einen günstigen Pfad durch eine Energielandschaft, der sonst verschlossen wäre. Während einer Reaktion brechen zuerst chemische Bindungen in den Edukten auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle der Produkte. Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg. Um diesen zu bezwingen, brauchen die Moleküle Energie. Der Katalysator senkt nun diesen hemmenden Energieberg ab. Grundsätzlich gibt es zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die reagierenden Stoffe und der Katalysator in der gleichen Phase, etwa in einer Lösung. In der heterogenen Katalyse sind beide in getrennten Phasen. Bei technischen Anwendungen fließen dabei oft Gase über festes Katalysatormaterial, zum Beispiel beim „Autokat“.

Ammoniaksynthese ..............

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet, denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. 2020 wurden weltweit 183 Millionen Tonnen Ammoniak produziert, was zwei Prozent des globalen Energieverbrauchs der Menschheit erforderte. Da die Energie und der Wasserstoff hauptsächlich aus fossilen Quellen stammten, setzte das 450 Millionen Tonnen CO2 frei. Das entspricht etwa 1,4 Prozent der menschlichen CO2-Emissionen im Jahr 2020. Ohne Katalysator wären allerdings Energieverbrauch und Emissionen ungleich dramatischer: Allein die Produktion von einem Kilogramm Ammoniak würde dann rund 66 Millionen Joule an Energie verbrauchen, was ungefähr der Verbrennungswärme von 1,5 kg Rohöl entspricht.

Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte eine Hungerkatastrophe. Rettung versprach der riesige Stickstoffvorrat in der Luft, denn sie besteht zu 78 Prozent aus Stickstoffmolekülen. Allerdings verschließt die sehr stabile Dreifachbindung des Moleküls den Zugang zu den Stickstoffatomen. An der dreifach harten Nuss scheiterten alle Forschenden – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus Stickstoff ermöglicht. Leider ist Osmium extrem selten, doch der Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form winziger Nanopartikel erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 bar und Temperaturen zwischen 400 °C und 500 °C. Boschs Gruppe konstruierte dafür einen massiven Durchflussreaktor. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt 1919 den Nobelpreis für Chemie, Bosch 1931.

Die Reaktionsgleichung der kompletten Ammoniaksynthese lautet

N2 + 3 H2 → 2 NH3

Die Reaktion ist exotherm, in der Bilanz wird Wärmenergie frei: Pro Mol N2 sind es 92,2 Kilojoule, pro Mol NH3 die Hälfte, was auf ein Kilogramm Ammoniak rund 2,7 Megajoule ergibt. So viel Wärmeenergie setzt die Verbrennung von 92 Gramm Steinkohle frei. Der Eisenkatalysator im Haber-Bosch-Verfahren beschleunigt nun diese Reaktion. Aber was sich da genau auf seiner Oberfläche abspielt, konnte die Forschung lange nicht aufdecken. Man ging davon aus, dass die Anlagerung der N2-Moleküle an seiner Oberfläche die Geschwindigkeit der Reaktion bestimmt. Offen blieb aber, ob die N2-Moleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette N2-Molekül reagiert.

.............und ihr Ablauf im Einkristall

Erst 1975 konnten Gerhard Ertl und sein Team zeigen, dass das N2-Molekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Metalle wie Eisen besitzen eine kristalline Struktur, bei der die Eisenatome ein geordnetes dreidimensionales Gitter ausbilden. Ein perfekter Kristall heißt „Einkristall“. Schneidet man durch ihn hindurch, sind die Eisenatome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, vermutete Ertl. Tiefer im Kristall ist jedes Atom auf allen Seiten von Nachbaratomen umgeben. An der Oberfläche dagegen liegen die Atome frei. Kommt dort ein H2-Molekül vorbei, dann können sie es deshalb an sich binden. Das passiert allerdings nur etwa einmal in einer Million Fällen. Durch diese Bindung an das Eisen geht der Energiegewinn durch die Dreifachbindung im N2-Molekül verloren. Die Stickstoffatome lösen sich aus dieser Bindung und werden frei. Dem H2-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die einzelnen Stickstoff- und Wasserstoffatome können nun untereinander chemische Bindungen eingehen (Abbildung 1). Ertls Gruppe schaffte es, den kompletten Ablauf der Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. Gerhard Ertl führte damit die exakten Methoden der Oberflächenforschung erstmals in die Katalyseforschung ein. Dafür bekam der frühere Direktor am Berliner Fritz- Haber- Institut der Max -Planck- Gesellschaft 2007 den Nobelpreis für Chemie.

 

Abbildung 1: Schritte der Ammoniaksynthese. Die rot gestrichelte Energiekurve zeigt die Reaktion ohne, die durchgezogene grüne mit Katalysator: Die N2– und H2– Moleküle liegen frei vor (1). Das N2-Molekül haftet sich an die Eisenoberfläche (2). Die dort adsorbierten N2– und H2– Moleküle zerfallen zu N- und H- Atomen (3). Es entstehen NH (4), NH2 (5) und NH3 (6). Das fertige Ammoniakmolekül hat sich von der Eisenoberfläche gelöst (7). Die grün und rot gestrichelten Energiekurven enden rechts auf einem tieferen Energieniveau – bei der Reaktion wird Energie frei. © Grafik: R. Wengenmayr nach G. Ertl / CC BY-NC-SA 4.0

Ammoniak – ein guter Wasserstoffspeicher?

Für eine Zukunft ohne fossile Brennstoffe gilt Wasserstoff als wichtiger Energieträger. Zum Beispiel könnten große Solarkraftwerke in sonnenreichen Ländern regenerativen Strom produzieren und in Elektrolyseanlagen Wasser zu Wasserstoff und Sauerstoff zerlegen. Der grüne Wasserstoff würde dann zum Beispiel in Tankschiffen nach Europa verfrachtet werden, wo er in Industrieprozessen oder für die Energieerzeugung, etwa in Brennstoffzellen, verbraucht würde. Allerdings müsste der Wasserstoff dazu entweder gasförmig unter hohem Druck von 200 bar oder verflüssigt unterhalb von -252 °C in Tanks transportiert werden, was teuer und energetisch ineffizient ist.

Im Vergleich dazu bietet Ammoniak als Wasserstoffspeicher einige Vorteile. Der erste Vorteil ist seine hohe Energiedichte von 3,2 Kilowattstunden pro Liter, pro Kilogramm sogar 5,2 Kilowattstunden – zum Vergleich: bei Benzin sind es 9,7 beziehungsweise 12,7 Kilowattstunden. Zweitens wird Ammoniak bei 20 °C schon bei 8,6 bar Druck flüssig, grob dem doppelten Druck eines Fahrradreifens. Damit ist es gut in Tanks transportierbar. Ammoniak könnte die Tankschiffe selbst emissionsfrei antreiben. Die „Viking Energy“ ist das erste Schiff mit einer Hochtemperatur-Brennstoffzelle, die aus Ammoniak elektrischen Strom für den Schiffsantrieb gewinnt.

Allerdings kann Ammoniak nur ein effizienter Wasserstoffspeicher sein, wenn das chemische Binden und Rückgewinnen des Wasserstoffs möglichst wenig Energie verbraucht. Hier kommt die Forschung von Claudia Weidenthaler ins Spiel. Die Professorin erzählt, dass nach besseren Katalysatoren und alternativen industriellen Prozessen gesucht wird, die das traditionelle Haber-Bosch-Verfahren in der Effizienz schlagen können. Ihr Team sucht hingegen Metallkatalysatoren, die Ammoniak in einem „Cracker“-Reaktor möglichst effizient wieder zerlegen. Mit ihren Methoden steht sie in der Tradition des Pioniers Gerhard Ertl. Sie erforscht systematisch verschiedene Metalle, die sich theoretisch gut als Katalysatoren eignen. Und sie räumt auch gleich mit der Vorstellung auf, dass Katalysatoren sich während der Reaktion nicht verändern. Das Gegenteil ist der Fall. Umso wichtiger wäre es, die Vorgänge an ihrer Oberfläche und darunter, im Trägermaterial, bis auf die Ebene einzelner Atome direkt „filmen“ zu können.

Die Katalyse im Blick

Abbildung 2. Ein Röntgen-Pulverdiffraktometer. (© David Bonsen/MPI für Kohlenforschung)

Leider gibt es kein konventionelles Mikroskop, mit dem man einfach bis in die Welt der Atome zoomen und direkt im chemischen Reaktor Videos aufzeichnen kann. Also muss das Team verschiedene Methoden kombinieren, die eines gemeinsam haben: Sie verwenden Wellenlängen, die viel kürzer als die von sichtbarem Licht sind. Röntgenlicht und fliegende Elektronen in Elektronenmikroskopen sind kurzwellig genug, um auch Details bis teilweise hinunter in den Zehntelnanometerbereich erfassen zu können. Herkömmliche Elektronenmikroskope können sehr gut die Strukturen von Oberflächen abbilden, haben aber den Nachteil, dass sie Vakuum benötigen. Damit lassen sich also mit gewöhnlichen Geräten nur Bilder von Katalysatoroberflächen vor und nach der Reaktion aufnehmen. Für die Beobachtung der laufenden katalytischen Reaktion nutzt das Mülheimer Team daher verschiedene Röntgenmethoden. Mit Hilfe eines Röntgen-Pulverdiffraktometers (Abbildung 2) kann das Team das Innere der winzigen Kristalle durchleuchten.

Die Methode ähnelt dem Physikexperiment, in dem Lichtwellen an einem feinen Gitter gebeugt werden. Das dahinter aufgenommene Beugungsbild enthält die genaue Information über die Beschaffenheit des Gitters. Auch die Metallatome im Kristall bilden ein räumliches Gitter mit Abständen im Bereich von Zehntelnanometern. Passt die Wellenlänge des Röntgenlichts, so liefert das Beugungsbild eine genaue Information über den Aufbau des Kristalls – und dessen Veränderungen während der katalysierten Reaktion.

Alternativen zum teuren Edelmetall

Die Reaktionsgleichung beim „Cracken“ von Ammoniak lautet

2 NH3 → N2 + 3 H2

Diese Reaktion benötigt Energie, sie ist endotherm. Pro Mol NH3 sind das die schon bei der Synthese erwähnten 46,1 Kilojoule. Nun hat sich Eisen als relativ guter Katalysator beim Haber-Bosch-Verfahren etabliert. Doch ist es auch ein guter Katalysator für das Cracken? Eigentlich läge das nahe, ein Video kann ja auch einfach rückwärts ablaufen. Doch die Antwort lautet: nein. Für die Ammoniaksynthese und -zerlegung gilt, dass ein guter Katalysator für die eine Reaktionsrichtung nicht automatisch auch für die umgekehrte Richtung funktioniert.

Abbildung 3. Ammoniakzerlegung. Test von vier verschiedenen Proben des Katalysator-Trägermaterials, die entweder bei 550 oder 700 °C hergestellt wurden. Zwei Proben enthielten 4, zwei 8 Gewichtsprozent Cobalt. Untersucht wurde die Zerlegung von NH3 bei Temperaturen von 350 bis 650 °C. Das Katalysator-Trägermaterial, das bei 550 °C hergestellt wurde, ist effektiver, da bei niedrigeren Herstellungstemperaturen weniger Cobalt mit dem Al2O3 im Träger reagiert und als Katalysator inaktiviert wird. Ein höherer Anteil von Cobalt in der Probe wirkt sich positiv auf die NH3-Zerlegung aus, weil mehr Cobalt für die Katalyse zur Verfügung steht. © C. Weidenthaler; verändert nach ChemCatChem, 14/20, 2022, DOI: (10.1002/cctc.202200688) / CC BY 4.0

Der beste metallische Katalysator für das Zerlegen von NH3 ist nach heutigem Kenntnisstand Ruthenium. Da dieses Edelmetall aber selten und teuer ist, sucht Weidenthalers Team nach günstigeren Alternativen. Vor allem sollen sich die neuen Katalysatoren später auch für die Reaktoren in der Industrie eignen. Dabei ist das Zusammenspiel zwischen dem Katalysator und dem Trägermaterial, auf dem er aufgebracht ist, wichtig. Auch das untersucht das Team. Ein Beispiel ist die jüngste Arbeit mit Cobalt als Katalysator auf einem Träger aus Aluminiumoxid-Nanokristallen. Cobalt ist ein vielversprechender Kandidat für die Ammoniakzerlegung. Und Aluminiumoxid versprach ein gutes Trägermaterial: Bei hohen Temperaturen von mehreren hundert Grad verhindert es, dass die feinen Cobaltpartikel auf der Trägeroberfläche „zusammenbacken“. Sintern heißt dieser unerwünschte Effekt, der die gesamte Cobaltoberfläche verkleinern würde, die für die Katalyse noch zur Verfügung stünde.

Das Mühlheimer Team stellte zunächst verschiedene Proben des Katalysator-Trägermaterials mit unterschiedlichen Cobaltanteilen bei Temperaturen von 550 °C und 700 °C her. Diese Proben testete das Team in einem Reaktor, durch den Ammoniakgas floss. Es konnte zeigen, dass sich eine niedrige Herstellungstemperatur und ein hoher Cobaltanteil positiv auf die Ammoniakzerlegung auswirken (Abbildung 3).

Die getesteten Proben sind jedoch für die industrielle Anwendung noch nicht geeignet, da erst bei Temperaturen ab ca. 600 °C eine vollständige Zerlegung des Ammoniaks erreicht wird. Diese hohen Temperaturen benötigen für Industrieprozesse zu viel Energie. Bei niedrigeren Temperaturen wäre der entstehende Wasserstoff noch mit Ammoniak verunreinigt und würde beispielweise Probleme beim Einsatz in Brennstoffzellen verursachen.

Die Forschenden untersuchten auch die Vorgänge bei der Herstellung des Katalysator-Trägermaterials: Auf der Oberfläche des Trägers bilden sich Nanopartikel von elementarem Cobalt, das katalytisch wirksam ist. Ein Teil des Cobalts wandert in das Trägermaterial, bildet mit dem Aluminiumoxid einen Mischkristall und wird dadurch inaktiviert (Abbildung 4).

Abbildung 4: Strukturen im Cobalt-Aluminiumoxid-Träger. Das Trägermaterial besteht aus γ-Aluminiumoxid (links; Sauerstoff: kleine, dunkelrote Kugeln ; Aluminium: große, rosafarbene Kugeln). Auf der Oberfläche des Trägers bildet sich beim Herstellungsprozess elementares Cobalt. Dieses katalysiert die Ammoniakzerlegung. Ein Teil des Cobalts wandert in den Träger und bildet einen Mischkristall (rechts). Das Cobalt ist in dieser Form (blau: CoO4) nicht mehr katalytisch wirksam. © C. Weidenthaler, MPI für Kohlenforschung / CC BY-NC-SA 4.0

Für die industrielle Anwendung ist es auch wichtig zu untersuchen, was passiert, wenn der „Cracker“-Reaktor abgeschaltet wird und das Katalysator-Trägermaterial abkühlt. Dem Team gelang es nicht mehr, Cobalt auf der Oberfläche des Trägermaterials nachzuweisen. Claudia Weidenthaler erklärt: „Wir vermuten, dass die Cobalt-Nanopartikel beim Abkühlen in noch kleinere Partikel zerfallen und deshalb mit der Röntgendiffraktometrie nicht mehr nachweisbar sind. Deshalb setzen wir nun Röntgenspektroskopie-Methoden ein, die eine atomare Auflösung erlauben.“ Damit kommt Claudia Weidenthalers Team dem „Filmen“ von Katalysevorgängen schon sehr nahe.

Optimierte Katalysatoren

Weitere offene Fragen sind: 

- Wohin wandert das Cobalt und in welcher Form liegt es vor?

- Verändert sich das Katalysator-Trägermaterial, wenn es mehrfach erhitzt wird und wieder abkühlt?

Die Suche nach einer geeigneten Kombination geht in Mülheim also weiter. Eine grundsätzliche Herausforderung ist dabei, dass der Katalysator mit dem Trägermaterial keine stabilen Bindungen eingehen darf, die ihn deaktivieren. Die andere Herausforderung: Der Katalysator darf mit den Produkten und Edukten keine Wechselwirkungen eingehen, die die Reaktion behindern.

Findet die Forschung hier gute, energieeffiziente Lösungen, wäre das ein großer Schritt zum Einsatz von Ammoniak als Wasserstoffspeicher.


*Der Artikel ist erstmals unter dem Titel: " Auf dem Weg zum Wasserstoffspeicher - Katalysatoren für die Ammoniakzerlegung"  https://www.max-wissen.de/max-hefte/techmax-10-ammoniakzerlegung-wasserstoffspeicher/   in TECH-Max 10 im Herbst 2023 erschienen und wurde mit Ausnahme von Titel und Abstract und leichten Kürzungen unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz


Ammoniak - Energieträger und Wasserstoffvektor

Max-Planck-Gesellschaft: Mit Ammoniak zu grünem Stahl (24.04.2023). https://www.mpg.de/20212313/gruener-stahl-klimaneutral-ammoniak

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min.https://www.youtube.com/watch?v=a_yUKX8zQfI&t=128s

Das Campfire Bündnis (BMBF): Wind und Wasser zu Ammoniak. https://wir-campfire.de/

EnergieZukunft (eu): Ammoniak in der Energiewirtschaft - Wasserstoff transportieren (14.11.2023). https://www.energiezukunft.eu/wirtschaft/wasserstoff-transportieren/

Frauenhofer ISE: Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende (21.9.2022). https://www.ise.fraunhofer.de/de/presse-und-medien/news/2022/ammoniak-als-wasserstoff-vektor-neue-integrierte-reaktortechnologie-fuer-die-energiewende.html

Deutsches Umweltbundesamt :Kurzeinschätzung von Ammoniak als Energieträger und Transportmedium für Wasserstoff - Stärken, Schwächen, Chancen und Risiken (15.02.2023). https://www.umweltbundesamt.de/dokument/kurzeinschaetzung-von-ammoniak-als-energietraeger  

Armin Scheuermann:Flüssiger Wasserstoff, Ammoniak oder LOHC – was spricht für welchen H2-Träger? (28.12.2022). https://www.chemietechnik.de/energie-utilities/wasserstoff/fluessiger-wasserstoff-ammoniak-oder-lohc-was-spricht-fuer-welchen-h2-traeger-381.html


 

inge Thu, 11.01.2024 - 17:52

Wird die künstliche Intelligenz helfen können, schwere Erdbeben vorherzusagen?

Wird die künstliche Intelligenz helfen können, schwere Erdbeben vorherzusagen?

Do, 04.01.2024 — Redaktion

Redaktion

Icon Geowissenschaften

Das Beben der Stärke 7,5 in Japan unterstreicht die Notwendigkeit von Erdbebenvorhersagen - eine Wissenschaft, die ihren "unseriösen" Ruf ablegt und sich der Realität annähert. Ein neuer Ansatz, Erdbeben mit Hilfe künstlicher Intelligenz vorherzusagen, hat Hoffnungen geweckt, dass die Technologie eines Tages eingesetzt werden könnte, um die Auswirkungen von Erdbeben auf Leben und Wirtschaft zu begrenzen. Der von Forschern der University of Texas in Austin entwickelte KI-Algorithmus hat während eines siebenmonatigen Versuchs in China 70 % der Erdbeben eine Woche vor ihrem Auftreten korrekt vorhergesagt.*

In Japan begann das neue Jahr mit einer Katastrophe: Am Montag, dem 1. Jänner erschütterte ein Erdbeben der Stärke 7,5 die Halbinsel Noto im Westen des Landes. Dutzende weiterer Nachbeben, viele mit einer Stärke zwischen vier und sechs, erschütterten in den folgenden Stunden die Umgebung des Epizentrums an der Küste, und Wissenschaftler warnen, dass in den kommenden Tagen noch weitere Beben erwartet werden. Die Japan Meteorologic Agency gab für weite Teile der Präfektur Ishikawa, in der sich das Beben ereignete, eine Tsunami-Warnung heraus, hat diese aber inzwischen auf eine Empfehlung reduziert. Bis Dienstagnachmittag wurde bestätigt, dass mindestens 55 Menschen ums Leben gekommen sind.

Japan ist mit mehr als 2 000 aktiven Verwerfungslinien eines der erdbebengefährdetsten Länder der Welt und hat eine lange Reihe tragischer Erdbeben hinter sich. Daher hat Japan, wie viele andere gefährdete Länder, in den letzten Jahrzehnten massiv in katastrophensichere Gebäude und Erdbebenwarnsysteme investiert.

Vorhersage des Zeitpunkts eines Bebens.....

Im Mittelpunkt der Erdbebenvorsorge steht jedoch der wohl umstrittenste Forschungsbereich: die Vorhersage des Zeitpunkts eines Bebens. Viele Wissenschaftler haben die Vorhersage von Erdbeben lange Zeit für unmöglich gehalten - oder sie sind ihr bestenfalls mit äußerst verhaltenem Optimismus näher gekommen. Abbildung 1.

Abbildung 1.Die Market Street in San Francisco nach dem katastrophalen Erdbeben - Friscobeben - im Jahr 1906. Mehr als 3000 Menschen starben. (Foto: gemeinfrei)

Noch im Jahr 2013 "galt das Thema Erdbebenvorhersage als unseriös und lag so außerhalb des Bereichs der Mainstream-Forschung wie die Jagd nach dem Ungeheuer von Loch Ness", schreibt die Seismologin Allie Hutchison im Fachjournal MIT Technology Review [1]. Und der U.S. Geological Survey (USGS) behauptet, dass "weder der USGS noch andere Wissenschaftler jemals ein großes Erdbeben vorhergesagt haben" [ 2] .

Angesichts der jüngsten Fortschritte im Bereich der künstlichen Intelligenz haben jedoch einige Forscher untersucht, ob sich dies ändern könnte. "Ich kann nicht sagen, dass wir das ändern werden, aber ich bin viel zuversichtlicher geworden, dass wir in den nächsten Jahrzehnten große Fortschritte machen werden. Ich habe jetzt mehr Hoffnung als je zuvor.", hat Paul Johnson im Jahr 2019 dem Smithsonian Magazine berichtet; Johnson ist ein Seismologe, der am Los Alamos National Laboratory mit maschinellem Lernen arbeitet [3].

.....erste Vorhersagen mit Hilfe von KI

Im vergangenen Herbst haben Forscher der University of Texas in Austin solchen Hoffnungen für die Erdbebenvorhersage mit einem siebenmonatigen Versuch in China neue Nahrung gegeben. In ihrer Studie, die im September im Bulletin of the Seismological Society of America veröffentlicht wurde, hat ein KI-Algorithmus 70 Prozent der Erdbeben eine Woche vor ihrem Auftreten korrekt voraus gesagt [4 ]. Das Team hat die künstliche Intelligenz anhand von seismischen Aufzeichnungen aus fünf Jahren (2016 - 2020; Anm. Redn.) trainiert und dann von ihr verlangt, bevorstehende Beben anhand der aktuellen seismischen Aktivität zu lokalisieren.

Insgesamt konnte der Algorithmus 14 Erdbeben vorhersagen, die jeweils weniger als 200 Meilen von ihrem tatsächlichen Epizentrum entfernt waren. Ein Beben wurde hingegen übersehen und acht vorhergesagt, die aber nicht stattfanden. Abbildung 2.

Abbildung 2. Die Karte zeigt die Lage der von der KI vorhergesagten Erdbeben in China (blaue Punkte), die durch eine rote Linie mit dem Ort verbunden sind, an dem das jeweilige Erdbeben tatsächlich stattfand (rote Punkte). Die Zahlen geben die Woche an, in der das Erdbeben stattfand. Während des 30-wöchigen Versuchs verpasste die von der UT Austin entwickelte KI nur ein Erdbeben. (Bild © Yangkang Chen / Jackson School of Geosciences)

Die Studie war Teil eines internationalen KI-Wettbewerbs, einer der wenigen Veranstaltungen dieser Art, die in den letzten Jahren durchgeführt wurden, um Technologien zur Erdbebenvorhersage voranzubringen [5].

"Die Vorhersage von Erdbeben ist der heilige Gral", sagt Sergey Fomel, Geowissenschaftler an der UT Austin und Mitglied des Forschungsteams, in einer Erklärung. "Wir sind noch nicht so weit, dass wir Vorhersagen für die ganze Welt machen können, aber das, was wir erreicht haben, zeigt uns, dass das, was wir für ein unmögliches Problem hielten, im Prinzip lösbar ist."

Möglichkeiten der KI

"Darüber hinaus könnte maschinelles Lernen Seismologen dabei helfen, verborgene Muster in Daten zu erkennen oder mehr Daten zu sammeln, um die Erdbebenvorhersage zu verbessern", schreibt Hutchison im MIT Technology Review. Einige Forscher zeigen zum Beispiel, wie die KI Aufzeichnungen von einem bestimmten seismischen Ort nutzen könnte, um die Stärke eines Erdbebens vorherzusagen. Ein Team hat neuronale Netzwerke entwickelt und trainiert, um vorherzusagen, wo nach einem Erstbeben Nachbeben auftreten könnten. Andere setzen maschinelles Lernen ein, um seismische Wellen - die Vibrationen, die sich bei tektonischen Aktivitäten durch die Erde ausbreiten - zu erkennen und aus einer verrauschten Aufzeichnung anderer Erschütterungen im Boden zu extrahieren.

Laut der Focus Group on A.I. for Natural Disaster Management der Weltorganisation für Meteorologie machen Erdbeben 21,8 Prozent aller Naturkatastrophen aus, bei denen zwischen 2018 und 2021 KI-Modelle zur Risikominderung eingesetzt wurden. Die zunehmende Forschung im Bereich der Erdbebenvorhersage weckt die Hoffnung der Wissenschaftler, dass weitere Durchbrüche möglich sind.

"Es gibt in unserer Gemeinschaft eine große Skepsis, und das aus gutem Grund", sagt Johnson gegenüber MIT Technology Review. "Aber ich denke, dass uns dies erlaubt, Daten zu sehen, zu analysieren und zu erkennen, was diese Daten enthalten, in einer Weise wie wir uns es nie hätten vorstellen können."


 [1] Allie Hutchison: How machine learning might unlock earthquake prediction. https://www.technologyreview.com/2023/12/29/1084699/machine-learning-earthquake-prediction-ai-artificial-intelligence/

[ 2 ] USGS: Can you predict earthquakes? https://www.usgs.gov/faqs/can-you-predict-earthquakes

[3] M.Berger: Could Machine Learning Be the Key to Earthquake Prediction? https://www.smithsonianmag.com/science-nature/could-machine-learning-be-key-earthquake-prediction-180972015/)

[4] O.M. Saad et al., Earthquake Forecasting Using Big Data and Artificial Intelligence: A 30‐Week Real‐Time Case Study in China. Bulletin of the Seismological Society of America (2023) 113 (6): 2461–2478. https://doi.org/10.1785/0120230031

[5] AETA Earthquake Prediction AI Algorithm Competition 2021. https://competition.aeta.io/


 *Der vorliegende Artikel von Christian Thorsberg ist unter dem Titel "Could A.I. Help Seismologists Predict Major Earthquakes?

https://www.smithsonianmag.com/smart-news/ai-help-seismologists-predict-major-earthquakes-180983519/ am 2. Jänner 2024 im Smithsonian Magazin erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


Anmerkungen der Redaktion:

  • Die Meinung der NASA zur Erbebenvorhersage

     "Daher möchte natürlich jeder wissen, ob Wissenschaftler Erdbeben vorhersagen können. Die kurze Antwort lautet nein. Aktuelle Smartphone-Apps können nur wenige Sekunden vor einem bestimmten Gebiet warnen, und Wissenschaftler können die Wahrscheinlichkeit abschätzen, dass eine Verwerfung irgendwann in den nächsten Jahrzehnten ausbricht, aber niemand kann genau vorhersagen, wann ein Erdbeben stattfinden wird":

      NASA Understanding Earthquakes: https://www.jpl.nasa.gov/topics/-earthquakes

  • EU-Project (2021 - 2026):

     Das EU-finanzierte Projekt EARLI wird KI einsetzen, um schwache, frühe seismische Signale zu erkennen und so die Frühwarnung voranzubringen sowie Möglichkeiten der Erdbebenprognose zu erforschen:

    Detection of Early seismic signal using ARtificiaL Intelligence: https://cordis.europa.eu/project/id/949221/de

  • Eine neue Technologie

    Am Center for High Energy Geophysics Research des Earthquake Research Institute (University of Tokyo) wird die Vulkanmyografie eingesetzt, ein neuer Ansatz für die Erforschung von Vulkanologie und Naturkatastrophen. Es ist eine Visualisierungstechnik, die sich der Myonen bedient, Elementarteilchen mit einer hohen Durchschlagskraft, die sogar Gestein von mehreren Kilometern Dicke durchdringen und die Dichteverteilung im Inneren massiver Strukturen - beispielsweise die Dynamik der Magma-Konvektion - aufzeigen können.

    Blick ins Innere der Erde mit Hilfe von Elementarteilchen: https://www.u-tokyo.ac.jp/focus/en/features/f_00059.html


 

inge Thu, 04.01.2024 - 01:18