2024
2024 inge Thu, 04.01.2024 - 01:13Wie das Gehirn von Abfallstoffen gereinigt wird
Wie das Gehirn von Abfallstoffen gereinigt wirdDo 14. 11.2024— Christian Wolf
Das Gehirn ist rund um die Uhr aktiv. Dabei fällt viel Müll an. Um diesen zu beseitigen, haben unsere grauen Zellen eine eigene Putzkolonne, die wir noch gar nicht so lange kennen: Das sogenannte glymphatische System nutzt die Hirnflüssigkeit, die durch Kanäle und Zellzwischenräume im Gehirn fließt, um Stoffwechselprodukte und Toxine aufzunehmen und abzutransportieren. Schlaf fördert möglicherweise die Effizienz des Reinigungssystems: Zellzwischenräume im Gehirn vergrößern sich während des Schlafs, was eine bessere Abfallentsorgung ermöglicht. Einige Forschungsergebnisse stellen diese Rolle des Schlafs allerdings in Frage.*
Die Putzkolonne im Gehirn |
Das Gehirn gleicht ein wenig einem modernen Firmengebäude. Die Hirnregionen sind dabei die einzelnen Abteilungen. In jedem gut funktionierenden Bürokomplex braucht es ein effizientes Reinigungssystem, um alles sauber zu halten. Auch das Gehirn hat eine eigene Reinigungscrew, die dafür sorgt, dass der Laden reibungslos läuft.
Im restlichen Körper entfernt das Lymphsystem überschüssige Flüssigkeit, Abfallstoffe, Zelltrümmer, Krankheitserreger und andere unerwünschte Substanzen aus den Geweben. Doch wie wird das Gehirn seinen Müll los? Diese Frage ist nicht ganz unwichtig, da das Gehirn einen besonders aktiven Stoffwechsel hat. Entsprechend fällt auch einiges an Abfallprodukten an.
Der Fluss des Liquors
Bis vor kurzem glaubten Forscher, das Gehirn habe kein eigenes Lymphsystem, das die Reinigung übernimmt. Über ein Jahrhundert lang nahm man an, der Fluss des Liquors, der Hirnflüssigkeit, übernehme diese Funktion. Die Hirnflüssigkeit umgibt Gehirn und Rückenmark, schützt sie vor Stößen und transportiert Nährstoffe zu den Nervenzellen – und Substanzen von diesen weg. Abbildung 1 (von Redn. eigefügt).
Abbildung 1. Die Hirnflüssigkeit (Liquor) wird in den Hirnkammern (Ventrikeln) gebildet, fließt in den Raum zwischen der mittleren Hirnhaut (Arachnoidea) und der inneren Hirnhaut (Pia mater). Von hier aus umspült der Liquor das Gehirn und absteigend als Rückenmarksflüssigkeit das Rückenmark. (Bild: Advanced Anatomy 2nd. Ed. Copyright © 2018 by PHED 301 Students.Lizenz:cc-by-nc-nd.) |
Zwar verspottet man Menschen, die nicht ganz so helle sind, gerne als Hohlköpfe. Doch tatsächlich sind wir im Grunde alle Hohlköpfe, denn tief in seinem Inneren ist das Gehirn tatsächlich hohl. Das liegt am Ventrikelsystem, einem Netzwerk miteinander verbundener Hohlräume, in denen sich die Hirnflüssigkeit befindet. Diese Ventrikel produzieren den Liquor und verteilen ihn.
Forscher gingen nun davon aus, dass sich von Nervenzellen und Gliazellen produzierte Abfallstoffe und Stoffwechselprodukte in der Hirnflüssigkeit sammeln und mit dieser in einer Art passivem Transport entfernt werden. Der Haken an dieser These: Dieser Vorgang wäre viel zu langsam, um eine effektive Müllabfuhr zu bilden. Es muss demnach anders laufen.
Das feinkörnige Bild
Erst 2012 entdeckten Forscher um die dänische Neurowissenschaftlerin Maiken Nedergaard vom University of Rochester Medical Center, dass das Gehirn ein eigenes Abfallentsorgungssystem besitzt – ähnlich dem Lymphsystem im restlichen Körper. Sie nannten es das "glymphatische System". Der Name setzt sich aus „Glia“ und „lymphatisch“ zusammen, da Gliazellen darin eine wichtige Rolle spielen. Das glymphatische System ist ein fließendes Durchlaufsystem zum Abtransport von überflüssigen und schädlichen Stoffen, bei dem auch der Liquor eine wichtige Rolle spielt. Abbildung 2 (von Redn. eigefügt).
A Das glymphatische System - Zufluss, Austausch Liquor(CSF) - Interstitielle Flüssigkeit( ISF) und Abfluss: Der Zufluss von Liquor in das Gehirn erfolgt über die para-arteriellen Bahnen und wird dann mit der ISF ausgetauscht. Der gemischte Liquor und der ISF mit den interstitiellen Stoffwechselabfällen fließen in die paravenösen Bahnen und von dort in das Lymphgefäßsystem. AQP4: Wasserkanäle . (Bild: Quan Jiang, MRI and glymphatic system. https://doi.org/10.1136/svn-2018-000197 cc-by-nc ) |
Im Rahmen der Abfallentsorgung fließt der Liquor durch verschiedene Räume im Gehirn. Dazu gehören winzige Kanäle, die parallel zu den Blutgefäßen verlaufen. Sie befinden sich zwischen den Blutgefäßen und dem umgebenden Gewebe.
Anschließend tritt die Hirnflüssigkeit in das Hirngewebe ein. Hier kommen die Gliazellen, genauer Astrozyten, ins Spiel. Diese Hirnzellen besitzen wasserleitende Kanäle in ihren Endfüßchen. Durch diese Kanäle wird der Liquor in die Zellzwischenräume des Gehirngewebes verteilt, also in den Bereich, der nicht von Blutgefäßen, Nervenfasern oder Zellen eingenommen wird.
Das Entscheidende ist nun: Während die Hirnflüssigkeit durch das Hirngewebe fließt, nimmt sie Abfälle auf, die durch den Zellstoffwechsel entstehen. Wie schon die Originalstudien von Maiken Nedergaard und ihren Kollegen 2012 deutlich machten, gehört dazu Beta-Amyloid. Dieses Eiweiß genießt einen schlechten Ruf. Denn die Ansammlung und Ablagerung des Proteins wird mit der Entstehung der Alzheimer-Erkrankung in Verbindung gebracht. Schließlich wird der Liquor samt Abfallstoffen entlang der Venen wieder abtransportiert. Klappt der Abtransport von Stoffen wie Beta-Amyloid nicht gut, könnte das möglicherweise dieEntstehung von neurodegenerativen Erkrankungen wie Alzheimer begünstigen.
Warum wir schlafen
Quasi nebenbei hat Maiken Nedergaard mit ihrer Forschung zum glymphatischen System auch einen möglichen Grund dafür gefunden, warum wir überhaupt schlafen. Wie wichtig guter Schlaf ist, fällt uns in der Regel dann auf, wenn er uns fehlt. War die Nacht mal wieder viel zu kurz, schlägt das nicht nur auf die Stimmung. Meist sind wir dann geistig nicht voll auf der Höhe. Den genauen Grund dafür kennt die Wissenschaft nicht.
Einer der Funktionen von Schlaf könnte darin liegen, dass das Gehirn währenddessen den eigenen Haushalt auf Vordermann bringt. Wie Maiken Nedergard 2013 in einer Studie an Mäusen belegen konnte, wird offenbar im Zuge des Schlummerns am meisten Müll abtransportiert. Der Zwischenraum zwischen den Zellen im Gehirngewebe nahm während des Schlafs durch Schrumpfung der Zellkörper um bis zu 60 Prozent zu.
Verantwortlich dafür ist unter anderem Noradrenalin, ein Botenstoff, der das Wachheitsniveau reguliert. Er scheint gleichzeitig die Größe des Zellzwischenraums zu steuern. Noradrenalin-vermittelte Signale verändern offenbar das Zellvolumen und verkleinern dadurch den Raum zwischen den Hirnzellen. Hemmten Nedergaard und ihre Kollegen diese Signale medikamentös, vergrößerte sich der Zwischenraum zwischen den Zellen. Das führte zu einer effizienteren Beseitigung von Abfallprodukten ähnlich wie im Schlaf.
Der naheliegende Vorteil von größeren Zellzwischenräumen während des Schlafs: Durch mehr Platz zwischen den Zellen kann die Hirnflüssigkeit besser zirkulieren und die Abfallstoffe effizienter abtransportieren. Tatsächlich wurde Beta-Amyloid in der Untersuchung von Nedergaard aus den Gehirnen schlafender Mäuse doppelt so schnell beseitigt wie bei wachen Mäusen. Ein weiterer Vorteil: Der Schlaf ermöglicht es dem glymphatischen System, intensiver zu arbeiten. Denn die Energie, die im Gehirn sonst für kognitive und andere Leistungen draufgeht, steht dann für die Reinigung des Gehirns zur Verfügung. In einer Untersuchung von 2019 kam Nedergaard zu dem Ergebnis, dass vor allem im Tiefschlaf die Abfallentsorgung auf Hochtouren läuft: „Schlaf ist entscheidend für die Funktion des Abfallbeseitigungssystems des Gehirns“, sagt sie in einer Pressemitteilung. „Und diese Studie zeigt, je tiefer der Schlaf ist, desto besser."
Müllabfuhr: Im Schlaf wirklich effektiver?
Allerdings stellte kürzlich eine Studie infrage, ob Schlaf wirklich dazu dient, die Abfallentsorgung zu unterstützen. Nick Franks, Professor für Biophysik und Anästhesie am Imperial College London, und seine Kollegen kamen genau zu dem gegenteiligen Ergebnis: Stoffe im Gehirn von Mäusen wurden während des Schlafs nicht etwa stärker beseitigt – der Abtransport war sogar deutlich vermindert. "Die Idee, Schlaf könne das Gehirn von Stoffwechselprodukten befreien, war verlockend", sagt Nick Franks. Aber die Daten, die dies untermauern sollten, seien meist indirekt gewesen. "Man hat gemessen, wie schnell bestimmte Nachweismoleküle in das Gehirn gelangten. Und hat dies als Ersatz für das, was hinausging, angesehen.“ Seine eigenen Daten seien direkter. Tatsächlich hatten die Wissenschaftler um Franks Markermoleküle ins Gehirn injiziert und gemessen, wie schnell sie wieder austraten. Schlaf und Narkosemittel hemmten die Ausscheidung. "Daher ist es unwahrscheinlich, dass die Ausscheidung von Stoffwechselprodukten der Hauptgrund dafür ist, dass wir schlafen müssen."
Ob im Schlaf wirklich der Großputz stattfindet, ist also nicht ganz klar. Dafür häufen sich die Belege, dass das Gehirn tatsächlich über eine eigene Putzkolonne verfügt. Ähnlich wie ein modernes, gut funktionierendes Firmengebäude.
-Zum Weiterlesen
- Hablitz , L.M. et al.: Increased glymphatic influx is correlated with high EEG delta power and low heart rate in mice under anesthesia. In: Sci Adv 2019 Feb 27;5(2):eaav5447.
- Miao , A. et al.: Brain clearance is reduced during sleep and anesthesia. In: Nat Neurosci 2024 Jun;27(6):1046-1050.
* Der Artikel von Christian Wolf ist unter dem Titel " Die Putzkolonne im Gehirn" auf der Webseite www.dasGehirn.info am 1.Mai 2024 erschienen (https://www.dasgehirn.info/die-putzkolonne-im-gehirn). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurden 2 Abbildungen eingefügt.
dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).
Artikel zum Thema im ScienceBlog:
Redaktion, 19.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.
Inge Schuster, 12.02.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum.
Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?
Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?Mo, 11.11.2024 — Redaktion
Ernährung und dadurch bedingte Veränderungen des Darm- Mikrobioms haben Auswirkungen auf diverse Autoimmunerkrankungen. Eine neue Untersuchung an einem Mausmodell der Multiplen Sklerose (MS) analysiert nun die komplexen Interaktionen zwischen Wirt und Mikrobiom und erklärt, wie eine ketogene Diät vor der Erkrankung schützt: Der Diät-bedingt im Wirtsorganismus entstehende Ketonkörper b-Hydroxybuttersäure (b-HB) ist notwendig und selbst ausreichend, um Inzidenz und Schwere der Erkrankung zu reduzieren. Zudem regt b-HB ein Darmbakterium zur Produktion des Stoffwechselprodukts Indol-Milchsäure (ILA) an, welches die für MS charakteristischen Entzündungsrektionen blockiert. Falls sich diese Ergebnisse auf den Menschen übertragen lassen, könnte anstelle einer restriktiven Keto-Diät Supplementierung von b-HB direkt zur Behandlung von Autoimmunkrankheiten eingesetzt werden.
Ketogene Diäten werden zwar bereits seit mehr als hundert Jahren klinisch angewandt, um epileptische Anfälle vor allem bei therapieresistenten (jugendlichen) Patienten zu kontrollieren, ihre Popularität hat aber erst in den letzten Jahrzehnten sprunghaft zugenommen. Keto-Diäten verhelfen zur Gewichtsabnahme, zeigen vielversprechende Auswirkungen u.a. auf das metabolische Syndrom, auf Entzündungen, Krebserkrankungen und können das Mikrobiom vorteilhaft verändern. Wie Langzeitstudien an Kindern und jungen Erwachsenen gezeigt haben, ist eine kohlenhydratreduzierte ketogene Diät offensichtlich gesundheitlich unbedenklich.
Seit mehr als 10 Jahren mehren sich die Berichte, wonach ketogene Diäten die Symptome von Autoimmunkrankheiten - darunter Multiple Sklerose (MS), entzündliche Darmerkrankungen, rheumatoide Arthritis und auch Diabetes -verbessern. Ob die Wirkung dieser Ernährungsform über den Wirt und/oder das Mikrobiom zustande kommt, war bislang unklar. Ein vorwiegend von der Universität San Francisco (UCSF) stammendes Forscherteam konnte nun diese Frage an Hand eines allgemein akzeptierten Modells für Autoimmunerkrankungen aufklären und damit möglicherweise den Weg zu einer erfolgversprechenden Therapie dieser Krankheiten bereiten [Alexander et al., 2024].
Abbildung 1: Ketogene Diät: viel Fett, aureichend Protein, sehr wenig Kohlenhydrate (Bild: Mohamed_hassan, gemeinfrei) |
Eine Schlüsselrolle spielt der Metabolit b-Hydroxybuttersäure, der diätbedingt in höherer Menge im Wirtsorganismus produziert wird und über eine Veränderung des Darm-Mikrobioms zu einer verringerten Aktivierung des Immunsystems führt.
Der folgende Abschnitt gibt eine kurze Information zu diesem Metaboliten.
Was macht eine ketogene Diät aus?
In der Normaldiät liefern kohlenhydratreiche Lebensmittel wie Brot, Nudeln, Reis, Süßwaren und Obst den primären Energielieferanten im Zellstoffwechsel, die Glukose. Bei einer täglichen Zufuhr von 2000 kcal werden im Mittel 275 g Kohlenhydrate aufgenommen. (Abbildung 1, rechts oben).
Die Keto-Diät schränkt solche Lebensmittel sehr stark ein, erlaubt aber ausreichende Proteinzufuhr und nahezu unbegrenzten Verzehr von Fett. (Abbildung 1, rechts unten.) Werden einem Erwachsenen täglich weniger als 50 g Kohlenhydrate zugeführt, so reicht dies nicht mehr aus, um den Organismus mit Glukose zu versorgen und dieser schaltet den Stoffwechsel um und gewinnt Energie aus der Fettsäure-Oxidation (Lipidoxidation).
Der als Ketogenese bezeichnete Prozess
findet in den Mitochondrien vor allem der Leber- und Darmepithelzellen statt; er ist in Abbildung 2 vereinfacht dargestellt: Aus den Fettsäuren entstehen aktivierte Essigsäure (Acetyl-CoA) und in einer Reihe von Folgereaktionen drei sogenannte Ketonkörper: Acetoacetat, Aceton und b-Hydroxybuttersäure. Geschwindigkeitsbestimmend für die Umsetzung ist das Enzym HMG-CoA Synthase. Die wasserlöslichen Ketonkörper Acetoacetat und b-Hydroxybuttersäure treten in den Blutkreislauf ein und dienen praktisch allen Zellen als Energielieferanten. Darüber hinaus zeigen sie weitreichende Auswirkungen auf das Immunsystem; u.a. unterdrücken sie Entzündungsreaktionen und modifizieren die Funktion von T-Zellen (Th17-Zellen).
Abbildung 2: Von der Fettsäureoxidation zu den Ketonkörpern (lila) Acetoacetat, Aceton und b-Hydroxybuttersäure . Stark vereinfachte Darstellung. Rote.Pfeile: Enzymreaktionen. HMG-CoA-Synthase katalysiert den geschwindigkeitsbestimmenden Schritt. Schwarzer Pfeil: spontane , nichtenzymatische Reaktion. |
Von der Keto-Diät zur Entdeckung von zwei Schlüsselsubstanzen zur Therapie von Autoimmunerkrankungen
Die hier berichtete Studie des Forscherteams um Peter J. Turnbaugh (University San Francisco) wurde an einem Mausmodell der experimentellen Autoimmun-Enzephalomyelitis (EAE) durchgeführt [Alexander et al., 2024]. Dabei wird die Krankheit durch Immunisierung mit einem Peptid hervorgerufen, das zu autoimmuner Demyelinisierung der Nervenfasern führt. Unter allen Modellen der Multiplen Sklerose spiegelt dieses Modell deren Autoimmunpathogenese am besten wider und wird weltweit in der Forschung aber auch in der Entwicklung von Therapien am häufigsten verwendet.
Schlüsselrolle von b-Hydroxybuttersäure
Wie erwartet reduzierte die Keto-Diät (KD: 90,5 % Fett, 0 % Kohlenhydrate, 10 % Protein) die Schwere und die Inzidenzrate der Erkrankung im Vergleich zur Kontrollgruppe (HFD: mit zu KD abgestimmten Zutaten 75 % Fett, 15 % Kohlenhydrate, 9,5 % Protein), die zwar einen hohen Fettanteil aufwies aber auch ausreichend Kohlenhydrate, um nicht auf Ketogenese umzuschalten. Abbildung 3 A, B. In der KD-Gruppe war dagegen die b-Hydroxybuttersäure im Blut auf das rund Fünffache erhöht und die für EAE charakteristischen Immunzellen und Entzündungsfaktoren stark reduziert.
Ein völlig überraschendes Ergebnis der Studie war, dass Supplementierung der Kontrollgruppe (HFD-Mäuse) allein mit b-Hydroxybuttersäure(-ester: KE)) ausreicht, um eine mit der Keto-Diät vergleichbar starke Reduktion der EAE zu erzielen (Abbildung 3 C,D).
Bei transgenen Mäusen, deren HMG-CoA-Synthase (siehe Abbildung 2) ausgeschaltet ist und, die daher nicht in der Lage sind b-Hydroxybuttersäure im Darm zu produzieren, erweist sich die Keto-Diät als wirkungslos - die Tiere entwickeln eine der Kontrollgruppe gleichende schwere Krankheit (Abbildung 3 E,F).
Abbildung 3: In einem Mausmodell für Multiple Sklerose reduziert ketogene Diät Schwere und Inzidenzrate der Erkrankung. A, B: Vergleich Ketogene Diät (KD) versus nicht-ketogene Diät (HFD). C, D Supplementierung der nicht-ketogenen Diät (HFD) mit b-Hydroxybuttersäure (ester) führt zu vergleichbar hohem Schutz wie die ketogene Diät. E, F: Ketogene Diät zeigt bei transgenen Tieren (Hmgcs2IEC, die auf Grund der ausgeschalteten HMG-CoA-Synthase keine b-Hydroxybuttersäure produzieren können, keine Schutzwirkung wie der Wildtyp (Hmgcs2WT). G,H: Bei keimfreien (d.i. ohne Mikrobiom gezüchteten) Mäusen kannt die Keto-Diät trotz gesteigerter b-Hydroxybuttersäure Produktion den Krankheitsverlauf nicht positiv beeinflussen. (Daten sind Mittelwerte ± SEM; jeder Punkt stammt von einer einzelnen Maus. Bilder stammen aus Figures 1, 2, 3 in Alexander et al., 2024, Lizenz cc-by.) |
b-Hydroxybuttersäure wirkt über das Mikrobiom
Im Gegensatz zu "nomalen" Tieren zeigte die Keto-Diät bei keimfrei - d.i. ohne Mikrobiom - gezüchteten (GF) Mäusen keinerlei Auswirkungen auf Schwere und Inzidenz der EAE (Abbildung 3 G, H), obwohl diese Tiere mehr als fünffach erhöhte b-Hydroxybuttersäure-Spiegel aufwiesen. Offensichtlich war also das Darm-Mikrobiom notwendig, um b-Hydroxybuttersäure wirksam werden zu lassen.
Um herauszufinden, wie dieser Metabolit das Darmmikrobiom beeinflusst, isolierte das Forscherteam Bakterien aus den Därmen von Mäusen, die mit der Keto-Diät, der fettreichen HF-Diät oder der mit der b-Hydroxybuttersäure supplementierten HF-Diät gefüttert wurden und untersuchten jede dieser Gruppen auf Stoffwechselprodukte. Es stellte sich heraus, dass die positiven Auswirkungen der Keto-Diät auf einen Typ der Lactobacíllus Species - Lactobacillus murinus - zurückzuführen waren. L. murinus produziert Indol-Milchsäure (ein Abbauprodukt der Aminosäure Tryptophan). Dieser Metabolit unterdrückt die Funktion bestimmter T-Zellen (Th17), die u.a. den für die Pathogenese von MS charakteristischen Entzündungsfaktor IL-17 produzieren.
Schlussendlich behandelten die Forscher die Mäuse anstelle der Keto-Diät direkt mit dem Keim L.murinus oder mit dessen Metabolit Indol-Milchsäure und konnten feststellen, dass dies die Tiere in gleicher Weise vor EAE schützte, wie die Keto-Diät oder der Wirtsmetabolit b-Hydroxybuttersäure.
Abbildung 4 fasst die erfolgversprechenden Auswirkungen der Keto-Diät auf das Modell der multiplen Sklerose zusammen.
Abbildung 4: Zwei Verbindungen bestimmen die neuroprotektive Wirkung der ketogenen Diät: Die durch die Diät im Wirtsorganismus erzeugte Hydroxybuttersäure (HB), die wiederum das Darmmikrobiom zugunsten von Produzenten der Indol-Milchsäure (ILA) verändert, welche Entzündungsreaktionen des Immunsystems unterdrückt. (Bild stammt aus Alexander et al., 2024, Lizenz cc-by.) |
Fazit
Ketogene Diät schützt vor einer Autoimmunerkrankung in einer Mikrobiom-abhängigen Weise.
Der durch die Diät vom Wirtsorganismus erzeugte Metabolit b-Hydroxybuttersäure ist für die Schutzwirkung notwendig und alleine ausreichend.
b-Hydroxybuttersäure verändert die Diversität des Mikrobioms zugunsten von Bakterien, die Indol-Milchsäure produzieren; dieser bakterielle Metabolit unterdrückt entzündungsfördernde Immunzellen (Th17) und trägt so zur neuroprotektiven Wirkung bei.
Falls sich diese Ergebnisse auf den Menschen übertragen lassen, könnte anstelle einer restriktiven Keto-Diät Supplementierung von b-Hydroxybuttersäure direkt zur Behandlung von Autoimmunkrankheiten eingesetzt werden. Die Wirkung könnte möglicherweise durch zusätzliche Gabe von Indol-Milchsäure verstärkt werden.
---------------------------------
Anmerkung der Redaktion: b-Hydroxybuttersäure wird tatsächlich durch ketogene Diät im Menschen massiv hochreguliert!
Vor 9 Monaten wurde im ScienceBlog über eine randomisierte klinische Untersuchung berichtet, in der die Auswirkungen von ketogener Diät und veganer Diät auf Stoffwechsel, Immunsystem und Mikrobiom mit Hilfe eines Multiomic Anatzes verglichen wurden (Redaktion, 16.02.2024). Von den insgesamt im Plasma erfassten 860 Stoffwechselprodukten (Metaboliten) waren 131 bei ketogener Ernährung hochreguliert. Von allen strukturell identifizierten Metaboliten war b-Hydroxybuttersäure am stärksten hochreguliert (mittlere relative Plasmaspiegel bei Normaldiät 1,29, bei Keto-Diät 5,36 und bei veganer Diät bei 0,30. (Link V.M et al, 22024, Supplementary Information: Table 5)).
Alexander et al., 2024, A diet-dependent host metabolite shapes the gut microbiota to protect from autoimmunity. Cell Reports, 114891. https://doi.org/10.1016/j.celrep.2024.114891
Redaktion, 16.02.2024: Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt.
Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2
Die Problematik von "Do Your Own Research" und "Believe in Science"
Die Problematik von "Do Your Own Research" und "Believe in Science"Do,31.10.2024 — Ricki Lewis
Der Slogan "Do Your Own Research" (DYOR) wurde in den 1990er Jahren von dem US-Verschwörungstheoretiker Milton William Cooper geprägt. DYOR, das für „Mach' Deine eigene Recherche“ steht, d.i. sich selbst zu informieren, anstatt alles zu glauben, was man liest, wurde zum geflügelten Wort in der Kryptoszene und in den 2010er Jahren häufig von Impfgegnern im Internet verwendet. Während der COVID-Pandemie zeigten sich dann die negativen Auswirkungen von DYOR, eine Überfülle von selbst-recherchierten Fehlinformationen online und offline nährte Gerüchte und Verschwörungstheorien: das Misstrauen gegenüber wissenschaftlichen Institutionen und staatlichen Maßnahmen zur Eindämmung der Pandemie wuchs und wurde politisch instrumentalisiert, es wurden etablierte Beweise für die Wirksamkeit von Impfstoffen negiert, und insgesamt eine noch immer anhaltende globale Anti-Impf-Bewegung ausgelöst. Die Genetikerin Ricki Lewis zeigt die Problematik von DYOR auf, die heute zumeist bedeutet, dass mit Hilfe von Suchmaschinen Informationen gefunden werden, die bestätigen, was man bereits für wahr hält, aber auch von "Believe in Science", da Emotionen in der Wissenschaft fehl am Platze sind.*
Während der Pandemie haben wir uns an unsere Entscheidungsträger gewandt, um aktuelle Informationen über die beispiellose, sich rasch verschlechternde Situation zu erhalten. Als die Tage dann zu Wochen wurden, die Kranken vor den Krankenhäusern der Stadt Schlange standen, flehten wir nach Informationen. Doch vieles davon kam in einer unbekannten Sprache, in der Sprache der Virologie und Immunologie, der öffentlichen Gesundheit und der Epidemiologie.
In jenen frühen Tagen waren Politiker und Regierungsbeamte, die Begriffe wie "Zytokinsturm" und "RNA-Virus" noch nie gehört hatten, plötzlich gefordert, zu erklären, was vor sich ging. Zum Glück meldeten sich sachkundige Stimmen zu Wort. Experten trafen sich regelmäßig mit Wissenschaftsjournalisten und lieferten technische Updates, die wir in unsere Artikel, Blogbeiträge, Podcasts und andere Kommunikationsmittel einfließen ließen.
"Do Your Own Research" fördert wissenschaftlichen Analphabetismus
COVID hat das Mantra DYOR - Do your own research - zu neuem Leben erweckt. "Der Satz "Mach' Deine eigene Recherche" scheint heutzutage allgegenwärtig zu sein, oft von Leuten geäußert, die "Mainstream"-Wissenschaft nicht akzeptieren, von Verschwörungstheoretikern und vielen, die sich als unabhängige Denker aufspielen. Oberflächlich betrachtet scheint das legitim zu sein. Was kann daran falsch sein, Informationen zu suchen und sich eine eigene Meinung zu bilden?"[1]
Allerdings "Recherche/Forschung" zu betreiben, indem man auswählt, was man liest, sieht oder hört, ist überhaupt nicht dasselbe wie die Forschung, die Wissenschafter betreiben. Forscher achten nicht nur auf die Daten, die ihre Hypothesen unterstützen - in der Wissenschaft geht es vielmehr darum, Hypothesen zu verwerfen, weiter zu denken und neue Experimente zu designen, um etwas in der Natur zu untersuchen. In der Wissenschaft geht es um Daten, nicht um "Inhalte".
Die Quellen schreiben den Ursprung von DYOR Milton William "Bill" Cooper zu, der in den 1990er Jahren weithin als "amerikanischer Verschwörungstheoretiker" bezeichnet wurde (u.a. besaß er angeblich Dokumente, die die Anwesenheit von Außerirdischen auf der Erde bestätigten, was aber von amerikanischen Behörden vertuscht wurde; Anm. Redn.). Zwanzig Jahre später heizte sein DYOR die Anti-Impf-Bewegung an und widerlegte seit Dekaden etablierte Beweise für die Wirksamkeit von Impfstoffen. Die Angst vor Impfstoffen tauchte in Verbindung mit QAnon (von Amerika ausgehende Verschwörungstheorien mit rechtsextremem Hintergrund, Anm. Redn.) während der Pandemiejahre wieder auf und hat sich auch in der Zeit nach COVID nicht gelegt.
Abbildung. DYOR - Mach' Deine eigene Recherche: Fehleinschätzungen während der COVID-19 Pandemie. (Bild modifiziert nach Fernandozhiminaicela https://pixabay.com/photos/covid-19-coronavirus-pandemic-4985553/) |
Unterstützung für 'DYOR' steht in Zusammenhang mit COVID-19-Fehleinschätzungen und Misstrauen in die Wissenschaft
Sedona Chinn von der University of Wisconsin und Ariel Hasell von der University of Michigan haben im Juni 2023 im Harvard Kennedy School Misinformation Review die Studie "Support for 'doing your own research' is associated with COVID-19 misperceptions and scientific mistrust" veröffentlicht. [2] (Chinn und Hasell sind selbst keine Wissenschafter - ihr Fachgebiet ist die Vermittlung von Wissenschaft).
Darin haben Chinn und Hasell die Daten einer YouGov-Umfrage von erwachsenen US-Bürgern analysiert, die im Dezember 2020 an 1.500 Personen und im März 2021 an weiteren 1.015 Personen durchgeführt wurde. Die Teilnehmer wurden gefragt, ob sie drei Aussagen über DYOR zustimmten, die auf einer 7-Punkte-Skala von "stimme überhaupt nicht zu" bis "stimme voll und ganz zu" bewertet wurden:
1. "Jeder kann ein Experte auf einem Gebiet sein, wenn er nur genug recherchiert".
2. "Ich ziehe es vor, selbst zu recherchieren, anstatt mich auf Experten und Intellektuelle zu verlassen".
3. "Die Meinung von Menschen, die selbst recherchiert haben, ist genauso gültig wie die Meinung von Experten und Intellektuellen."
Die statistische Auswertung zeigte, was wir instinktiv wissen oder zumindest vermuten. Chinn und Hasell kommen zu dem Schluss:
1. "Menschen überschätzen oft ihre Fähigkeiten, Informationen zu suchen und zu interpretieren, und neigen dazu, nach Informationen zu suchen, die mit bereits vorhandenen Werten, Überzeugungen und Identitäten übereinstimmen. Voreingenommenheit in der Wahrnehmung kann zu falschen Schlussfolgerungen führen, insbesondere dann, wenn den Einzelnen Fachwissen und Schulung in wissenschaftlichen Arbeitsweisen fehlen oder sie sich auf ihr Bauchgefühl verlassen."
2. DYOR kann auch "die Skepsis gegenüber wissenschaftlichen Institutionen und Mainstream-Informationsquellen fördern, indem betont wird, wie diese die Öffentlichkeit in die Irre führen könnten. Solche Aufrufe können die Sichtweise widerspiegeln, dass wissenschaftliche Institutionen oder Mainstream-Nachrichtenmedien korrupt sind oder eine versteckte Agenda haben, die den eigenen Weltanschauungen und Zielen feindlich gegenübersteht. Wenn auch DYOR-Aussagen nicht ausschließlich zur Förderung von Fehlinformationen verwendet werden, so zeigen unsere Ergebnisse, dass DYOR-Sichtweisenen mit Misstrauen gegenüber wissenschaftlichen Einrichtungen und COVID-19-Fehleinschätzungen zusammenhängen." Selbst gut gemeinte DYOR könnte die Skepsis gegenüber offiziellen Informationsquellen fördern, fügen sie hinzu.
3. Eine weitere Verwendung von DYOR kann darin bestehen, eine "politische Identität gegen das Establishment" zu unterstützen, anstatt nach Daten, Beweisen oder Informationen zu suchen. An der Impfstofffront "wird DYOR oft in Verbindung mit Ressentiments gegenüber Ärzten und Wissenschaftern angeführt, die persönliche Erfahrung und Intuition abtun ... eine Manifestation der Verachtung für Eliten und nicht eine Bestätigung der Bedeutung unabhängiger Forschung."
"Believe in Science" datiert länger zurück als DYOR, ist aber noch problematischer
Ich kann Memes nicht leiden. (Memes sind (meist witzige) kurze Videos oder Bilder mit Schriftzügen, die sich im Internet in rasantem Tempo verbreiten; Anm. Redn.) Wenn es um keine Ansichtssachen geht, können sie unrichtig sein, aber dennoch verlässlich klingen, vor allem, wenn sie kopiert und eingefügt werden wie ein transponierbares Element ("springendes Gen"), das über ein Genom flitzt.
Eine gute Freundin hat kürzlich einen besonders ärgerlichen Satz auf Facebook gepostet: "Fakten zu glauben und der Wissenschaft zu vertrauen, bedeutet nicht, dass man ein 'Liberaler' ist. Es bedeutet, dass man 'gebildet' ist."
"Believe in Science" - "Glaube" und "Vertrauen" sind Emotionen, die in der Wissenschaft nichts verloren haben. |
Das Problem dabei ist, dass "Glaube" und "Vertrauen" Emotionen sind. Sie haben in der Wissenschaft nichts verloren. Die erste Antwort auf den Facebook-Post meiner Freundin: "Wir sollten nicht vergessen, dass ein Großteil der *Wissenschaft* von der Regierung und speziellen Interessengruppen finanziert wird. Recherchieren Sie selbst und machen Sie einen sogenannten *Faktencheck.*" spiegelt genau das wider, was Chinn und Hasell in ihrer Analyse (s.o.) festgestellt hatten.
Der DYOR-er setzt damit wissenschaftliche Forschung einer "Forschung" gleich, die aus dem Lesen von Memes besteht, entscheidet was Wissenschaft ist und was nicht, nach dem, was er glaubt. .
Meine Antwort darauf lautete: "Die NIH und NSF (US-National Science Foundation; Anm. Redn.) finanzieren die Grundlagenforschung von Tausenden Wissenschaftern. Ohne Grundlagenforschung hätten wir keine Medikamente. Meine eigene Forschung befasste sich mit Fruchtfliegen, führte aber zu Behandlungen für Leukämien und andere Krankheiten. "Spezielle Interessengruppen" sind nicht der Feind. Dazu gehören die Biotech-Unternehmen, die uns gezielte Krebsmedikamente sowie Gen- und Immuntherapien liefern..."
Mein Mann Larry wies darauf hin, dass die anfängliche staatliche Finanzierung zur "Erfindung von Mikrowellenherden, Mobiltelefonen, Hörgeräten, Satellitenkommunikation, E-Mail, künstlichen Organen und Gliedmaßen und Hunderten von anderen Dingen" geführt hat.
Memes wie dieses, insbesondere die Beschwörung von DYOR und "Glaube an die Wissenschaft", untergraben weiterhin den Respekt vor der tatsächlichen Arbeit der Wissenschafter.
"Doing your own research" bedeutet, dass man das, was man liest, hört und sieht, so auswählt, dass es vorgefasste Meinungen unterstützt. Dies lässt die Kreativität, die Objektivität und das kritische Denken vermissen, die ein praktizierender Wissenschafter an den Tag legt, wenn er "Forschung betreibt".
DYOR bedeutet, dass man die Ideen und Gedanken anderer aufnimmt und vielleicht auswählt, um das zu unterstützen, was man selbst bereits für wahr hält. Wissenschaftliche Forschung ist etwas ganz anderes. Wissenschaft ist ein Zyklus des Forschens, Testens, Interpretierens und Überarbeitens von Hypothesen.
Fazit
Forschung in der Wissenschaft bedeutet viel Lesen, Nachdenken, Testen, Beobachten, Hypothesen aufstellen und das, was wir zu wissen glaubten, ständig zu revidieren. Sie ist ein kontinuierlicher Prozess, der sich über Jahrzehnte erstreckt.
Und deshalb stört mich - und vermutlich auch einige andere - der leichtfertige Satz "Recherchieren/Forschen Sie selbst". Um ein Experte auf einem Gebiet zu sein, gehört weit mehr dazu, als bereits bekannte Informationen aufzunehmen, die bestätigen, was man bereits weiß oder glaubt. Dieser Satz erweist der Wissenschaft und den Wissenschaftlern einen schlechten Dienst.
*Der Artikel ist erstmals am 24. Oktober 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " The Dangers of “Do Your Own Research” and “Believe in Science” https://dnascience.plos.org/2024/10/24/the-dangers-of-do-your-own-research-and-believe-in-science/erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Auf Grund seiner ungewöhnlichen Länge wurde hier allerdings nur der erste Teil des Artikels wiedergegeben und von der Redaktion mit einer Abbildung ergänzt
[1] Melanie Trecek-King: (2021)Thinking is Power -The problem with “doing your own research” https://thinkingispower.com/the-problem-with-doing-your-own-research/
[2] Sedona Chinn& Ariel Hasell (2023): Support for “doing your own research” is associated with COVID-19 misperceptions and scientific mistrust. Harvard Kennedy School Misinformation Review. 4, 3, DOI: https://doi.org/10.37016/mr-2020-117.
Gehirnaktivität bei körperlicher Bewegung - ein neues Verfahren bietet Einblicke in die Parkinson-Erkrankung
Gehirnaktivität bei körperlicher Bewegung - ein neues Verfahren bietet Einblicke in die Parkinson-ErkrankungDo, 24.10.2024 — Redaktion
Mit dem kürzlich entwickelten integrativen mobilen Gehirn-/Körperbildgebungsverfahren MoBI (Mobile Brain/Body Imaging) lassen sich die Gehirn- und Muskeldynamik darstellen. Bei dem Verfahren werden mobile Elektroenzephalographie und Bewegungserfassung synchronisiert, um die Interaktion zwischen Gehirndynamik, Bewegung und Kognition bei menschlichen Bewegungen wie Gehen und Gleichgewicht halten oder dem Erlernen motorisch-kognitiver Abläufe zu untersuchen. Im Rahmen des EU-finanzierten Projekts TwinBrain hat ein internationales Forscherteam mit Hilfe von MoBI die Gehirnaktivitäten bei Bewegung verfolgt und konnte bereits frühe Anzeichen von Störungen der Gehirn-Körper-Koordination, wie sie bei der Parkinson-Krankheit auftreten erkennen.*
EU-Projekt TwinBrain: Zusammenspiel von Muskel- und Hirnaktivität- (http://www.twinbrain.si/) |
Ein Durchbruch in der medizinischen Bildgebung hat es einem EU-finanzierten Forscherteam ermöglicht, die Gehirnaktivität während körperlicher Bewegung zu beobachten. Diese Arbeit soll den Weg für eine frühzeitige Erkennung der Parkinson-Krankheit und anderer neurologischer Störungen ebnen, von denen weltweit Millionen Menschen betroffen sind.
Bis vor kurzem bestand keine Möglichkeit zu beobachten, was im Gehirn während körperlicher Bewegung vor sich geht. Für Standard-Gehirnscans müssen sich die Probanden hinlegen und stillhalten; dies schränkt die Möglichkeiten der Wissenschafter ein, zu verstehen, wie das Gehirn alltägliche Situationen verarbeitet und darauf reagiert.
Dank der gemeinsamen Arbeit von Forschern im Rahmen von TwinBrain, einer dreijährigen, von der EU finanzierten und von slowenischen Wissenschaftern koordinierten Forschungsinitiative, konnte die Technologie, die dies ermöglicht, auf neue Gehirnregionen und neue Funktionen ausgedehnt werden.
Wir machen ständig Multitasking, fast ohne nachzudenken. Stellen Sie sich einfach vor, Sie gehen in den Supermarkt. Sie navigieren durch die Gänge auf der Suche nach den Artikeln auf Ihrem Einkaufszettel, halten dabei Ausschau nach den neuesten Schnäppchen und versuchen, nicht mit anderen Einkäufern zusammenzustoßen. EU-Forscher untersuchen nun solche alltäglichen Aktivitäten in der Hoffnung, wichtige Hinweise für die Erkennung und Behandlung schwerer neurologischer Krankheiten zu finden.
"Diese Situation mag für junge und gesunde Menschen sehr einfach erscheinen, aber sie verlangt dem Gehirn auch ein leistungsfähiges Multitasking ab", so Dr. Uroš Marušič, leitender wissenschaftlicher Mitarbeiter am Wissenschafts- und Forschungszentrum in Koper, Slowenien, und Leiter des neu eröffneten slowenischen Labors für mobile Bildgebung von Gehirn und Körper - SloMoBIL.
Verstehen des Zusammenspiels zwischen Muskeln und Gehirn
Marušič leitete die TwinBrain-Forschung, bei der die Dynamik von Gehirn und Bewegung auf eine bisher unerforschte Weise untersucht wurde. Die Initiative, die im Januar dieses Jahres abgeschlossen wurde, brachte Forscher der Technischen Universität Berlin in Deutschland, der Universität Triest in Italien und der Universität Genf in der Schweiz zusammen, um gemeinsam neue Wege in Diagnose und Behandlung komplexer neurologischer, die Bewegung beeinträchtigender Erkrankungen zu beschreiten. Dazu gehört auch die Parkinson-Krankheit, eine fortschreitende neurologische Erkrankung, von der weltweit mehr als 8 Millionen Menschen betroffen sind.
Mit steigendem Alter sind unsere neuronalen Ressourcen erschöpft, wodurch die so genannte kognitiv-motorische Interferenz zunimmt, d. h. wir können nicht mehr in gleicher Weise multitasken. Dies beeinträchtigt das, was Marušič als "Muskel-Hirn-Crosstalk" bezeichnet.
"Im Frühstadium der Parkinson-Krankheit kompensiert das Gehirn im Hintergrund Gleichgewichts- und Bewegungsdefizite", so Marušič, der auch ao. Professor für Kinesiologie an der Alma Mater Europaea Universität in Maribor (Slowenien) ist. Dies kann dazu führen, dass eine Person stolpert oder stürzt.
Die Forscher haben eine Technologie namens Mobile Brain/Body Imaging (MoBI) weiterentwickelt, die es ihnen ermöglicht, Gehirn und Körperbewegungen gleichzeitig zu überwachen. Ihre Arbeit wird es ermöglichen, verdächtige Anzeichen für neurologische Probleme zu erkennen und Behandlungen früher einzuleiten.
Mobile Brain/Body Imaging (MoBI): Eine bahnbrechende Technologie, um die Gehirnaktivität während körperlicher Aktivität zu überwachen. © Tridsanu Thopet, Shutterstock.com |
MoBI wird im Berlin Brain/Body Imaging Lab (BEMoBIL) an der Technischen Universität Berlin eingehend untersucht. Dank TwinBrain wurde diese Technologie von Deutschland nach Slowenien transferiert und mit Unterstützung von Neurologen und Forschern aus Italien und der Schweiz weiterentwickelt.
"Sobald man Studienteilnehmer mit einer zusätzlichen kognitiven Aufgabe konfrontiert - beispielsweise mit einer Frage, während sie balancieren -, sehen wir, dass sie versuchen, zusätzliche neuronale Ressourcen zu aktivieren, aber sie können nicht immer alles verarbeiten", so Marušič.
Denken in Bewegung
Die MoBI-Technologie kombiniert die Technologie des Elektroenzephalogramms (EEG), einen Test, der die elektrische Aktivität im Gehirn bestimmt, mit der Elektromyografie (EMG), die die Muskelreaktion oder die elektrische Aktivität als Reaktion auf die Stimulation des Muskels durch einen Nerv misst. Außerdem wird die Motion-Capture-Technologie eingesetzt.
"Wir können jetzt messen, was im Gehirn vor sich geht, während man geht, läuft oder andere Arten von körperlicher oder geistiger Aktivität ausübt", so Marušič.
Marušič bezeichnet dies als einen der größten Erfolge der bisherigen Forschung, die aber auch eine enorme Big Data Herausforderung verursacht hat. Seit MoBI im Jahr 2021 nach Slowenien transferiert wurde, haben siebenundfünfzig Teilnehmer an den Tests teilgenommen. Für jede Sekunde der Aktivität wurden Hunderte von Messwerten erfasst, was zu Millionen von Datenpunkten führte. Diese werden nun mit Hilfe von künstlicher Intelligenz und einem Supercomputer synchronisiert und analysiert - ein Prozess, der bereits spannende Ergebnisse liefert.
Paolo Manganotti, Professor für Neurologie an der Universität Triest, war an der Rekrutierung und Testung von Freiwilligen für die TwinBrain-Studie beteiligt. Er stellte fest, dass die Teilnehmer nur zu gerne bereit waren, an der Studie teilzunehmen, um deren Ergebnisse nicht nur für sich selbst, sondern auch für künftige Patienten zu verbessern.
"TwinBrain bietet bahnbrechende Erkenntnisse für die klinische Praxis. Durch die Integration der neuesten Technologie können wir die Diagnose und Überwachung der Parkinson-Krankheit innerhalb weniger Jahre revolutionieren und die Zufriedenheit der Patienten und ihre Lebensqualität verbessern", so Manganotti.
Personalisierte Gesundheitsversorgung
Der nächste Schritt für Marušič ist die Vereinfachung und Optimierung der Technologie im Rahmen des neuen TBrainBoost-Projekts, das ebenfalls von der EU finanziert wird und bei SloMoBIL in Slowenien angesiedelt ist. Diesmal mit neuen Forschungspartnern aus Belgien, Deutschland, Malta und Slowenien.
Dies wird die Entwicklung neuer Produkte auf der Grundlage der MoBI-Technologie für einen breiteren klinischen Einsatz zugunsten von Patienten mit neurologischen Erkrankungen ermöglichen. Es festigt auch die Rolle von SloMoBIL als regionales Exzellenzzentrum für die Forschung in diesem Bereich.
Langfristig hofft Marušič, dass dies zu einer besseren und früheren Behandlung der Parkinson-Krankheit und anderer neurologischer Erkrankungen sowie zu einer stärker personalisierten Gesundheitsversorgung führen wird.
"Ich möchte, dass die Patienten an einen Ort kommen können, an dem alle Probleme gleichzeitig behandelt werden. Personalisierte Zentren, die Diagnostik und Behandlungen anbieten, die auf ihre Bedürfnisse zugeschnitten sind - ein Ort, der alles bietet", sagt er.
*Dieser Artikel wurde ursprünglich am 3. September 2024 von Andrew Dunne in Horizon, the EU Research and Innovation Magazine unter dem Titel "Brain on the move – studying the brain in motion offers new insights into Parkinson’s disease" - https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/brain-move-studying-brain-motion-offers-new-insights-parkinsons-disease - publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Die erste Abbildung wurde von der Redaktion der Webseite des TwinBrain-Projekts http://www.twinbrain.si/ entnommen.
TWINning the BRAIN with machine learning for neuro-muscular efficiency:https://cordis.europa.eu/project/id/952401/de?isPreviewer=1
Laboratory of the Institute for Kinesiology Research, SloMoBIL laboratory (Slovenian Mobile Brain/Body Imaging Laboratory, Koper) https://www.zrs-kp.si/en/institutes-and-units/laboratory-of-the-institute-for-kinesiology-research/
TwinBrain project - short documentary, 2023,Video 7:10 min. https://www.youtube.com/watch?v=Vm42f2cIJw0&t=3s
TwinBrain EU project - promo video April 2022, Video 1:54 min. https://www.youtube.com/watch?v=3rnnEfDZHAI&t=61s
Berlin Mobile Brain/Body Imaging Lab (BeMoBIL): https://www.tu.berlin/bpn/forschung/berlin-mobile-brain-body-imaging-lab
Künstliche Intelligenz - Artikelsammlung im ScienceBlog
Künstliche Intelligenz - Artikelsammlung im ScienceBlogSa, 19.10.2024— Inge Schuster
„Künstliche Intelligenz (KI) ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“ (Europäisches Parlament, Webseite). In rasantem Tempo hat sich die KI-Forschung von einem teilweise als Science Fiction belächelten Gebiet zum unverzichtbaren, effizienten Werkzeug in Wissenschaft und Wirtschaft entwickelt und in zunehmendem Maße auch in unserem Alltag Einzug gehalten. Seit mehr als zehn Jahren wird im ScienceBlog über Erfordernisse, Anwendungen aber auch Risiken der KI informiert. Der folgende Bericht ist eine Zusammenstellung der bereits sehr umfangreichen Artikelsammlung, die laufend ergänzt werden soll.
Von der uralten Vision.....
Seit jeher besteht der Wunsch künstliche, dem Menschen an Fähigkeiten gleichende Kreaturen zu schaffen. So berichtet die griechische Mythologie von Hephaistos, dem Gott der Kunstfertigkeit, der u.a. auf Geheiß des Göttervaters Zeus die wunderschöne, mit allen positiven Eigenschaften versehene weibliche Figur, Pandora, aus Lehm fabrizierte (Abbildung 1). Mit Hilfe dieses unwiderstehlichen Wesens wollte Zeus aber die Menschen für den Diebstahl des Feuers durch Prometheus bestrafen; Pandora sollte Epimetheus, den erst im Nachhinein denkendenBruder des Prometheus verführen und von Neugier geplagt einen Krug öffnen, der mit allem Leid und Übel gefüllt war. Neugier und fehlendes Überlegen möglicher Folgen führten dazu, dass sich alles Böse über die Erde ergoss - eine auch für unsere heutige Wissenschaft gültige Metapher.
Abbildung 1. Pandora - eine Metapher für von Neugier getriebenes vorschnelles Handeln. Vase aus dem 5 Jh- v.Chr, Oben: Pandora (Mitte) wird von den Göttern mit allen positiven Atrtributen versehen; untere Reihe : Tanzende Satyren. (Bild: British Museum, London (CC BY-NC-SA 4.0) |
Die Literatur ist voll von weiteren fiktiven Kreationen. Einige hervorstechende Beispiele sind der im 12. Jahrhundert vom Prager Rabbi Löw aus Lehm mittels eines Buchstabencodes geschaffene Golem, ein Befehlsempfänger ohne eigenen freien Willen, die im 19. Jh. von E.T.A. Hoffmann im Sandmann beschriebene Puppe Olimpia oder Mary Shelley's Frankenstein. Einige Darstellungen haben die realen Entwicklungen der künstlichen Intelligenz vorweg genommen.
............ zum Forschungsgebiet
Der Anfang des Forschungsgebiets Künstliche Intelligenz ist mit der Dartmouth Conference (New Hampshire) im Jahr 1956 festzusetzen. Die Konferenzteilnehmer - u.a. Marvin Minsky, Claude Shannon und John Mc Carthy - waren über Jahrzehnte hinweg führend in der KI-Forschung. In einem Antrag auf Förderung an die Rockefeller Foundation schrieben die Initiatoren: „Wir schlagen vor, im Laufe des Sommers 1956 über zwei Monate ein Seminar zur künstlichen Intelligenz mit zehn Teilnehmern am Dartmouth College durchzuführen. Das Seminar soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern. Wir glauben, dass in dem einen oder anderen dieser Problemfelder bedeutsame Fortschritte erzielt werden können, wenn eine sorgfältig zusammengestellte Gruppe von Wissenschaftlern einen Sommer lang gemeinsam daran arbeitet.“ (http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.htm).
Die Hauptthemen dieses Workshops zeigten - neben Informatik und Mathematik - bereits viele, aus verschiedenen Forschungsrichtungen stammende Teildisziplinen. Anfängliche Erfolge beim Lösen einfacher mathematischer Probleme oder im Schachspiel führten zu überoptimistischen Einschätzungen. Einer der Pioniere in KI, Marvin Minsky meinte 1970: "In 3 bis 8 Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines Durchschnittsmenschen haben." Die Enttäuschung folgte. Es fehlten damals noch ausreichende Computerkapazitäten zur Verarbeitung und Speicherung von Daten. Die anfängliche Hype brach in sich zusammen, es kam zu einer "Eiszeit" der KI.
Erst mit dem exponentiellen Anstieg der Computerleistung und neuen Technologien, die nicht nur in den Lebenswissenschaften zu einem explosionsartigen Anstieg von gespeicherten Datenmengen - den Big Data - führten, erlebte die KI ab den 1990er Jahren eine Renaissance. Auf der Basis von Maschinellem Lernen und dem vom diesjährigen Physik-Nobelpreisträger Geoffrey Hinton entwickelten tiefen Neuronalen Netzwerk, dem Deep Learning, ermöglichten nun Datenbanken die Erkennung von Mustern in riesigen, komplexen wissenschaftlichen Datensätzen.
---------- und unverzichtbarem Werkzeug in Forschung, Industrie und Alltag
Wir stehen am Beginn eines neuen, durch maschinelle Intelligenz geprägten Zeitalters. In vielen unserer Lebensbereiche gibt es bereits künstliche Unterstützung - dies reicht vom allgegenwärtigen Smartphone, Übersetzungstools und dem immer häufiger genutzten Sprachmodell ChatGPT, über Ansätze zum autonomen Fahren und in Dienstleistungsbereichen eingesetzte Roboter bis zu präziser medizinischer Diagnostik und Einsatz von Implantaten für immer mehr Körperfunktionen. Einige Beispiele sind in Abbildung 2 zusammengefasst.
Abbildung 2. Künstliche Intelligenz – Nutzen im Alltag und mögliche Einsatzgebiete. (© Europäische Union, [20-06-2023 ] – Quelle: Europäisches Parlament) /em> |
In vielen naturwissenschaftlichen Disziplinen hat sich die Künstliche Intelligenz bereits gut etabliert. KI ist aus Biologie und medizinischer Diagnostik nicht mehr wegzudenken; die in Genanalyse, Mikroskopie, Computertomographie und MRI-Analyse anfallenden enormen Datenmengen können nun schnell verarbeitet werden und aussagekräftige Muster/Diagnosen liefern. Auch in der Suche nach neuen Wirkstoffen und nach Systemen, die Umweltgifte abbauen, spielt die KI eine wichtige Rolle. In den Geowissenschaften wird KI eingesetzt, um belastbare Vorhersagen über die Auswirkungen von Klimaextrema zu erhalten und die Gesellschaften dagegen widerstandsfähiger zu machen. Die Liste könnte fast endlos fortgesetzt werden.
Welche Bedeutung Künstliche Intelligenz (KI) heute in Wissenschaft, Wirtschaft und Gesellschaft hat, lässt sich wohl am besten daran zu erkennen, dass der Nobelpreis 2024 sowohl in Physik als auch in Chemie für Pionierleistungen in diesem Gebiet vergeben wurde. Die Physik-Preisträger John Hopfield (USA) und Geoffrey Hinton (Kanada) waren Wegbereiter, die für »bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen« ausgezeichnet wurden. Darauf aufbauend ist es den Chemie-Preisträgern Demis Hassabis (UK) und John Jumper (UK) gelungen mit ihrem KI-Modell AlphaFold2 die räumliche Struktur praktisch aller Proteine mit hoher Genauigkeit aus den Aminosäuresequenzen vorherzusagen; David Baker (US) hat mit Rosetta ein Computerprogramm zum Design von völlig neuen Proteinen mit speziellen Eigenschaften entwickelt. Die nun ausgezeichneten KI-gestützten Technologien sind öffentlich frei zugänglich und wurden in den wenigen Jahren seit ihrer Freigabe bereits von Millionen Forschern für "unzählige" Fragestellungen des Proteindesigns und der Strukturvorhersage genutzt. Die Ergebnisse werden wohl unsere Welt verändern.
Wo viel Licht ist, ist auch Schatten
In zunehmendem Maße wird Kritik laut, dass KI sich auch zu einer dunklen Seite entwickeln kann. So meint der Evolutionsbiologe Paul Rainey: "Wie Viren oder andere invasive Organismen den Menschen, die Umwelt und sogar den Planeten bedrohen können, besteht auch die reale Gefahr, dass vermehrungsfähige KI unbeabsichtigte negative Auswirkungen auf den Menschen und die Erde hat. Sie könnte sich unkontrolliert verbreiten, die Ressourcen der Erde erschöpfen und die Ökosysteme schädigen" (Paul Rainey, 2023).
Schärfer formuliert es das Center for AI Safety, dem neben anderen prominenten KI-Forschern auch der diesjährige Chemie Nobelpreisträger Demis Hassabis angehört, in einem Aufruf im Jahr 2023: "Die Minderung des Risikos für eine Auslöschung der Menschheit durch künstliche Intelligenz sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Nuklearkrieg eine globale Priorität haben“.
Auch der diesjährige Physik-Nobelpreisträger Geoffrey Hinton warnt vor der Technologie, die er miterschaffen hat, weil sie die Menschen überfordern, durch kriegerische Anwendungen und poltische Manipulationen sogar gefährden könne.
Die eingangs erwähnte Metapher von der Neugier-getriebenen Nutzung einer Technologie ohne Überlegen der möglichen Folgen sollte bedacht werden, um nicht eine Büchse der Pandora zu öffnen.
Artikel im ScienceBlog über Erfordernisse für und Anwendungen von Künstlicher Intelligenz
Inge Schuster, 15.10.2024: Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer Proteine
Roland Wengenmayr, 03.10.2024: Künstliche Intelligenz: Vision und Wirklichkeit
Andreas Merian, 30.05.2024: Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugen
Ricki Lewis, 08.09.2023: Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird
Redaktion, 08.06.2024: Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der Erdatmosphäre
Lebenswissenschaften
Michael Simm, 06.05.2021: Das Neuronengeflecht entwirren - das Konnektom
Wolf Singer, 05.12.2019: Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme
Wolf Singer, Andrea Lazar, 15.12.2016: Die Großhirnrinde, ein hochdimensionales, dynamisches System
Ruben Portugues, 22.04.2016: Neuronale Netze mithilfe der Zebrafischlarve erforschen
Redaktion, 25.04.2019:Big Data in der Biologie - die Herausforderungen
Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen
Gottfried Schatz; 24.10.2014: Das Zeitalter der “Big Science”
Ricki Lewis, 06.09.2024: CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und Prognose
Ricki Lewis, 25.01.2024: Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an
Inge Schuster, 27.02.2020: Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika
Ricki Lewis, 13.09.2018: Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools
Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin
Norbert Bischofberger; 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft.
Robotics
Roland Wengenmayr, 02.12.2023: Roboter lernen die Welt entdecken Paul Rainey, 2.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?
Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang
Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution
Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.
Algorithmen, Computer, Digitalisierung, Big Data
Redaktion, 29.07.2023: Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)
IIASA, 24.09.2019: Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung
Peter Schuster, 19.08.2016: Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigen
Manfred Jeitler; 13.11.2015: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.
Gerhard Weikum, 20.06.2014:Der digitale Zauberlehrling
Peter Schuster, 28.03.2014:Eine stille Revolution in der Mathematik.
Peter Schuster, 03.01.2014: Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften
Peter Schuster, 28.03.2013: Wie Computermethoden die Forschung in den Naturwissenschaften verändern
Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer Proteine
Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer ProteineDi, 15.10.2024— Inge Schuster
Die 2024 mit dem Nobelpreis in Chemie ausgezeichneten Wissenschafter Demis Hassabis, John Jumper und David Baker haben eine Revolution in der Proteinforschung ausgelöst. Hassabis und Jumper haben mit AlphaFold2 ein künstliches Intelligenzmodell entwickelt, das den Traum wahrmacht mit hoher Genauigkeit die räumliche Struktur eines Proteins aus seiner Aminosäuresequenz vorhersagen zu können. Baker ist es gelungen mit seinem kontinuierlich weiter entwickelten Computerprogramm Rosetta völlig neue, in der Natur nicht vorkommende Proteine mit speziellen Eigenschaften für diverse Anwendungen zu designen. AlphaFold2 und Rosetta sind offentlich frei zugänglich, ihre bereits millionenfache Nutzung führt in eine neue Ära von Grundlagenforschung und diversesten Anwendungen.
Vorweg ein kurzer Kommentar
Die Verleihung des Chemie-Nobelpreises [1. 2] an David Baker, Demis Hassabis und John Jumper kam keineswegs unerwartet: die ausgezeichneten Arbeiten sind doch wohl einer "major transition" (d.i. einem "großen Übergang" [3]) in der Möglichkeit biologische Systeme zu beschreiben/zu verstehen gleichzusetzen. Möglich gemacht wurde die radikale Neuerung durch reichlich vorhandene, günstige Ressourcen - einer enorm gestiegenen Leistungsfähigkeit der Rechner, die das Analysieren und Speichern von Big Data erlaubt und dem Zugriff auf Datenbanken, in denen das Ergebnis von mehr als 60 Jahren Forschung zu Proteinstrukturen für jedermann frei verfügbar ist. Die nun ausgezeichneten Computer-und KI-gestützten Technologien wurden in den wenigen Jahren seit ihrer Freigabe bereits von Millionen Forschern für "unzählige" Fragestellungen des Proteindesigns und der Strukturvorhersage genutzt. Die Ergebnisse werden wohl unsere Welt verändern.
Über Proteine,....
“The most significant thing about proteins is that they can do almost anything.” Francis Crick ,1958
Mit Proteinen und durch Proteine entstehen und vergehen alle Strukturen der belebten Materie. Proteine bilden Gerüste innerhalb und außerhalb der Zellen, binden andere Moleküle, transportieren diese und setzen sie um. Proteine ermöglichen den Informationsaustausch in und zwischen Zellen und ihrer Umgebung, fungieren als präzise Katalysatoren (Enzyme) der Stoffwechselvorgänge, synthetisieren und metabolisieren andere Proteine und bauen Fremdstoffe ab. Das Ablesen der in der DNA gespeicherten genetischen Information und deren Übersetzung in Proteine wird durch Proteinkomplexe gesteuert, das Hormon-, Immun- und neuronale System durch Proteine reguliert.
Proteine sind groß, Makromoleküle, die aus linearen Ketten von (über Peptidbindungen) miteinander verknüpften Aminosäuren aufgebaut sind. Diese bereits zu Beginn des 20. Jahrhunderts aufgestellte "Peptidhypothese" wurde 1951 bestätigt, als es Frederick Sanger und Hans Tuppy gelang die chemische Struktur des ersten Proteins, des aus 51 Aminosäuren bestehenden Hormons Insulin, aufzuklären (zu sequenzieren). Etwa in diese Zeit fallen auch die mit Hilfe der Röntgenstrukturanalyse aufgeklärte DNA-Struktur und die ersten erfolgreichen Versuche die räumliche Struktur von Proteinen zu ermitteln: Der aus Wien stammende Chemiker Max Perutz benötigte fast zwei Jahrzehnte, um das aus 4 Untereinheiten bestehende Hämoglobin zu analysieren, der Brite John Kendrew konnte, aufbauend auf den Erkenntnissen von Max Perutz, die Struktur des einfacher aufgebauten. kleineren Myoglobin in "nur" 11 Jahren lösen [4]. Aus den Strukturen wurde die Funktion dieser Proteine klar erkennbar, wie sich die Aminosäureketten falteten, wie und wo sie Sauerstoff banden und die Strukturen sich dabei veränderten. Wie 1958 schon Sanger wurden Perutz und Kendrew für diese Pionierleistungen 1962 mit dem Nobelpreis für Chemie ausgezeichnet.
........ die weitere experimentelle Ermittlung ihrer 3D-Strukturen........
Die Ergebnisse an Myoglobin und Hämoglobin zeigten klar: Um die Funktionen von Proteinen zu verstehen und gegebenenfalls manipulieren zu können, ist eine detaillierte Kenntnis ihrer räumlichen Struktur, ihrer Gestalt und ihrer physikalisch-chemischen Eigenschaften an Oberflächen und Domänen, an denen sie mit Bindungsartnern interagieren, notwendig.
In der Folgezeit nahmen mehr und mehr Forscher die lange Zeit noch sehr schwierigen, kosten- und arbeitsintensiven Bemühungen auf sich, um Proteine in der für die Strukturanalyse benötigten Menge zu isolieren, zu reinigen und zu kristallisieren. In der ersten, 1971 gegründeten öffentlich frei zugänglichen Proteindatenbank PDB (https://www.rcsb.org/pages/about-us/index) waren 1976 bereits 13 Strukturen eingetragen - alles einfach zu handhabende, sehr häufig vorkommende Proteine, darunter einige Protein-spaltende Enzyme (Proteasen) und die aus 4 Untereinheiten zusammengesetzte Laktatdehydrogenase [5]. In den 1980er-Jahren gelang es die Strukturen erster Membranproteine aufzuklären. Neue Methoden der Molekularbiologie, laufend verbesserte Techniken der Kristallisierung und Fortschritte in der Kristallstrukturanalyse verkürzten die Prozeduren und ließen ab den 1990-er Jahren die Zahl der neuen Strukturen sehr schnell anwachsen. Bei einem Zuwachs von jeweils mehr als 14 000 neuer Strukturen in den letzten Jahren, gibt es derzeit insgesamt mehr als 225 000 Einträge in der Proteindatenbank (Abbildung 1).
Abbildung 1. Die Proteindatenbank. Anwachsen der experimentell bestimmten 3D-Strukturen von Makromolekülen. https://www.rcsb.org/stats/growth/growth-released-structures. (Grafik heruntergeladen am 12.10.2024). |
Über 200 000 Proteinstrukturen von diversen Lebensformen - das klingt nach viel, ist aber eine geringe Zahl verglichen mit den bereits mehr als 200 Millionen Proteinsequenzen, die - mit rasant verbesserten DNA-Sequenzierungstechniken - bisher in diversen Organismen identifiziert wurden. Die experimentelle Strukturaufklärung hinkt nach, ist ja noch immer recht mühsam und für einige Proteintypen (noch) kaum möglich.
Von Anfang an stellten sich die Forscher daher die Frage, ob und wie man auf Basis der Aminosäuresequenzen Vorhersagen für die Strukturen treffen könne.
..... und eine Hierarchie der Strukturen
Die Abfolge der 20 unterschiedlichen Aminosäuren in den linearen Ketten - der Primärstruktur- ist in der DNA kodiert. Dass solche Ketten dazu tendieren regelmäßige, durch Wasserstoffbrücken stabilisierte Substrukturen, alpha-Helices und beta-Faltblatt-Elemente, zu bilden, wurde von amerikanischen Chemiker Linus Pauling 1951 postuliert und deren Vorliegen in den ersten aufgeklärten Proteinstrukturen bestätigt (Pauling erhielt 1954 den Nobelpreis für Chemie). Die sogenannte Sekundärstruktur umfasst diese Substrukturen und daneben ungeordnete Bereiche. Wie sich Sekundärstrukturen dann falten, wird durch Lage und chemische Eigenschaften der einzelnen Atome, funktionellen Gruppen und Substrukturen bestimmt, in anderen Worten: wie sich diese anziehen oder abstoßen. Aus der Sekundärstruktur entsteht die für jedes Protein spezifische dreidimensionale Tertiärstruktur, die sogenannte native Konformation, welche für die Funktion bestimmend ist. Wechselwirkungen zwischen gleichen und anderen Arten von Proteinen führen schließlich zu Quartärstrukturen. Abbildung 2.
Abbildung 2. Proteinfaltung dargestellt im Bändermodell. In der Sekundärstruktur haben sich aus der Aminosäurenkette die Substrukturen alpha-Helix und beta-Faltblatt (Pfeile in Richtung N zu C-Terminus) und ungeordnete Elemente gebildet. Die aus den Elementen der Sekundärstruktur zusammengesetzte Tertiärstruktur - die native Konformation - bestimmt die Funktion des Proteins. Zusammenlagerung von mehreren (unterschiedlichen) Proteinen durch Wechselwirkungen zwischen den Proteinen erzeugt Quartärstrukturen, Beispiel: Hämoglobin. (Quelle: aus gemeinfreien Bildern zusammengesetzt.) |
Um die räumlichen Voraussetzungen für biochemische Funktionen - beispielsweise die Bindung eines kleinen Moleküls - zu schaffen, ist eine minimale Kettenlänge von 40 - 50 Aminosäuren erforderlich.
Zur Vorhersage der 3D-Struktur
Eine Vorhersage der Tertiärstruktur auf der Basis der potentiellen Wechselwirkungen der einzelnen Atome würde selbst bei einem kleinen Protein mit 100 Aminosäuren eine praktisch unbegrenzte Anzahl möglicher Strukturen schaffen und alle Zeit würde nicht reichen, um diese bis zur energetisch günstigsten, nativen Konformation durchzuspielen. Dass Proteine nicht über ein solches Ausprobieren ihre native Konformation finden, ist offensichtlich: unter physiologischen Bedingungen in Zellen dauert es Millisekunden von der neu synthetisierten Aminosäurenkette bis zur funktionellen 3D-Struktur.
Der amerikanische Biochemiker Christian Anfinsen hatte sich seit den 1950er-Jahren mit dem Zusammenhang zwischen Primärsequenz und 3D-Struktur von Proteinen beschäftigt und herausgefunden, dass die Faltung ein vorbestimmter Prozess ist: Als er 1961 das Enzym Ribonuklease unter verschiedensten ausgeklügelten Bedingungen reversibel denaturierte, d.i. die dreidimensionale Form in eine offene, enzymatisch inaktive Kette überführte und diese dann wieder sich falten ließ, entdeckte er, dass das entstandene Produkt jedes Mal die ursprüngliche Gestalt wieder angenommen hatte und enzymatisch aktiv war. Anfinsen schloss daraus, dass die native Konformation eines Proteins ausschließlich durch seine Aminosäuresequenz bestimmt wird, die wiederum im betreffenden Gen kodiert ist.
Anfinsens Hypothese fand weite Bestätigung durch andere Labors und wurde zum Startschuss weltweiter Bemühungen aus der Kenntnis der Aminosäuresequenzen die 3D-Strukturen von Proteinen vorherzusagen. Damit würde man ja nicht nur die mühsame, langdauernde Röntgenkristallographie umgehen, sondern rasch Aussagen für alle bekannten Proteine treffen können, auch für solche, bei denen experimentelle Verfahren (noch) nicht anwendbar sind. Die Bedeutung solcher Vorhersagen für verschiedenste Gebiete der Lebenswissenschaften in akademischer Forschung und Industrie war evident.
Zur rascheren Entwicklung von Voraussagetechniken wurde 1994 ein Projekt Critical Assessment of Protein Structure Prediction (CASP) gestartet - ein alle zwei Jahre stattfindender Wettbewerb, bei dem Forscher aus aller Welt ihre Methoden an eben aufgeklärten, noch geheim gehaltenen Strukturen ausprobierten. Beginnend bei etwa 10 % war die Übereinstimmung zwischen theoretischen Modellen und experimentell bestimmter Struktur bis 2016 noch zu niedrig (30 bis maximal 40 %), stieg aber 2018 auf fast 60 % und 2020 schließlich auf 90 %, eine Genauigkeit, die im Bereich der Genauigkeit von reproduzierten experimentelle Analysen liegt. Den sensationellen Durchbruch haben Demis Hassabis und John Jumper mit den KI-gestützten Programmen AlphaFold (2018) und AlphaFold2 (2020) erzielt, in denen sie Deep-Learning-Methoden unter Verwendung von "faltenden neuronalen Netzwerken" anwandten.
Von der Sequenz zur Struktur - der Durchbruch mit Alphafold
Demis Hassabis ist kein Unbekannter. Der britische Neurowissenschafter, Programmierer, Entwickler von Computerspielen und Schachmeister ist Mitbegründer und CEO des Startups DeepMind, das auf die Programmierung von künstlicher Intelligenz spezialisiert ist und - 2014 von Google aufgekauft- zu Google DeepMind wurde. Bekannt wurde DeepMind unter anderem durch die Programme AlphaGo und AlphaGo-Zero, welche die Weltmeister im Go-Spielen schlagen konnten [6].
2018 kam das Computerprogramm AlphaFold heraus, basierend auf der Grundlage eines neuronalen Faltungsnetzwerks und auf den Strukturen der Protein Data Bank trainiert, um eine sogenannte Distanz-Karte der Abstände zwischen den Aminosäuregruppen in der räumlichen Struktur zu erstellen. Wie erwähnt gewann AlphaFold den CASP-Wettbewerb 2018. Das Programm erhielt eine wesentliche Verbesserung als der junge Biochemiker John Jumper in DeepMind eintrat und seine Kenntnisse in Protein-Chemie und Modellierung einbrachte. Das nun von Hassabis und Jumper 2020 präsentierte Programm AlphaFold2 war auf allen damals bekannten Proteinstrukturen (Abbildung 2) und den nahezu 200 Millionen Proteinsequenzen trainiert und erreichte eine Genauigkeit von etwa 90 %, die als gleichwertig mit der experimentell erreichten angesehen wird.
Eine vereinfachte Beschreibung wie AlphaFold2 arbeitet ist in Abbildung 3 dargestellt.
Abbildung 3. AlphaFold2: In 4 Schritten von der Aminosäuresequenz zur Proteinstruktur.( © Illustration: Johan Jarnestad/The Royal Swedish Academy of Sciences; Übersetzung des Texts: I. Schuster) |
2020 wurde erstmals davon gesprochen, dass mit AlphaFold2 das Problem der Vorhersage von Proteinstrukturen aus der Primärsequenz als prinzipiell gelöst betrachtet werden könne.
Hassabis und Jumper haben mit AlphaFold2 zunächst die Struktur aller menschlichen Proteine vorhergesagt, bis 2022 rund 1 Million weiterer Strukturen - diese sind in der die Proteindatenbank PDB hinterlegt - und schließlich die Strukturen von praktisch allen 200 Millionen bislang identifizierten Proteinen. Alle diese Strukturen sind in der von Google DeepMind und dem EMBL’s European Bioinformatics Institute geschaffenen AlphaFold Datenbank öffentlich zugänglich (https://alphafold.ebi.ac.uk/))
Seit Sommer 2021 ist die Software von AlphaFold2 freigegeben (Open-Source-Lizenz). Jeder, der möchte kann nun Proteine falten. Zuvor hatte es oft Jahre gedauert, um eine Proteinstruktur zu erhalten, jetzt sind es nur noch ein paar Minuten Rechenzeit.
Mehr als 2 Millionen Forscher aus 190 Ländern haben von dem Programm schon Gebrauch gemacht. Die Tragweite dieser Möglichkeiten für Grundlagenforschung und diverse Anwendungen ist nicht absehbar.
Von der Struktur zur Sequenz - das Rosetta-Programm
Früher als Hassabis und Jumper hat sich der US-amerikanische Biochemiker David Baker, Direktor des Instituts für Protein Design an der Universität Washington, mit der Strukturvorhersage von Proteinen befasst und schon 1998 an den CASP-Wettbewerben teilgenommen. Er hatte das Computerprogramm Rosetta entwickelt, das - wie die Programme der Konkurrenten - aus den Aminosäuresequenzen die Proteinstrukturen vorhersagen sollte, diesen aber überlegen war. Baker und sein Team änderten aber bald die Strategie und gingen den umgekehrten Weg: anstatt vorherzusagen zu welcher Tertiärstruktur sich eine Primärstruktur falten würde, wollte man eine völlig neue Struktur schaffen und dann herausfinden, welche Sequenz sich zu dieser falten würde. In anderen Worten: Man wollte Rosetta so weiterentwickeln, dass man für diverse Funktionen - beispielsweise für spezielle Enzymaktivitäten - maßgeschneiderte Proteine würde designen können.
Die Machbarkeit dieses Ansatzes konnte Baker 2003 bestätigen: Er und sein Team hatten mit Top 7 ein völlig neues, in der Natur nicht vorkommendes Protein kreiert, das mit seinen alpha-Helix/ beta-Faltblatt Strukturen besonders stabil war und mit 93 Aminosäuren größer war, als alle bis dahin synthetisch hergestellten Proteine. Um den Erfolg der Software zu prüfenen, hatte man das Gen für die vorgeschlagene Aminosäuresequenz in Bakterien eingeführt und das von diesen produzierte Protein mit Hilfe der Röntgenkristallographie analysiert.
Abbildung 4. Proteine, die mit dem Rosetta-Programm von Baker entwickelt wurden: (Bild: ©Terezia Kovalova/The Royal Swedish Academy of Sciences, Text übersetzt von I. Schuster) |
In weiterer Folge wurde durch Übernahme einer AlphaFold2 ähnlichen Deep Learning Architektur aus Rosetta das RoseTTAFold Programm, dessen Software frei zugänglich ist (https://github.com/RosettaCommons/RoseTTAFold ). Laut Homepage des Baker Instituts ist RoseTTAFold "ein "dreigleisiges" neuronales Netz, d. h. es berücksichtigt gleichzeitig Muster in Proteinsequenzen, die Art und Weise, wie die Aminosäuren eines Proteins miteinander interagieren, und die mögliche dreidimensionale Struktur eines Proteins. In dieser Architektur fließen ein-, zwei- und dreidimensionale Informationen hin und her, so dass das Netzwerk gemeinsam Schlussfolgerungen über die Beziehung zwischen den chemischen Bestandteilen eines Proteins und seiner gefalteten Struktur ziehen kann." (https://www.ipd.uw.edu/2021/07/rosettafold-accurate-protein-structure-prediction-accessible-to-all/)
Seitdem wurden mit RoseTTAFold Tausende neue Proteine designt, Strukturen, die für diversesten Anwendungen in Industrie, Umwelt und Gesundheit relevant sind. Einige dieser spektakulären Strukturen sind in Abbildung 4 dargestellt.
Ausblick
Das Nobel-Kommittee für Chemie schreibt [2]:
„Die Errungenschaften von David Baker, Demis Hassabis und John Jumper auf dem Feld des computergestützten Proteindesigns und der Proteinstruktur-Entschlüsselung sind fundamental. Ihre Arbeit hat eine neue Ära der biochemischen und biologischen Forschung eröffnet, in der wir nun Proteinstrukturen auf eine Weise entwerfen und vorhersagen können, wie es nie zuvor möglich war. Damit wurde ein lang gehegtes Ziel endlich erreicht, und die Auswirkungen werden weitreichende Konsequenzen haben.“
[1] The Nobel Prize in Chemistry 2024, Popular Science Background: They have revealed proteins’ secrets through computing and artificial intelligence.https://www.nobelprize.org/uploads/2024/10/popular-chemistryprize2024-3.pdf
[2] The Nobel Prize in Chemistry 2024, Scientific Background: Computational Protein Design and Protein Structure Prediction. https://www.nobelprize.org/uploads/2024/10/advanced-chemistryprize2024.pdf
[3] Peter Schuster, 04.03.2016: Die großen Übergänge in der Evolution von Organismen und Technologien
[4] Bernhard Rupp, 04.04.2014: Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika
[5] PDP-Protein Data Bank: History:https://www.rcsb.org/pages/about-us/history
[6] Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin
Künstliche Intelligenz: Vision und Wirklichkeit
Künstliche Intelligenz: Vision und WirklichkeitDo, 03.10.2024 — Roland Wengenmayr
Sei es eine medizinische Diagnose, die Suche nach Materialien für die Energiewende oder die Vorhersage von Proteinstrukturen – Algorithmen künstlicher Intelligenz dienen der Wissenschaft heute in vielen Bereichen als effektives Hilfsmittel. Doch können sie auch in der Physik nützlich sein, in der es darum geht, fundamentale Vorgänge in der Natur zu verstehen? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über Forscher vom Max-Planck-Institut für die Physik des Lichts, die dies ausloten. So können Algorithmen die Forschung inspirieren und etwa überraschende Designs für Experimente entwerfen. Bis künstliche Intelligenz allerdings komplizierte Zusammenhänge der Physik wirklich versteht, ist es noch ein weiter Weg.*
Künstliche Intelligenz, kurz KI, boomt. Viele Menschen nutzen zum Beispiel ChatGPT als bekanntesten Vertreter einer auf großen Sprachmodellen basierenden KI, um zu recherchieren oder einen Text schreiben zu lassen. Man kann auch aus Texten Bilder oder Videos durch KI generieren lassen, in der Kunstwelt wird KI schon längst als Werkzeug eingesetzt. Aber wie sieht es damit in den Naturwissenschaften aus?
In den Lebenswissenschaften und in der Chemie ist KI bereits gut etabliert. Das AlphaFold-Programm von Deep-Mind wurde in der Biologie bekannt, weil es Proteinstrukturen berechnen kann. Zur Erinnerung: Furore machte DeepMind mit dem Programm Alpha-Go, das 2016 den Koreaner Lee Sedol, einen der weltstärksten Go-Spieler, schlug. Das war eine Sensation, weil es im Go so viele Möglichkeiten für den nächsten Zug gibt, dass kein Computer sie berechnen kann. Alpha-Go musste folglich ähnlich wie ein Mensch durch Training lernen, über Muster von Spielsteinkombinationen auf dem Brett ein Gespür, und damit eine Art Verständnis, für kluge Züge zu entwickeln. Dabei profitierte das Programm letztlich doch von brachialer Rechenpower: Es konnte in Millionen Partien quasi gegen sich selbst trainieren, während die menschlichen Go-Profis lediglich einige Tausend Spiele erreichen.
So breit die Anwendung von KI inzwischen auch ist, meistens funktionieren die Programme als Blackbox; das heißt, man erhält ein hilfreiches Ergebnis, weiß jedoch nicht, wie es zustande gekommen ist. Das mag oft genügen – etwa wenn es um die Suche nach einem Protein mit einer bestimmten Funktion geht. Entscheidend ist hier, dass man nachvollziehen kann, warum die von der KI gefundene Struktur das macht, was sie soll. Doch in der Physik, der fundamentalsten aller Naturwissenschaften, widerspricht eine Blackbox dem Anspruch, ein physikalisches System zu verstehen. Zwar setzen Forschende auch hier zunehmend KI ein, doch noch eher in Anwendungen, wo eine Blackbox als Hilfsmittel das Verständnis nicht behindert. Expertinnen und Experten diskutieren jedoch, ob KI so leistungsfähig werden kann, dass sie komplexe physikalische Systeme sogar besser als der Mensch verstehen könnte. Wenn sie dies dann auch menschlichen Kolleginnen und Kollegen erklären könnte: Würde sie damit zur künstlichen Physikerin auf Augenhöhe? Könnte sie so in der Physik zu neuen Ideen inspirieren?
Heureka-Erlebnis mit Maschinenlernen
Mario Krenn und andere Physiker bezeichnen eine solche KI als künstliche Muse, sie haben darüber in einem Artikel im Fachblatt Nature Reviews Physics vom Dezember 2022 geschrieben. Wir sitzen in der Cafeteria des Max-Planck-Instituts für die Physik des Lichts in Erlangen, mit dabei Florian Marquardt, Direktor der Theorie-Abteilung am Institut. Wie Krenn setzt er seit einigen Jahren Methoden des Maschinenlernens ein und verfeinert sie mit seinem Team kontinuierlich. Krenn, der in Wien bei Anton Zeilinger, Physik-Nobelpreisträger von 2022, noch als experimenteller Quantenoptiker promovierte, hat im Jahr 2014 – nach einem Heureka-Erlebnis mit Maschinenlernen – eine radikale Wendung vollzogen. „Seitdem bin ich in kein Labor mehr gegangen“, sagt er lachend. Er zählt zu den Pionieren des KI-Einsatzes in der Physik. Heute leitet er die Forschungsgruppe Artificial Scientist Lab am Institut – schon der Name vermittelt die Vision eines künstlichen Physikers.
Was 2014 Krenn zur Neuorientierung bewegte, soll später Thema sein. Zuerst gilt es zu klären, unter welchen Bedingungen eine KI menschlichen Physikerinnen und Physikern ebenbürtig wäre. „Zuerst müssen wir verstehen, wie menschliche Forschende arbeiten“, betont Krenn, „warum sie kreativ sind, wie sie kreativ sind, warum sie neugierig sind.“ Es geht also um die Frage, was Menschen zu ihrer Forschung motiviert. „Wenn wir das verstehen, haben wir eine bessere Chance, wirklich autonome, automatisierte Wissenschaft zu machen“, sagt er. Florian Marquardt stimmt dem zu und ergänzt: „Gleichzeitig lernt man etwas darüber, was wir Menschen in der Wissenschaft machen – es ist ja gar nicht klar, ob all unsere Prioritäten in der Forschung wirklich so objektiv sind!“
Wir können also als ersten Punkt festhalten, dass ein künstlicher Physiker auf Augenhöhe mit dem Menschen sich selbst motivieren können müsste. Das klingt banal, aber ein Beispiel illustriert, wie anspruchsvoll diese Vision ist. „Nehmen wir doch eine Leitfrage der Festkörperphysik“, schlägt Marquardt vor: „Wie kann ich einen Raumtemperatur-Supraleiter herstellen?“ Abgesehen davon, dass selbst eine so konkrete Frage, die bis heute ungelöst ist, noch zu offen und unspezifisch für eine heutige KI ist: Ein künstlicher Physiker müsste von selbst auf die Frage kommen und sie auch als wichtig einstufen. Die KI müsste also von sich aus erkennen, dass die verlustlose Leitung von elektrischem Strom bei normaler Umgebungstemperatur ein attraktives Forschungsziel ist. „Aber warum willst du Strom verlustlos transportieren?“, stellt Krenn die Frage nach der nächsten Metaebene der Erkenntnis. Die KI müsste sich ohne äußere Vorgabe selbst diese Frage stellen und beantworten. Kurzum: Sie müsste wissen, dass elektrische Energie von zentraler Bedeutung für unsere Gesellschaft ist. Das ist aber ein ins Soziale gehender Aspekt, der weit außerhalb der Physik liegt.
Das Beispiel illustriert, wie anspruchsvoll Kreativität und Neugier sind, die uns Menschen auszeichnen. Davon ist KI noch weit entfernt. Etwas näher könnte KI daran sein, eine Art von Verständnis für physikalische Theorien zu erlangen. Auch hier stellt sich aber die Frage, was genau es bedeutet, einen physikalischen Zusammenhang zu verstehen. Im Gespräch mit Mario Krenn und Florian Marquardt kristallisieren sich mehrere Aspekte heraus, die dafür wesentlich sind. Dazu brauchen Physikerinnen und Physiker eine intuitive, modell- oder bildhafte Vorstellung – und sei es eine abstrakte mathematische Darstellung. Im Fall von AlphaGo hat KI schon bewiesen, dass sie diese Art Intuition – im speziellen Fall für die Situation auf dem Spielbrett – erlangen kann. Verständnis zu haben heißt aber auch, Einsichten und Lösungen von einem Gebiet auf ein anderes übertragen zu können. „Wenn eine KI ein Konzept in einem Zusammenhang kennengelernt hat, vielleicht auch, wie wir, davon in der wissenschaftlichen Literatur erfahren hat, dann kann sie vielleicht erkennen, dass sich das Konzept auch in einem anderen Zusammenhang anwenden lässt“, sagt Marquardt. Schließlich müsste eine KI, eventuell mithilfe eines Sprachmodells, auch Menschen einen Zusammenhang erklären können. Auch das trauen Mario Krenn und Florian Marquardt einer KI zu. Doch bis es so weit ist, muss KI noch viel lernen.
Heute schon ist KI menschlichen Physikerinnen und Physikern bei manchen speziellen Aufgaben überlegen. Und genau darauf setzen Krenn und Marquardt in ihrer Forschung: Sie nutzen dafür unter anderem künstliche neuronale Netze. Diese simulieren miteinander vernetzte Nervenzellen, die lernen, indem sie durch Training bestimmte neuronale Verbindungen stärken und andere abschwächen. „Allerdings sind künstliche neuronale Netze nur eine Methode, das Spektrum von KI ist wesentlich breiter“, betont Florian Marquardt: „Allen KI-Methoden ist aber gemeinsam, dass sie helfen, Komplexität zu beherrschen.“ Dazu gehört, sagt Marquardt, dass KI versteckte Muster entdecken und mathematische Optimierungsaufgaben lösen kann. So lernt KI etwa durch das Training an Millionen von Bildern, Objekte wie „Auto“ oder „Adler“ in den unterschiedlichsten Perspektiven und Situationen zu identifizieren.
Lösungen für die Quantenfehlerkorrektur
Genau diese Fähigkeit, Muster zu erkennen, nutzt Florian Marquardt. Vor einigen Jahren hat eines seiner Teams eine KI so trainiert, dass sie Lösungen für die Quantenfehlerkorrektur findet. Auf eine solche Korrektur werden kommende Quantencomputer angewiesen sein, da ihre hochempfindlichen Quantenbits unvermeidlich Störungen aus der Umgebung ausgesetzt sind. Zu den Eigenheiten der Quantenwelt gehört, dass man während einer Quantenrechnung nicht durch Messungen überprüfen darf, ob die Qubits noch die korrekten Werte enthalten. Folglich muss eine Quantenfehlerkorrektur eine direkte Messung trickreich umgehen. Es ist ein bisschen so, als würde man Go gegen einen Gegner spielen, dessen weiße Steine man nicht sehen kann, sodass man deren Lage durch vorsichtiges Setzen der eigenen Steine erspüren muss. Es geht also auch bei der Quantenfehlerkorrektur um das Erkennen von Mustern. Darüber hat das KI-basierte Programm der Erlanger für bestimmte Korrekturalgorithmen neue Sequenzen von Quantenoperationen aufgespürt.
Florian Marquardts Gruppe hat mithilfe von KI zudem weitere fehlertolerante Programmierungen für Quantencomputer entdeckt sowie Designs für photonische Schaltkreise – optische Gegenstücke zu elektronischen Schaltkreisen. Außerdem entwickelt seine Gruppe Ansätze für sogenannte neuromorphe Computerarchitekturen. Wegen der Arbeitsweise heutiger Computer benötigt KI aktuell viel Energie. Wesentlich nachhaltiger wären neuromorphe Chips, die vom Gehirn inspiriert sind. Immerhin benötigt unser Gehirn nur die Leistung einer 20-Watt-Glühbirne.
Mario Krenn ließ sich bei seinem erhellenden Erlebnis im Jahr 2014 ebenfalls von KI leiten. Damals wollte sein Team bei Anton Zeilinger eine besonders komplexe Form von Verschränkung zwischen Lichtquanten, Photonen, erzeugen. Die Verschränkung ist ein zentrales Werkzeug der Quanteninformationstechnik. Grob gesagt, werden die Quantenzustände einzelner Quantenobjekte, zum Beispiel Photonen, so überlagert, dass sie ein gemeinsames, großes Quantensystem formen. Ein bisschen kann man sich das wie einen Ruderachter vorstellen, dessen Mannschaft sich so gut synchronisiert hat, dass sie wie ein einziger Superathlet rudert.
KI konzipiert Quantenexperiment
Es war unklar, welcher experimentelle Aufbau die spezielle Verschränkung zwischen Photonen am besten erzeugen kann. Krenn hatte dazu ein Programm namens Melvin entwickelt, das alle nötigen optischen Bauelemente simulierte, darunter Laser, Linsen, Spiegel und Detektoren. Damit probierte es in kurzer Zeit Millionen von Kombinationen aus, bis es Experimente gefunden hatte, die diese Verschränkung herstellen. Weil Melvin lernte, welche Kombinationen sinnvoll sind, schaffte das Programm innerhalb von Stunden das, woran vier Physiker – drei Experimentatoren und ein Theoretiker – drei Monate vergeblich gearbeitet hatten: Es lieferte einen funktionierenden Aufbau des Experiments.
Radikale Vereinfachung: Ein Quantenexperiment (unten) lässt sich als Graphennetzwerk (oben) darstellen. Das Experiment soll vier Photonen a bis d (Knoten des Netzwerks oben) miteinander verschränken, wobei die farbigen Linien I bis IV Paarungen für die Verschränkung darstellen. Das Quadrat oben links entspricht der Verschränkung aller vier Photonen, die sich aus der Kombination der beiden Graphen daneben ergibt und sich in den drei unten dargestellten Experimenten realisieren lässt. Die blauen und roten Kästen entsprechen Lichtquellen, die einzelne Photonenpaare erzeugen, die schwarzen, kappenförmigen Symbole Detektoren für die ankommenden Photonen.PBS steht für ein optisches Bauelement, das Strahlen nach bestimmten Regeln aufteilen kann.(Grafik: oco nach Mario Krenn/MPI für die Physik des Lichts) |
Nach diesem Aha-Erlebnis widmete sich Krenn ganz der Entwicklung von KI, die Vorschläge für physikalische Experimente kreiert. Dabei half eine wichtige Erkenntnis: „Wir haben zufällig bemerkt, dass diese Quantenoptik-Experimente stark abstrahiert werden können.“ Und zwar lassen sie sich als Netzwerk mathematischer Graphen aus Linien, sogenannten Kanten, und Knoten darstellen. Zwei Knoten stehen dann etwa für zwei Photonen und eine Linie zwischen ihnen für deren Verschränkung. „In diesem abstrakten Raum kannst du wesentlich einfacher zum Beispiel nach neuen Quantenexperimenten suchen“, erklärt Krenn begeistert. Vor allem lässt sich so die optimale Lösung mit einem Minimum an Knoten und Kanten finden, die sich dann in einen besonders ökonomischen Aufbau mit möglichst wenigen Bauteilen in der Realität umsetzen lassen sollte. Allerdings benutzt Krenn für seine KI-Programme keine künstlichen neuronalen Netze: Die müssten ja mit vorhandenen experimentellen Designs trainiert werden, was kaum grundlegend neue Ideen hervorbrächte. „Wir setzen sogenannte Explorationsalgorithmen ein“, erläutert Krenn, „die den riesigen abstrakten Raum an Kombinationen sehr effizient auf neue Lösungen durchsuchen.“
Inzwischen ist Mario Krenn mit seiner Forschung erheblich weitergekommen. In einer derzeit auf dem Server Arxiv vorveröffentlichten Arbeit zeigt ein internationales Team, an dem er beteiligt war, zum Beispiel, dass sich mit KI neue Designs für Gravitationswellendetektoren entwickeln lassen. Verblüffenderweise wären diese Konzepte der derzeit geplanten nächsten Generation des amerikanischen Ligo Gravitationswellendetektors überlegen. Ligo wurde berühmt, weil es damit gelang, die Gravitationswellen zu entdecken, deren Existenz Einstein hundert Jahre zuvor postuliert hatte. Das wurde 2017 mit dem Physik-Nobelpreis gewürdigt. Heute sind Gravitationswellen ein wichtiges neues Werkzeug der Astrophysik, um beispielsweise Schwarze Löcher aufzuspüren. Nun ist ein Team um Rana X. Adhikari mit dem Design der nächsten Generation, Ligo Voyager, beschäftigt. Dieses Team stieß darauf, dass Mario Krenn mit KI neue quantenoptische Experimente entwickelte. Also fragte man bei Krenn an, ob er seine Methode auch für die Suche nach neuen Designs für Gravitationswellendetektoren einsetzen wolle. So kam es zur Zusammenarbeit. Was aber die Detektordesigns der KI angeht, müsste sich in der Praxis erst noch zeigen, ob nicht irgendwelche unerwarteten Effekte verhindern, dass sie ihre theoretischen Vorteile ausspielen können. Bei einem Experiment, das Milliarden Dollar kostet, ist man allerdings eher vorsichtig mit radikalen Neuerungen.
Ein Nobelpreis für künstliche Intelligenz?
Bei solchen Beispielen künstlicher Kreativität stellt sich die Frage: Erhaschen wir hier schon eine Vorahnung vom künstlichen Physiker? „Wir sind jetzt auf dem Level, wo wir Ideen erzeugen können“, zeigt sich Mario Krenn optimistisch: „Bei bestimmten Themen können unsere KI-Systeme vollkommen neue Lösungen finden, die im Vergleich mit Ideen von Menschen schon wesentlich kreativer sind, im Sinne des Neuigkeitsgrads und der Nützlichkeit!“ Florian Marquardt ist ebenfalls optimistisch, was Anwendungen von KI betrifft, aber doch vorsichtiger bei der ganz großen Vision. So bleibt die Frage, wann eine KI in der Lage sein wird, eine echte physikalische Theorie aufzustellen. Eine solche Theorie müsste elegant in übersichtlichen mathematischen Formeln darstellbar sein, an die bestehende Physik anknüpfen und Vorhersagen für physikalische Systeme ermöglichen. Trotz dieses hohen Anspruchs ist Mario Krenn zuversichtlich, dass schon in den nächsten Jahren eine KI die entscheidende Idee zu einer nobelpreiswürdigen Entdeckung liefern könnte. Schon bald könnte das Nobelkomitee mit der Frage konfrontiert sein, ob auch eine KI oder deren Schöpfer den höchsten Preis in der Wissenschaft erhalten kann.
Fazit
Künstliche Intelligenz ist sehr gut darin, in großen Datenmengen Muster zu erkennen und die Komplexität von Zusammenhängen zu reduzieren. Deshalb kann sie etwa in der Quanten- oder der Gravitationswellenphysik Experimente konzipieren.
Künftig könnte KI auch physikalische Zusammenhänge verstehen, wenn sie eine modellhafte Vorstellung davon erlangt, Konzepte von einem Gebiet auf ein anderes übertragen und Menschen einen Zusammenhang erklären kann.
Damit KI menschlichen Wissenschaftlern und Wissenschaftlerinnen ebenbürtig wäre, müsste sie selbst aus gesellschaftlichen Bedürfnissen Fragen ableiten können. Davon ist sie noch sehr weit entfernt.
* Der eben im Forschungsmagazin 3/2024 der Max-Planck Gesellschaft https://www.mpg.de/23524840/MPF_2024_3.pdf unter dem Titel "Künstliche Inspiration" erschienene Artikel wird - mit Ausnahme des Titels, einigen Änderungen im Abstract und ohne das Gruppenfoto - in unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)
Bildung ist die Grundlage des menschlichen Fortschritts - Demograf Wolfgang Lutz erhält den weltweit höchstdotierten Preis für Bildungsforschung
Bildung ist die Grundlage des menschlichen Fortschritts - Demograf Wolfgang Lutz erhält den weltweit höchstdotierten Preis für BildungsforschungFr, 26.092024 — IIASA
Vor 5 Jahren ist im ScienceBlog ein Artikel des Demografen Wolfgang Lutz erschienen, der zeigt, dass ein höherer Bildungsstand zu einem verbesserten Gesundheitsbewusstsein führt und dies wiederum zu einer Erhöhung der eigenen Lebenserwartung sowie der Lebenserwartung der Kinder. Für seine Forschungen über die Rolle der Bildung als Motor für nachhaltige Entwicklung wurde der emeritierte Wissenschafter am International Institute of Applied Sciences (IIASA), der auch wirkliches Mitglied der Österreichischen Akademie der Wissenschaften (ÖAW) und Professor an der Universität Wien ist, mit dem weltweit höchstdotierten Bildungspreis ausgezeichnet.*
Abbildung. Die Yidan-Medaille. Auf einer Seite ist eine Kiefer abgebildet, die aus einem Bergfelsen wächst: ein Symbol für Bildung, deren immergrüne Zweige sich auch unter den schwierigsten Bedingungen ausbreiten können. (Bild: Wikipedia By Joeysdy - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=65440140.) |
Wie wirkt sich der Bildungsstand einer Bevölkerung langfristig auf soziale, ökonomische und ökologische Entwicklungen aus? Wie wirkt sich Bildung auf die Fähigkeit einer Gesellschaft aus, sich an den Klimawandel anzupassen? Und welche Rolle spielt die Bildung für die Gleichstellung der Geschlechter und den sozialen Aufstieg?
Die begehrteste Auszeichnung im globalen Bildungssektor
Diese grundlegenden Fragen stehen seit Jahrzehnten im Mittelpunkt der wissenschaftlichen Arbeit von Lutz. Seine mit zahlreichen internationalen Preisen ausgezeichneten Forschungen haben maßgeblich dazu beigetragen, Bildung als zentrale Variable bei der Analyse des Klimawandels zu etablieren. Nun wurde er mit dem hoch angesehenen Yidan-Preis geehrt. Mit 1,7 Millionen Euro freien Projektmitteln und einer zusätzlichen Dotierung von 1,7 Millionen Euro ist der Yidan-Preis die höchste Bildungsauszeichnung der Welt.
"Ich hatte das Privileg, Wolfgang Lutz seit Jahrzehnten als hochgeschätzten Kollegen und herausragenden Sozialwissenschaftler zu kennen", so OeAW-Präsident Heinz Faßmann in einer Glückwunschbotschaft an Lutz, der ordentliches Mitglied der Akademie ist. "Mit seinen Beiträgen zu großen internationalen Forschungsprojekten hat er das Fachgebiet der Demographie wesentlich geprägt und das Ansehen Österreichs in der Welt erhöht. Darüber hinaus hat er sich wirkungsvoll für die Bildung als wesentliches Element der nachhaltigen Entwicklung eingesetzt und damit politische Entscheidungen beeinflusst. Im Namen der OeAW gratuliere ich ihm zu dieser wohlverdienten Anerkennung."
Finanzierung des Aufbaus von Forschungskapazitäten in Afrika und Asien
"Bildung ist die Grundlage des menschlichen Fortschritts. Meine Forschung wird politischen Entscheidungsträgern auf der ganzen Welt Erkenntnisse über den Multiplikatoreffekt von Bildung für eine nachhaltige Zukunft liefern. Ich hoffe, dass ich die Projektmittel des Yidan-Preises nutzen kann, um die Entwicklung von Forschungskapazitäten in Afrika und Asien zu unterstützen und mich auf Bildung als den Schlüssel zur Stärkung der Resilienz zu konzentrieren", sagt Preisträger Lutz.
Der Generaldirektor des IIASA, John Schellnhuber, übermittelte Lutz ebenfalls seine Glückwünsche. "Ich freue mich, meinem geschätzten Kollegen Wolfgang Lutz zur Verleihung des Yidan-Preises herzlich gratulieren zu können. Seine bahnbrechenden Arbeiten in den Bereichen Demographie, Bildung und Systemanalyse haben unser Verständnis der Wechselwirkungen zwischen Bevölkerungsdynamik und Bildungssystemen revolutioniert. Diese Anerkennung unterstreicht die globale Wirkung seiner Forschung."
Zu den Gratulanten zählt auch Sebastian Schütze, Rektor der Universität Wien. "Ich freue mich für Wolfgang Lutz, dass er diese renommierte Auszeichnung erhält. Die Auszeichnung macht deutlich, dass Wolfgang Lutz international als ausgewiesener Demografie-Experte anerkannt ist", fügt Schütze zu.
Bildung als zentrale demografische Variable in der Bevölkerungsprognose
Als Demograf und Sozialstatistiker war Lutz einer der ersten Forscher, der die greifbaren globalen Auswirkungen von Bildung, Humankapital und nachhaltiger Entwicklung aufzeigte. Sein Ansatz, das Bildungsniveau einer Bevölkerung über lange Zeiträume zu analysieren und dessen Auswirkungen auf demografische und soziale Entwicklungen zu untersuchen, etablierte den Faktor Bildung - neben Alter und Geschlecht - als Schlüsselvariable für Bevölkerungsprognosen in der internationalen Forschung.
Lutz ist Gründungsdirektor des Wittgenstein-Zentrums für Demographie und Globales Humankapital, einem Joint Venture zwischen dem IIASA, der Österreichischen Akademie der Wissenschaften und der Universität Wien. Er ist außerdem Mitglied eines Expertenteams der Vereinten Nationen und war Autor des globalen Nachhaltigkeitsberichts "The Future is Now" im Jahr 2019.
Zahlreiche Auszeichnungen
Lutz wurde für seine herausragenden Arbeiten mit zahlreichen renommierten Preisen ausgezeichnet, darunter ist der Wittgenstein-Preis des Wissenschaftsfonds FWF sowie zwei Advanced Grants und ein Proof-of-Concept Grant des ERC (European Research Council). Zuletzt wurde er mit dem Wissenschaftspreis der Österreichischen Forschungsgemeinschaft 2023 ausgezeichnet. Außerdem ist er einer der wenigen Österreicher, die Mitglied der US National Academy of Sciences sind. Seine Arbeiten, die in mehr als 293 wissenschaftlichen Artikeln und 27 Büchern veröffentlicht wurden, sind weltweit anerkannt und haben die demografische Forschung maßgeblich beeinflusst.
Der Yidan-Preis wurde 2016 von dem Philanthropen Charles Chen Yidan gegründet, um Beiträge zur Bildungsforschung und -entwicklung zu würdigen. Die Yidan Prize Foundation hat ihren Sitz in Hongkong. Ihr Ziel ist es, Ideen und Praktiken im Bildungsbereich zu fördern, die das Leben des Einzelnen und der Gesellschaft positiv beeinflussen können.
Über die Yidan Prize Foundation
Die Yidan Prize Foundation ist eine globale philanthropische Stiftung, die sich zum Ziel gesetzt hat, durch Bildung eine bessere Welt zu schaffen. Durch ihren Preis und ihr Netzwerk von Innovatoren unterstützt die Yidan Prize Foundation Ideen und Praktiken im Bildungsbereich, die das Leben und die Gesellschaft positiv verändern können.
Der Yidan-Preis ist die weltweit höchste Bildungsauszeichnung, mit der Einzelpersonen oder Teams gewürdigt werden, die einen wichtigen Beitrag zur Theorie und Praxis der Bildung geleistet haben. Er besteht aus zwei Preisen, die zusammen passen: dem Yidan-Preis für Bildungsforschung und dem Yidan-Preis für Bildungsentwicklung. Beide Preise sind darauf ausgelegt, wirksam werden zu können: Die Preisträger erhalten über einen Zeitraum von drei Jahren einen nicht zweckgebundenen Projektfond in Höhe von 15 Mio. HK$, der ihnen hilft, ihre Arbeit auszuweiten, sowie eine Goldmedaille und einen Geldpreis in Höhe von 15 Mio. HK$. Der Projektfond und der Geldpreis werden zu gleichen Teilen an Teams vergeben.
Anm. Redn.: Der Stifter des Yidan Preises, Dr. Charles CHEN Yidan hat selbst erfahren, welchen Unterschied Bildung im Leben eines Menschen machen kann. Mit zwei Abschlüssen: einen Bachelor in angewandter Chemie an der Universität Shenzhen und einen Master in Wirtschaftsrecht an der Universität Nanjing wurde er zum Milliardär.
*Der Artikel "Wolfgang Lutz is the first Austrian to win the Yidan Prize" ist am 26. September2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/sep-2024/wolfgang-lutz-is-first-austrian-to-win-yidan-prize). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch eine Abbildung und einen kurzen Kommentar ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Wolfgang Lutz im ScienceBlog:
Über Wolfgang Lutz: Wolfgang Lutz
Wolfgang Lutz & Endale Kebede, 25.7.2019: Bildung entscheidender für die Lebenserwartung als Einkommen
Zur unzureichenden Zufuhr von Mikronährstoffen
Zur unzureichenden Zufuhr von MikronährstoffenSo, 22.09.2024 — Redaktion
Die unzureichende Zufuhr von Mikronährstoffen und der daraus resultierende Mangel stellen eine große Herausforderung für die globale öffentliche Gesundheit dar. Auf der Grundlage von möglichst aktuellen, weltweit erhobenen Daten zum Nahrungskonsum liefert eine Studie nun erstmals Schätzungen der globalen und regionalen Zufuhr von 15 essentiellen Vitaminen und Mineralstoffen, wobei Unterschiede zwischen Männern und Frauen und nach Altersgruppen zwischen 0 und 80+ Jahren aufgezeigt werden. Die Ergebnisse sind alarmierend: Der weitaus überwiegende Teil der Weltbevölkerung konsumiert mindestens einen Mikronährstoff in unzureichender Menge. Diese Ergebnisse sind öffentlich frei zugänglich und können genutzt werden, um gezielt auf Bevölkerungsgruppen zuzugehen, die ein Eingreifen benötigen.
Eure Nahrung sei Medizin, eure Medizin Nahrung (Hippokrates)
Unser Organismus ist auf die regelmäßige Zufuhr von Mikronährstoffen angewiesen, die er selbst nicht produzieren kann. Es sind dies niedermolekulare Substanzen - Vitamine und Mineralstoffe -, die als essentielle Komponenten von physiologischen Prozessen im Organismus fungieren. Bei den meisten dieser Stoffe reichen dafür Mikrogramm- bis Milligramm-Mengen pro Tag aus und diese sollten in verfügbarer Form aus der Nahrung aufgenommen werden können.
Eine unzureichende Aufnahme von Mikronährstoffen gehört weltweit zu den häufigsten Formen der Mangelernährung, wobei bei jedem dieser essentiellen Stoffe ein "zu wenig" zu jeweils spezifischen gesundheitlichen Folgen führt. Diese reichen von Anämie, Erblindung, negativ verlaufenden Schwangerschaften, schlechter physischer Entwicklung, kognitiven Beeinträchtigungen, Haut-und Haarproblemen bis hin zu erhöhter Anfälligkeit für Infektionskrankheiten.
Mikronährstoffmangel trägt also massiv zu erhöhter Morbidität und Mortalität bei, das globale aber in vielen Fällen auch regionale Ausmaß des Problems hat sich aufgrund unzureichender und/oder veralteter Daten bisher kaum abschätzen lassen.
Globale Schätzung des nahrungsbedingten Mangels an Mikronährstoffen
So übertitelt ein Forscherteam der Harvard T.H. Chan School of Public Health, der UC Santa Barbara (UCSB) und der Global Alliance for Improved Nutrition seine eben im Fachjournal Lancet Global Health erschienene neue Studie [1]. Darin haben die Forscher erstmals den Bedarf an den Mikronährstoffen mit deren Aufnahme aus der jeweiligen Nahrung in 185 Ländern (dies entspricht 99,3 Prozent der Weltbevölkerung) verglichen. Die dazu verwendeten, möglichst aktuellen Daten stammten aus i) der Global Dietary Database, einer Datenbank, welche auf Basis repräsentativer nationaler Umfragen den globalen Ernährungsstatus schätzt [2], ii) der Weltbank und iii) aus Erhebungen zur Ernährung in 31 Ländern. Untersucht wurden 15 Mikronährstoffe: die Mineralstoffe Kalzium, Magnesium, Jod, Eisen, Zink und Selen und die Vitamine A, B1 (Thiamin), B2 (Riboflavin), B3 (Niacin), B6 (Pyridoxine), B9 (Folsäure), B12 (Cobalamin), C (Ascorbinsäure) und E (Tokopherole). Unterschiedlicher Bedarf an diesen Substanzen und deren Aufnahme aus der konsumierten Nahrung wurde bei beiden Geschlechtern und in 17 Altersgruppen von 0 bis 80+ Jahren erhoben.
Es muss betont werden, dass für die Zufuhr von Mikronährstoffen nur die Aufnahme aus der jeweiligen Nahrung, nicht aber in Form von Supplementen oder in angereicherten Formen in Lebensmitteln (z.B. jodiertes Kochsalz) berücksichtigt werden konnten. Der globale Markt für Supplemente ist in den letzten Jahren zwar sehr stark gewachsen, verlässliche Daten zur weltweiten Anwendung fehlen aber noch [3]. Programme für mit Vitaminen (zB. mit Folsäure) und/oder Mineralstoffen angereicherten Nahrungsmitteln laufen in zahlreichen Ländern, erfassen die Bevölkerung nur teilweise [4].
Alarmierende Ergebnisse
Abbildung 1. Unzureichende Aufnahme von 4 Mikronährstoffen aus der Nahrung. Zahl und Anteile der betroffenen globalen Bevölkerung und geschätzte Prävalenz in 185 Ländern im Jahr 2018. Zur besseren Sichtbarkeit sind Länder mit einer Landfläche von weniger als 25 000 km² als Punkte dargestellt (Bild: Unveränderter Ausschnitt aus Figure 2 in Pasarelli et al., 2024; Lizenz: cc-by-nc-nd). |
Die Analyse ergab, dass Milliarden Menschen zu wenig von mindestens einem essentiellen Mikronährstoff konsumieren. Die Zahlen sind unerwartet hoch und betreffen Menschen in allen Ländern, arme ebenso wie reiche.
Am Unzureichendsten ist die Aufnahme von 4 Mikronährstoffen: Jod, Vitamin E, Calcium und Eisen - rund zwei Drittel der Menschheit weisen hier schwere Defizite auf. Abbildung 1.
Jodmangel führt mit 5,1 Milliarden Menschen die Liste an. Es ist ein essentieller Bestandteil der Schilddrüsenhormone Trijodthyronin und Thyroxin, die eine zentrale Rolle im Energiestoffwechsel spielen und Auswirkungen auf Zellwachstum, Immunzellen, Herzfunktion, Muskulatur, Fettgewebe und endokrine Organe zeigen. Die Analyse dürfte allerdings den Jodmangel stark überschätzen, da er sich auf die Aufnahme aus Nahrungsquellen - vor allem aus Meeresprodukten - bezieht, in vielen Ländern aber bereits jodiertes Speisesalz verwendet wird (und z.T. gesetzlich vorgeschrieben ist), das - wie erwähnt - in der Analyse nicht berücksichtigt wurde. Eine Anreicherung von Lebensmitteln mit vielen der Mikronährstoffe ist dagegen weltweit nicht üblich.
Tabelle. Mikronährstoffe, geschätzter Mangel der Weltbevölkerung (in Milliarden) und wichtigste physiologische Rollen. (Mangeldaten zusammengestellt aus [1) ) |
Die einzelnen Nährstoffdefizite zeigen starke regionale Unterschiede, oft auch zwischen Nachbarländern wie im Fall des Eisenmangels. Länder in Nordamerika, Europa und Teile Zentralasiens zeigen niedrige Prävalenzen von Calciummangel. Vitamin E-Mangel ist mit nur wenigen Ausnahmen nahezu über die ganze Erde verbreitet. Abbildung 1.
Die untersuchten 15 Mikronährstoffe, die globale Prävalenz ihrer Defizite und wesentlichste physiologische Rollen sind in der nebenstehenden Tabelle aufgelistet.
Die Forscher analysierten auch die Zufuhr von Mikronährstoffen über die gesamte Lebensdauer (in 5-Jahresintervallen) bei beiden Geschlechtern. So stellten sie fest, dass in allen Regionen die Aufnahme von Calcium sowohl bei Frauen als auch bei Männern im Alter zwischen 10 und 30 Jahren am geringsten war. Unterschiede zwischen Männern und Frauen bestanden bezüglich der Zufuhr verschiedener Stoffe: So wiesen innerhalb desselben Landes und derselben Altersgruppe Frauen höhere Defizite an Jod, Vitamin B12, Eisen und Selen auf als Männer, umgekehrt nahmen mehr Männer zu geringe Mengen an Niacin, Thiamin, Zink, Magnesium und den Vitaminen A, C und B6 zu sich.
Abbildung 2. 2, Abschätzung der unzureichenden Zufuhr von Eisen über die Lebensdauer von Frauen und Männern. Oben: Eisendefizite in den Weltregionen, Unten: Eisendefizite in Kasachstan. (Bild: Unveränderte Ausschnitte aus Figure 3 und 1, in Pasarelli et a., 2024; Lizenz: cc-by-nc-nd). |
Abbildung 2 zeigt als Beispiel die unzureichende Zufuhr von Eisen, die bis Ende ihres reproduktionsfähigen Alters bei Frauen stärker ausgeprägt war als bei Männern .
Für die geschätzte unzureichende Versorgung mit bestimmten Nährstoffen ergaben sich so je nach Geschlecht eindeutige Muster. Die Autoren der Studie hoffen, dass diese Muster helfen können, besser zu erkennen, wo Ernährungsmaßnahmen erforderlich sind, wie z. B. diätetische Maßnahmen, Anreicherung und Supplementierung von Mikronährstoffen.
Methoden und Ergebnisse der Studie sind öffentlich frei zugänglich und können genutzt werden, um gezielt auf Bevölkerungsgruppen zuzugehen, die ein Eingreifen benötigen.
[1] Simone Passarelli et al., Global estimation of dietary micronutrient inadequacies: a modelling analysis. The Lancet Global Health, Vol: 12, Issue: 10, Page: e1590-e1599. https://doi.org/10.1016/S2214-109X(24)00276-6
[2] Global Dietary Databank. Improving global health through diet. https://doi.org/10.3390/nu15153320
[3] Ouarda Djaoudene et al., A Global Overview of Dietary Supplements: Regulation, Market Trends, Usage during the COVID-19 Pandemic, and Health Effects. Nutrients 2023, 15, 3320. https://www.gainhealth.org/sites/default/files/publications/documents/Mighty-Nutrients-Coalition-Policy-Brief-Preventing-Micronutrient-Deficiencies-Worldwide.pdf
[4] Global Alliance for Improved Nutrition (GAIN): Preventing Micronutrient Deficiencies Worldwide. https://www.gainhealth.org/sites/default/files/publications/documents/Mighty-Nutrients-Coalition-Policy-Brief-Preventing-Micronutrient-Deficiencies-Worldwide.pdf
WHO: Vitamin and Mineral Nutrition Information System (VMNIS). https://www.who.int/teams/nutrition-and-food-safety/databases/vitamin-and-mineral-nutrition-information-system
Antibiotika schädigen die Mucusbarriere des Dickdarms und erhöhen so das Risiko für entzündliche Darmerkrankungen
Antibiotika schädigen die Mucusbarriere des Dickdarms und erhöhen so das Risiko für entzündliche DarmerkrankungenSo,15.09.2024 — Redaktion
Eine neue Studie der Bar-Ilan-Universität zeigt auf, wie die Einnahme von Antibiotika das Risiko einer chronisch entzündlichen Darmerkrankung (CED) erhöht. Demnach führt bereits kurzzeitige Antibiotikabehandlung zum Zusammenbruch der schützenden Mucusbarriere, die Darmwand samt Immunzellen vor schädlichen Mikroorganismen im Darmlumen abschirmt. Die Schädigung der Mucusbarriere erfolgt offensichtlich dadurch, dass Antibiotika direkt die Schleimsekretion in den dafür verantwortlichen Becherzellen hemmen. In einem Mausmodell der CED führte der Antibiotika bedingte Mangel an Schleimproduktion zum Eindringen von Bakterien in die Darmschleimhaut, zum Auftauchen mikrobieller Antigene im Blutkreislauf und zur Verschlimmerung von Ulzerationen.
Mit der Entdeckung der ersten Antibiotika vor rund 100 Jahren setzte eine neue Ära der Medizin ein. Diese Wundermittel haben ehemals fatal verlaufende mikrobielle Infektionen zu (leicht) behandelbaren Erkrankungen gemacht, neue medizinische Verfahren ermöglicht, die von komplizierten Operationen, Transplantationen bis hin zu Krebsbehandlungen reichen, und so wesentlich dazu beigetragen, dass wir nun um Jahrzehnte länger leben als unsere Vorfahren. Allerdings hat der breite, allzu häufige und unsachgemäße Einsatz der Antibiotika nicht nur in der Humanmedizin, sondern auch im Tiergebiet (Massentierhaltung) bei vielen menschlichen Krankheitserregern zur Entwicklung von Arzneimittelresistenzen geführt. Es ist dies eine bedrohliche Situation, da neue, gegen (multi)resistente Bakterien wirksame Antibiotika derzeit fehlen.
Antibiotika und das Mikrobiom
Ein wesentliches Argument für den überaus hohen Einsatz der Antibiotika war, dass diese ja nur gegen mikrobielle Prozesse gerichtet sind, welche im menschlichen/tierischen Organismus nicht vorkommen. Natürlich wurde es zunehmend klar, dass neben der Vernichtung der schädlichen Mikroben auch Billionen unserer nützlichen mikrobiellen Mitbewohner - vor im Mikrobiom des Verdauungstrakts - durch Antibiotika empfindlich gestört/zerstört werden können. Wie die in den letzten Jahren boomende Mikrobiomforschung zeigt, gehen vom Mikrobiom im Darm Signale aus, die Verbindungen zu diversen Körperorganen - Achsen, darunter die bidirektionale Darm-Hirn-Achse - bilden, deren Stoffwechsel, Immun-, Nerven- und Hormonsysteme beeinflussen und so zur Homöostase der Organe beitragen. Als Folge wird daher angenommen, dass viele, in Zusammenhang mit Antibiotikaeinsatz stehende weitverbreitete Krankheiten - von neuro-immunologischen Entwicklungsstörungen bei (Klein)kindern über Fettleibigkeit, Diabetes bis hin zu chronischen Entzündungen - auf eben die Störung des Mikrobioms zurückzuführen sind. Zu diesen Entzündungen werden auch chronisch entzündliche Darmerkrankungen (CED) gezählt.
Antibiotika und chronisch entzündliche Darmerkrankungen
Von entzündlichen Darmerkrankungen - die wichtigste Arten sind Morbus Crohn und Colitis ulcerosa - sind derzeit rund 7 Millionen Menschen betroffen und diese Zahl ist im Steigen begriffen. Die Ursachen sind noch sehr schwammig mit einem komplexen Zusammenspiel von genetischer Veranlagung, Umweltfaktoren, einem deregulierten Immunsystem und dem Mikrobiom des Darms beschrieben. Epidemiologische Studien aus den letzten Jahren haben einen engen dosisabhängigen Zusammenhang zwischen der Anwendung von Antibiotika und dem Risiko für die Entwicklung von CED gezeigt [1].
Abbildung 1. Die Darmschleimhaut (Darmmucosa), schematische Darstellung (links) und Gewebeschnitt (rechts). Die Darmmucosa nimmt Nährstoffe aus dem Darmlumen auf und ist gleichzeitig Barriere gegen das Eindringen von Partikeln und Mikroorganismen. Sie setzt sich aus den Epithelzellen, der darunter liegenden Trägerschicht aus Bindegewebe (Lamina propria) und der als Grenzschschicht zum Darmlumen liegenden Schleimschichte (Mucus) zusammen. Epithelzellen: Enterozytendienen der Resorption von Nährstoffen, dem Ionentransport. Goblet Zellen (Becherzellen) sezernieren Mucine (Schleim). Panethzellen (vor allem im Dünndarm bewirken lokale Immunabwehr. Enteroendokrine Zellen produzieren (Gewebs)Hormone, die auch in die Blutbahn abgegeben werden. Tuft Zellen (Bürstenzellen) sind chemosensorische Zellen, die in der Immunantwort.eine Rolle spielen. Nicht gezeigt: Die Lamina propria enthält Zellen der Immunabwehr -Makrophagen, T-Zellen, dendritische Zellen. (Bild links:modifiziert nach A. I. Wells & C. B. Coyne (2023), https://doi.org/10.3390/v11050460; Lizenz: cc-by-sa. Bild rechts: modifiziert nach P. Paone & P.D. Cani (2020), https://doi.org/10.1136/gutjnl-2020-322260; Lizenz cc-by.-nc) |
Ein Forscherteam unter Shai Bel von der Bar-Ilan-Universität (Ramat Gan, Israel) berichtet nun über entscheidende neue Erkenntnisse auf welche Weise Antibiotika zur Entstehung von chronisch entzündlichen Darmerkrankungen beitragen [2]:
Ausgehend von der Hypothese, dass Antibiotika im Darm nicht nur Mikroorganismen sondern auch Strukturen des Wirtsorganismus direkt angreifen können, haben die Forscher festgestellt, dass Antibiotika den Zusammenbruch der zwischen Darmepithel und Darmlumen liegenden, schützenden Mucusbarriere bewirken.
Zum besseren Verständnis dieser Ergebnisse veranschaulicht Abbildung 1 die Darmschleimhaut (Darmmucosa) mit den wesentlichen Zelltypen und der als Grenzschschicht zum Darmlumen liegenden Mucusbarriere.
Die Mucusbarriere des Darms
Schleim - Mucus - liegt als Schichte (in mehreren Schichten) auf der Darmschleimhaut auf und separiert den Inhalt des Darmlumens mit seinen Stoffwechselprodukten, Verdauungsresten und dem Mikrobiom von der Darmwand. Der Schleim besteht aus Mucinmolekülen - Glykoproteinen -, die von Becherzellen (goblet cells) im Darmepithel abgesondert werden und ein hydratisiertes Gel bilden. Dieses erleichtert den Transport der Verdauungsprodukte im Darmlumen, schützt die Darmwand vor Verdauungsenzymen und verhindert, dass große Partikel und Billionen von Mikroorganismen direkt mit der Epithelzellschicht in Berührung kommen; kleine Moleküle können jedoch durch das Gel hindurch zu den absorbierenden Darmzellen passieren.
Antibiotika wirken direkt auf die Mucusbarriere
Tabelle. Charakteristika der 4 untersuchten Antibiotika |
Die in [2] berichteten Studien wurden an Mäusemodellen durchgeführt. Mit dem Ziel eine kurzzeitige Antibiotikabehandlung an Patienten zu imitieren, erhielten die Tiere drei Tage lang 2 x täglich Antibiotika oral verabreicht. Es handelte ich dabei um 4 klassische, seit mehr als 60 Jahren angewandte Antibiotika - Ampicillin, Neomycin, Metronidazol und Vancomycin -, die aus unterschiedlichen Antibiotikaklassen stammen, unterschiedliche Wirkungsmechanismen und Wirkspektren haben (siehe Tabelle). Eine Kontrollgruppe erhielt gepufferte Kochsalzlösung. Nach Tötung der Tiere wurden dann Gewebe und Blut entnommen und mit unterschiedlichen Techniken wie Fluoreszenzmikroskopie, Messung der Schleimsekretion, RNA-Sequenzierung und maschinellem Lernen untersucht.
Das erstaunliche Ergebnis: Unabhängig von der Art des getesteten Antibiotikums, hat die kurzzeitige orale Behandlung in allen 4 Fällen zum Zusammenbruch der Mucusbarriere geführt; die räumliche Trennung von Epithelzellen/Immunzellen der Darmschleimhaut und den Mikroorganismen im Darmlumen wurde damit aufgehoben. Abbildung 2. Die Mikroben kommen so in direkten Kontakt mit dem Gewebe des Wirts und können eine Immunreaktion auslösen.
Tatsächlich wird sowohl in Tiermodellen für CED als auch bei Patienten mit CED ein Zusammenbruch der Mucusbarriere beobachtet.
Abbildung 2. Abbildung 2. Kolongewebe von Mäusen, die oral mit den angegebenen Antibiotika oder mit gepufferter Kochsalzlösung (PBS) behandelt wurden. Links: Fluoreszenz-in situ-Hybridisierung. Die Bakterien sind grün gefärbt, die Zellkerne des Wirts blau. Die gestrichelten weißen Linien markieren den Rand des Wirtsepithels. Maßstabsbalken, 20 μm. Rechts: Quantifizierung des Abstands zwischen luminalen Bakterien und Wirtsepithel. Jeder Punkt repräsentiert die Ergebnisse von einer Maus. (Bild aus J. Sawaed et al., 2024 [2], Lizenz cc-by). |
Mit Hilfe weiterer Untersuchungen, u.a. durch Antibiotikabehandlung von keimfreien Mäusen, Transplantation des fäkalen Mikrobioms und in vitro Studien zur Schleimsekretion der Becherzellen, stellten die Forscher fest, dass die Schädigung der Mucusbarriere unabhängig von der Antibiotika-bedingten Veränderung des Mikrobioms erfolgt. Antibiotika lösen direkt in den für die Schleimsekretion verantwortlichen Becherzellen (siehe Abbildung 1) eine Stressreaktion aus, die zur Hemmung der Mucussekretion führt.
In einem weiteren Mausmodell für CED führte die durch Antibiotika blockierte Schleimsekretion zum Eindringen von Bakterien in die Darmschleimhaut, zur Verlagerung mikrobieller Antigene in den Blutkreislauf und zur Verschlimmerung von Ulzerationen.
----------------------------------------------
Summa summarum: Antibiotika schädigen nicht nur Bakterien, sondern auch Wirtszellen. Die orale Einnahme von Antibiotika kann infolge der gehemmten Mucusproduktion die Entstehung von Darmentzündungen begünstigen.
[1] A. S. Faye et al., Antibiotic use as a risk factor for inflammatory bowel disease across the ages: A population-based cohort study. Gut 72, 663–670 (2023).
[2] J. Sawaed et al, Antibiotics damage the colonic mucus barrier in a microbiota-independent manner, Science Advances (2024). www.science.org/doi/10.1126/sciadv.adp4119
CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und Prognose
CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und PrognoseFr,06.09.2024 — Ricki Lewis
Forscher der Harvard Medical School haben mit CHIEF ein neues Tool der Künstlichen Intelligenz entwickelt, das weiter geht als viele derzeitige KI-Ansätze zur Krebsdiagnose: Es kann Krebs identifizieren, Behandlungsmöglichkeiten empfehlen und Überlebensraten für 19 verschiedene Krebsarten vorhersagen. Dies wird möglich, da CHIEF erstmals nicht nur Merkmale der Tumorzelle sondern auch der Mikroumgebung eines Tumors nutzt, um vorherzusagen, wie ein Patient auf eine Therapie ansprechen werde und wie für diesen eine optimale personalisierte Therapie aussehen könnte. Die Genetikerin Ricki Lewis berichtet über dieses neue Modell, das einen bahnbrechenden Fortschritt für Diagnose und Therapie von Krebserkrankungen verspricht.*
Bild: Placidplace, Pixabay (Inhaltslizenz). |
Früher einmal hat die Diagnose Krebs im Stadium IV den Anfang vom Ende bedeutet. Heute markiert es für viele Patienten den Beginn einer zielgerichteten Therapie (targeted therapy), nämlich der Einnahme von einer Reihe von Medikamenten, die speziell auf die krankhaften Zellen abzielen, indem sie die Signale blockieren, die deren unkontrollierte Zellteilung ankurbeln, während sie gesunde Zellen schonen. Krebspatienten im Stadium IV können so noch Jahre, ja sogar Jahrzehnte leben und manchmal an einer anderen Krankheit sterben.
Jetzt gibt es sogar Hoffnung für Patienten, deren Krebserkrankungen gegen zielgerichtete Medikamente resistent geworden sind, indem mit Hilfe künstlicher Intelligenz Krebszellen und ihre Umgebung untersucht werden, um neue Schwachstellen zu ermitteln. Forscher der Harvard Medical School beschreiben ein neues ChatGPT-ähnliches Modell, das klinische Entscheidungen zu Diagnose, Behandlung und Überlebensvorhersage bei verschiedenen Krebsarten leiten kann. Ihr Bericht erscheint im Fachjournal Nature.[1].
Der neue Ansatz komplettiert zielgerichtete Arzneimittel, indem er über die Oberfläche einer Krebszelle und die biochemischen Wege in ihr hinausgehend auch deren Mikroumgebung - die unmittelbare Umgebung - mittels Bildanalyse untersucht. Frühzeitig eingesetzt könnte die künstliche Intelligenz Medikamente, die wahrscheinlich nicht wirken, effektiver identifizieren als genetische und genomische Tests. Es handelt sich um eine Strategie, bei der "man den Wald vor lauter Bäumen nicht sieht" und dabei die Landschaft einer Krebserkrankung aufdeckt.
Eine kurze Geschichte der zielgerichteten Krebsmedikamente
1978 genehmigte die FDA mit Tamoxifen das erste zielgerichtete Krebsmedikament. Anstatt wie bei einer herkömmlichen Chemotherapie alle sich schnell teilenden Zellen abzutöten, blockiert Tamoxifen die Östrogenrezeptoren. Dadurch wird das Hormon, das die zu häufige Teilung der Brustzellen auslöst, ausgeschaltet.
1998 hat die FDA Herceptin zugelassen, das auf einen anderen Rezeptor (HER2) in Brustkrebszellen abzielt.
Das bahnbrechendste, bisher zugelassene Krebsmedikament, ist Glivec; zwischen der Einreichung bei der FDA bis zur Zulassung im Jahr 2001 vergingen nur drei Monate. Glivec ist ein kleines Molekül, das mit einem Enzym - einer mutierten Tyrosinkinase - interferiert, das unkontrolliertes Wachstum in weißen Blutkörperchen auslöst. Glivec war der erste Kinasehemmer und wurde ursprünglich zur Behandlung einer Form von Leukämie eingesetzt.
Zielgerichtete, zur Behandlung einer bestimmten Krebsart entwickelte Krebsmedikamente, lassen sich - basierend auf molekularen Ähnlichkeiten - nach weiteren Studien häufig auch zur Behandlung anderer Krebsarten einsetzen. Allmählich begann sich die Organ-bezogene Diagnose auf eine Diagnose auf molekularer Basis zu verlagern. Und so weitete sich der Einsatz von Glivec rasch auf die Behandlung anderer Krebserkrankungen des Bluts und des Verdauungstraktes aus, die einem Freund von mir das Leben rettete.
Keytruda veranschaulicht die in jüngerer Zeit zugelassenen Krebsmedikamente. Keytruda wurde 2014 von der FDA zugelassen und war der erste "Programmierte Zelltod-Rezeptor-1 (PD-1)-Inhibitor". Die Anwendung wurde von Melanomen auf Nieren-, Lungen-, Gebärmutter- sowie Kopf- und Halskrebs ausgeweitet - allerdings auf bestimmte molekulare Subtypen dieser Krebsarten.
Zu den ausufernden Jargons von Krebsmedikamenten
In der Werbung für Krebsmedikamente werden in stakkatoartigem Kauderwelsch molekulare Mechanismen und biochemische Wege, Antikörper und ihre Rezeptoren beschrieben, als ob sich der verzweifelte Durchschnittspatient die Schritte eines Signaltransduktionswegs oder eines Antikörpers, der ein Antigen bindet, sofort vorstellen könnte.
Die letzte Silbe eines unaussprechlichen Arzneimittelnamens gibt den Arzneimitteltyp an. Ein Name, der auf "nib" endet, bedeutet ein kleines Molekül, das ein Enzym namens Kinase hemmt, und ist die Abkürzung für "inhibit". Da das Enzym erforderlich ist, damit Wachstumssignale in die Zelle gelangen und die Zellteilung auslösen können, stoppt das Medikament die unkontrollierte Teilung. Glivec, auch bekannt als Imatinib, tut dies.
Ein Name, der auf "mab" endet, ist ein monoklonaler Antikörper, abgekürzt MAb, der wie eine Drohne wirkt. Keytruda (Pembrolizumab) bindet eines von zwei Molekülen (den programmierten Zelltod-Rezeptor-1 [PD-1] oder den programmierten Todesliganden 1 [PD-L1]). Dadurch wird die durch den Krebs ausgelöste Blockade der Immunantwort aufgehoben, so dass die T-Zellen den Krebs bekämpfen können. Keytruda wird aufgrund seines Wirkmechanismus und nicht aufgrund seiner Struktur als Immun-Checkpoint-Inhibitor eingestuft.
KI untersucht die Mikroumgebung von Krebs
Zielgerichtete Krebsmedikamente basieren auf dem Genotyp - auf den Mutationen, die den Krebs auslösen und vorantreiben. Der neue KI-Ansatz berücksichtigt den Genotyp aber auch den Phänotyp - d.i. wie der Tumor und seine Umgebung aussehen: Er analysiert digitale Bilder von Tumorgewebe und nennt sich CHIEF für Clinical Histopathology Imaging Evaluation Foundation.
Die Forscher haben das Modell an 19 Krebsarten getestet und die Ergebnisse an mehreren internationalen Patientengruppen validiert.
"Unser Ziel war es, eine flinke, vielseitige, ChatGPT-ähnliche KI-Plattform zu schaffen, die ein breites Spektrum an Aufgaben zur Krebsbeurteilung übernehmen kann. Unser Modell erwies sich bei verschiedenen Aufgaben im Zusammenhang mit der Krebserkennung, der Prognose und dem Ansprechen auf die Behandlung bei verschiedenen Krebsarten als sehr nützlich", so der Hauptautor Kun-Hsing Yu.
Das KI-Modell liest und analysiert digitale Bilder von Tumorgewebe, identifiziert Krebszellen und prognostiziert das molekulare Profil eines Tumors auf der Grundlage der zellulären Merkmale und der Eigenschaften der Umgebung, der so genannten Mikroumgebung. Diese Erkenntnisse können dann zur Vorhersage des Ansprechens auf Behandlungen und der Überlebensdauer genutzt werden.
Vielleicht am wichtigsten, so das Team, ist, dass das KI-Tool neue Erkenntnisse generieren kann, z. B. eine Reihe bisher nicht bekannter Tumormerkmale zur Vorhersage der Überlebensdauer eines Patienten.
"Weiter validiert und auf breiter Basis eingesetzt, könnte unser Ansatz und ähnliche Ansätze frühzeitig Krebspatienten identifizieren, die von experimentellen, auf bestimmte molekulare Variationen abzielende Behandlungen profitieren könnten, ein Potential, das nicht überall in der Welt gleichermaßen vorhanden ist", so Yu.
Eine riesige Datenflut
KI produziert und verknüpft riesige Datenmengen und erstellt Projektionen. Die Forscher haben CHIEF an 15 Millionen unmarkierten Bildern trainiert, die nach Gewebetyp oder Lage in einem bestimmten Organ oder einer Struktur gruppiert waren. Anschließend wurde CHIEF an 60 000 weiteren Bildern trainiert, die viele Körperteile repräsentierten: Lunge, Brust, Prostata, Leber, Gehirn, Dickdarm, Magen, Speiseröhre, Niere, Blase, Schilddrüse, Bauchspeicheldrüse, Gebärmutter, Hoden, Haut, Nebennieren und andere. Das Training berücksichtigte den Standortkontext - das heißt, wo genau eine bestimmte Zelle im 3D-Raum eines Gewebes oder Organs liegt.
Die Trainingsstrategie ermöglichte es CHIEF ein Bild in einem breiten Kontext zu interpretieren und sich dabei auf einen bestimmten Teil eines Organs zu konzentrieren.
Nach dem Training erhielt CHIEF mehr als 19 400 Ganzbildaufnahmen aus 32 unabhängigen Datensätzen, die von 24 Krankenhäusern und Patientenkohorten aus der ganzen Welt gesammelt worden waren.
Ergebnisse
Unabhängig von der Art der Probennahme (Operation oder Biopsie) oder wie die Digitalisierung des Bildes erfolgt war, schnitt CHIEF gut ab - ein Hinweis auf die Umsetzbarkeit in verschiedenen medizinischen Anwendungen. Das Tool erkennt mit 94 - 96 % Genauigkeit Zellen unterschiedlicher Krebsarten, lokalisiert den Ursprung des Tumors und identifiziert und evaluiert Gene und DNA-Muster, die mit dem Ansprechen auf die Behandlung zusammenhängen. Es funktionierte sogar bei Bildern, die zuvor nicht analysiert oder deren Krebsart nicht identifiziert worden war.
Die schnelle Identifizierung von Zellmustern auf einem Bild, die auf spezifische genomische Aberrationen hindeuten, könnte eine rasche und kostengünstige Alternative zur Genom-Sequenzierung darstellen, so die Forscher. CHIEF leitet den Genotyp - Mutationen - ab, indem es die Assoziation mit dem Phänotyp - den Bildern - betrachtet.
CHIEF ermöglicht es einem Kliniker auch, sofort gezielte Medikamente für einen bestimmten Patienten zu evaluieren. Das Team hat dies mit der Fähigkeit von CHIEF getestet Mutationen in 18 Genen an 15 anatomischen Körperstellen vorherzusagen, die mit dem Ansprechen auf FDA-zugelassene Therapien in Verbindung stehen.
Am wichtigsten ist vielleicht, dass CHIEF bei der Vorhersage der Überlebensdauer von Patienten auf der Grundlage von Bildern des bei der Erstdiagnose entnommenen Tumors gut abschnitt. Es kann zwischen Tumoren, die von Immunzellen umgeben sind (was auf Langzeitüberleben hindeutet), und Tumoren ohne diese Schutzzellen (Kurzzeitüberleben) unterscheiden.
CHIEF visualisiert auch die Aggressivität eines bestimmten Tumors mit Hilfe von "Heatmaps" oder von der KI abgeleiteten "Hot Spots", die auf die Interaktion von Krebszellen mit benachbarten Nicht-Krebszellen hinweisen - ein Zeichen für eine drohende Ausbreitung.
CHIEF fand heraus, dass Tumore von Patienten mit einer schlechteren Prognose tendenziell auch Zellen unterschiedlicher Größe, verdächtig gelappte Zellkerne, schwache Verbindungen zwischen Zellen, absterbende Zellen und weniger dichte Bindegewebsnetze aufweisen. Krebs ist eindeutig mit mehr als nur fehlerhaften Genen verbunden.
Die Forscher planen, ihre Analyse von CHIEF zu erweitern:
- zur Analyse von Nicht-Krebs-Erkrankungen, insbesondere von seltenen Krankheiten, die schwierig zu diagnostizieren und zu behandeln sind
- zur Erkennung von Krebsvorstufen,
- zur Vorhersage des Aggressionslevels von Krebszellen in verschiedenen Stadien
- zur Ermittlung von Nutzen und Nebenwirkungen neuer Krebsbehandlungen.
-----------------
Als jemand, der an Schilddrüsen- und Brustkrebs erkrankt war, begrüße ich die Vermählung von KI mit der DNA-basierten Krebsdiagnostik. Mehr Informationen ermöglichen mehr Behandlungsoptionen.
[1] Hanwen Xu et al., A whole-slide foundation model for digital pathology from real-world data. 22 May 2024, Nature. DOI: 10.1038/s41586-024-07441-w
und
Harvard Medical School, September 5, 2024: Harvard Doctors Create ChatGPT-Like AI That Can Diagnose Cancer. https://scitechdaily.com/harvard-doctors-create-chatgpt-like-ai-that-can-diagnose-cancer/
EKATERINA PESHEVA, 04.09.2024: A New Artificial Intelligence Tool for Cancer.https://hms.harvard.edu/news/new-artificial-intelligence-tool-cancer
*Der Artikel ist erstmals am 5. September 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "AI Tool CHIEF Paints a Landscape of a Cancer, Refining Diagnosis, Treatment, and Prognosis"https://dnascience.plos.org/2024/09/05/ai-tool-chief-paints-a-landscape-of-a-cancer-refining-diagnosis-treatment-and-prognosis/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Langeweile: Von Nerv tötender Emotion zu kreativen Gedanken
Langeweile: Von Nerv tötender Emotion zu kreativen GedankenDo,29.08.2024— Christian Wolf
Langeweile ist ein lästiges Gefühl, das wir gerne so schnell wie möglich loswerden möchten. Es ist geprägt von einer stärkeren Aktivität im sogenannten Ruhezustandsnetzwerk des Gehirns, das immer dann tätig wird, wenn äußere Stimulation fehlt. Langeweile kann zu Frustessen oder sadistischem Verhalten führen, sie hat aber auch positive Seiten, motiviert uns Neues auszuprobieren, außerdem kann Langeweile zu Kreativität führen.*
„Der allgemeine Überblick zeigt uns als die beiden Feinde des menschlichen Glückes, den Schmerz und die Langeweile.“ So klagte bereits vor mehr als 150 Jahren der deutsche Philosoph Arthur Schopenhauer, und noch hat die Lageweile einen schlechten Ruf. In einer Welt, die ständig vor Aktivität und Ablenkung pulsiert, gilt sie als bloße Zeitverschwendung, eine lästige Emotion, die wir schnellstmöglich vertreiben möchten. Wer mag schon das Gefühl, wenn die Zeit sich wie Kaugummi dehnt und der Zeiger der Uhr stehenzubleiben scheint? Dann greift man doch lieber schnell zum Smartphone.
Langeweile - eine lästige Emotion, die mn schnell vertreiben möchte. |
Dabei zeigt die Forschung: Langeweile ist nicht so eindimensional wie sich die Emotion oft anfühlt. Das Gefühl entstehe, wenn sich Menschen entweder unterfordert oder überfordert fühlten, sagt der Psychologe Thomas Götz von der Universität Wien. „Oder wenn einem das, was man gerade macht, als wenig sinnvoll erscheint.“ In Schulen beispielsweise wird der Lehrstoff auf einem bestimmten Niveau vermittelt. Dabei gibt es immer Schülerinnen und Schüler, die sich überfordert oder unterfordert fühlen. „Wer überfordert ist, schaltet irgendwann ab, versteht nichts mehr.“
Langeweile wird von vielen als so drückend empfunden, dass sie einiges tun, um sie loszuwerden. Wir scheuen dann nicht einmal Anstrengungen, vor denen wir sonst eher zurückschrecken. Das haben Forscher um den Psychologen Raymond Wu von der University of British Columbia herausgefunden. In ihrer Studie hatten die Teilnehmer die Qual der Wahl: beispielsweise unterschiedlich schwierige Additionsaufgaben zu bewältigen oder einen leeren Bildschirm zu betrachten. Es zeigte sich: die Probanden zogen schwierigere Aufgaben dem Nichtstun vor. In einer anderen Studie gaben sich Versuchspersonen sogar lieber selbst Elektroschocks, als untätig zu bleiben.
Vom Nichtstun zur Erfüllung
Um solche Phänomene zu verstehen, untersuchen Forscher auch einen Gefühlszustand, der der Langeweile entgegengesetzt ist - das Flow-Erlebnis. Dabei gehen wir völlig in einer Tätigkeit auf, sie geht uns wie von selbst von der Hand und wir empfinden Freude dabei. „Das Erleben von Flow ist relativ definiert, und zwar in Relation zum Erleben von Langeweile und Überforderung.“, erklärt der Psychologe Georg Grön, Leiter der Sektion Neuropsychologie und Funktionelle Bildgebung am Uniklinikum Ulm. „Ist eine Tätigkeit zu einfach, dann wird es einem schnell langweilig; ist eine Tätigkeit hingegen zu schwer, erleben wir uns überfordert.“ Dazwischen gebe es ein Fenster, wo die Tätigkeit weder das eine noch das andere ist. „Liegt unser Tun in diesem Fenster oder in dieser Zone, dann wird der zugehörige Zustand als angenehm erlebt. Wir sind im Flow.“
Georg Grön hat zusammen mit Kollegen herausgefunden: „Das Flow-Erleben kommt sehr wahrscheinlich hauptsächlich dadurch zustande, dass mindestens zwei bestimmte Gehirnregionen in ihrer Aktivität herunterreguliert werden.“ Damit wir uns „im Fluss“ fühlen, müssen sich nämlich der mediale präfrontale Cortex und die Amygdala zurückhalten. Der mediale präfrontale Cortex kommt beim Nachdenken über einen selbst zum Zug. Eine geringere Aktivität dieser Hirnregion während des Flowzustands bedeutet daher wahrscheinlich, dass weniger selbst-reflexive Gedanken im Moment des Handelns eine Rolle spielen. „Diese Selbstreflexionen haben auch bei gesunden Menschen häufig eine negative Bedeutung“, sagt Georg Grön. Trete nun solch eine negativ gefärbte Selbstreflexion während des Flows weniger auf, entstehe gewissermaßen ein positives Gefühl. Sehr plakativ ausgedrückt verschafft das Flow-Erleben einen Kurzurlaub vom „Ich“.
Hinzu kommt eine verminderte Aktivierung des Mandelkerns, dessen Tätigkeit mit emotionaler Erregung in Verbindung steht. „Die gemeinsam verminderte Aktivierung beider Regionen im Flowzustand hat dann zur Folge, dass man sich weniger mit sich selbst beschäftigt und die emotionale Belastung bei der Aufgabenerledigung weniger vordergründig ist.“ In der Folge ist man ganz auf die Tätigkeit fokussiert und man erledigt sie „gefühlt“ mühelos.
Bei Langeweile hingegen ist es umgekehrt. Man ist etwa von einer Tätigkeit unterfordert oder die Tätigkeit ist schlicht bedeutungslos für einen. Im Gehirn sind bei Langeweile der mediale präfrontale Cortex und der Mandelkern aktiv. In der Folge wird die Tätigkeit laut Georg Grön begleitet von selbst-reflexiven Gedanken wie etwa „Warum muss ich diese Aufgabe überhaupt machen“ oder „Bin ich konzentriert genug?“. Hinzu komme eine in der Regel negativ gefärbte emotionale Erregung. Studien anderer Forscher zeigen zudem: Bei Langeweile ist das sogenannte Ruhezustandsnetzwerk stärker aktiv, zu dem auch der mediale präfrontale Cortex gehört. Dieses Netzwerk steigert immer dann seine Tätigkeit, wenn wir nicht von äußeren Reizen in Anspruch genommen werden, sondern unseren Gedanken nachhängen.
Die Leere füllen
Keine Frage: Langeweile fühlt sich nicht nur äußert unangenehm an, sondern kann auch unangenehme Folgen haben. So versuchen manche Menschen die innere Leere im wahrsten Sinne des Wortes zu füllen: mit Essen. In einer Studie war eine gewisse Neigung zur Langeweile mit emotionalem Essen verknüpft. Dabei greifen Menschen aus negativen Gefühlen heraus zu Nahrungsmitteln. Was möglicherweise in Zeiten des Mangels ein sinnvolles Verhalten war, führt heutzutage jedoch zu Übergewicht und gesundheitlichen Problemen.
Aus Langeweile heraus können wir aber auch dazu neigen, anderen Lebewesen Schaden zuzufügen. Dies zeigt eine Studie , bei der Forscher der einen Hälfte von Probanden einen Film über einen Wasserfall zeigten. 20 Minuten lang war nur der Wasserfall zu sehen, – zum Gähnen. Die andere Hälfte bekam einen deutlich unterhaltsameren Film über die Alpen zu sehen. Während des Films konnten die Teilnehmer in einer Kaffeemühle Maden schreddern, wenn sie wollten. (In Wahrheit kamen die Maden in der Kaffeemühle nicht wirklich zu Schaden). Ergebnis: Die meisten Probanden zerkleinerten keine Maden. Von den 13 Personen, die es dennoch taten, gehörten 12 zu der Gruppe mit dem langweiligen Video. Das Zerkleinern der Maden ging bei den Versuchspersonen zudem mit einem Gefühl der Befriedigung einher. Offenbar löste also Langeweile bei ihnen sadistisches Verhalten aus.
Ein Zeichen für verschwendete Zeit
Langeweile kann den Impuls etwas Neues auszuprobieren hervorbringen, kann kreative Ideen produzieren. (Bild: pixabay, lizenzfrei.) |
Doch das ist nur eine Seite von Langeweile. So nervtötend das Gefühl ist, es hat auch positive Seiten. „Langeweile hat eine wichtige Funktion“, sagt Thomas Götz, der Wiener Psychologe. Sie signalisiere uns, dass unsere aktuelle Beschäftigung oder Situation für uns unwichtig oder sinnlos ist. „Dadurch, dass sich Langeweile unangenehm anfühlt, sendet sie uns den Impuls, etwas anderes zu machen“ Sie bringe uns dazu, darüber nachzudenken, ob man sich überfordert fühlt, unterfordert fühlt oder ob man die aktuelle Situation für nicht sinnvoll hält. „Dann kann man versuchen, die Tätigkeit dem eigenen Leistungsniveau anzupassen, der jetzigen Tätigkeit mehr Sinn zu verleihen oder eine andere Tätigkeit anzufangen.“
Der Impuls etwas Neues zu tun, könne sowohl zu etwas Negativem führen als auch zu etwas Positivem, so Götz. Er verweist etwa auf Straftäter, die häufiger davon berichten, dass sie die Straftat aus purer Langeweile begangen haben. Langeweile könne aber auch unter Umständen kreativ machen, vor allem, wenn man sich aus Unterforderung langweilt, so Götz. So ging es wohl Albert Einstein, als er beim Berner Patentamt als Patentreferent tätig war. Während er monotoner Arbeit nachging, Akten ordnete und über drögen Papieren brütete, konnte sein Geist ungestört wandern, was ihn zu einigen seiner größten wissenschaftlichen Entdeckungen führte. Ein guter Grund also das Smartphone wegzupacken und die eigenen Ideen sprudeln zu lassen. Es muss ja nicht gleich die Relativitätstheorie herauskommen.
* Der vorliegende Artikel ist unter dem Titel "Langeweile - ein zweischneidiges Schwert" auf der Webseite www.dasGehirn.info am 1.Mai 2024 erschienen (https://www.dasgehirn.info/grundlagen/zeit/langeweile-ein-zweischneidiges-schwert)). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels und der Zitate "Zum Weiterlesen" von der Redaktion unverändert übernommen; zur Visualisierung wurde Abbildung 2 eingefügt.
dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).
Kreativität im ScienceBlog:
Inge Schuster, 12.08.2024: Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-Studie
Stickstoffinterventionen als Schlüssel zu besserer Gesundheit und robusten Ökosystemen
Stickstoffinterventionen als Schlüssel zu besserer Gesundheit und robusten ÖkosystemenFr, 16.082024 — IIASA
Die Produktion von Nahrungsmitteln und von Energie hat zu einer erheblichen Stickstoffbelastung geführt, die die Luft- und Wasserqualität beeinträchtigt und Risiken für das Klima und die Ökosysteme mit sich bringt. Ein internationales Team unter Beteiligung von IIASA-Forschern zeigt, wie Stickstoffinterventionen die Belastung verringern, die Gesundheit verbessern und die Ziele für nachhaltige Entwicklung (SDGs) unterstützen können*.
Der Stickstoffkreislauf der Erde gehört zu den am stärksten überschrittenen Grenzen des Planeten. Die landwirtschaftliche Produktion und die Verbrennung fossiler Brennstoffe setzen Stickstoffschadstoffe wie Ammoniak (NH3), Stickoxide (NOx) und Distickstoffoxid (N2O) frei, die zur Luftverschmutzung beitragen und die Ökosysteme schädigen. Diese Verschmutzer schaden der menschlichen Gesundheit, den Nutzpflanzen und den Ökosystemen. Angesichts des weltweit steigenden Energie- und Nahrungsmittelbedarfs ist damit zu rechnen, dass diese Schäden noch weiter zunehmen werden.
Stickstoffinterventionen...
Technologien und Maßnahmen zur Verringerung der Stickstoffbelastung - so genannte "Stickstoffinterventionen" - wurden hinsichtlich ihres Potenzial s zur Verbesserung der Luftqualität und zu reduzierten Auswirkungen auf die Ökosysteme bisher nur unzureichend erforscht. Es klafft eine Lücke zwischen der herkömmlichen Forschung zum Stickstoffbudget, das die Stickstoffflüsse in Luft, Wasser und Boden verfolgt, aber keine Details zu den biogeochemischen Umwandlungen liefert, und der geowissenschaftlichen Forschung, die diese Umwandlungen modelliert, sich aber in der Regel auf ein einziges Umweltmedium konzentriert.
Um diese Wissenslücke zu schließen, hat ein internationales Forscherteam multidisziplinäre Methoden kombiniert, um abzuschätzen, wie Stickstoffinterventionen die Luftqualität verbessern und die Stickstoffeinträge verringern könnten. Ihre Studie, die in Science Advances veröffentlicht wurde, ergab, dass Maßnahmen wie die Verbesserung der Verbrennungsbedingungen für Kraftstoffe, die Steigerung der Effizienz der Stickstoffnutzung in der Landwirtschaft und die Verringerung von Lebensmittelverlusten und -abfällen die Zahl der vorzeitigen Todesfälle aufgrund von Luftverschmutzung, Ernteverlusten und Ökosystemrisiken erheblich senken könnten. Während üblicherweise nur einzelne Ziele wie Luft- oder Wasserqualität betrachtet werden, ist die Einbeziehung der weitgehenden Vorteile des Stickstoffmanagements für eine künftige politische Gestaltung und eine wirksame Bekämpfung der Verschmutzung von entscheidender Bedeutung.
"Wir haben einen integrierten Bewertungsrahmen geschaffen, der künftige Szenarien der Stickstoffpolitik mit integrierten Bewertungsmodellen, Luftqualitätsmodellen und Dosis-Wirkungs-Beziehungen kombiniert, um abzuschätzen, wie ambitionierte Maßnahmen die Luftverschmutzung und die Schädigung von Ökosystemen auf detaillierten geografischen Ebenen verringern können", erklärt der Hauptautor Yixin Guo, ein Postdoktorand, der an der Universität Peking und dem IIASA arbeitet. Abbildung.
Abbildung. Ein iIntegriertes Modellierungsframework schätzt ab, wie ambitionierte Stickstoff-Interventionen die Ammoniak- und Stickstoffemissionen reduzieren und folglich die Luftqualität verbessern können, indem sie die Feinstaub- und Ozonwerte senken und die Stickstoffablagerung verringern, was letztendlich der Umwelt und der öffentlichen Gesundheit zugute kommt. Unten links: Szenarien des International Nitrogen Management System (INMS), die in das Global Biosphere Management Model (GLOBIOM) und das Greenhouse Gas and Air Pollution Interactions and Synergies model (GAINS) implementiert wurden; SSP-RCPs: klimapolitische Pfade, (© Source: Aspirational Nitrogen Interventions Accelerate Air Pollution Abatement and Ecosystem Protection [1]) |
......und was erreicht werden kann
Die Studie zeigt, dass durch ambitionierte Stickstoffinterventionen die weltweiten Ammoniak- und Stickoxidemissionen bis 2050 um 40 % bzw. 52 % gegenüber dem Stand von 2015 gesenkt werden könnten. Dies würde die Luftverschmutzung verringern, 817.000 vorzeitige Todesfälle verhindern, die bodennahen Ozonkonzentrationen senken und Ernteverluste verringern. Ohne diese Maßnahmen werden sich die Umweltschäden bis 2050 verschlimmern, wobei Afrika und Asien am stärksten betroffen sein werden. Sollten diese Maßnahmen jedoch umgesetzt werden, würden Afrika und Asien am meisten davon profitieren.
"Wir haben festgestellt, dass Stickstoffinterventionen im Laufe der Zeit immer mehr Vorteile bieten, wobei die Auswirkungen bis 2050 größer sind als bis 2030. Die größten Reduzierungen von Ammoniak und Stickoxiden werden in Ost- und Südasien erwartet, vor allem durch verbesserte Anbaumethoden und die Übernahme von Technologien in der Industrie. Diese Verringerungen werden dazu beitragen, die Luftverschmutzung zu senken, was es vielen Regionen erleichtern wird, die Zwischenziele der Weltgesundheitsorganisation zu erreichen. Außerdem wird der gesundheitliche Nutzen dieser Maßnahmen mit dem Bevölkerungswachstum zunehmen, insbesondere in Entwicklungsgebieten", fügt Yixin hinzu.
"Unsere Ergebnisse machen deutlich, dass Stickstoffinterventionen erheblich dazu beitragen können, mehrere Nachhaltigkeitsziele (SDGs) zu erreichen, darunter gute Gesundheit und Wohlbefinden (SDG3), Null Hunger (SDG2), verantwortungsvoller Konsum und Produktion (SDG12) und Leben auf dem Land (SDG15)", sagt Lin Zhang, Mitautor der Studie und assoziierter Professor am Department of Atmospheric and Oceanic Sciences der Universität Peking.
"Diese kollaborative Forschung zeigt, wie die IIASA-Forschung auf globaler Ebene umgesetzt werden kann. Die Lösungen für die Umweltauswirkungen werden je nach Region unterschiedlich sein, was maßgeschneiderte politische Empfehlungen ermöglicht, selbst für komplexe Themen wie die Stickstoffverschmutzung", schließt Wilfried Winiwarter, Mitautor der Studie und leitender Forscher in der Forschungsgruppe für Verschmutzungsmanagement des IIASA-Programms für Energie, Klima und Umwelt.
Guo Y., Zhao H., Winiwarter W., Chang J., Wang X., Zhou M., Havlik P., Leclere D., Pan D., Kanter D., Zhang L. (2024) Aspirational Nitrogen Interventions Accelerate Air Pollution Abatement and Ecosystem Protection, Science Advances, https://doi.org/10.1126/sciadv.ado0112.
*Der Artikel "Nitrogen interventions as a key to better health and robust ecosystem" ist am 16. August2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/aug-2024/nitrogen-interventions-as-key-to-better-health-and-robust-ecosystems). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Rezenter IIASA-Artikel im ScienceBlog:
IIASA, 13.06.2024: Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken Treibhausgases.
Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-Studie
Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-StudieMo, 12.08.2024— Inge Schuster
Kreatives Denken ist gefordert, um Antworten auf private und gesellschaftliche Herausforderungen zu finden. Die jüngste PISA-Studie hat an Hand einer Serie von Kreativitätstests nun erstmals untersucht, wie weit Jugendliche am Ende ihrer Pflichtschulzeit in der Lage sind kreativ zu denken, d.i. originelle Ideen auszudenken, vorhandene Ideen weiter zu entwickeln, sich visuell und schriftlich auszudrücken und soziale und naturwissenschaftliche Probleme zu lösen. Auf einer Kreativitätsskala von 0 bis 60 Punkten erreichten die Schüler der OECD-Staaten im Mittel 33 Punkte (Kompetenzstufe 3) und sollten demnach imstande sein kreative Ideen für ihnen geläufige Probleme vorzuschlagen. Die Fähigkeit kreativ zu denken stand dabei in engem Zusammenhang mit den Leistungen in den Kernkompetenzen Mathematik, Naturwissenschaften und Lesen.
In der heutigen Welt ist unsere Gesellschaft gefordert kreative Lösungen für die gewaltigen Herausforderungen zu finden, mit denen wir in zunehmendem Maße konfrontiert werden. Bereits Schüler sollten daran gewöhnt werden sich an die neuen, schnell veränderlichen Perspektiven anzupassen und in kreativer Weise zu deren Bewältigung beizutragen.
Was aber bedeutet kreativ sein?
Das ist nicht einfach zu definieren, das sind nicht einfach nur originelle Ansätze zur Lösung von Problemen. Hergeleitet vom lateinischen Verb "creare" (er)schaffen sieht man darin eine schöpferische, gestalterische Eigenschaft und nach Beispielen gefragt fallen einem spontan Namen berühmter Künstler, wie Leonardo da Vinci, Picasso oder Mozart und Beethoven, oder gefeierter Wissenschafter, wie Einstein, Gauss und Marie Curie, ein. Es waren dies Menschen mit einzigartigen Talenten - Genies, deren Vorstellungskraft sie die Grenzen ihrer jeweiligen Gebiete überschreiten und bedeutende, weltweit Kultur und Wissenschaft verändernde Beiträge leisten ließ. Das Wesen der diesen Menschen innewohnenden Kreativität lässt sich durch einen Ausspruch von Einstein beschreiben: „Kreativität bedeutet, zu sehen, was alle anderen gesehen haben, und zu denken, was noch niemand gedacht hat.“ In anderen Worten also: Probleme/Möglichkeiten zu erkennen, an die noch niemand gedacht hatte.
Neben dieser außergewöhnlichen Form der Kreativität (Big C creativity) wird auch eine alltägliche Form (small c creativity) definiert, die uns mehr oder weniger befähigt zweckorientiert auf der Basis von Erfahrungen Optionen zu erwägen, diese zu bewerten und daraus Entscheidungen zu treffen, die sich für uns selbst und/oder die Gesellschaft als nützlich erweisen. Im Alltag kann das beispielsweise auch heißen: Den Inhalt von Kühl-und Vorratsschrank auf verschiedenartige Möglichkeiten der Speisengestaltung zu durchforsten, originellen Rezepten den Vorzug geben, diese dann auf Tauglichkeit und auch Akzeptanz der Esser einzuschätzen und schlussendlich umzusetzen. Ob das Ergebnis als kreative oder vielleicht verunglückte Leistung des Kochs bewertet wird, bleibt dem subjektiven Urteil des Konsumenten vorbehalten.
Lässt sich Kreativität messen?
Abbildung 1. Kreatives Denken ist eine unabdingbare Komponente der Kreativität. Daneben braucht es Expertise - d.i. umfassende Kenntnisse/Erfahrungen - und Motivation, die abhängig von der Persönlichkeit der Testperson, ihrem unmittelbarem Umfeld und auch der Aussicht auf eine mögliche Belohnung ist. (Bild modifiziert nach T.M. Amabile, Harvard Business Review Oct. 1998). |
Ähnlich wie Intelligenztests sind in den letzten Jahrzehnten auch Kreativitätstests entwickelt worden. Diese konzentrieren sich jedoch nur auf eine der Komponenten, die Voraussetzung für Kreativität sind: auf kreatives Denken. Abbildung 1.
Kreatives Denken umfasst dabei sowohl divergente kognitive Prozesse - d.h. die Fähigkeit frei assoziierend unterschiedliche Ideen, darunter kreative Ideen zu entwickeln - als auch konvergente kognitive Prozesse - d. h. die Fähigkeit in logischer Vorgangsweise Ideen zu bewerten und Verbesserungen dieser Ideen zu identifizieren. Kreativitätstests beurteilen wie viele Ideen produziert werden und wie originell diese sind.
Ob jemand in einem Gebiet tatsächlich kreative Leistungen erbringen wird, kann der Test kaum vorhersagen: Dies hängt ja auch von dem diesbezüglichem Wissenstand/den Erfahrungen - der Expertise - der Testperson ab und ebenso von deren Persönlichkeit, Selbstbild, Wissbegier, Offenheit für intellektuelle Herausforderungen und neue Erfahrungen, aber auch ein positives Umfeld und die Aussicht auf Anerkennung sind stark motivierende Faktoren.
Wie wurde in der PISA 2022 Studie kreatives Denken vermessen....
Im PISA-Zyklus 2022 wurde neben den drei Kernkompetenzen Mathematik, Lesen und Naturwissenschaften als weitere Kompetenz erstmals das kreative Denken von 15-jährigen Schülern getestet (OECD, 2024[1]). Die PISA-Definition des kreativen Denkens entspricht dabei dem Konzept der "small c creativity", der Alltagskreativität, nämlich: Die Fähigkeit Ideen zu entwickeln, zu bewerten und zu verbessern, um originelle und wirksame Lösungen zu finden, das Wissen zu erweitern und wirkungsvolle Vorstellungskraft zu schaffen. (Landläufig wird kreatives Denken oft auch als Querdenken oder über den Tellerrand schauen bezeichnet.)
Abbildung 2. Der Kreativitätstest bewertet die drei Ideenfindungsprozesse (divergente und konvergente kognitive Prozesse) des kreativen Denkens.(Bild modifiziert aus [2]; Lizenz: CC BY-NC-SA 3.0 IGO) |
Der Test umfasste insgesamt 32 Aufgaben, welche die drei Ideenfindungsprozesse zu einem jeweiligen Thema messen sollten: Das Generieren möglichst unterschiedlicher aber möglicher Ideen, das Generieren kreativer Ideen (d.i. ungewöhnlicher aber durchaus möglicher Ideen) und die Bewertung und Verbesserung vorhandener Ideen bis zu einem zufriedenstellenden Ergebnis. Abbildung 2.
Da die Fähigkeit zur Entwicklung relevanter und innovativer Ideen auch vom Wissen und der Praxis in bestimmten Gebieten abhängt (Abbildung 1: Expertise), zielte der Test außerdem darauf ab, verschiedene Anwendungen von kreativem Denken zu messen. Die Aufgaben erfassten dabei 4 Anwendungsarten: Eine schriftliche Ausdrucksform, eine visuelle Ausdrucksform, das Lösen sozialer Probleme und das Lösen naturwissenschaftlicher Probleme. Was man sich unter den Aufgaben und den Anwendungen vorstellen kann, ist an Hand von 4 Beispielen in Abbildung 3 aufgezeigt.
Abbildung 3. Testbeispiele zur Erfassung des kreativen Denkens in 4 Anwendungsarten. (Bilder aus OECD, 2024[1]). |
Die Tests wurden nicht maschinell sondern von Personen ausgewertet; für richtige Antworten auf die 32 Aufgaben konnte insgesamt ein Maximum von 60 Punkten vergeben werden. Gerankt auf einer Kreativitätsskala von 0 bis 60 Punkten wurden 6 Kompetenzstufen definiert, wobei die Jugendlichen mindestens Kompetenzstufe 3 (23 bis 31 Punkte) erreichen sollten, um für künftige (Berufs)anforderungen vorbereitet zu sein. Nb: Eine Differenz von 3 Punkten wird bereits als großer Unterschied im kreativen Denken betrachtet.
Der Kreativitätstest wurde in 64 der 81 an der PISA 2022 Studie teilnehmenden Ländern und Volkswirtschaften durchgeführt. (In Österreich wurden zwar einige allgemeine Fragen zum Thema Kreativität beantwortet, nicht aber die 32 Test-Aufgaben). Der Test erfolgte im Frühjahr 2022, ein umfangreicher, über 300 Seiten starker Report erschien erst im Juni 2024 [1]
... und welche Ergebnisse wurden erzielt?
Neben den Testaufgaben wurde auch eine Fülle anderer Themen abgefragt, die in puncto Kreativität von Selbsteinschätzung und Wachstumserwartungen der Schüler bis hin zum Klima an den Schulen reichten (diese Themen wurden auch in OECD-Staaten beantwortet, die an den Tests nicht teilgenommen hatten wie Österreich, Norwegen, Schweden, Schweiz, Türkei und UK).
Fähigkeit kreativ zu denken und Korrelation mit den Leistungen in den Lernfächern
Eigentlich wurden in den Kreativitätstests ganz andere Fähigkeiten untersucht als in den Tests der Kernkompetenzen Mathematik, Lesen und Naturwissenschaften. Dennoch erzielten viele Top-Performer in diesen Fächern auch die besten Ergebnisse im Kreativitätstest. An der Spitze steht Singapur: Es schnitt beim kreativen Denken mit 41 von 60 Punkten deutlich besser ab als alle anderen teilnehmenden Länder/Volkswirtschaften (Abbildung 4) und war auch in Mathematik (575 Punkte), Lesekompetenz (543 Punkte) und Naturwissenschaften (561 Punkte) allen Teilnehmern überlegen; verglichen mit dem OECD-Durchschnitt erzielte Singapur in diesen Disziplinen einen Vorsprung von rund 70 bis 100 Punkten (etwa 20 Punkte gelten als Äquivalent für ein Schuljahr). Auch in 11 weiteren Ländern lagen die Schüler im kreativen Denken über dem OECD-Durchschnitt (33 von 60 Punkten), davon in Korea, Kanada Australien, Neuseeland, Estland und, Finnland um mindestens 3 Punkte. In diesen Ländern wiesen mehr als 88 % der Schüler zumindest Kompetenzstufe 3 im kreativen Denken auf, d.i. sie sollten imstande sein kreative Ideen für ihnen vertraute Probleme vorzuschlagen. Diese Länder lagen auch in den Kernkompetenzen (größtenteils) weit über dem OECD-Schnitt.
Abbildung 4. Die Korrelation zwischen der Leistung in kreativem Denken und in Mathematik in allen 64 Ländern/Volkswirtschaften, die den Kreativitätstest durchgeführt haben (Bild: PISA in Focus 2024/125 (June) [2]. Lizenz: cc-by-nc-sa 3.0) |
Am untersten Ende der Skala liegen die Partnerländer Dominikanische Republik, Philippinen Usbekistan , Marokko und Albanien, die nur zwischen 13 und 15 Punkte (Kompetenzstufe 1 bis 2) erreichten. Diese Schüler dürften selbst bei sehr einfachen Aufgaben Mühe haben mehr als eine passende Idee zu entwickeln.
Die Leistungen im Kreativitätstest sind positiv korreliert mit den Leistungen in den Kernkompetenzen. Für die 28 getesteten OECD-Länder liegt die Korrelation R2 bei 0,67 in Mathematik und 0,66 in Naturwissenschaften und Lesen. Werden alle 64 Teilnehmer der Studie einbezogen, liegt für Mathematik R2 = 0,75 bedeutend höher. Abbildung 4.
Schüler, die in Mathematik unter dem OECD-Durchschnitt (468 Punkte) rangierten, lagen auch im kreativen Denken unter dem OECD-Durchschnitt (33 Punkt) auf der Kreativitätsskala. Am anderen Ende der Mathematikskala erzielten 12 Länder auch überdurchschnittliche Bewertungen im kreativen Denken, 11 Länder lagen knapp unter oder am OECD-Durchschnittswert. Erstaunlicherweise war dies auch für die in den Kernkompetenzen herausragenden chinesischen Teilnehmer der Fall.
Geschlechtsunterschiede im kreativen Denken
Abbildung 5. Mädchen sind Buben in den Anwendungen kreativen Denkens überlegen. (Bild modifiziert nach : "Creative thinking assessment results (Infographic)"[3].Lizenz: cc-by-nc-sa 3.0) |
In allen getesteten OECD-Staaten und Partnerländern schnitten Mädchen im Kreativitätstest um bis zu 6 Punkte besser ab als Buben (in Chile und Mexiko ist der Unterschied allerdings nicht signifikant). Im Allgemeinen zeigten Mädchen eine positivere Einstellung zu Kreativität und in kreativer Weise arbeiten zu können, und waren offener für neue Perspektiven. Aufgeschlüsselt nach Ideenfindungsprozessen und Anwendungen zeigten Mädchen bessere Leistungen im Evaluieren und Verbessern vorhandener Ideen und waren erfolgreicher im Generieren unterschiedlicher Ideen als im Generieren kreativer Ideen. Hinsichtlich der Anwendungen waren Mädchen wesentlich erfolgreicher etwas visuell oder auch schriftlich auszudrücken als Buben. Weniger überlegen zeigten sie sich bei der Lösung sozialer Probleme und etwa gleichauf mit den Buben bei der Lösung naturwissenschaftlicher Probleme. Abbildung 5. Wird berücksichtigt, dass Mädchen eine höhere Kompetenz im Lesen haben, dann verflachen die Unterschiede zu den Buben.
Einfluss der Lehrer
Viele Schüler waren der Meinung, dass ihre Lehrer ihre Kreativität im Großen und Ganzen schätzen (70 % der Schüler im OECD-Durchschnitt) und dass die Schule ihnen ausreichend Möglichkeit gibt, ihre Ideen zu äußern (69 %). Diese Ermutigung durch die Lehrer sollte zur Schaffung eines positiven Schulklimas für Kreativität beitragen und wichtige Motivation für die Schüler sein kreativ zu denken. Betrachtet man allerdings welche derartige Motivation in welchen Ländern geboten wird, so fällt der Effekt auf die kreativen Leistungen recht bescheiden aus. Abbildung 6. Top-Performer in den Kreativitätstests (rote Pfeile) kommen sowohl aus Ländern, in denen Lehrer die Kreativität der Jugendlichen stark fördern als auch aus Ländern mit niedrigerer Förderung. Dass in Ländern wie Albanien, Usbekistan oder den Philippinen sich 80 % der Schüler von den Lehrern motiviert fühlen, hat keine Auswirkungen auf deren kreative Leistungen gezeigt - diese liegen auf der untersten Kompetenzstufe der Kreativitätsskala (siehe Abbildung 4).
Abbildung 6. Motivierung zu kreativem Denken durch Lehrer wirkt sich kaum auf kreative Leistungen aus. Top-Performer (siehe Abbildung 4; rote Pfeile) kommen aus Ländern mit hoher und ebenso aus Ländern mit niedrigerer Motivierung.(Bild aus OECD, 2024[1]; Lizenz cc-by-nc-sa). |
Was bringt die Kreativitätstestung?
Unter der Annahme, dass kreatives Denken erlernbar und trainierbar ist, sind Tests entwickelt worden, die weltweit (im konkreten Fall in 28 OECD-Ländern und 44 Partnerländern) den derzeitigen Status der Kreativität der Jugendlichen bei Pflichtschulabschluss erheben sollten, um darauf mögliche Erziehungsprogramme aufzubauen.
Wie weit diese Tests die unterschiedlichen Facetten kreativen Denkens abbilden und die Auswertung - beispielsweise: wie originell eine Idee ist - durch Prüfer objektiv erfolgen konnte, soll hier nicht breit diskutiert werden - die im Report angeführten Beispiele der Bewertung lassen Zweifel aufkommen. Merkwürdig erscheint auch die Zeitvorgabe von 5 Minuten zur Beantwortung einer Aufgabe (Abbildung 3), die konterkariert wird durch die Frage an die Schüler, ob Lehrer ausreichend Zeit geben um kreative Lösungen für Aufgaben zu finden (Abbildung 6). Die Vorgabe verschiedenste Aufgaben in kurzer Zeit kreativ zu lösen, testet also Kreativität auf Knopfdruck - wäre es so einfach und schnell Heureka-Momente zu generieren, hätte die Hirnforschung schon längst Personen im MRT-Scanner aufgefordert kreativ zu denken und die zugrunde liegende Prozesse aufgeklärt.
Das wesentliche Ergebnis der Studie ist, dass die Schüler der OECD-Staaten im Mittel Kompetenzstufe 3 im kreativen Denken erreichen damit imstande sein sollten kreative Ideen für ihnen geläufige (leider nicht für neuartige) Probleme vorzuschlagen. Besonders wichtig erscheint die enge Korrelation zwischen der Fähigkeit kritisch zu denken und den Leistungen in den Schulfächern Mathematik (Abbildung 4), Naturwissenschaften und Lesen. Verbesserte Unterrichtsprogramme und bessere Lernerfolge in diesen Fächern geben die nötige Basis (Expertise, Abbildung 1), die für das Generieren von (kreativen) Ideen Voraussetzung ist. Ob Lehrer nun mehr oder weniger motivierend auf Schüler einwirken, scheint von geringerer Bedeutung zu sein (Abbildung 6).
[1] OECD (2024), PISA 2022 Results (Volume III): Creative Minds, Creative Schools, PISA, OECD Publishing, Paris, https://doi.org/10.1787/765ee8c2-en.
[2] OECD 2024 PISA in Focus 2024/125 (Juni). New PISA results on Creative Thinking: can students think outside the box? https://beta.oecd.org/content/dam/oecd/en/publications/reports/2024/06/new-pisa-results-on-creative-thinking_7dccb55b/b3a46696-en.pdf
[3] OECD (2024), "Creative thinking assessment results (Infographic)", in PISA 2022 Results (Volume III): Creative Minds, Creative Schools, OECD Publishing, Paris, https://doi.org/10.1787/c6743eb9-en.
---------------------------------------------------
Eine ausführliche Darstellung der PISA 2022 Ergebnisse in den Kernkompetenzfächern:
Inge Schuster, 16.12.2023; Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?
Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?
Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?So, 04.08.2024— Inge Schuster
Eine neue Metaanalyse widerspricht der weit verbreiteten Annahme, dass mäßiger Alkoholkonsum zu einem gesünderen und längeren Leben führt. Demnach hatte die Gruppe der wenig bis mäßig Alkohol Trinker keinen gesundheitlichen Vorteil gegenüber der abstinenten Gruppe gezeigt. Allerdings hat der Vergleich ein Manko: Auch wenn keine alkoholischen Getränke konsumiert werden, ist Ethanol ein (natürlicher) Bestandteil der menschlichen Nahrungsmittel und wird darüber hinaus auch endogen durch Mikroorganismen im Darm erzeugt. Die Abstinenzler nahmen wahrscheinlich auch mehrere Gramm Alkohol täglich über die Nahrung zu sich, gehörten also ebenfalls in die Gruppe der wenig bis mäßigen Alkoholtrinker.
A glass wine the day keeps the doctor away
Diese auf zahlreichen Untersuchungen basierende alte Volksweisheit scheint ausgedient zu haben.
Bereits im Jänner 2023 hat die Weltgesundheitsorganisation WHO im Fachjournal The Lancet Public Health eine Erklärung veröffentlicht, deren Fazit lautet: "Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge" {1]. Und die WHO argumentiert dies mit: "Es wurden die mit Alkoholkonsum verbundenen Risiken und Schäden über die Jahre systematisch evaluiert und sind hinreichend dokumentiert." Dies gilt laut WHO insbesondere für die cancerogenen Eigenschaften des Ethanols: "Mit steigendem Alkoholkonsum erhöht sich das Krebsrisiko erheblich. Die neuesten verfügbaren Daten deuten darauf hin, dass die Hälfte der dem Alkohol zurechenbaren Krebsfälle in der Europäischen Region der WHO durch „leichten“ bis „moderaten“ Alkoholkonsum – weniger als 1,5 Liter Wein oder 3,5 Liter Bier oder 450 Milliliter Spirituosen pro Woche – verursacht werden" [1].
Eine vor wenigen Tagen erschienene (allerdings bereits seit Anfang des Jahres online verfügbare) neue Untersuchung geht nun als Topmeldung durch alle Medien und unterstützt offensichtlich die Erklärung der WHO. Eine kanadische Forschergruppe unter Tim Stockwell (vom Canadian Institute for Substance Use Research) hat eine Metaanalyse von insgesamt 107 veröffentlichten Studien über Trinkgewohnheiten und Langlebigkeit durchgeführt und festgestellt, dass nur in den Studien von "minderer Qualität" ein Zusammenhang von leichtem bis mäßigem Alkoholkonsum und gesundheitsfördernder Wirkung gefunden wurde [2]. Als leicht bis mäßig wurde dabei ein Konsum zwischen einem Drink pro Woche und 2 Drinks täglich angesehen, entsprechend einer täglichen Dosis von 1,3 g bis 20 g reinem Ethanol. Der wesentliche Kritikpunkt in den von den Autoren als qualitativ schlechter eingestuften Studien war, dass ältere Teilnehmer (>56 Jahre alt), die aus gesundheitlichen Gründen auf Alkohol verzichtet hatten, als Abstinenzler den moderaten Trinkern gegenübergestellt worden waren." Die Autoren der Studie folgern: "Scheinbare gesundheitliche Vorteile können immer wieder durch Studien erzeugt werden, bei denen die Referenzgruppe der Abstinenzler in Richtung eines schlechten Gesundheitszustands verzerrt wird. Die relativ wenigen veröffentlichten Studien, die minimale Qualitätskriterien erfüllen, um dieses Problem zu vermeiden, zeigen kein signifikant geringeres Sterberisiko für Trinker mit niedrigem Konsum [2]."
Ist Abstinenz gleichbedeutend mit Null Alkoholkonsum?
Dies kann mit Sicherheit verneint werden, da in vielen Nahrungsmitteln des täglichen Konsums Alkohol - wenn auch in geringen Konzentrationen - enthalten ist. Alkohol entsteht ja auf natürliche Weise durch Gärung in Zucker und/oder Stärke enthaltenden Produkten - überall dort, wo Hefen oder andere Mikroorganismen hingelangen oder im Produktionsprozess zugesetzt werden. Dies ist bei Früchten und Fruchtsäften der Fall, ebenso bei der Herstellung von vergorenen Nahrungsmitteln wie u.a. Joghurt, Kefir, Essig, Gemüse, Sojasauce oder von Backwaren aus Hefeteig. Alkohol wird in kleinen Mengen auch bei der Herstellung von Fertigprodukten zugesetzt z.B. als Trägerstoff für Aromen oder als Konservierungsmittel (und braucht dann nicht als Inhaltsstoff angegeben werden). Als geschmacksgebende Zutat findet sich Alkohol in diversen Kuchen, Süßigkeiten, Eis, Milchbrötchen, etc., ebenso wie in vielen Fertigsuppen, Fertiggerichten, Saucen und Salatdressings - bei verpackten Produkten findet sich dann der Hinweis darauf auf dem Etikett im Kleingedruckten, bei offen verkauften Waren (z.B. in Bäckereien, Konditoreien) und in Restaurants fehlen solche Hinweise.
Bei Getränken muss Alkohol nur deklariert werden, wenn mehr als 1,2 Volumenprozent enthalten sind. Getränke mit weniger als 0,5 Volumenprozent dürfen sogar als „alkoholfrei“ beworben werden, etwa Biere oder Bier-Mixgetränke wie Radler. Dazu gehören auch die bei Kindern beliebten Malzbiere.
Konkrete Angaben zum Alkoholgehalt von Lebensmitteln sind in der publizierten Literatur nur spärlich zu finden und weisen zudem große Variabilität auf. Beispielsweise bei Fruchtsäften: Je nachdem ob vor der Pressung Obst schon leicht zu gären begonnen hat, enthalten Fruchtsäfte mehr oder weniger Alkohol, werden diese nach Öffnung noch gelagert, so kann der Alkoholgehalt massiv ansteigen. Kürzlich hat das Bayrische Landesamt für Gesundheit und Lebensmittelsicherheit (LGL) im Rahmen eines Schwerpunktprojekts den Ethanolgehalt in über 1200 marktüblichen, potentiell alkoholhaltigen Lebensmitteln untersucht [3]. Eine Zusammenstellung der Daten nach Produktgruppen in der nebenstehenden Tabelle zeigt die jeweilig gemessenen Minima und Maxima, die bis um das Tausendfache variieren können.
Detaillierte Angaben zu einzelnen häufig konsumierten Produkten rücken vor allem zwei Hefeteigbackwaren in den Vordergrund: Brioche (Croissant) mit einem Alkoholgehalt von 1,21 g/100g und Burger-Brötchen mit 1,28 g/100g [4]. Pizza enthält auch nach dem Backvorgang bei hoher Temperatur noch Alkohol (LGL-Messung: 0,15 g/100 g).
Welche Alkoholmenge kann nun eine abstinente Person nur über die Nahrung zu sich nehmen?
Dazu ein Zahlenbeispiel: Nehmen wir an ein Erwachsener beginnt den Tag mit 2 Croissants zum Frühstück oder isst zwei Burger-Brötchen zu Mittag, trinkt über den Tag verteilt 1 l Fruchtsaft oder Erfrischungsgetränk und verzehrt 2 überreife Bananen, so schlägt dies schon mit rund 4 g Alkohol zu Buche. Mit sogenannten alkoholfreien Getränken und mit in Süßwaren, Saucen und Fertiggerichten verstecktem Alkohol kann sich der Alkoholkonsum noch wesentlich erhöhen. Restaurantbesuche sind hier noch nicht berücksichtigt.
Ein derartiger Konsum fällt in der oben erwähnten Metaanalyse aber bereits unter die Definition "leichter bis mäßiger Alkoholkonsum (1,3 - 20 g Alkohol/Tag)" [2].
Alkohol entsteht auch durch die Tätigkeit der Mikroorganismen im Darm
Ethanol ist nicht nur in vielen Lebensmitteln enthalten, es wird auch bei fast allen Menschen im Darm, vor allem im proximalen Colon erzeugt: Ein weites Spektrum von dort ansässigen Bakterien und Pilzen fermentiert für uns unverdaubare Kohlenhydrate - Ballaststoffe, Cellulose, Hemicellulose, Pektin, etc. Neben kurzkettigen Fettsäuren entsteht auch Ethanol und CO2 [5, 6].
Führt Alkohol in Maßen genossen also nicht zu einem längeren und gesünderen Leben?
Dies lässt sich - meiner Meinung nach - aus der neuen Metaanalyse nicht klar beantworten. Es hatte die Gruppe der leicht bis moderat Trinkenden (1,3 bis 20 g Alkohol/Tag) zwar keine gesundheitlichen Vorteile gegenüber der Referenzgruppe der Abstinenzler erkennen lassen, allerdings nahmen Letztere wahrscheinlich auch mehrere Gramm Alkohol täglich über die Nahrung zu sich, gehörten also ebenfalls in die Gruppe der wenig bis mäßigen Alkoholtrinker. Es wurden also zwei zu wenig unterschiedliche Gruppen verglichen.
Alkohol über die Nahrung aufzunehmen ist in vielen Fällen unvermeidlich und die Menschheit ist seit alters her daran gewöhnt damit und auch mit der endogenen Alkohol-Produktion im Darm umzugehen. Wir verfügen über mehrere Enzymsysteme (Alkoholdehydrogenasen, CYP2E1, Katalase und Aldehyd-Dehydrogenasen) die - solange sie nicht überlastet oder gestört sind - Ethanol effizient und schnell zu unschädlichen Produkten abbauen. Bessere Kenntnisse über diese Abwehrsysteme könnten auch eine Revidierung der WHO-Erklärung "Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge" ermöglichen.
[1] WHO: Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge . Press release, 04-01.2023. https://www.who.int/europe/de/news/item/28-12-2022-no-level-of-alcohol-consumption-is-safe-for-our-health.
[2] Tim Stockwell et al., Why Do Only Some Cohort Studies Find Health Benefits From Low-Volume Alcohol Use? A Systematic Review and Meta-Analysis of Study Characteristics That May Bias Mortality Risk Estimates. Journal of Studies on Alcohol and Drugs, 85(4), 441–452 (2024). doi:10.15288/jsad.23-00283. (Published Online: January 30, 2024)
[3] Bayrische Landesamt für Gesundheit und Lebensmittelsicherheit: Versteckter Alkohol in Lebensmitteln. https://www.lgl.bayern.de/lebensmittel/warengruppen/wc_32_alkoholfreie_getraenke/jb22_alkohol_lebensmittel.htm.
[4] Gorgus, E., Hittinger, M., & Schrenk, D. (2016). Estimates of ethanol exposure in children from food not labeled as alcohol-containing. Journal of analytical toxicology, 40(7), 537-542.
[5] Ivan Šoša (2023).The Human Body as an Ethanol-Producing Bioreactor—The Forensic Impacts. Fermentation, 9, 738. https://doi.org/10.3390/fermentation9080738.
[6] George T. Macfarlane and Sandra Macfarlan (2012). Bacteria, Colonic Fermentation, and Gastrointestinal Health. Journal of AOAC International Vol. 95, No. 1, DOI: 10.5740/jaoacint.SGE_Macfarlane.
Elektrolyse von Meerwasser: natürliche Geobatterien produzieren Sauerstoff für das Ökosystem am tiefen Meeresgrund
Elektrolyse von Meerwasser: natürliche Geobatterien produzieren Sauerstoff für das Ökosystem am tiefen MeeresgrundSo. 28.07.2024 — Redaktion
Die bislang geltende Lehrmeinung, dass der für das Leben auf unserem Planeten essentielle Sauerstoff ausschließlich durch photosynthetisch aktive Organismen unter Nutzung der Sonnenenergie generiert wird, findet laut einer neuen Untersuchung nun durch eine wesentliche weitere Sauerstoffquelle Ergänzung. Wie ein internationales Forscherteam zeigt, wird Sauerstoff auch in völliger Dunkelheit am Meeresboden in 4.000 Metern Tiefe produziert. Als Quelle dieses "Dunklen" Sauerstoffs wurden metallreiche Knollen - "Manganknollen" - identifiziert, die beispielsweise in der sogenannten Clarion-Clipperton Zone große Flächen des tiefen (abyssalen) Meeresboden bedecken und im Zentrum des geplanten Tiefseebergbaus stehen. Diese Metallknollen stellen natürliche Geobatterien dar: sie erzeugen genügend Spannung, um Meerwasser elektrolytisch zu spalten. Die Auswirkungen dieser Entdeckung auf Wissenschaft und Wirtschaft sind noch kaum absehbar.
Am 22. Juli 2024 wurde im Fachjournal Nature Geoscience über eine aufsehenerregende Entdeckung berichtet, die nicht nur unsere bisherigen Vorstellungen vom Ursprung des Lebens in Frage stellt, sondern auch inwieweit ökonomische und ökologische Aspekte des Tiefseebergbaus vereinbar sind [1]. Ein internationales Forscherteam um den schottischen Meeresforscher Andrew Sweetman (Scottish Association for Marine Science, (SAMS)) hat In den finsteren Tiefen des Pazifischen Ozeans Sauerstoff entdeckt, der nicht von photosynthetisch aktiven Organismen produziert wird, sondern von kartoffelförmigen Metallknollen - "natürlichen Geobatterien" -, wobei einzelne Knollen fast so viel Strom abgeben wie AA-Batterien und Meereswasser elektrolytisch zu Wasserstoff und Sauerstoff spalten können.
Die Veröffentlichung erfolgt zum richtigen Zeitpunkt, um Entscheidungen zum Tiefseebergbau beeinflussen zu können: seit dem 15. Juli verhandelt der in Jamaika tagende Rat der Internationalen Meeresbodenbehörde (ISA) über ein entscheidendes Regelwerk für den Abbau von Rohstoffen wie Nickel, Kupfer oder Kobalt; vom 29, Juli an soll in UNO-Vollversammlung auch über ein mögliches Moratorium für den Tiefseebergbau diskutiert werden.
Was sind diese Metallknollen und was bewirken sie?
Metallknollen am Tiefseeboden..........
wurden ursprünglich in der sogenannten Clarion-Clipperton-Zone (CCZ) entdeckt, einer Tiefseeebene, die sich in einer Tiefe von 4000 - 6000 m über 4,5 Millionen Quadratkilometer zwischen Hawaii und Mexiko erstreckt. Auf Grund des reichen Vorkommens solcher sogenannter Polymetall-Knollen (wegen des hohen Mangananteils auch als Manganknollen bezeichnet), die neben Mangan und Eisen auch Kupfer, Nickel, Kobalt, Titan und andere für unsere Batterien und insgesamt für den Übergang zu "sauberer" Energie dringend benötigten Metalle enthalten, stehen zahlreiche Bergbauunternehmen in den Starlöchern, um mit Hilfe von Bergbaurobotern den kommerziellen Abbau der Knollen zu beginnen.
Abbildung 1. Weltweite marine Mineralvorkommen von wirtschaftlicher Bedeutung und erteilte Lizenzen zur Exploration. Detailbild: In der Clarion-Clipperton- Zone haben sich zahlreiche Staaten Explorationsgebiete reserviert. (Bild: Meeresatlas 2017 – Daten und Fakten über unseren Umgang mit dem Ozean, Petra Böckmann - cc-by 4.0.) |
Neben den Manganknollen sind zwei weitere aus vielen wichtigen Metallen bestehende marine Mineralvorkommen von wirtschaftlicher Bedeutung:
- Kobaltkrusten - steinharte, kobaltreiche Eisenmangankrusten, die sich auf (vulkanisch entstandenen) Seebergen abgelagert haben - und
- Massivsulfide - eisenreiche Schwefelverbindungen, die auch Kupfer, Zink Spuren von Gold, Silber und anderen Metallen enthalten -, die sich an Schwarzen Rauchern als Schlote oder Hügel anlagern.
Abbildung 1 zeigt eine Weltkarte der bis jetzt identifizierten marinen Mineralfundstätten mit Stätten für die Explorationslizenzen, d.i. die Berechtigung zum Abbau zu forschen aber nicht im industriellen Maßstab abzubauen, vergeben wurden. Das primäre Target des Tiefseeabbaus, die Clarion-Clipperton- Zone ist im Ausschnitt gesondert hervorgehoben mit für einzelne Länder vergebenen Lizenzen zu Exploration und Schutzzonen.
Manganknollen kennt man schon seit 150 Jahren, entdeckt anlässlich einer britischen Expedition galten sie bis in die 1960er Jahre als Kuriosum. Es sind etwa faustgroße Knollen, die ausgehend von einem zentralen Kern, an den sich gelöste Metallionen anlagerten, überaus langsam - über Zeiträume von Jahrmillionen - gewachsen sind und nun am Meeresboden lose aufliegen. Abbildung 2.
Abbildung 2. Manganknollen. Links: Aus dem Karischen Meer;Niederländische Polarexpedition 1881 -82. (Erdwissenschaftl. Sammlungen der ETH Zürich. System-ID #1332991. cc-by-sa.) Rechts: Knollen am Meeresboden der Clarion-Clipperton-Zone in mehr als 4000 Metern Wassertiefe (Bild Manganknollen / Manganknollen / ROV-Team/GEOMAR / CC BY 4.0 /) |
Manganknollen sind in allen Ozeanen vorhanden und in einigen Gebieten, vor allem in der Clarion-Clipperton- Zone ist ihr Vorkommen so reichlich, dass sie als Rohstoffquelle nun mehr und mehr an Interesse gewinnen. Das US- Geological Survey schätzt das Vorkommen in der Clarion-Clipperton- Zone auf 21.1 Milliarden Tonnen Metallknollen, die mehr für die Industrie kritische Metalle enthalten als in Summe alle Vorkommen an Land. An manchen Stellen liegen die Knollen in dieser Zone dicht an dicht mit einem möglichen Ertrag von bis zu 75 kg/m2. Abbildung 2.
.......... und dort vorhandenes Leben
Die Manganknollenfelder beherbergen neben Viren, Archaeen und Bakterien eine enorm vielfältige Fauna von sesshaften und mobilen Spezies. Nur einen Bruchteil kennt man erst. Ein internationales Team um Muriel Rabone (Deep-Sea Systematics and Ecology Group, London) hat im vergangenen Jahr aus den gesamten bis dahin veröffentlichten Untersuchungen und Datenbanken zur Artenvielfalt in der Clarion-Clipperton-Zone eine erste Schätzung zur Fülle der Spezies getroffen. Die Wissenschaftler kamen auf 5 578 Tierarten, von denen rund 92 % bis dahin noch völlig unbekannt waren [3]. Abbildung 3.
Wie das Forscherteam des europäischen Projekts MiningImpact zeigen konnte, weisen Böden mit hoher Knollendichte eine höhere ökologische Vielfalt auf als Böden mit geringer Bedeckung [4].
Abbildung 3. Metazoa (vielzzellige Tiere) am Tiefseeboden, Spezies nach Stämmen geordnet. Eine erste Schätzung von bereits bekannten (blau) und noch völlig unbekannten (rot) Spezies. (Bild aus Rabone et al., 2023, [3] Lizenz cc-by.) |
Um die ökologischen Folgen eines Manganknollen-Abbaus in der Tiefsee abzuschätzen, haben deutsche Meeresforscher im Jahr 1989 die Knollen in einem 11 km2 großen Gebiet vor Peru entfernt. 26 Jahre später untersuchte die Expedition SO24 den gestörten Tiefseeboden mit modernsten Technologien; es wurden mit einem Tauchroboter gezielt Proben genommen, mikrobiologische Aktivitäten gemessen und toxikologische Experimente am Meeresboden durchgeführt. Dazu gaben Fotos und Videos einen umfassenden detaillierten Eindruck der Umweltschädigungen. Die Pflugspuren von 1989 waren im Meeresboden noch deutlich sichtbar, aber Leben - nicht einmal in Form von Mikroorganismen - war dorthin (noch) nicht zurückgekehrt [4].
Die Schlussfolgerung der Forscher: Die zentralen Ergebnisse dieser Untersuchungen kleiner Meeresboden¬störungen durch das Projekt MiningImpact in Bezug auf den sehr viel großflächigeren industriellen Tiefseebergbau sind, dass die Umweltschädigungen nachhaltig sein werden und alle Ökosystem-Kompartimente betreffen. Für viele Jahrzehnte bis Jahrhunderte wird die Zusammensetzung der Faunengemeinschaften verändert, Populationsdichten und Biodiversität der Fauna sowie Ökosystemfunktionen, wie Produktivität und mikrobielle Aktivität, werden stark reduziert [3].
Noch problematischer erscheint der Abbau der Manganknollen im Lichte der nunmehrigen Entdeckung, dass diese als Sauerstoffproduzenten für das Habitat am Tiefseeboden fungieren [1].
Manganknollen als Sauerstoffproduzenten
Bislang galt die Lehrmeinung, dass der für aerobes Leben auf unserem Planeten unabdingbare molekulare Sauerstoff via Photosynthese von Pflanzen, Algen und bestimmten Bakterien an Land und in der obersten Schichte des Ozeans erzeugt wird. Im Ozean, so dachte man, würde der Sauerstoff dann durch Diffusion bis in die Meerestiefen gelangen und dort den Lebensraum für aerobe Organismen ermöglichen.
Von dieser Meinung ging auch der schottische Meeresforscher Andrew Sweetman aus, als er vor 11 Jahren eine Expedition in der Clarion-Clippertone-Zone leitete. Mit dem Ziel möglichst bald mit dem Abbau der Manganknollen beginnen zu können, sollte die von einer Tochtergesellschaft der The Metals Company finanzierte exploratorische Studie etwaige ökologische Auswirkungen eines Tiefseebergbaus in den entsprechenden Lizenzgebieten evaluieren (dies war also noch vor den Ergebnissen der oben zitierten MiningImpact Studie).
In speziellen Tiefsee-Probenkammern untersuchten die Forscher vor Ort vorerst den Sauerstoffverbrauch des darin eingeschlossenen Systems aus Meerwasser, Manganknollen, Sediment und Organismen unter verschiedenen Bedingungen. In einem kurzen, ebenfalls am 22. Juli veröffentlichten Video beschreibt Sweetman die anfangs bezweifelten Daten, die schlussendlich zu der sensationellen Entdeckung eines anorganisch basierten, zweiten Sauerstoff produzierenden Systems führten [5].
Abbildung 4. Untersuchungen der Sauerstoffproduktion in abgeschlossenen Tiefsee-Probenkammern 2015 in Lizenzbereichen (OMS und UK1) und 2018 in 4 Abbau-geschützten Bereichen (APEI's) der Clarion-Clppertone-Zone. (Bild aus Extended Data, Figure 3; Sweetman et al., 2024 [1]. Lizenz cc-by.) |
" Wenn sich Tiere und Mikroben in den Sedimenten bewegen und organisches Material verzehren, verbrauchen sie normalerweise auch Sauerstoff. Wenn man also einen definierten Bereich des Meeresbodens einschließt, kann man sehen, wie der Sauerstoff mit der Zeit langsam abnimmt. Wir haben aber festgestellt, dass der Sauerstoff mit der Zeit sogar zunimmt. Ich dachte, die von uns verwendeten Sensoren seien defekt, also schickte ich sie zur Neukalibrierung und Prüfung an den Hersteller zurück, der sie mir dann zurückschickte und mir mitteilte, dass alles funktioniere. Ich fuhr mit diesen also wieder aufs Meer hinaus und stellte dasselbe fest: Die Sauerstoffkonzentration in diesen verkleinerten Ökosystemen stieg mit der Zeit an. Über einen Zeitraum von etwa 8 oder 9 Jahren erhielt ich immer wieder diese "fehlerhaften" Messwerte meiner Sensoren. Als ich dann 2021 das nächste Mal rausfuhr, beschloss ich, die Sauerstoff-Konzentration mit einer anderen Methode zu messen. Und als das Instrument vom Meeresboden hochkam und wir die Daten von den Sensoren herunterluden, war - was ich bis dahin für unmöglich gehalten hatte - der O2-Wert am Meeresboden wieder angestiegen. Abbildung 4. Wir hatten also bislang einen Mechanismus der Sauerstoffproduktion ignoriert, den wir nun in den letzten 2 - 3 Jahren aufzuklären versuchten."
Tatsächlich lag die Netto-Sauerstoffproduktion in den Probenkammern im Durchschnitt bei 1,7 bis 18 Millimol Sauerstoff pro Quadratmeter und Tag. Das sind keine geringen Mengen - es werden damit höhere Konzentrationen erreicht als in algenreichen Oberflächengewässern, so Sweetman.
Wie wird Sauerstoff produziert?
Penibel nach Ursachen für die massive Sauerstoffproduktion suchend konnten die Forscher Prozesse wie Radiolyse durch radioaktive Isotope (von Uran, Thorium, Kalium) im Sediment und diverse Kontaminationen weitestgehend ausschließen. Auch biologische Mechanismen erschienen unwahrscheinlich, da Ex-situ-Experimente im Labor in Gegenwart des Zellgifts Quecksilberchlorid keinen Einfluss auf die Sauerstoffproduktion hatten.
Schließlich gelangten die Manganknollen selbst ins Zentrum der Untersuchungen: In Kontrolluntersuchungen ex-situ am Bord des Schiffs hatten die Knollen allein auch Sauerstoff produziert. Die Forscher führten nun elektrische Messungen an den Oberflächen der Manganknollen durch, und beobachteten, dass überraschend hohe elektrische Spannungen erzeugt wurden. Sweetman: "Wir haben das elektrische Potenzial zwischen 2 Platin-Elektroden an 153 Stellen auf der Oberfläche von 12 Knollen …. getestet. Die Potenziale zwischen verschiedenen Positionen auf den Knollen waren sehr unterschiedlich und es wurden Potenziale bis zu 0,95 Volt gemessen." Abbildung 5. Sweetman weiter: "Plötzlich wurde uns klar, dass hier möglicherweise dasselbe passiert, wie wenn man eine Batterie ins Meerwasser wirft. Es beginnt zu zischen, weil der erzeugte elektrische Strom das Wasser in Sauerstoff und Wasserstoff spaltet."
Abbildung 5. Abbildung 5. Background korrigierte Potentiale [V] auf der Oberfläche von 12 Manganknollen (Box-Whisker-Plot). Die aus 3 Lizenzgebieten stammenden Knollen wurden bei 21oC an jeweils 153 Stellen der Oberflächen getestet, Knollen 6 und 7 auch bei 5oC. (Bild: Figure 2 aus: Sweetman etal., 2024 [1]. Lizenz cc-by.) |
Der Strom aus den Knollen kann - so schlussfolgern die Forscher - zur elektrolytischen Aufspaltung des Meereswasser führen, "wobei die notwendige Energie aus der Potentialdifferenz zwischen den Metallionen in den Schichten der Knollen kommt, die zu einer internen Umverteilung von Elektronen führt." Zur Elektrolyse von Wasser werden zwar 1,5 V benötigt, die aber erreicht werden können, wenn mehrere Manganknollen, ähnlich wie bei in Serie geschalteten Batterien, dicht beieinanderliegen.
Sind Manganknollen also als Geobatterien zu betrachten? Diese Hypothese wird durch die Korrelation von Knollenoberfläche und Sauerstoffproduktion gestützt. Auf Grund der Zusammensetzung der Knollen aus vielen Übergangsmetallen und deren katalytischen Eigenschaften, kann Katalyse zur Wasserspaltung beitragen.
Welche Bedeutung hat die Entdeckung der Sauerstoffquelle am Meeresboden?
Für die angestrebte Ökonomie der grünen Energiegewinnung benötigen wir diverse Metalle, die wir unter limitierenden Bedingungen aus dem Boden oder aus den reichen Vorkommen der Tiefsee gewinnen müssen. Der Abbau der Manganknollen dürfte die Sauerstoffquelle entfernen, ohne die das reiche Ökosystem in der Tiefe nicht atmen, nicht überleben kann. Der Abbau dürfte somit mit irreversiblen Schäden des Ökosystems einhergehen.
Nicht erwähnt/untersucht in [1] wurde die Frage inwieweit die weiteren marinen Mineralquellen - Kobaltkrusten und Massivsulfide an Schwarzen Rauchern - in ähnlicher Weise wie Manganknollen Sauerstoff produzieren können und damit die Biodiversität an diesen Orten (siehe Abbildung 1) fördern/erhalten.
Die Entdeckung einer anorganischen Sauerstoffquelle, die schon lange vor der Entwicklung der biochemischen Photosynthese bestanden haben kann, wirft auch Fragen nach dem wann, wo und wie des Ursprungs des Lebens und der Evolution der Arten auf. Aerobes Leben konnte sich also schon früher als angenommen entwickelt haben. Wie muss man sich dann den hypothetischen Vorfahren LUCA - last univeral common ancestor - vorstellen und wo ist er entstanden? Die Hypothese einer Entstehung an den Schwarzen Rauchern gewinnt hier möglicherweise wieder an Bedeutung.
[1] Andrew K. Sweetman et al., Evidence of dark oxygen production at the abyssal seafloor. Nat. Geosci. (22. 07. 2024). https://doi.org/10.1038/s41561-024-01480-8
[2] Davide Castelvecchi. Mystery oxygen source discovered on the sea floor — bewildering scientists. Nat. Geosci. (22. 07. 2024). doi: https://doi.org/10.1038/d41586-024-02393-7
[3] Rabone et al., 2023, How many metazoan species live in the world’s largest mineral exploration region? Current Biology 33, 2383–2396. June 19, 2023. hhttps://doi.org/10.1016/j.cub.2023.04.052. Lizenz cc-by
[4] GEOmar.de: Miningimpact - Umweltmonitoring zu Auswirkungen des Tiefseebergbaus https://www.geomar.de/entdecken/miningimpact
[5] Andrew K. Sweetman: Discovering Dark Oxygen - How oxygen is produced in the deep sea. 22.7.2024. Video 5:12 min. https://www.youtube.com/watch?v=uP3RPDTgfa4
Weitere Informationen
GEOMAR Helmholtz-Zentrum für Ozeanforschung: Manganknollen – Reiche Rohstofffelder am Meeresboden und Factsheet (2019): https://www.geomar.de/entdecken/rohstoffe-aus-dem-ozean/manganknollen
CR Smith et al., Editorial: Biodiversity, Connectivity and Ecosystem Function Across the Clarion-Clipperton Zone: A Regional Synthesis for an Area Targeted for Nodule Mining. Front. Mar. Sci., 03 December 2021. https://doi.org/10.3389/fmars.2021.797516
Geomar (Kiel): Impact and Risks of deep sea mining (2020) Video 8:24 min. https://www.youtube.com/watch?v=RTVzMtuHeoE&t=11s
Deep-Sea Mining Science Statement . Marine Expert Statement Calling for a Pause to Deep-Sea Mining . Signed by 827 marine science & policy experts from over 44 countries. https://seabedminingsciencestatement.org/
Trotz massiver regionaler Schädigungen ist der Beitrag der Wälder zur terrestrischen CO2-Aufnahme in den letzten Jahrzehnten gleich hoch geblieben
Trotz massiver regionaler Schädigungen ist der Beitrag der Wälder zur terrestrischen CO2-Aufnahme in den letzten Jahrzehnten gleich hoch gebliebenDo, 18.07.2024 — IIASA
Die Aufnahme von Kohlendioxid (CO2) durch terrestrische Ökosysteme wirkt entscheidend auf die Abschwächung des Klimawandels; Wälder sind lebenswichtige Ökosysteme und stellen weiterhin eine starke Waffe im Kampf gegen die globale Erwärmung dar. Eine neue Studie zeigt ein überraschendes Ergebnis: Trotz enormer Gefährdungen infolge von regionalen Abholzungen und Waldbränden, haben Wälder aus globaler Sicht in den letzten drei Jahrzehnten in nahezu unverändertem Ausmaß Kohlendioxid absorbiert.*
In einer soeben in der Fachzeitschrift Nature veröffentlichten Studie unterstreichen die Autoren die entscheidende Rolle. die Wälder bei der Abschwächung des Klimawandels spielen [1]. Wie die Studie zeigt, bedrohen die Abholzung der Wälder und Störungen wie Waldbrände diese wichtige Kohlenstoffsenke.
"Wenn auch das globale Gesamtbild ermutigend ist, gibt es große Gebiete mit problematischen Trends und Prognosen. Dies betrifft in erster Linie die zentralen und östlichen Teile im nördlichen eurasischen Kontinent, wo die globale Erwärmung bereits zu einer beispiellosen Ausbreitung von Waldbränden und dem Absterben von 33 Millionen Hektar Wald allein in Russland zwischen 2010 und 2019 geführt hat. Im südlichen Teil dieser riesigen Region erwartet man kritischen Mangel an Feuchtigkeit, der die Existenz der bestehenden Wälder in den gemäßigten Wald- und Waldsteppenzonen in Kasachstan, der Mongolei, Südrußland und der Ukraine in Frage stellen könnte. Das bedeutet, dass wir dringend spezifische Anpassungsstrategien für die Wälder benötigen", erklärt Anatoly Shvidenko, ein Koautor der Studie.
Das Team, dem Forscher aus 11 Ländern angehörten, hat sich bei seiner Arbeit auf langfristige Bodenmessungen in Kombination mit Fernerkundungsdaten gestützt und herausgefunden, dass Wälder durchschnittlich 3,5 Milliarden Tonnen Kohlenstoff pro Jahr aufnehmen, was fast der Hälfte der Kohlendioxidemissionen aus der Verbrennung fossiler Brennstoffe zwischen 1990 und 2019 entspricht.
"Unser Forschungsteam hat Daten von Millionen von Waldparzellen rund um den Globus analysiert", erklärt Yude Pan, Senior Research Scientist der Northern Research Station des US-Landwirtschaftsministeriums (USDA) und einer der Studienleiter. "Das Besondere an dieser Studie ist, dass sie sich auf umfangreiche Bodenmessungen stützt - im Wesentlichen eine Baum für Baum Bewertung von Größe, Art und Biomasse. Obwohl die Studie auch Fernerkundungsdaten einbezieht, ein übliches Instrument bei nationalen Waldinventuren und Landvermessungen, liegt unsere einzigartige Stärke in der detaillierten Datenerfassung vor Ort."
Die Ergebnisse zeigen, dass die borealen Wälder in der nördlichen Hemisphäre, die sich über Regionen wie Alaska, Kanada und Russland erstrecken, einen erheblichen Rückgang ihrer Kapazität der Kohlenstoffspeicherung erfahren haben; diese ist um 36 % gesunken aufgrund von Faktoren wie zunehmenden Störungen durch Waldbrände, Insektenbefall und Bodenerwärmung. Auch in den Tropenwäldern ist ein Rückgang zu verzeichnen, wobei die Abholzung der Wälder ihre Fähigkeit zur Kohlenstoffaufnahme um 31 % verringert hat. Das Nachwachsen von Wäldern auf zuvor aufgegebenen landwirtschaftlichen Flächen und in gerodeten Gebieten hat diese Verluste jedoch teilweise ausgeglichen, so dass der Nettokohlenstofffluss in den Tropen nahezu neutral ist. In den Wäldern der gemäßigten Zonen hingegen hat sich die Kapazität der Kohlenstoffsenke um 30 % erhöht. Den Autoren zufolge ist dieser Anstieg größtenteils auf umfangreiche Maßnahmen der Wiederaufforstung, insbesondere in China, zurückzuführen.
"Die global gleichbleibende Kohlenstoffsenke der Wälder war angesichts der weltweiten Zunahme von Waldbränden, Dürren, Abholzung und anderen Stressfaktoren eine Überraschung", erklärt Richard Birdsey, leitender Wissenschaftler am Woodwell Climate Research Center in den USA, ein weiterer Studienleiter. "Es stellt sich jedoch heraus, dass die zunehmenden Emissionen in einigen Regionen durch zunehmende Aufnahmen in anderen Regionen ausgeglichen wurden, vor allem durch das Nachwachsen tropischer Wälder und die Wiederaufforstung von Wäldern der gemäßigten Zonen. Diese Ergebnisse untermauern das Potenzial, welches ein besserer Schutz und eine bessere Bewirtschaftung der Wälder als wirksame natürliche Lösungen für das Klima hat".
Die Studie beschreibt, wie bestimmte Maßnahmen und Praktiken der Landbewirtschaftung zur Erhaltung dieser globalen Kohlenstoffsenke beitragen können. Die Ergebnisse sprechen dafür, den Schwerpunkt auf die Eindämmung der Entwaldung in allen Waldbiomen zu legen, z. B. durch die Förderung der Wiederaufforstung von Flächen, die für die Landwirtschaft ungeeignet sind, und die Verbesserung der Holzerntepraktiken, um die Emissionen aus dem Holzschlag und damit verbundenen Aktivitäten zu minimieren. Die Autoren betonen jedoch auch die Einschränkungen bei der Datenerfassung, insbesondere in tropischen Regionen, und fordern eine verstärkte Forschung und die Schaffung weiterer Flächen für Bodenproben in diesen Gebieten, um die Unsicherheiten bei den Kohlenstoffschätzungen zu verringern und das Verständnis des globalen Kohlenstoffhaushalts zu verbessern.
"Die globalen Wälder können weiterhin effizient Kohlenstoff binden und speichern und gleichzeitig zahlreiche andere Vorteile bieten, die die Menschen aus der natürlichen Umwelt und gut funktionierenden Ökosystemen ziehen. Angesichts des zunehmenden menschlichen Drucks und des sich rasch verändernden Klimas ist eine anpassungsfähige und regionalisierte Waldbewirtschaftung jedoch notwendiger denn je", schließt Dmitry Schepaschenko, Koautor der Studie und Senior Research Scholar des IIASA.
[1] Pan, Y., Birdsey, R.A., Phillips, O.L., Houghton, R.A., Fang, J., Kauppi, P.E., Keith, H., Kurz, W.A., Ito, A., Lewis, S.L., Nabuurs, G., Shvidenko, A., Hashimoto, S., Lerink, B., Schepaschenko, D., Castanho, A., & Murdiyarso, D. (2024). The enduring world forest carbon sink. Nature DOI: 10.1038/s41586-024-07602-x
*Der Artikel "Forests endure as carbon sink despite regional pressures" ist am 17. Juli 2024 als Pressemeldung auf der IIASA-Website erschienen (https://iiasa.ac.at/news/jul-2024/forests-endure-as-carbon-sink-despite-regional-pressures). Der unter einer cc-by-nc Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Weitere Artikel im ScienceBlog
IIASA, 10.1.2019;Die Wälder unserer Welt sind in Gefahr.
IIASA, 15.8.2019: Wieviel CO₂ können tropische Regenwälder aufnehmen?
Bärtierchen können extreme ionisierende Strahlung überleben
Bärtierchen können extreme ionisierende Strahlung überlebenDo, 11.07.2024 — Redaktion
Bärtierchen sind mikroskopisch kleine Tiere, die im Meer, im Süßwasser und in feuchten terrestrischen Lebensräumen wie Moos, Flechten und Laubstreu vorkommen. Sie sind bekannt für ihre Widerstandsfähigkeit gegen extreme Umweltbedingungen, u.a. gegenüber der Exposition mit hoher ionisierender Strahlung. Um die Mechanismen dieser außergewöhnlichen Widerstandsfähigkeit zu enträtseln, hat ein französisch-italienisches Forscherteam untersucht, welche Gene unter hoher Strahlenbelastung der Tiere geschaltet werden. Offensichtlich nutzen die Tiere eine Kombination aus DNA-Reparaturmaschinen und einem bisher unbekannten Protein - TDR1 -, um ihr Genom nach intensiver ionisierender Strahlung zu reparieren. Das Verstehen dieses Procedere kann zu neuen Strategien zum Schutz menschlicher Zellen vor Strahlenschäden - von der Krebstherapie bis hin zur Weltraumforschung - führen.*
Wenn man an das robusteste Tier der Welt denkt, so hat man vielleicht einen Löwen oder einen Tiger vor Augen. Aber ein wesentlich weniger bekannter Anwärter auf diesen Titel ist das sogenannte Bärtierchen (Tardigrada), ein winziges Tier, das dafür bekannt ist, extreme Bedingungen zu überleben. Abbildung 1. Das Tier kann eingefroren werden, es hält Temperaturen über dem Siedepunkt von Wasser aus, es kann völlig austrocknen, dem Vakuum des Weltraums ausgesetzt werden und sogar ein Bombardement mit extrem hoher ionisierender Strahlung ertragen.
Abbildung 1: Das Bärtierchen Milnesium tardigradum in aktivem Zustand. Rasterelektronenmikrosopische Aufnahme. (Quelle: SEM image of Milnesium tardigradum in active state. doi:10.1371/journal.pone.0045682.g001, Lizenz cc-by.) |
Wie Bärtierchen diese extremen Bedingungen überstehen, gehört zu den größten Rätseln der Physiologie. Jetzt hat ein französisch-italienisches Forscherteam unter Jean-Paul Concordet und Anne de Cian (vom Muséum National d'Histoire Naturelle) im online Journal eLife über neue Erkenntnisse berichtet, wie Bärtierchen die Exposition gegenüber ionisierender Strahlung überleben (Anoud etal., 2024 [1]).
Ionisierende Strahlung schädigt Zellen in charakteristischer Weise, indem sie deren DNA fragmentiert. In der Vergangenheit hat man gedacht, dass Organismen - wie Bärtierchen - in der Lage sind extreme Strahlungsdosen zu überleben, weil sie die Strahlung blockieren und so verhindern, dass ihre DNA geschädigt wird. Ein früherer Bericht legt nahe, dass Bärtierchen ein sogenanntes Dsup (Damage Suppressor) Protein nutzen, um DNA-Schäden während der Strahlenbelastung zu verhindern. Anoud et al. fanden jedoch heraus, dass Bärtierchen die gleiche Menge an DNA-Schäden anhäufen wie Organismen und Zellen, die gegenüber Strahlung intolerant sind, wie etwa menschliche Zellen, die in Kulturschalen gezüchtet werden.
Wenn also Bärtierchen ionisierende Strahlung nicht deshalb überleben, weil sie die DNA-Fragmentierung direkt blockieren, wie überstehen sie dann eine solche Schädigung?
Um dies heraus zu finden, hat das Forscherteam drei Bärtierchenarten mittels RNA-Sequenzierung untersucht, um festzustellen, welche Gene eingeschaltet werden, wenn die Tiere ionisierender Strahlung ausgesetzt sind. Zusätzlich haben sie auch Bärtierchen getestet, die Bleomycin ausgesetzt waren - einem in der Tumortherapie angewandten Medikament, das die Auswirkungen von Strahlung nachahmt, indem es Doppelstrangbrüche in der DNA verursacht.
Anoud et al. fanden heraus, dass die Bärtierchen die Expression von Genen hochregulierten, die an der DNA-Reparaturmaschinerie beteiligt sind, welche in vielen Lebensformen - von Einzellern bis hin zum Menschen - anzutreffen ist. Die DNA-Schäden, die die Bärtierchen nach dem Bombardement mit ionisierender Strahlung oder nach Behandlung mit Bleomycin zunächst anhäuften, verschwanden sukzessive nach der Exposition. Insgesamt weisen diese Ergebnisse stark darauf hin, dass Bärtierchen zur Bewältigung der durch ionisierende Strahlung verursachten DNA-Schäden eine Reihe von robusten Reparaturmechanismen einsetzen, die ihnen helfen, ihr zerbrochenes Genom wieder zusammenzuflicken.
Abbildung 2: Die Expression des Bärtierchenproteins TDR1 in menschlichen Zellen steigertdie Reparatur von DNA-Schäden. A) Werden Bärtierchen ionisierender Strahlung oder dem Medikament Bleomycin ausgesetzt, so führt dies zu DNA-Schäden wie Doppelstrangbrüchen (Kreis im Bild). Dadurch werden verschiedene Gene (Dreiecke) aktiviert, die das Genom reparieren, darunter auch das Gen, das für ein Protein namens TDR1 kodiert (rotes Dreieck). (B) Eine Bleomycin-Behandlung (dargestellt als Blitze) verursacht in menschlichen Zellen ebenfalls Doppelstrangbrüche der DNA. Diese können jedoch nicht effizient repariert werden, was zum Zelltod führt. (C) Anoud et al. fanden heraus, dass die Einführung des Gens für TDR1 in das Genom menschlicher Zellen deren Fähigkeit zur Reparatur von DNA-Schäden steigert und ihre Überlebenschancen erhöht. (Bild: https://doi.org/10.7554/eLife.100219, Lizenz ccc-by.) |
Anoud et al. stellten nicht nur fest, dass die DNA-Reparaturmaschinerie nach ionisierender Strahlung hochreguliert wird, sie identifizierten auch ein neues, nur bei Bärtierchen vorkommendes Gen, das für ein Protein namens TDR1 (Abkürzung für Tardigrade DNA Repair Protein 1) kodiert. Weitere Experimente zeigten, dass TDR1 in den Zellkern eindringen und an die DNA binden kann. Dies könnte darauf zurückzuführen sein, dass konservierte, größtenteils positiv geladene Teile von TDR1 elektrostatisch mit negativ geladener DNA wechselwirken. Liegt TDR1 in hohen Konzentrationen vor, so bindet es nicht nur an die DNA, sondern bildet auch in zunehmendem Maße Aggregate. Schließlich fanden Anoud et al. heraus, dass durch das Einbringen des TDR1-Gens in gesunde menschliche Zellen die Menge der dort durch Bleomycin verursachten DNA-Schäden reduziert wurde - ein Hinweis, dass das TDR1-Protein bei der DNA-Reparatur hilft (Abbildung 2).
Es ist zwar noch unklar, wie Bärtierchen DNA-Schäden beheben, aber diese Studie legt nahe, dass ihre Fähigkeit, extreme Strahlung zu überleben, mit ihrer hohen Fähigkeit DNA zu reparieren zusammenhängt, bei der TDR1 anscheinend eine entscheidende Rolle spielt. Anoud et al. fanden heraus, dass sich TDR1 nicht wie einige andere Reparaturproteine an DNA-Schadstellen anreichert. Stattdessen schlagen sie vor, dass das Protein die DNA repariert, indem es an sie bindet und Aggregate formt, welche die fragmentierte DNA zusammenhalten und dazu beitragen, die Organisation des beschädigten Genoms zu bewahren.
Um den Mechanismus, der dafür verantwortlich ist, dass TDR1 und andere Proteine den Bärtierchen helfen ionisierende Strahlung zu überleben, vollständig zu verstehen, sind jedoch weitere Forschungsarbeiten erforderlich. Letztlich könnte das Wissen darüber, wie diese winzigen Organismen ihre DNA effizient reparieren, zu neuen Strategien für den Schutz menschlicher Zellen vor Strahlenschäden führen, was der Krebsbehandlung und der Weltraumforschung zugutekommen könnte.
[1] M. Arnaud et al., Comparative transcriptomics reveal a novel tardigrade-specific DNA-binding protein induced in response to ionizing radiation. elife. Jul 9, 2024. https://doi.org/10.7554/eLife.92621.3
* Eine Zusammenfassung des Artikels von M. Arnaud, et al., 2024, [1] verfasst von Chaitra Shree Udugere Shivakumara Swamy und Thomas C Boothby ist am 04.07.2024 unter dem Titel "Tardigrades: Surviving extreme radiation" im eLife-Magazin erschienen:https://doi.org/10.7554/eLife.100219. Der Text wurde von der Redaktion möglichst wortgetreu ins Deutsche übersetzt, durch den Abstract und Abbildung 1 ergänzt, aber ohne die im Originaltext zitierten Literaturstellen wiedergegeben. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.
Video:
Bärtierchen: Die Kleinsten Und Härtesten Tiere Der Welt | Tierdokumentation | Dokumentarfilm, (2023). Video 6:37 min. https://www.youtube.com/watch?v=k2v6eIDb66Q.
Stimulation des Vagusnervs - eine Revolution in der Therapie physischer und psychischer Erkrankungen?
Stimulation des Vagusnervs - eine Revolution in der Therapie physischer und psychischer Erkrankungen?Fr, 05.07.2024— Inge Schuster
Der Vagusnerv erlebt derzeit einen Hype in Medien und auf sozialen Plattformen. Das Interesse hat guten Grund, verbindet der Vagus doch das Gehirn mit dem Großteil unserer Organe im Brust- und Bauchraum, leitet sensorische Informationen über deren internen physiologischen Zustand an das Gehirn und von dort Antworten an die Organe. Der Vagus spielt so eine Schlüsselrolle in der Regulierung unserer Körperfunktionen. Viele physische und psychische Krankheitsbilder können offensichtlich auf Funktionsstörungen des Vagus zurück geführt werden und lassen sich mit einer gezielten Stimulierung des Nervs positiv beeinflussen. Das therapeutische Potential der Vagusstimulation ist enorm und wird die moderne Medizin revolutionieren können.
Was ist der Vagusnerv?
Das autonome (vegetative) Nervensystem steuert ohne äußeres oder bewusstes Einwirken die Funktion zahlreicher Organe, Drüsen und unwillkürlicher Muskeln im gesamten Körper - Vitalfunktionen wie Atmung, Herzschlag, Verdauung und u.a. müssen schließlich auch reguliert werden, wenn man schläft oder bewusstlos ist. Die Steuerung erfolgt - vereinfacht ausgedrückt - über die Balance zwischen dem Nervensystem des Sympathikus, der für Leistungssteigerung ("fight and flight") sorgt und seinen Gegenspieler Parasympathikus, der für Entspannung und Regeneration ("rest and digest") steht.
Der Hauptnerv des Parasympathikus ist der Vagusnerv ("vagabundierender" Nerv), der zehnte und längste der Hirnnerven, zusammengesetzt aus mehr als 100 000 Nervenfasern, die vom Hirnstamm in zwei Bündeln an beiden Seiten des Halses in den Torso laufen und sich weit verästeln. Die langen Zweige erreichen nahezu alle peripheren Organe und Gewebe (siehe Abbildung 1; dazu auch Video: [1]) - vom Herzen über Lunge, Magen-Darm-Trakt, Leber, Nieren bis zu Geschlechtsorganen - und leiten (via afferente Nervenfasern) sensorische Informationen über deren internen physiologischen Zustand an das Gehirn. Das Gehirn interpretiert die Signale und sendet (via efferente Nervenfasern) passende Antworten an die Organe/Gewebe. Neben den inneren Organen versorgt der Vagus auch die Muskeln des weichen Gaumens und des inneren Kehlkopfs, die Haut der Innenseite der Ohrmuschel und des äußeren Gehörgangs sowie einen Teil des Trommelfells.
Abbildung 1. Der "umhervagabundierende"Vagusnerv (gelb) im Körper. Der zehnte Hirnnerv und Hauptnerv des Parasympathikus "wandert" weit herum im Körper, hat sowohl motorische als auch sensorische Funktionen und wirkt auf Organsysteme und Körperregionen, wie Zunge, Rachen, Teile des Ohrs, Lunge, Herz, Leber und Magen-Darm-System. Orange: 4 Gesichtsnerven. (Bild: B.Bordoni in Neuroanatomy, Cranial Nerve 10Vagus Nerve. StatPearls [Internet]. Lizenz: CC BY-NC-ND) |
Der Vagus spielt somit eine zentrale Rolle in unserem internen Kommunikationssystem und ist an der Regulierung des autonomen kardiovaskulären, gastrointestinalen, respiratorischen, immunologischen und endokrinen Systems beteiligt. In anderen Worten: der Vagus ist ein Garant für unsere innere Balance.
Ist die Balance gestört, so handelt es sich im Allgemeinen um eine relativ hohe Aktivität des Sympathikus, die mit einer (zu) geringen Aktivität des Parasympathikus, des Vagus, einhergeht.
Funktionsstörungen des Vagusnervs
Es gibt dafür zwei Hauptursachen: vorangegangene Infektionen oder Entzündungen und physischer oder psychischer Stress.
Wenn der Vagus nicht richtig funktioniert, können die Informationen, die er an das Gehirn sendet, falsch sein, auch wenn in einem betreffenden Organ selbst kein Problem vorliegt. Beispiele wie das Reizdarmsyndrom, Migräne, Fibromyalgie und funktionelle Herzrhythmusstörungen können zum Teil auf Funktionsstörungen des Vagusnerv zurückzuführen sein, ebenso Übelkeit, Schluckbeschwerden, Hustenreiz, Schwindel/Gleichgewichtsstörungen, Hörstörungen, Schlafstörungen u.v.a. m. Neuere Forschungsergebnisse legen nahe, dass die Funktionen des Vagus weit über das ursprünglich angenommene "rest and digest" hinausgehen dürften und in umfassender Weise physiologische Prozesse und Verhaltensweisen kontrollieren.
Zur Bestimmung der Aktivität des Vagus wird häufig aus dem EKG die Variabilität der Herzschlagsrate (Herzfrequenzvariabilität, HRV) analysiert, d.i. wie gut die Anpassung der Herztätigkeit an die jeweiligen momentanen Erfordernisse erfolgt (siehe auch [1]). Eine niedrige HRV tritt bei vielen Erkrankungen auf - von Epilepsie über rheumatoide Arthritis, Atherosklerose, Herz-Kreislauf Erkrankungen, Crohn's Disease, bis hin zu Diabetes u.a.m.
Stimulierung des Vagusnervs
kann die Balance des autonomen Nervensystems in Richtung Dominanz des Parasympathikus verschieben. Die ersten Versuche dazu datieren bereits 140 Jahre zurück.
Am Beginn stand der Versuch epileptische Anfälle zu stoppen. Einem amerikanischen Neurologen gelang dies in 1880er Jahren, indem er den Nerv im Nacken manuell zusammendrückte (und nicht - wie er glaubte - die Halsschlagader, weil er damit die Blutversorgung des Gehirns reduzieren wollte).
Elektrische Stimulierung
Die nur wenig erfolgreiche Strategie wurde erst in den 1930-Jahren reaktiviert, von nun an durch elektrische Stimulierung des Nervs. Viele Studien an Tiermodellen und schlussendlich am Menschen folgten und bestätigten die Wirksamkeit dieser Vagus-Stimulierung für die Behandlung (nicht nur) der Epilepsie. 1994 erfolgte die Zulassung in der Indikation therapieresistente Epilepsie in der EU, 1997 in den US durch die FDA.
Invasive Stimulierung
Die Vagus Stimulierung setzt dabei aber einen chirurgischen (invasiven) Eingriff voraus, wobei am Hals auf der linken Seite 2 Elektroden um den an der Hauptschlagader anliegenden Vagus herum gewickelt werden, die über einen, im Brustbereich implantierten Stimulator schwache elektrische Impulse an den Vagus abgeben. Die an das Hirn weitergeleiteten Impulse können offensichtlich epileptische Anfälle hemmen, aber auch andere Erkrankungen/Zustände positiv beeinflussen (wie dies im Detail geschieht ist noch nicht ganz verstanden). In der Folge wurde die invasive Vagus Stimulation (VNS) für weitere Indikationen wie therapieresistente Depression, Migräne und Clusterkopfschmerzen, Adipositas im Bauchraum und 2021 für Rehabilition nach einem Schlaganfall von der FDA zugelassen. Eine Reihe unerwünschter Nebenwirkungen schränken allerdings die Anwendung auf Personen ein, die sich gegen herkömmliche Therapien resistent erweisen. Dennoch sind bis 2020 bereits rund 125 000 Stimulatoren implantiert worden.
Abbildung 2 . Transaurikuläre Vagusnerv Stimulation (taVNS): Im Bereich des aurikulären Asts des Vagusnervs kann an 3 Stellen (Cymba conchae, Cavum conchae, Tragus) stimuliert werden. (Quelle;AA Ruiz, Biomedicines 2024, 12, 407. https://doi.org/10.3390/biomedicines12020407. Lizenz cc-by)) |
Nicht-invasive Stimulierung
Neuere nicht-invasive Methoden stimulieren den Vagusnerv von außen, an Stellen an denen er knapp unter der Haut verläuft. Diese Stimulation über die Haut (transkutan- tVNS) erfolgt im Wesentlichen über einen an der Ohrmuschel (transaurikulär- taVNS; Abbildung 2) oder am Hals angelegten Impulsgenerator, der wie ein Handy aussehen kann. Präklinische und auch klinische Studien insbesondere an der Ohrmuschel haben gezeigt, dass die transkutane elektrische Stimulation ähnliche therapeutische Wirkungen haben kann, wie die invasive Methode.
Transkutane Stimulatoren sind in einigen Ländern zugelassen. Beispielsweise ist das deutsche tVNS-Gerät (https://t-vns.com/de/#was-ist-tvns) als Medizinprodukt gemäß der Europäischen Medizinprodukteverordnung (EU-MDR) für die Behandlung der folgenden Erkrankungen zugelassen (in alphabet. Reihenfolge):
Angststörungen, Autismus, Chronisch-Entzündliche Darmerkrankungen, Depression, Epilepsie, Kognitive Beeinträchtigung, Migräne, Parkinson, Prader-Willi-Syndrom, Reizdarmsyndrom, Schlafstörungen, Systemische Sklerose, Tinnitus, Vorhofflimmern.
Eine Zusammenfassung der Erkrankungen, die in klinischen Untersuchungen erfolgreich mit invasiven und nicht-invasiven Vagusstimulierungen behandelt werden konnten, zeigt Abbildung 3.
Abbildung 3 . Signifikante Wirksamkeit der Vagusstimulation in klinischen Untersuchungen bei diversen Erkrankungen (Rot: Zulassung durch die FDA.) Zusammenstellung aus Y-T Fang et al., (2023) [2]. Fotos: Links: Manu5 - http://www.scientificanimations.com/wiki-images/; Lizenz: CC BY-SA 4.0. Mitte (Electrocore gammaCore) und rechts (Kontrolle vs Cymba cocha): J.Y.Y.Yap et al., (2020). https://doi.org/10.3389/fnins.2020.00284; Lizenz: CC-BY. |
Enormes therapeutisches Potential .............
Insgesamt ist das Gebiet der Vagus Stimulierung zu einem, von vielen öffentlichen Einrichtungen geförderten, medizinischen "Eldorado" geworden: Im letzten Jahrzehnt sind dazu jährlich rund 600 Publikationen in "peer reviewed" Journalen erschienen und zahlreiche klinische Studien wurden und werden dazu ausgeführt. Auf der Website klinischer Untersuchungen clinicaltrials.gov sind derzeit unter "vagus nerve stimulation" insgesamt 410 Studien gelistet, beschränkt auf nur "transcutaneous vagus stimulation" sind es 149; 52 davon bereits fertiggestellt, 68 angekündigt/im Rekrutierungsstadium (abgerufen am 4.Juli 2024).
Klinische Studien und bereits zugelassene therapeutische Anwendungen untermauern die Wirksamkeit und Sicherheit der VNS bei diversen Erkrankungen und bewirken eine zunehmende Akzeptanz durch Ärzte und Patienten. fasst Die leicht anwendbare und praktisch nebenwirkungsfreie transkutane Stimulation lässt auf eine nutzbare Anwendung bei einer noch wesentlich breiteren Palette von Krankheiten schließen, darunter finden sich Alzheimer, Fibromyalgie, Infektionen, rheumatische Erkrankungen bis hin zu long COVID.
Die Ausweitung der klinischen Anwendungen, die Entwicklung verbesserter, zielgerichteter Geräte und die positive Einstellung der Zulassungsbehörden wirken sich auch auf das Wachstum des VNS Marktes aus: Laut rezenter Prognose wird bei einem jährlichen Wachstum von 11,4 % ein Marktwert von rund 2,3 Mrd US $ im Jahr 2032 geschätzt https://www.wicz.com/story/50919580/vagus-nerve-stimulation-marketa-new-frontier-in-neuromodulation-for-neurological-disorders).
........ wissenschaftlich noch eine Black Box
Vagus Stimulierung ist aber noch immer eine Black Box geblieben, sowohl was die zur Stimulierung angewandten Techniken und Geräte betrifft als auch die in einzelnen Hirnzentren hervorgerufenen Signale und die Mechanismen ihrer Verarbeitung. Die derzeitigen zugelassenen VNS-Technologien stimulieren ja den gesamten Nerv und wirken auf alle Fasern in der Hoffnung dabei auch die richtigen Fasern zu treffen. Dies führt zu einer wahllosen Stimulation und zu unerwünschten Nebeneffekten.
Was sind aber die richtigen Fasern, um die gewünschte Wirkung auf ein Organ auszuüben und wie können diese selektiv stimuliert werden? In jüngster Zeit gibt es nun erste Untersuchungen, wie im menschlichen Vagusnerv die Nervenbündel auf der Höhe der Halswirbelsäule entsprechend ihrer Versorgung der einzelnen Organe und spezifischen Funktionen angeordnet sein könnten. Zweifellos sollten solche Kenntnisse die Wirksamkeit und Sicherheit der therapeutischen Anwendungen revolutionieren!
Um dieses Ziel zu erreichen, haben die US-National Institutes of Health (NIH) vor 10 Jahren ein Hunderte Millionen Dollar schweres Förderprogramm Stimulating Peripheral Activity to Relieve Conditions (SPARC) gestartet. Dabei soll das Netzwerk der neuronalen Schaltkreise des Körpers funktionell und anatomisch kartiert werden und die Mechanismen ihrer Signalübertragung besser verstanden werden. Basierend auf dieser Kartierung sollen dann neuartige Instrumente und Protokolle zur Stimulierung entwickelt und erprobt werden. In einer Partnerschaft zwischen Wissenschaftern aus Hochschulforschung, Industrie und FDA sollen schlussendlich Humandatensätze erstellt und der Nutzen bestehender Geräte für neue Indikationen untersucht werden. (Details unter [3], https://commonfund.nih.gov/sparc/public).
Kann Vagus-Stimulierung auch mit Alltags-Methoden erfolgen?
Dass der Vagusnerv auch mit anderen Methoden als über elektrische Stimulierung aktiviert werden kann, geht schon aus der eingangs erwähnten, manuellen Kompression des Nervs in den 1880er Jahren hervor. Ganz allgemein kann eine Reihe von Übungen zur Aktivierung und Entspannung des Vagus führen, die für jedermann leicht zugänglich sind (dazu [4],[5]). Vor allem sind dies:
- Techniken des Ein-und Ausatmens
- Singen und Summen zur Vagusnerv-Massage
- Kältereize für den Vagusnerv
- Zunge herausstrecken zur Vagusnerv-Massage
- Lachen als Vagusnerv-Therapie
- Selbstmassage des Vagusnervs, Vagusnerv-Massage am Ohr
- Vagusnerv stimulieren durch Akkommodation (d.i. Anpassung des Auges an verschiedene Entfernungen)
- Gurgeln zur Stimulation des Vagusnervs
Dass es sich dabei nicht nur um Folklore handelt, zeigen einige klinische Studien - allerdings zumeist an einer nur kleinen Zahl von Probanden -, die bei den genannten Übungen zur Stimulierung des Vagusnervs führen. Hervorzuheben sind hier u.a.
- tiefes Atmen: In einer rezenten Studie (2022) an insgesamt 94 Personen (42 Gesunde, 52 an entzündlichen Autoimmunerkrankungen Leidende) konnte tiefes Atmen (30 min lang: 4 s Einatmen/4 s Luft anhalten/6 s Ausatmen) den Vagus vergleichbar stimulieren wie eine elektrische Stimulation über das Ohr.
- Musik hören/ausüben: Vielfach untersucht und wirksam (z.B. gegen epileptische Anfälle bei Kindern) haben sich Mozarts KV 448 und KV 545 erwiesen [6,7], daneben auch unterschiedliche Arten des Musik-Ausübens (z.B.: Singen, Summen).
- Massage Techniken: Eine kürzlich publizierte Studie zeigte hohes Ansprechen des Vagus auf viszeral-osteopathische (= Bauch-) Massage bei Gesunden und bei Epileptikern. Besonders interessant ist die manuelle Vagus-Stimulierung im Ohr: Es handelt sich dabei um sanftes, wenige Minuten dauerndes Massieren mit den Fingerspitzen in den Bereichen, wo sich der Vagusnerv befindet (an den in Abbildung 2 gezeigten Stellen Ohrmuschel und Tragus). ------------------------------------------------------------------------------------------------------------------
Alles in Allem: Der Vagusnerv spielt eine Schlüsselrolle in der Regulierung unserer Körperfunktionen und diese können mit seiner gezielten Stimulierung positiv beeinflusst werden. Das therapeutische Potential ist enorm und wird laufend durch vielversprechende neue Informationen ergänzt, an die man nicht einmal im Traum gedacht hätte und die die moderne Medizin revolutionieren können.
[1] The internet of the body: the vagus nerve explained - Online interview. Video 21:34 min (18.3.2022). https://www.youtube.com/watch?v=n066VkD608I
[2] Y-T Fang et al., (06.07.2023) Neuroimmunomodulation of vagus nerve stimulation and the therapeutic implications. Front. Aging Neurosci., Volume 15 - 2023 |https://doi.org/10.3389/fnagi.2023.1173987
[3] NIH Common Fund's SPARC Program Overview and Introduction to the Program's Second Phase. (10.2022) Video 3:18 min. https://www.youtube.com/watch?v=wqjap_MdQFw
[4] Schnelle Übung zur Vagusstimulation (unglaublich effektiv!). U. Walter: Tinnitus Experte. Video 9:00 min. https://www.youtube.com/watch?v=ZBfypj7FSag
[5] Vagus nerve stimulation points: ears and gentle acupressure. Dr. Arielle Schwartz, klinische Psychologin. Video 5,34 min. (1.9.2021). https://www.youtube.com/watch?v=dPM7eZiw7ZE
[6] Mozart: Sonata for Two Pianos in D, KV 448 - Lucas & Arthur Jussen (2019) 21:03 min. https://www.youtube.com/watch?v=VIItKRaP2vc
[7] Mozart: Sonata in C major, K. 545 (complete) | Cory Hall, pianist-composer (2010), 11:23 min. https://www.youtube.com/watch?v=XqwMT5tCu7E
Weitere Informationen
Susanne Donner, 1.12.2022: Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren. https://scienceblog.at/hirn-herz-connections
Vagus Nerve Stimulation Explained! (VNS/tVNS) | Neuroscience Methods 101 . Video (2023) 4.25 min. https://www.youtube.com/watch?v=PVw-kJkb5BY
Was bringt eine Vagusnerv-Stimulation? 26.5.2023 https://www.apotheken-umschau.de/krankheiten-symptome/neurologische-erkrankungen/was-bringt-eine-vagusnerv-stimulation-963947.html
NIH Common Fund Stimulating Peripheral Activity to Relieve Conditions (SPARC) Program Overview, 2019, Video 3:02 min. https://www.youtube.com/watch?v=2zL2E50oRr8
NIH Common Fund's Stimulating Peripheral Activity to Relieve Conditions (SPARC) Stage 2 Concept. Video 38:14 min. 18.02.2021. https://www.youtube.com/watch?v=5zMPVznYHdo
Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der Muttermilch
Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der MuttermilchFr, 28.06.2024 — Ricki Lewis
Muttermilch ist nicht nur vollständige und reichhaltige Nahrung für Säuglinge, sondern hat auch deutliche bioaktive Eigenschaften, welche die Gesundheit und Entwicklung der Kinder fördern. Eine Schlüsselrolle spielen dabei etwa 200 strukturell unterschiedliche Oligosaccharide (kurzkettige Zuckermoleküle), die u.a. den Aufbau der Darmflora bewirken. In künstlicher Säuglingsnahrung ("Formula") fehlen die meisten dieser Zucker, da deren Massenproduktion (derzeit auf mikrobieller Basis) sich als schwierig erweist. Nun beschreiben Forscher der Universität von Kalifornien in Berkeley und Davis, wie sie mit Hilfe von transgener Technologie die Zellen einer Tabakart so umrüsten, dass sie Enzyme produzieren, die zur Synthese der in der Muttermilch vorkommenden kurzen Zucker erforderlich sind. Die Genetikerin berichtet über die richtungsweisenden Ergebnisse, die in Nature Food [1] erschienen sind. *
Transgene Technologie
Seit den 1980er Jahren werden Pflanzen gentechnisch verändert und so programmiert, dass sie Moleküle produzieren, die für uns von Nutzen sind. Im Gegensatz zur kontrollierten Züchtung in der konventionellen Landwirtschaft werden bei der gentechnischen Veränderung bestimmte Gene eingefügt oder entfernt, um eine Pflanzenvariante mit einem bestimmten Nutzen für uns zu schaffen.
Pflanzen werden nicht nur gentechnisch verändert, um Obst und Gemüse zu züchten oder zu verbessern, sie leichter anzubauen oder vor Schädlingen und Krankheitserregern zu schützen, sondern auch, um die Enzyme herzustellen, die zur Katalyse der biochemischen Reaktionen benötigt werden, die der Synthese von Zutaten wie Maissirup, Maisstärke, Maisöl, Sojaöl, Rapsöl und sogar Zucker zugrunde liegen.
Es sind dies indirekte Veränderungen, denn die Gene kodieren für Proteine, nicht für Kohlenhydrate oder Öle. Stattdessen erhalten die Genome der im Labor gezüchteten Pflanzenzellen die DNA-Sequenzen - Gene -, die sie in die Lage versetzen, spezifische Enzyme herzustellen, die für die biochemischen Wege zur Produktion bestimmter für uns wertvoller Moleküle erforderlich sind. Um ausgewählte Gene in Pflanzenblätter einzuschleusen, haben die Forscher ein häufig verwendetes Bodenbakterium, Agrobacterium tumefaciens, eingesetzt,
Ein Organismus, der die DNA einer anderen Spezies in sich trägt, wird als transgen bezeichnet, wobei rekombinante DNA-Tools in einem mehrzelligen Organismus angewandt werden. Menschliches Interferon-α war das erste rekombinante, aus Pflanzen gewonnene pharmazeutische Protein, das 1989 in Rüben hergestellt wurde.
Transgene Pflanzen habe verschiedenartige Anwendungen. Hergestellt werden u.a:
- Menschliches Wachstumshormon aus Tabak
- Proteinantigene, die als Impfstoffe gegen HIV (aus Tabak) und Hepatitis B (aus Kopfsalat) verwendet werden
- Koloniestimulierender Faktor (aus Reis)
- Proteaseinhibitor gegen HIV-Infektionen (aus Mais)
- Enzyme wie Lysozym und Trypsin
- Interferon und Interleukine (aus Kartoffeln)
- Impfstoffe und Antikörper gegen COVID-19
Nachahmung der Milch
Die Forscher bezeichnen ihre umgerüsteten Zellen von Nicotiana benthamiana (auch bekannt als benth oder benthi), einer nahen Verwandten der Tabakpflanze aus Australien, als "photosynthetische Plattform für die Produktion verschiedenartiger menschlicher Milch-Oligosaccharide" [1]. Abbildung 1. Ziel ist es, die schwer zu synthetisierende einzigartige Zuckermischung nachzuahmen, die für kommerzielle Säuglingsnahrung benötigt wird, um ernährungsphysiologisch so nah wie möglich an die echte Muttermilch heran zu kommen. [1]
Abbildung 1 Nicotiana benthamiana, eine in Australien beheimatete , nahe Verwandte des Tabaks kann für „Molecular Farming“ , d.i zur Produktion von ansonsten nur schwer und kostspielig herstellbaren Substanzen herangezogen werden. Im konkreten Fall wurden die Zellen so umprogrammiert, dass sie die Enzyme produzieren, die zur Herstellung der Zucker in der menschlichen Muttermilch erforderlich sind. (Bild:Chandres in https://commons.wikimedia.org/wiki/File:Nicotiana_benthamiana.jpg. Lizenz: cc-by-sa) |
Weltweit trinken etwa 75 % der Babys in den ersten sechs Monaten Säuglingsnahrung, entweder als einzige Nahrungsquelle oder als Ergänzung zum Stillen. Aber Molekül für Molekül ist die Säuglingsanfangsnahrung nicht genau das Gleiche wie die echte Muttermilch. Die etwa 200 kurzen Zuckermoleküle in der menschlichen Muttermilch sind Vorläufer von Molekülen, die den Aufbau und die Erhaltung eines Darmmikrobioms unterstützen, das die Verdauung erleichtert und gleichzeitig Krankheiten vorbeugt. Aber dieselben Zucker, die eine Pflanzenzelle leicht produziert, sind für Lebensmittelchemiker und Mikrobiologen schwierig, manchmal sogar unmöglich, im Labor zu synthetisieren.
Auf in die transgene Technologie
Die Zusammensetzung der Milch mit Hilfe von gentechnischer Veränderung zu kontrollieren kann nicht nur zu verbesserter Säuglingsnahrung, sondern auch zu verbesserter Pflanzen-basierter Milch führen.
"Pflanzen sind phänomenale Organismen, die Sonnenlicht und Kohlendioxid aus unserer Atmosphäre aufnehmen und daraus Zucker herstellen. Und sie stellen nicht nur einen Zucker her, sondern eine ganze Vielfalt von einfachen und komplexen Zuckern. Da Pflanzen bereits über diesen grundlegenden Zuckerstoffwechsel verfügen, dachten wir uns, warum versuchen wir nicht, ihn umzuleiten, um in Muttermilch vorkommende Oligosaccharide herzustellen", so der Hauptautor der Studie, Patrick Shih.
Die komplexen Milchzucker - Oligosaccharide - sind aus einfachen Monosacchariden (Anm. Redn.: D-Glucose, D-Galaktose, L-Fucose, N-Acetylglucosamin und/oder N-Acetylneuraminsäure) hergestellt, die zu geraden und verzweigten Ketten verbunden sind. Abbildung 2a, b. Enzyme katalysieren die Reaktionen, welche die einfachen Zucker der Muttermilch miteinander verbinden - diese sind komplex genug, um die synthetischen Fähigkeiten von Chemikern herauszufordern - aber nicht die von Pflanzen. Abbildung 2c.
Die Zellen der transgenen Tabakpflanzen sind mit den Genen ausgestattet, die für die Enzyme kodieren, die zur Herstellung von 11 Oligosacchariden der menschlichen Milch und anderen komplexen Zuckern erforderlich sind. Abbildung 2.
Abbildung 2. Die umprogrammierten Pflanzen produzieren alle Klassen von Oligosacchariden. |
Das ist eine beachtliche Leistung. "Wir haben alle drei Hauptgruppen der Oligosaccharide der Muttermilch hergestellt. Meines Wissens hat noch nie jemand gezeigt, dass man alle drei Gruppen gleichzeitig in einem einzigen Organismus herstellen kann", so Shih.
Ein Milchzucker ist ganz besonders wertvoll: LNFP1 (Lacto-N-fucopentaose, Anm. Redn.). "LNFP1 ist ein in menschlicher Milch vorkommendes fünf Monosaccharide langes Oligosaccharid, das sehr nützlich sein soll, aber bisher mit herkömmlichen Methoden der mikrobiellen Fermentation nicht in großem Maßstab hergestellt werden kann. Wir dachten, wenn wir mit der Herstellung dieser größeren, komplexeren Oligosaccharide der menschlichen Milch beginnen könnten, könnten wir ein Problem lösen, das die Industrie derzeit nicht lösen kann", so der Hauptautor Collin R. Barnum, der an der UC Davis graduiert hat.
Es ist zwar möglich, einige wenige Zucker der menschlichen Milch in Bakterien herzustellen, aber es ist kostspielig, sie von toxischen Nebenprodukten zu isolieren. Daher lassen die meisten Hersteller von Säuglingsnahrung diese wertvollen Zucker in ihren Rezepturen weg.
Der transgene Ansatz zur Herstellung von menschlichem Milchzucker in Tabakpflanzen ist außerdem skalierbar - ein wichtiger Aspekt bei Produkten, die von Millionen Menschen konsumiert werden.. Laut Schätzung von Kooperationspartner Minliang Yang (North Carolina State University) kommt die Produktion von Milchzucker aus gentechnisch veränderten Pflanzen im industriellen Maßstab vermutlich billiger als die Verwendung herkömmlicher Verfahren.
Shih fasst zusammen: "Stellen Sie sich vor, Sie könnten alle Oligosaccharide der menschlichen Milch in einer einzigen Pflanze herstellen. Dann könnte man diese Pflanze einfach zerkleinern, alle Oligosaccharide gleichzeitig extrahieren und sie direkt der Säuglingsnahrung zufügen. Bei der Umsetzung und Kommerzialisierung wird es wohl eine Menge Herausforderungen geben, aber das ist das große Ziel, auf das wir zusteuern wollen."
Ich frage mich, was das für die Herstellung von Speiseeis bedeutet.
[1] Barnum, C.R., Paviani, B., Couture, G. et al. Engineered plants provide a photosynthetic platform for the production of diverse human milk oligosaccharides. Nat Food 5, 480–490. (2024). https://doi.org/10.1038/s43016-024-00996-x. (open access, Lizenz cc-by.)
* Der Artikel ist erstmals am 20. Juni 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Can Engineered Tobacco Plants that Make Human Sugars Improve Infant Formula and Plant-Based Milks?"https://dnascience.plos.org/2024/06/20/can-engineered-tobacco-plants-that-make-human-sugars-improve-infant-formula-and-plant-based-milks/erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildung 2 plus Text wurden von der Redaktion aus der zitierten Publikation [1] eingefügt.
Anmerkung der Redaktion: Wie hoch ist der Milchzuckeranteil in der Muttermilch?
Abbildung. Von den rund 200 identifizierten Oligosacchariden machen die 10 am häufigsten vorkommenden - darunter LNFP-1 rund 70 % der Gesamtkonzentration aus. (Quelle: Figure 4, modifiziert aus Buket Soyyılmaz et al., The Mean of Milk: A Review of Human Milk Oligosaccharide Concentrations throughout Lactation . Nutrients 2021, 13(8), 2737; https://doi.org/10.3390/nu13082737 . Lizenz cc-by.) |
Laut Netdoktor.de enthält reife Muttermilch mit 60 g/l mehr Kohlehydrate als Protein (13 g/l) und Fette (40 g/l) (https://www.netdoktor.de/baby-kleinkind/muttermilch/) . Lactose ist die bei weitem überwiegende Komponente der Kohlehydrate und Ausgangspunkt für die Biosynthese aller Oligosaccharide.
Basierend auf publizierten Messdaten in 57 Artikeln aus 37 Ländern, gibt ein 2021 erschienener Übersichtsartikel eine Abschätzung der Gesamtkonzentration der Oligosaccharide (11,3 g/ l ) und der am häufigsten vorkommenden Komponenten in reifer Muttermilch.
Video
Biotech-Tabak & der sauberste Blattsalat: Hinter den Kulissen der "Molekularen & Vertikalen Farmer" Video 9:43 min. https://www.youtube.com/watch?v=q3qrCZS9FHw&t=74s
Einstellung der EU-Bürger zur Umwelt - Special Eurobarometer 550 Report
Einstellung der EU-Bürger zur Umwelt - Special Eurobarometer 550 ReportSo, 23.06.2024 — Redaktion
Im Abstand von wenigen Jahren gibt die EU-Kommission repräsentative Umfragen in Auftrag, welche die Einstellung der EU-Bürger zur Umwelt ermitteln sollen. Die jüngste Umfrage wurde im Frühjahr 2024 durchgeführt; deren Ergebnisse sind nun im Report "Special Eurobarometer 550"am 29. Mai 2024 erschienen. Wie auch in den vergangenen Jahren ist dem überwiegenden Großteil der Bürger bewusst, dass Umweltprobleme direkte Auswirkungen auf das tägliche Leben und die Gesundheit haben, die einzelnen Länder differieren aber in ihren Ansichten über die die prioritären Maßnahmen zur Bewältigung der Umweltprobleme, über die problematischsten Schadstoffe und Abfallprodukte in ihren Regionen und deren Vermeidung und über die Rolle der EU und der einzelnen Staaten in der Umweltpolitik. In diesem Überblick werden den Ergebnissen über die EU-Bürger (im EU27- Mittel) die über die Österreicher (und auch die Deutschen) erhobenen Daten gegenüber gestellt.
Die jüngste Umfrage zur Einstellung der EU-Bürger gegenüber der Umwelt wurde im Zeitraum 6. März bis 8. April 2024 abgehalten, wobei insgesamt 26 346 Personen aus allen 27 EU-Mitgliedstaaten - rund 1000 Personen je Mitgliedsland - befragt wurden [1]. Wie üblich waren dies vorwiegend persönliche (face to face) Interviews mit Personen ab 15 Jahren aus unterschiedlichen sozialen und demographischen Gruppen, die in deren Heim und in ihrer Muttersprache stattfanden. Insgesamt 17 Fragen (QB1 - QB17; einige davon auch schon zum wiederholten Male) wurden zu folgenden Themen gestellt:
- Generelle Ansichten zu Umweltfragen und zu effektiven Wegen Umweltprobleme in den Griff zu bekommen.
- Einstellung zu Umweltpolitik und Gesetzgebung (Rolle der EU und der öffentlichen Hand).
- Grüne- und Kreislaufwirtschaft (Abfall, Abfallvermeidung, Nachhaltigkeit).
- Gefährliche Chemikalien (mit Fokus auf "Ewigkeitschemikalien" - PFAS).
- Gefahren, die in Zusammenhang mit dem Wasser in den jeweiligen Ländern stehen.
Generelle Einstellungen zu Umweltproblemen und zu ihrer Lösung
Abbildung 1. Der überwiegende Anteil der EU-Bürger fühlt sich durch die Auswirkungen von Umweltproblemen bedroht. (Quelle: QB1 in Report Special Eurobarometer 550 [1]). |
Wie auch schon in vorhergegangenen Umfragen zeigte sich eine überwältigende Mehrheit der EU-Bürger - im EU27 Schnitt 78 % - besorgt über die zunehmenden Umweltprobleme und deren Auswirkungen auf Leben und Gesundheit. Abbildung 1.
Auffällig dabei ist ein starkes Nord-Süd-Gefälle: die südeuropäischen Länder fühlen sich ungleich stärker bedroht als die nordeuropäischen Staaten. (Siehe dazu im Vergleich die Ergebnisse aus 2017 [2].)
Lösung von Umweltproblemen: In der Frage, wie man diese am effektivsten lösen kann, differieren die EU-Bürger in der Wahl der Vorgehensweisen. Zur Auswahl wurden 8 Alternativen gestellt, die nach der Reihung der EU27-Ergebnisse angeführt sind:
- Förderung der Kreislaufwirtschaft durch Reduzierung/Vermeidung von Abfall und Wiederverwendung oder Recycling von Produkten (Nummer 1 in 14 Mitgliedsstaaten - darunter Österreich und Deutschland (17 %)
- Wiederherstellung der Natur - Renaturierung (wurde in 6 Staaten als prioritär angesehen)
- Einhaltung des Umweltrechts (prioritär in 4 Staaten)
- Erhöhte Garantie, dass auf dem EU-Markt verkaufte Produkte nicht zur Schädigung der Umwelt beitragen (prioritär in 3 Staaten)
- Ivestitionen in Forschung und Entwicklung, um beste technische Lösungen zu finden (Nummer 1 in Schweden und Dänemark)
- Bereitstellung von mehr Informationen/Bildung zu Umweltfreundlichkeit (Nummer 1 in Luxemburg).
- Höhere Besteuerung umweltschädlicher Aktivitäten
- Abschaffung staatlicher Subventionen für Umwelt verschmutzende Aktivitäten.
Abbildung 2. Maßnahmen zur Bewältigung von Umweltproblemen. Zustimmung in Österreich und Deutschland im Vergleich zum EU27-Schnitt. Die ausführliche Bezeichnungen der Maßnahmen sind im Text oben nachzulesen. (Grafik erstellt aus den Daten von QB2a in Report Special Eurobarometer 550 [1]). |
Die Akzeptanz der Vorgehensweisen ist für Österreich und Deutschland im Vergleich zu den EU27 in Abbildung 2 dargestellt.
In beiden Ländern ist mit 20 % die Zustimmung zur Kreislaufwirtschaft höher als im EU27-Schnitt. Die Renaturierung liegt in Deutschland mit 19 % knapp dahinter, in Österreich mit 13 % erst an dritter Stelle. Interessanterweise halten 17 EU-Länder Renaturierung für eine wirksamere Maßnahme als Österreich. Noch weniger Zuspruch als in Österreich gibt es in Schweden (6 %), Finnland (6 %), Polen (8 %) und Italien (10 %) - Länder, die am 19, Juni gegen das EU-Renaturierungsgesetz gestimmt haben.
Einstellungen zur Umweltpolitik
EU-Umweltgesetze (QB3): Nahezu identisch mit den Umfrageergebnissen der letzten Jahre stimmt auch nun der überwiegende Teil der EU-Bürger zu, dass EU-Umweltgesetze für den Umweltschutz in ihrem Land notwendig sind: im EU27-Schnitt und ebenso in Deutschland sind 84 % dafür, 13 % dagegen, in Österreich ist die Zustimmung mit 76 % niedriger, die Ablehnung mit 21 % höher.
Auch die Frage, ob die EU Nicht-EU-Ländern helfen sollte deren Umweltstandards zu erhöhen, stößt auf breite Zustimmung: 80 % im EU27-Schnitt und praktisch gleich viel in Österreich und Deutschland. (Siehe dazu auch [3]).
Welche Rolle kommt nun der EU im Schutz der Natur zu - welche Maßnahmen werden als prioritär erachtet (QB13)? Die Zustimmung im EU27-Schnitt zu den 5 zur Auswahl stehenden Maßnahmen hat zu folgender Reihung geführt:
- Stärkung der Naturschutzbestimmungen und Sicherstellung, dass sie beachtet werden (24%)
- Sicherstellung des Naturschutzes bei der Planung von neuen Entwicklungen oder Infrastrukturen (22 %) ex aequo mit: Wiederherstellung der Natur - Kompensation von durch menschliche Aktivitäten verursachten Schäden (22 %)
- Bessere Information der Bürger über die Bedeutung der Natur (16%)
- Ausdehnung der Naturschutzgebiete (15 %)
Wer kommt für die Beseitigung von Umweltverschmutzung auf (QB4)? Wer trägt die Kosten? Wird die Frage in Zusammenhang mit der Industrie gestellt, so sind in fast allen EU-Ländern mehr als 90 % der Befragten der Meinung, dass diese für die Beseitigung der von ihr verursachten Verschmutzung aufkommen muss.
Wird die Frage generell gestellt, so gehen die Meinungen weit auseinander. Im EU27-Mittel befürworten 74 %, dass die öffentliche Hand dies tun sollte, dabei variiert die Zustimmung von 89 % (Kroatien, Malta) bis 44 % (Finnland); in Österreich sind es 71 %, in Deutschland 56 %.
Der Weg zu einer nachhaltigen Wirtschaft
Abbildung 3. QB8. Sind Sie bereit beim Kauf von Produkten wie Möbel, Textilien, Elektronik-Geräten mehr zu bezahlen, wenn diese leichter reparierbar, recycelbar und/oder umweltverträglicher hergestellt werden? (Grafik aus Infographic zu Report Special Eurobarometer 550 [1]). |
Generell besteht die Bereitschaft zu einem nachhaltigeren Verbraucherverhalten (QB8), wobei im EU27-Schnitt 59 % (in Deutschland 68 %, in Österreich 52 %) der Befragten bereit sind, mehr für nachhaltige Produkte zu zahlen, die leichter zu reparieren, recycelbar und/oder auf umweltverträgliche Weise hergestellt sind. Am höchsten ist die Zustimmung in den Skandinavischen Ländern (77 -86 %), am niedrigsten in osteuropäischen Ländern und insbesondere Portugal (41 %). Abbildung 3.
Im Rahmen einer stärker kreislauforientierten Wirtschaft unterstützen die EU-Bürger die Verringerung der Abfallmenge, indem sie ihre Abfälle für das Recycling richtig sortieren und wiederverwendbare Verpackungen verwenden (QB6). Darüber hinaus würde fast die Hälfte der Befragten zur Verringerung des Abfalls in erster Linie Produkte kaufen, die nicht mehr Verpackung als nötig haben, und über 40 % würden in erster Linie Produkte in recycelten Verpackungen kaufen.
Welche Abfälle werden als besonders problematisch gesehen? (QB7a) In allen EU-Ländern werden Kunststoff- und Chemieabfälle als die problematischsten Abfälle angesehen. In keinem EU-Land werden die anderen Arten von Müll an erster Stelle genannt. Am Wenigsten werden Textilabfälle als Problem gesehen. Abbildung 4.
Abbildung 4. Problematischster Abfall in Österreich und Deutschland im Vergleich zum EU27-Schnitt. (Grafik erstellt aus den Daten von QB7a in Report Special Eurobarometer 550 [1]). |
Bewusstsein für die Auswirkungen von schädlichen Chemikalien
Rund vier von fünf Befragten (EU-weit: 84 %, Österreich 79 %, Deutschland 82 %) machen sich Sorgen über die Auswirkungen schädlicher Chemikalien in Alltagsprodukten - beispielsweise in Pfannen, Spielsachen, Reinigungsmitteln - auf ihre Gesundheit; ein etwa gleicher Anteil (EU-weit: 84 %, Österreich 80 %, Deutschland 83 %)macht sich Sorgen über die Auswirkungen solcher Chemikalien auf die Umwelt (QB10). Seit der Umfrage von 2019 sind diese Sorgen fast unverändert hoch geblieben.
Sowohl in Hinblick auf die Auswirkungen auf die Gesundheit als auch auf die Umwelt ist die Mehrzahl der Befragten (EU-weit 52 %, Österreich 42 %, Deutschland 59 %) der Ansicht, dass der Schutz vor gefährlichen Chemikalien in der EU zu gering ist und verbessert werden sollte (QB9). EU-weit sagen 72 % der Europäer (76 % der Österreicher und 75 % der Deutschen), dass sie beim Kauf von Produkten auf deren chemische Sicherheit achten.
Besonderer Fokus auf Ewigkeitsmoleküle PFAS (per-und polyfluorierte Kohlenstoffverbindungen) QB11. QB12. Auf Grund ihrer Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser sind PFAS in industriellen Anwendungen nahezu unentbehrlich geworden- die Kehrseite ist eine enorm hohe Persistenz gegenüber natürlichen Abbaumechanismen und damit eine fortschreitende Akkumulation in Umwelt und auch in unseren Körpern und als Folge gravierende Auswirkungen auf Natur und Gesundheit. Trotz der stark zunehmenden Information über diese Chemikalien geben im EU27 Schnitt nur 29 % der Befragten (25 % der Österreicher, 29 % der Deutschen) an bereits von PFAS gehört zu haben - nur nordeuropäische Staaten sind offensichtlich gut informiert (Schweden, Dänemark, Niederlande > 80 %).
Nachdem ihnen die Bedeutung von PFAS erläutert worden war, äußerten die Befragten große Besorgnis über die Auswirkungen dieser Verbindungen auf die Gesundheit (EU27: 88 %, Österreich 92 %, Deutschland 88 %) und auf die Umwelt (EU27: 92 %. Österreich 92 %, Deutschland 93 %).
Vom Wassser ausgehende Probleme in den jeweiligen Ländern
Wie hoch ist das Bewusstsein der EU-Bürger für Bedrohungen, die in ihren Ländern vom Wasser ausgehen? (QB14). In dieser Frage fühlen sich EU-weit 51 % der Bürger (56 % Österreich, 48 % Deutschland) gut informiert was Probleme wie Verschmutzung, Überflutungen, Trockenheit und ineffiziente Wassernutzung in ihren Ländern betrifft. Ein fast gleich hoher Anteil (EU27: 48 %) fühlt sich dagegen schlecht informiert.
Abbildung 5. Größte vom Wasser ausgehende Bedrohungen im EU27-Schnitt und in Österreich und Deutschland Problematischster Abfall in Österreich und Deutschland im Vergleich zum EU27-Schnitt. (Grafik erstellt aus den Daten von QB15a in Report Special Eurobarometer 550 [1]). |
QB15a. Was sind die größten vom Wasser ausgehenden Bedrohungen im eigenen Land? Insgesamt gesehen nannten EU27-weit die Befragten in erster Linie die Verschmutzung, gefolgt von übermäßigem Verbrauch und Wasserverschwendung (Abbildung 5). In weiterer Folge zeigten sich aber Regionen -spezifische Unterschide - Trockenheit in Spanien, Portugal, Zypern; Hochwässer in Belgien, Dänemark; Algen in Finnland.
QB16. Die Frage, ob die nationalen Akteure in Industrie, Energieerzeugung, Tourismus, öffentlicher Verwaltung, Haushalten, Landwirtschaft und Fischereibetrieben derzeit genug tun, um Wasser effizient zu nutzen, verneinte die Mehrheit der Befragten - keiner der Akteure würde genügend tun.
QB17.Die Frage, ob die EU zusätzliche Maßnahmen vorschlagen sollte, um wasserbezogene Probleme in Europa zu lösen, bejahten imEU27-Schnitt mehr als drei Viertel (78 %) der Europäer, wobei die Zustimmungen zwischen 57 % (Estland) und 91 % (Malta) variierten. In Österreich gab es 62 % Ja-Stimmen in Deutschland 81 %.
---------------------------------------------------
Fazit
Fazit Gegenüber den vorhergegangenen Reports ist der aktuelle Report (nicht nur in Hinblick auf das Volumen) mager ausgefallen. Viele Fragen wurden - ident oder leicht verändert - schon wiederholt gestellt und haben zu ähnlichen Ergebnissen geführt.
In den Maßnahmen zur Lösung von Umweltproblemen steht nun neu die Wiederherstellung der Natur. Trotz ihrer breiten Publicity haben die EU-Bürger diese Maßnahme nicht als First Choice gereiht (diese blieb - wie schon in der letzten Umfrage die Kreislaufwirtschaft). In Österreich steht die Renaturierung an dritter Stelle, in Ländern wie Schweden, Finnland, Italien und Polen an letzter/vorletzter Stelle.
Neu hinzu gekommen zu den Umwelt/Gesundheit schädigenden Chemikalien sind die "Ewigkeitsmoleküle " PFAS. Hier ist noch massive Aufklärung notwendig: im EU27 Schnitt geben nur 29 % der Befragten bereits von PFAS gehört zu haben und sind dann - nach Aufklärung - über deren Auswirkungen schwer betroffen.
Mehr Information ist vor allem aber auch bei den Bedrohungen erforderlich, die in den einzelnen Ländern vom Wasser ausgehen - 48 % der EU-27 fühlen sich über die Situation im eigenen Land schlecht informiert. Ein weiterer wichtiger Kritikpunkt. Auf nationaler Ebene macht der Großteil der heimischen Akteure - von Industrie über Verwaltung bis hin zu den Haushalten - zu wenig um Wasser effizient zu nutzen.
[1] Special Eurobarometer 550: Attitudes of Europeans towards Environment SP550 Report_en-3.pdf. 29. Mai 2024. https://europa.eu/eurobarometer/surveys/detail/3173 . Plus Links zu Infographics:
- Attitudes of Europeans towards the Environment - Infographics
- Attitudes of Europeans towards the Environment - What EU citizens have to say about water - Infographics.
[2] Inge Schuster, 16.11.2017.: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage.
[3] Inge Schuster, 23.11.2027: EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)
PFAS im ScienceBlog:
Inge Schuster, 04.04.2024: Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen.
Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken Treibhausgases
Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken TreibhausgasesDo, 13.06.2024 — IIASA
Distickstoffmonoxid (N2O, Lachgas) ist ein langlebiges Treibhausgas, dessen Treibhauspotential rund 300 Mal höher als das von CO2 ist und das auch zum Abbau der Ozonschicht in der Stratosphäre führt. Seit der vorindustriellen Zeit reichert sich N2O in der Atmosphäre an und trägt zum gesamten effektiven Strahlungsantrieb der Treibhausgase rund 6,4 % bei. Eine neue Studie bringt eine umfassende Quantifizierung der globalen N2O-Quellen und -Senken in 21 Kategorien von natürlich-erzeugtem und anthropogenem N2O und 18 Regionen zwischen 1980 und 2020: In diesem Zeitraum sind die N2O-Emissionen weiterhin angestiegen, wobei die vom Menschen verursachten Emissionen um 40 % zugenommen haben.*
Eine neue Studie des Global Carbon Project [1] ist vorgestern unter dem Titel "Global Nitrous Oxide Budget (1980-2020)" in der Fachzeitschrift Earth System Science Data erschienen [2]. An ihr waren 58 Forscher aus 55 Organisationen in 15 Ländern beteiligt, darunter auch Forscher aus dem Energy, Climate, and Environment Program des IIASA (Laxenburg bei Wien). Die Studie zeigt auf, dass die Emissionen von Distickstoffmonoxid (N2O) zwischen 1980 und 2020 unvermindert angestiegen sind. Abbildung 1.
N2O ist ein Treibhausgas, das stärker wirkt als Kohlendioxid (rund 300 Mal stärker) oder als Methan (rund 12 Mal stärker). Es ist Feuer am Dach, so die Autoren, wenn in einer Zeit, in der zur Begrenzung der globalen Erwärmung die Treibhausgasemissionen zurückgehen müssen, in den Jahren 2021 und 2022 N2O schneller in die Atmosphäre gespült wird als zu jedem anderen Zeitpunkt in der Vergangenheit (Abbildung 1, Insert).
Abbildung 1. Globale mittlere N2O-Konzentration in der Atmosphäre in ppb [nmol pro mol]; Zeitraum 1980 - 2022. Insert: die jährliche Anstiegsrate in ppb/Jahr von 1995 bis 2022. Die Daten stammen von den Beobachtungs-Netzwerken "Advanced Global Atmospheric Gases Experiment" (AGAGE), "National Ocean and Atmospheric Administration" (NOAA) und "Commonwealth Scientific and Industrial Research Organization" (CSIRO). (Bild und Legende von Redn. eingefügt aus: Figure 2, Tian et al., 2024 [2]; Lizenz cc-by.) |
"Die durch menschliche Aktivitäten verursachten N2O-Emissionen müssen sinken, um - wie im Pariser Abkommen festgelegt - den globalen Temperaturanstieg auf 2°C zu begrenzen,", erklärt der Erstautor der Studie, Hanqin Tian, Professor für Globale Nachhaltigkeit am Schiller Institute des Boston College. "Da derzeit keine Technologien vorhanden sind, um N2O aus der Atmosphäre zu entfernen, besteht die einzige Lösung darin die N2O-Emissionen zu senken."
Aus der Studie geht hervor, dass im Jahr 2022 die N2O-Konzentration in der Atmosphäre 336 ppb (Teilchen pro Milliarde Teilchen - nmol N2O/mol) erreicht hat, was einem Anstieg von 25 % gegenüber dem vorindustriellen Niveau entspricht und weit über den Prognosen liegt, die das Intergovernmental Panel on Climate Change (IPCC) erstellt hat. Dieser Emissionsanstieg findet zu einer Zeit statt, in der die globalen Treibhausgase rasch in Richtung Null sinken sollten, wenn wir irgendeine Chance haben möchten, die schlimmsten Auswirkungen des Klimawandels zu vermeiden. Den Autoren zufolge bringt der ungebremste Anstieg eines Treibhausgases, dessen Erderwärmungspotenzial etwa 300 Mal größer ist als das von Kohlendioxid, gravierende strategische Auswirkungen mit sich.
Eine umfassende Abschätzung des globalen N2O
Auf der Basis millionenfacher N2O-Messungen, die in den letzten vier Jahrzehnten an Land, in der Atmosphäre, in Süßwassersystemen und im Ozean durchgeführt wurden, haben die Forscher die bisher umfassendste Abschätzung des globalen N2O erstellt. Sie haben auch die weltweit gesammelten Daten in Hinblick auf alle wichtigen wirtschaftlichen Aktivitäten untersucht, die zu N2O-Emissionen führen und berichten über 18 anthropogene (vom Menschen erzeugte) und natürliche Quellen sowie drei absorbierende "Senken" für N2O weltweit. Abbildung 2. Die landwirtschaftliche Produktion war in den 2010er Jahren für 74 % der vom Menschen verursachten Lachgasemissionen verantwortlich, was vor allem auf den Einsatz von kommerziellen Düngemitteln und tierischem Dünger auf Ackerflächen zurückzuführen ist.
Abbildung 2. Globales N2O-Budget im Zeitraum 2010-2019. Die farbigen Pfeile stellen die N2O-Flüsse in Teragramm Stickstoff pro Jahr (Tg N yr-1) dar: rot - direkte Emissionen aus Stickstoffeinträgen im Agrarsektor (Landwirtschaft); orange - Emissionen aus anderen direkten anthropogenen Quellen; kastanienbraun - indirekte Emissionen aus anthropogenen Stickstoffeinträgen; braun - gestörte Flüsse aufgrund von Veränderungen des Klimas, des CO2 oder der Bodenbedeckung, grün - Emissionen aus natürlichen Quellen. Die anthropogenen und natürlichen N2O-Quellen sind aus Bottom-up-Schätzungen abgeleitet. Die blauen Pfeile stellen die Oberflächensenke und die beobachtete atmosphärische chemische Senke dar, von der etwa 1 % in der Troposphäre stattfindet.(Bild und Legende von Redn. eingefügt aus: Figure 1, Tian et al., 2024 [2]; Lizenz cc-by.) |
Reduzierung der N2O-Emissionen
"Während es in verschiedenen Regionen einige erfolgreiche Initiativen zur Stickstoffreduzierung gab, haben wir festgestellt, dass sich in diesem Jahrzehnt die Lachgasakkumulation in der Atmosphäre beschleunigt hat", so Josep Canadell, Executive Director des Global Carbon Project und Wissenschaftler bei der australischen CSIRO Marine and Atmospheric Research. Abbildung 3.
Zu den erfolgreichen Initiativen zur Stickstoffreduzierung gehören die Verlangsamung der Emissionen in China seit Mitte der 2010er Jahre sowie in Europa in den letzten Jahrzehnten - es bleibt jedoch noch viel zu tun, um sicherzustellen, dass die Emissionen dieses starken Treibhausgases deutlich reduziert werden. Häufigere Abschätzungen und eine verbesserte Bestandsaufnahme der Quellen und Senken werden entscheidend sein, um die Minderungsbemühungen gezielt einzusetzen und die Ziele des Pariser Abkommens zu erreichen.
Abbildung 3. Veränderungen der regionalen anthropogenen N2O-Emissionen im Zeitraum 1980-2020. Das Balkendiagramm in der Mitte zeigt die gesamten Änderungen der regionalen und globalen N2O-Emissionen während des Untersuchungszeitraums (*: Signifikanz P <0,05). Änderungsrate in Tg Stickstoff/Jahr. Die 18 Regionen: USA (US), Canada (CAN), Central Amerika (CAM), Brasilien (BRA),Nördl. Südamerika (NSA), SW-Südamerika (SSA), Europa (EU), Norfrika (NAF), Äquator.Afrika (EQAF), Südafrika (SAF), Rusland (RUS), Zentralasien (CAS), Mittlerer Osten (MEDE), China CHN), Korea, Japan (KAJ), Südasien (SAS), Südostsasien (SEAS), Australasia (AUS). (Bild und Legende von Redn. eingefügt aus: Figure 14, Tian et al., 2024 [2]; Lizenz cc-by.) |
"Die sich beschleunigenden Lachgasemissionen unterstreichen die Dringlichkeit innovativer landwirtschaftlicher Praktiken sowie die Notwendigkeit, Emissionen aus anderen Quellen wie Industrie, Verbrennung oder Abfallbehandlung zu bekämpfen", erklärt Wilfried Winiwarter, Mitautor der Studie und leitender Forscher in der IIASA-Forschungsgruppe für Umweltmanagement. "Die Umsetzung von Maßnahmen durch wirksame Politik ist entscheidend, um unsere Klimaziele zu erreichen und unseren Planeten zu schützen."
[1] The Global Carbon Project. The Global Carbon Project (GCP) integrates knowledge of greenhouse gases for human activities and the Earth system. Our projects include global budgets for three dominant greenhouse gases — carbon dioxide, methane, and nitrous oxide — and complementary efforts in urban, regional, cumulative, and negative emissions. https://www.globalcarbonproject.org/
[2] Tian, H., Pan, N., et al.,(2024). Global Nitrous Oxide Budget (1980–2020). Earth System Science Data. 10.5194/essd-16-2543-2024
*Der Artikel "The Global Nitrous Oxide Budget 2024" ist am 12. Juni 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/jun-2024/global-nitrous-oxide-budget-2024). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 3 Abbildungen plus Legenden aus der, dem Artikel zugrundeliegenden Veröffentlichung [2] und mit Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der Erdatmosphäre
Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der ErdatmosphäreSa, 08.06.2024 — Redaktion
Extremwetter-Ereignisse haben in den letzten Jahrzehnten in erschreckendem Maße zugenommen. Für geeignete Anpassungs- und Abschwächungsstrategien sind verlässliche Wettervorhersagen dringend erforderlich. Neben den herkömmlichen Supercomputer-basierten Systemen, die riesige Datensätze mit komplexen mathematischen Modellen verarbeiten, gibt es seit Kurzem mehrere Prognosemodelle, die künstliche Intelligenz nutzen, um schnelle und genaue Vorhersagen zu liefern. Das von Microsoft entwickelte "Aurora"-System zeichnet sich durch besondere Schnelligkeit und Effizienz aus; es ist ein Grundmodell, das hochauflösende globale Wetter- und Luftqualitätsvorhersagen bis zu 10 Tage im Voraus für jeden Ort der Welt liefert und auch auf eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann.
Waren Wetterprognosen in den 1950 - 1960er Jahren oft Anlass zu Ärger und flachen Witzen, so sind sie inzwischen bedeutend treffsicherer geworden; eine 7-Tage-Vorhersage ist nun ungefähr ebenso zuverlässig wie eine 1-Tages-Vorhersage in den 1960er Jahren.
Numerische Modelle
Die Vorhersagen basieren heute auf numerischen Modellen, deren Berechnungen auf Grund der riesigen eingesetzten Datenmengen besonders schnelle, enorm leistungsstarke Super-Computer erfordern. Ausgehend von Millionen Messwerten von Tausenden Wetterstationen und immer umfangreicheren und genaueren Satellitendaten wird der aktuelle dynamische Zustand der Atmosphäre ermittelt und dessen Veränderung mit Hilfe von physikalischen Gleichungen (nichtlinearen Differentialgleichungen) für verschiedene Szenarios berechnet. Die Voraussagen für das zukünftige Wetter betreffen Luftdichte und Temperatur und daraus abgeleitet Luftdruck, Windkomponenten, Wasserdampf, Wolkenwasser, Wolkeneis, Regen und Schnee in der Atmosphäre vom Boden bis in 75 km Höhe.
Abbildung 1. Die Häufigkeit von Extremwetter-Ereignissen, die Kosten der dadurch verursachten Schäden (oben) und die Zahl der Toten (unten).(Quelle: World Meteorological Organization, Lizenz: cc-by-nc-nd) |
Global führend in der Vorhersagequalität ist das seit fast 50 Jahren bestehende "European Centre for Medium-Range Weather Forecasts" (ECMRF), das über eine der weltweit größten Computeranlagen und über riesige Archive von meteorologischen Daten verfügt. Mit einer geografischen Auflösung von 9 km werden täglich Wettervorhersagen für mehr als 900 Millionen Orte auf der ganzen Welt und bis zu 15 Tagen in die Zukunft erstellt. Für diese, mit erheblichen Rechenkosten verbundenen Vorhersagen wird rund 1 Stunde benötigt. Der Output des ECMRF gilt als Goldstandard für die globale Wettervorhersage, seine Daten dienen als Grundlage für viele andere Wettermodelle (darunter auch die unten beschriebenen KI-Modelle).
Vorhersagbarkeit
Manche Wetterlagen sind in dem dynamischen, hochkomplexen System der Erdatmosphäre nur schwer vorhersagbar. Dies schafft vor allem bei Extremwetter-Ereignissen (sogenannten "1 in 100 Jahren" Ereignissen) Probleme, da diese ja noch schwieriger zu modellieren sind und - da sie seltener auftreten als häufige Ereignisse und damit weniger Datenmaterial zur Verfügung steht - die statistische Vorhersage mit größeren Unsicherheiten verbunden ist.
Als Folge von steigenden Temperaturen und anderen Auswirkungen des Klimawandels hat in den letzten Jahrzehnten allerdings die Zahl der Extremwetter-Ereignisse - Hitzewellen, Flutkatastrophen, Tropenstürme - in erschreckendem Maße zugenommen und damit ist die Notwendigkeit von effizienten Frühwarnsystemen gestiegen. Die Häufigkeit dieser Extrema ist von 800 in der 1970er Dekade auf das rund Vierfache gestiegen, die durch diese verursachten Schäden haben Kosten von 187 Mrd $ auf das Siebenfache (1,3 Billionen $) steigen lassen. Abbildung 1.
Die Zahl der Todesopfer ist jedoch stark zurückgegangen - laut Weltorganisation für Meteorologie ist das auf verbessertes Katastrophenmanagement und Frühwarnsysteme zurückzuführen.
Die Präzision der Wettervorhersagen und damit der Einsatz von Frühwarnsystemen stoßen auf Grenzen. Dies war offensichtlich der Fall als der Orkan Emir (Ciarán) im Herbst 2023 mit unerwarteter Intensität über Europa hereinbrach und eine Spur der Verwüstung hinterließ. Abbildung 2. Verbesserte Wettervorhersagen hätten hier Leben retten, enorme Sachschäden reduzieren und katastrophale ökonomische Verluste verhindern können.
Abbildung 2. Der Orkan Emir (Ciarán) über Westeuropa am 2. November 2023.(Bild: vom Aqua-Satelliten der Nasa mit dem MODIS Spectroradiometer aufgenommen. https://worldview.earthdata.nasa.gov/. Lizenz: cc 0) |
Präzisere Wettervorhersagen werden mit den häufiger auftretenden Wetterextremen immer dringlicher: "Mehr denn je ist die Gesellschaft auf genaue Wetter- und Klimainformationen angewiesen. Eine verlässliche Vorwarnung vor Wetterereignissen ist der Schlüssel zum Schutz von Leben und Eigentum, viele Wirtschaftszweige sind von den Wetterbedingungen abhängig, und die Klimaüberwachung ist für die Gesellschaft von entscheidender Bedeutung, um geeignete Anpassungs- und Abschwächungsstrategien zu finden." (ECMWF Strategy 2021 -2030. [1])
Künstliche Intelligenz im Einsatz
Nach den Erfolgen der KI in diversen Disziplinen wie u.a. der Sprachverarbeitung, Computer Vision, Arzneimittelforschung und Vorhersage von Proteinstrukturen gibt es seit Kurzem auch mehrere KI-Wettermodelle, deren Genauigkeit den besten mittelfristigen Prognosemodellen entspricht, die aber Tausende Male schneller arbeiten, ungleich weniger Computerleistung erfordern und diese Wissenschaft grundlegend verändern können.
Die ersten Prognosemodelle wurden 2023 vorgestellt:
- "Pangu-Weather" - eine Entwicklung des chinesischen Technologiekonzerns Huawei [2]; trainiert mit globalen Wetterdaten aus 39 Jahren, kann das Modell u.a. Temperatur, Luftdruck, und Windstärke für die nächste Woche 10 000 x schneller als vorhersagen. Laut Huawei sagt der Deep-Learning-Algorithmus "extreme Regenfälle genau voraus und liefert Vorwarnungen, mit denen er bestehende Systeme in Tests in 70 % der Fälle übertrifft. Die Kombination dieser KI-Modelle mit herkömmlichen Methoden kann die Fähigkeit der Behörden, sich auf extreme Wetterbedingungen vorzubereiten, erheblich verbessern.“
- „NowcastNet“ entwickelt von einem chinesisch- US-amerikanischen Forscherteam [3]; das Tool wurde mit Radardaten aus den USA und China trainiert und dann mit numerischen Modellen kombiniert. Besonders treffsicher waren die Prognosen für Starkregenereignisse.
- "FourCastNet" (Fourier Forecasting Neural Network) von NVIDIA in Zusammenarbeit mit Forschern von mehreren US-Universitäten [4]. Es wurde auf 10 TB Erdsystemdaten trainiert und liefert kurz- bis mittelfristige globale Vorhersagen (20 Tage) mit einer geographischen Auflösung von ca. 25 km. Für 7-Tage-Vorhersagen braucht es weniger als 2 Sekunden.
- "GraphCast" ist ein von Google DeepMind entwickeltes Open-Source Projekt, das verbesserte Wetterprognosen leichter zugänglich machen soll [5]. Es bietet Wettervorhersagen mit mittlerer Reichweite (20 Tage) und einer geographischen Auflösung von ca. 25 km. GraphCast erstellt eine 10-Tage-Vorhersage in weniger als einer Minute und benötigt dazu nur einen einzigen Google TPU v4 Rechner.
2024 folgte mit "Aurora" von Microsoft [6] ein weiterer Meilenstein in der Wetter/Klimawissenschaft.
Aurora, das erste große Grundmodell der Erdatmosphäre
Ein Team von Computerwissenschaftlern bei Microsoft Research AI for Science hat in Zusammenarbeit mit Forschungspartnern das System Aurora entwickelt, das schneller als herkömmliche Systeme zur Vorhersage des globalen Wetters und der Luftverschmutzung eingesetzt werden kann. Aurora verwendet 1,3 Milliarden Parameter und wurde auf mehr als einer Million Stunden an Daten-Output von sechs Klima- und Wettermodellen trainiert.
Mit Aurora wurde damit ein Grundmodell geschaffen, d.i. es wurde auf einer riesigen Menge von Daten derart trainiert, dass es auf eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann, wie auf eine Vielzahl von atmosphärischen Vorhersageproblemen, einschließlich solcher mit begrenzten Trainingsdaten, heterogenen Variablen und extremen Ereignissen. Aurora kann Vorhersagen für 10 Tage für jeden beliebigen Teil der Welt treffen. Es kann auch zur Vorhersage des Ausmaßes und der Schwere einzelner Wetterereignisse, wie z. B. von Wirbelstürmen, verwendet werden. Einzigartig ist die Fähigkeit von Aurora, die Luftverschmutzungswerte wesentlicher Schadstoffe - d.i. von Kohlenmonoxid, Stickoxid, Stickstoffdioxid, Schwefeldioxid, Ozon und Feinstaub - für jedes beliebige Stadtgebiet auf der ganzen Welt vorherzusagen - und zwar so schnell, dass es als Frühwarnsystem für Orte dienen kann, an denen gefährliche Schadstoffwerte auftreten werden.
Aurora kann als Blaupause für Grundmodelle von anderen Teilsystemen der Erde dienen und als Meilenstein auf dem Weg ein einziges umfassendes Grundmodell zu entwickeln, das in der Lage ist, ein breites Spektrum von Umweltvorhersageaufgaben zu bewältigen.
[1] ECMWF Strategy 2021 -2030. https://www.ecmwf.int/sites/default/files/elibrary/2021/ecmwf-strategy-2021-2030-en.pdf
[2] K.Bi et al., Accurate medium-range global weather forecasting with 3D neural networks. Nature 619, 533–538 (2023). https://doi.org/10.1038/s41586-023-06185-3
[3] Y.Zhang et al., Skilful nowcasting of extreme precipitation with NowcastNet. Nature 619, 526–532 (2023). https://doi.org/10.1038/s41586-023-06184-4
[4] Thorsten Kurt et al., FourCastNet: Accelerating Global High-Resolution Weather Forecasting Using Adaptive Fourier Neural Operators. PASC '23: Proceedings of the Platform for Advanced Scientific Computing Conference. June 2023 Article No.: 13Pages 1–11 https://doi.org/10.1145/3592979.3593412
[5] R.Lam et al., Learning skillful medium-range global weather forecasting. Scienc 382,6677, 1416-1421. DOI: 10.1126/science.adi2336
[6] Superfast Microsoft AI is the first to predict air pollution for the whole world. https://www.nature.com/articles/d41586-024-01677-2
Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugen
Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugenDo, 30.05.2024 — Andreas Merian
Bilder, die nicht der Wirklichkeit entsprechen, sind allgegenwärtig, zum Beispiel in Kinofilmen, auf Werbeplakaten oder im Internet. Zunehmend bearbeiten oder erzeugen künstliche Intelligenzen Bilder – mit Chancen und Risiken. Der Arbeitsgruppe von Christian Theobalt am Max-Planck-Institut für Informatik gelingt es so beispielsweise, den Gesichtsausdruck einer Person in einem Quellvideo auf eine Person in einem Zielvideo zu übertragen. Der Nutzen solcher Techniken für die Filmindustrie oder für virtuelle Treffen liegt auf der Hand. Die Risiken aber auch: gefälschte Medieninhalte (Deepfakes) können für einzelne Personen oder für die ganze Gesellschaft gefährlich werden.*
Der Avatar folgt den Bewegungen Theobalts exakt, und das in Echtzeit. Während der Wissenschaftler seinen Vortrag hält, spricht, gestikuliert und bewegt sich auch sein virtueller Doppelgänger. Neben dem realistischen Abbild des Wissenschaftlers zeigt der Bildschirm parallel auch zwei einfache Modelle (Abbildung 1). Diese sind üblicherweise nicht zu sehen, verdeutlichen aber, auf welcher Grundlage die Bewegungen des aus vier Blickwinkeln durch Kameras aufgezeichneten Wissenschaftlers auf den Avatar übertragen werden. Christian Theobalt spricht von holoportierten Charakteren, die in virtuellen Räumen zum Einsatz kommen können. Er sagt: „So könnte in Zukunft beispielsweise eine virtuelle Telepräsenz möglich sein, die es erlaubt, über große Distanzen mit Personen realistisch zu kommunizieren, ohne reisen zu müssen.“
Abbildung 1. Ein Avatar entsteht. Das von Theobalts Team erstellte und trainierte KI-Programm kann anhand von Kamerabildern, die aus vier Blickwinkeln aufgenommen werden (links), ein virtuelles 3D-Abbild einer Person erschaffen (rechts). Dieses lässt sich dann aus jedem beliebigen Blickwinkel betrachten bzw. darstellen und in virtuellen Treffen oder Computerspielen einsetzen. Damit der Avatar realistisch und detailgetreu ist, extrahiert das Programm zunächst die 3D-Skelettpose aus den Kamerabildern. Anschließend wird eine dynamische Textur bzw. Oberfläche erstellt und schließlich der hochaufgelöste Avatar erzeugt. © MPI für Informatik, Universität Saarbrücken, Via Research Center; arXiv:2312.07423 |
Anhand des holoportierten Wissenschaftlers erklärt Christian Theobalt viele Facetten seiner Arbeit. Sein Ziel ist es, neue Wege zu entwickeln, die bewegte, reale Welt technisch zu erfassen und so detailgetreue virtuelle Modelle zu erstellen. Diese Modelle sollen es Computern und zukünftigen intelligenten Maschinen ermöglichen, die reale Welt zu verstehen, sicher mit ihr zu interagieren oder sie auch zu simulieren.
Bislang ist es sehr aufwendig, Bewegungen technisch aufzuzeichnen und in allen Einzelheiten mittels Computergrafik wiederzugeben. Für die technische Erfassung von Bewegungen, Motion Capture genannt, werden meist viele Kameras und Marker kombiniert oder eine Tiefenkamera verwendet. Bei der digitalen Erzeugung von Bildern wird außerdem viel Aufwand betrieben, damit Bewegungen natürlich erscheinen oder Details wie Lichtreflexionen, Falten in der Kleidung oder die Mimik von Menschen möglichst realistisch wiedergegeben werden. Für Filme erstellen und bearbeiten Spezialisten die computergenerierten Bilder, kurz CGI (engl. Computer Generated Imagery) in aufwendiger Handarbeit.
Christian Theobalt will das alles wesentlich vereinfachen: „Ziel ist es, dass eine einzige Kamera ausreicht, um Bewegungen exakt zu erfassen.“ Und auch Bilder zu erzeugen oder zu verändern soll wesentlich einfacher werden. Dazu forscht Theobalts Abteilung „Visual Computing and Artificial Intelligence“ an der Schnittstelle von Computergrafik, Computer Vision und künstlicher Intelligenz. Der erwünschte Fortschritt soll durch die Kombination künstlicher Intelligenz und etablierter Ansätze der Computergrafik, wie beispielsweise der Nutzung geometrischer Modelle, erreicht werden.
Maschinen werden intelligent
Der Begriff künstliche Intelligenz beschreibt Algorithmen, die dazu dienen, Maschinen intelligent zu machen. In vielen Fällen ahmen diese Algorithmen die kognitiven Fähigkeiten von Menschen nach. Ziel der Forschung und Entwicklung im Bereich der künstlichen Intelligenz ist es, Maschinen zu schaffen, die in bestimmten Bereichen der Intelligenz an den Menschen heranreichen oder diesen sogar übertreffen. Eine gebräuchliche Abkürzung für künstliche Intelligenz ist KI. Im englischsprachigen Raum wird von „artificial intelligence“ gesprochen und manchmal wird die daraus folgende Abkürzung AI auch im Deutschen verwendet.
Die menschliche Intelligenz zeichnet sich dadurch aus, dass das Gehirn unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verbindet. Dadurch können wir Geschehnisse in unserer Umwelt einordnen und vorausschauend denken und handeln.
Bekannte Bereiche der künstlichen Intelligenz sind die Robotik, also die Steuerung komplexer Bewegungen, und Computerprogramme, die komplexe Spiele wie Schach oder Go meistern und dafür Informationen verarbeiten und vorausschauend agieren müssen.
Eine weitere Komponente der Intelligenz ist das Sprachverständnis. Das Ziel des Forschungsbereichs der Computerlinguistik ist es, Maschinen zu entwickeln, die Sprache möglichst umfassend verstehen. Zuletzt machten auf diesem Feld sogenannte Chatbots wie ChatGPT oder Bard Schlagzeilen, aber auch Übersetzungsprogramme wie DeepL gehören zu den vielfältigen Anwendungen von KI im Bereich Sprache.
Der Aspekt an künstlicher Intelligenz, der Christian Theobalt am meisten interessiert, ist das Visual Computing. Darunter fallen alle digitalen Methoden, die Bilder verarbeiten, analysieren, modifizieren und erzeugen. Seine Arbeit geht also über die Computer Vision hinaus, die aus visuellen Daten wie Bildern und Videos Informationen gewinnt und beispielsweise in selbstfahrenden Fahrzeugen zum Einsatz kommt.
In seiner Forschung setzt Theobalt auf maschinelles Lernen. Diese Art des Lernens produziert künstliche Intelligenz, die nicht auf vorab formulierten Regeln basiert, sondern aus Beispielen lernt, wie eine Entscheidung zu treffen ist. Stehen der selbstlernenden Maschine hunderte oder besser tausende Beispiele zum Training zur Verfügung, entwickelt sie selbstständig einen Entscheidungsprozess, der verallgemeinert werden kann. Somit ist dieser anschließend auch auf unbekannte Datensätze anwendbar. Dazu nutzt Theobalts Forschungsteam das Deep-Learning-Verfahren. Dieses imitiert das menschliche Lernverhalten und basiert auf einem neuronalen Netz. Das Netz besteht aus künstlichen Neuronen, die in mehreren Schichten den Entscheidungsprozess gestalten (Abbildung 2). Jedes Neuron verarbeitet die eingehenden Daten, indem es die einzelnen Eingabegrößen gewichtet und gemäß bestimmter Regeln an die Neuronen der nächsten Schicht weitergibt. Nachdem moderne neuronale Netze oftmals aus vielen Schichten bestehen und damit tief sind, spricht man von Deep Learning.
Abbildung 2. Neuronales Netz. Ein einfaches Modell eines neuronalen Netztes, das für Deep Learning genutzt wird, besteht aus mehreren Schichten künstlicher Neuronen (Kugeln). Die Eingabeschicht (blaue Kugeln) nimmt die eingehenden Daten auf. Diese werden anschließend von den Neuronen in den verborgenen Schichten (hier nur eine Schicht, gelbe Kugeln) verarbeitet. Dazu werden die Daten von einem künstlichen Neuron gewichtet (Gewicht wxx) und an weitere Neuronen in der nächsten Schicht weitergegeben. Das Ergebnis des Programms in der Ausgabeschicht hängt somit von vielen verschiedenen Neuronen und Gewichten ab (rote Linien). © Grafik: HNBM, CC BY-NC-SA 4.0 |
Selbstlernende Programme
Der rasante Fortschritt der letzten Jahre auf dem Gebiet der KI basiert auf solchen selbstlernenden Programmen. Ausgelöst wurde diese Entwicklung durch Forschungserfolge im Deep Learning ab 2009 sowie immer größere verfügbare Rechenleistung und Datenmengen (Big Data), die es möglich machen, eine KI umfassend zu trainieren. So konnten Programmierende die Fähigkeiten von KI-Programmen rasch verbessern und erweitern. Beispielsweise erzielte 2015 das Deep-Learning-basierte Programm AlphaGo die ersten Erfolge einer KI gegen Weltklassespieler beim Brettspiel Go. Im weniger komplexen Schach schaffte es dagegen schon 1997 der Schachcomputer Deep Blue, den amtierenden Weltmeister zu schlagen. Deep Blue war eine regelbasierte, sogenannte symbolische KI. Diese Art der KI ist nicht selbstlernend, sondern kommt zu Entscheidungen, indem sie anhand klarer, vorab im Programmcode festgelegter Regeln Symbole wie z. B. Wörter oder Ziffern kombiniert. Die rein regelbasierte KI ist allerdings stark limitiert. Denn abgesehen von Spielen wie Schach, in denen die Umgebung eindeutig definiert ist, versagt sie, da es kaum möglich ist, alle möglichen Fälle vorab durch Regeln abzudecken.
Der Vorteil symbolischer KI ist, dass sie durch die Regeln und Symbole in der menschlichen Realität verankert ist und ihre Entscheidungen somit nachvollziehbar und interpretierbar sind. Im Gegensatz dazu sind die Entscheidungen selbstlernender Programme nicht per se nachvollziehbar. Christian Theobalt kombiniert in seiner Forschung regelbasierte und selbstlernende KI im sogenannten neuro-expliziten Verfahren. Wenn die KI etwa lernen soll, menschliche Bewegungen aus Kamerabildern zu rekonstruieren, nutzt sein Team ein vereinfachtes Skelett mit erlaubten Bewegungsrichtungen und -winkeln, um die Entscheidungen des Programms in realistische Bahnen zu lenken.
Effizientes Training
Damit die KI später gute Entscheidungen trifft, sind die Trainingsdaten entscheidend. Dabei ist es sowohl wichtig, dass eine große Datenmenge verfügbar ist, als auch, dass diese Daten von hoher Qualität sind. Damit der Avatar von Theobalt erzeugt werden kann, posierte der Wissenschaftler vorab in einem speziellen Labor vor mehr als einhundert hochauflösenden Kameras. Für das Trainingsdatenset der neuro-expliziten KI wird einerseits ein statischer 3D-Scan von Theobalt mit dem vereinfachten Skelett versehen und andererseits Videomaterial aufgezeichnet, das die unterschiedlichsten Bewegungen und Körperhaltungen aus allen Blickwinkeln umfasst. Ein Teil des Videomaterials dient außerdem als Testdatenset. Die trainierte KI kann anschließend auf der Grundlage von Videomaterial aus nur vier Blickwinkeln den detailgetreuen, bewegten Avatar erstellen. „Der Avatar kann Bewegungen darstellen und Haltungen annehmen, die nicht im Trainingsdatenset enthalten sind. Und er kann aus jedem Blickwinkel betrachtet werden, also nicht nur aus den vier Kameraperspektiven der Eingangsdaten“, sagt Christian Theobalt.
Dazu startet das Programm mit den vier Kamerabildern, der extrahierten 3D-Skelett-Pose und den Kameraparametern (Abbildung 1). Das auf Basis des Trainingsdatensets erstellte neuronale Netz für das Charaktermodell nimmt die Skelett-Bewegung als Eingabe und sagt eine positionsabhängige Verformung des Gitters voraus, das die Oberfläche des Charaktermodells bildet. Anschließend wird die Textur der Person soweit möglich aus den vier Kamerabildern gewonnen. Die Textur umfasst die Oberflächenbeschaffenheit und Farbe, etwa von Haut, Haaren und Kleidung. Im nächsten Schritt erstellt ein weiteres neuronales Netz aus diesen Texturinformationen eine blickwinkelabhängige, dynamische Textur. Zu guter Letzt erzeugt ein weiteres neuronales Netz aus den gesamten, niedrig aufgelösten Merkmalen die hochaufgelösten Bilder des Avatars. Das ganze Programm aus mehreren zusammenspielenden neuronalen Netzwerken arbeitet so schnell, dass der Avatar in Echtzeit entsteht und keine Verzögerung zwischen den Bewegungen der realen Person und dem holoportierten Charakter festzustellen ist.
Der Lernprozess der neuronalen Netze, die Theobalts Team dazu nutzt, läuft überwacht ab. Beim überwachten Lernen hat der Algorithmus eine klare Zielvorgabe und nutzt das Trainingsdatenset, um diesem Ziel immer näher zu kommen. Im Fall des Avatars werden die Ergebnisse der neuronalen Netze mit den zugrundeliegenden Kamerabildern verglichen, um eine möglichst fotorealistische Darstellung zu erreichen. Weitere wichtige Formen des maschinellen Lernens sind das unüberwachte Lernen und das bestärkende Lernen.
Künstliches Lächeln
Das Gesicht und die Hände sind die Körperpartien, die am schwierigsten technisch nachzustellen sind. Doch gerade Mimik und Handgesten werden in Zukunft wichtig für die Interaktion von Menschen mit Computer- und Robotersystemen sein. Daher liegt hier auch ein Schwerpunkt von Theobalts Forschung: Sein Team arbeitet daran, mit nur einer Kamera die Bewegung von Händen oder die Details eines Gesichts erfassen zu können. Ihre Forschung zu Gesichtern zeigt, dass sich der Gesichtsausdruck einer Person in einem Quellvideo auf eine Person in einem Zielvideo übertragen lässt. Die Forschenden entwickelten beispielsweise ein Programm, das die detaillierten Bewegungen der Augenbrauen, des Mundes, der Nase und der Kopfposition aufzeichnet. Dadurch kann etwa der ganze Ausdruck eines Synchronsprechers auf den eigentlichen Schauspieler im Film übertragen werden, wodurch die Synchronisation eines Films in einer anderen Sprache wesentlich vereinfacht wird. Noch realistischer wirkt die Synchronisation durch eine weitere Entwicklung des Forschungsteams: Die stilbewahrende Lippensynchronisation überträgt die Mimik der Quellperson (Synchronsprecherin) auf den charakteristischen Stil der Zielperson (Schauspielerin) (Abbildung 3). Dadurch passen die Lippenbewegungen zur neuen Tonspur, während die Eigenheiten, die die Schauspielerin ausmachen, erhalten bleiben. Dazu nutzen die Forschenden einen ähnlichen Ansatz wie für den holoportierten Charakter. Die neuro-explizite KI stützt sich in diesem Fall auf ein Gesichtsmodell und neuronale Netze.
Abbildung 3: Realistische Mimik. Die KI-gestützte visuelle Synchronisation kann die Lippen stilbewahrend an eine neue Tonspur anpassen, indem sie die Mimik der Quellperson auf den charakteristischen Stil der Zielperson überträgt. Wird der Gesichtsausdruck dagegen direkt übertragen, gehen die Eigenheiten, die die Zielperson ausmachen, verloren. Dies wird hier beispielsweise an der Mundpartie deutlich. © H. Kim et al.: Neural Style-Preserving Visual Dubbing (2019) |
KI verantwortungsvoll nutzen
Neben vielen zukunftsträchtigen Anwendungen, die solche Forschung erschließt, birgt diese Technik auch Gefahren. Mithilfe derartiger Programme ist es möglich, Medieninhalte zu fälschen, die für einzelne Personen, aber auch ganze Gesellschaften zur Gefahr werden können. Diese durch Deep Learning erzeugten Fälschungen werden Deepfakes genannt und sind ein echtes Problem: gerade in niedrig aufgelösten Videos, die in sozialen Medien kursieren, sind Fälschungen mit bloßem Auge kaum zu identifizieren. So können falsche Informationen schnell und durchaus glaubhaft verbreitet werden. Politikern oder Politikerinnen können zu Propagandazwecken falsche Aussagen in den Mund gelegt und Prominenten kann ein künstlicher Skandal angehängt werden. Letztlich kann prinzipiell jeder Mensch, von dem Video- oder Bildmaterial zugänglich ist, Opfer eines Deepfakes werden. Theobalt plädiert dafür, dass Forschende die Ausgabe ihrer Programme mit einem Wasserzeichen versehen, das es später ermöglicht, damit erzeugte Deepfakes leicht zu identifizieren. Außerdem sagt er: „Es wird immer Menschen geben, die Technik missbrauchen. Der beste Weg, um dagegen vorzugehen, ist mit dem Fortschritt Schritt zu halten und KI-basierte Programme auch dafür zu nutzen, gefälschte Bilder oder Videos aufzuspüren. Wir entwickeln mit unserer Forschung auch das mathematische Verständnis, das dazu nötig ist, Fälschungen zu detektieren.“
Aktuell ist es meist noch möglich, Deepfake-Videos selbst zu identifizieren. Doch dazu muss man sehr aufmerksam sein und auf Details wie Lippenbewegungen, Zähne und Mundinnenraum, Augenpartie oder Schattenwurf und Reflexionen achten. Allerdings werden die Algorithmen immer besser und gefälschte Videos immer schwerer von der Wirklichkeit zu unterscheiden. Forschende entwickeln daher Programme, die Deepfakes verlässlich aufdecken sollen. Diese können allerdings wiederum dazu genutzt werden, die erzeugenden KI-Programme noch besser zu machen. Ein Wettrüsten findet statt. Entsprechend ist es nach Ansicht vieler Experten entscheidend, den Einsatz von KI umfassend gesetzlich zu regulieren, damit diese Technologie sicher und zum Wohl der Menschen eingesetzt wird.
Roboter im Atelier ([AI] Midjourney/MPG); Vitruvianischer Mensch (Leonardo da Vinci, Foto: Luc Viatour/ucnix.) © [M] MPG. |
* Der Artikel von Andreas Merian ist unter dem Titel: "Im Auge der künstlichen Intelligenz - Wie Maschinen Bilder verstehen und erzeugen" https://www.max-wissen.de/max-hefte/kuenstliche-intelligenz/ im Techmax 34-Heft der Max-Planck-Gesellschaft im Frühjahr 2024 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.
Zum Thema:
Ashwath Shetty et al.,: Holoported Characters: Real-time Free-viewpoint Rendering of Humans from Sparse RGB Cameras. (2023) Overview Video 0,29 min. , Main Video Video 7:55 min. https://vcai.mpi-inf.mpg.de/projects/holochar/#main_video
Künstliche Intelligenz im ScienceBlog
Roland Wengenmayr, 02.12.2023: Roboter lernen die Welt entdecken
Paul Rainey, 2.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?
Ricki Lewis, 08.09.2023: Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird
Redaktion, 30.03.2023: Decodierung des Gehirns: basierend auf Gehirnscans kann künstliche Intelligenz rekonstruieren, was wir sehen
Inge Schuster, 27.02.2020: Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika
Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution
Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin
Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang
Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".
Gerhard Weikum, 20.06.2014: Der digitale Zauberlehrling.
Riesige Speicher von anorganischem Kohlenstoff im Boden, die anfällig für Umweltveränderungen sind und freigesetzt werden
Riesige Speicher von anorganischem Kohlenstoff im Boden, die anfällig für Umweltveränderungen sind und freigesetzt werdenFr, 24.05.2024 — IIASA
Wenn bislang über den Kohlenstoff im Boden diskutiert wurde, hat es sich üblicherweise um organisches Material gehandelt und der wesentliche Beitrag von anorganischem Kohlenstoff im Boden wurde übersehen. Eine kürzlich in der Zeitschrift Science veröffentlichte Studie eines internationalen Forscherteams, an dem auch IIASA-Wissenschafter beteiligt waren, spricht nun diese Vernachlässigung an. Unter Verwendung von Machine-Learning Modellen haben die Forscher eine große Datenbank mit insgesamt 223 593 weltweiten, feldbasierten Bestimmungen von anorganischem Kohlenstoff analysiert: in den oberen 2 Metern Tiefe der Böden liegen global demnach über 2,3 Billionen Tonnen anorganischer Kohlenstoff vor, von dem in den nächsten 30 Jahren unter Umweltveränderungen bis zu 23 Milliarden Tonnen freigesetzt werden könnten.*
Der Begriff Bodenkohlenstoff bezieht sich in der Regel nur auf die organische Komponente des Bodens, den so genannten organischen Bodenkohlenstoff. Der Bodenkohlenstoff hat jedoch auch eine anorganische Komponente, den so genannten anorganischen Bodenkohlenstoff. Abbildung.
Abbildung 1. Querschnitt durch einen Boden. Unter den von organischen Kohlenstoffverbindungen geprägten oberen Bodenschichten liegen dem Ausgangsgestein entsprechende, anorganischen Kohlenstoff enthaltende Schichten. Schichten: A - Organischer Auflagehorizont, B - Mutterboden, C - Mineralischer Bodenhorizontaus verwittertem, zermahlenen Gestein, Mineralischer Bodenhorizont, darunter:-unverwittertes Ausgangsgestein. (Bilder und Legende von Redn. eingefügt. Bild links aus: Wilsonbiggs, http://soils.usda.gov/education/resources/lessons/profile/profile.jpg.Bild Rechts: Radosław Drożdżewski, https://de.wikipedia.org/wiki/Bodenprofil. Beide Bilder stehen unter einer cc-by-sa-Lizenz.) |
Fester anorganischer Bodenkohlenstoff, häufig Kalziumkarbonat, sammelt sich eher in trockenen Regionen mit unfruchtbaren Böden an, was viele zu der Annahme veranlasst hat, er sei nicht von Bedeutung.
Erstmalige Quantifizierung von anorganischem Kohlenstoff im Boden
In einer im Fachjournal Science kürzlich erschienenen Studie haben Huang Yuanyuan vom Institute of Geographic Sciences and Natural Resources Research der Chinesischen Akademie der Wissenschaften (CAS) und Zhang Ganlin vom Institute of Soil Science der CAS mit weiteren 25 Kollegen aus mehreren anderen Institutionen, darunter auch vom IIASA, den globalen Bestand an anorganischem Kohlenstoff im Boden quantifiziert und damit die lange Zeit vorherrschende Ansicht in Frage gestellt (H. Yuangyuan et al., 2024).
Mithilfe einer Berechnungsmethode, die wesentlich robuster ist als frühere Ansätze, fanden die Forscher heraus, dass in den obersten zwei Metern des Bodens riesige Mengen von weltweit 2 305 Milliarden Tonnen Kohlenstoff als anorganischer Kohlenstoff im Boden gespeichert sind - das ist mehr als das Fünffache des Kohlenstoffs, der in der gesamten Vegetation der Welt enthalten ist. Dieser verborgene Pool an Bodenkohlenstoff dürfte der Schlüssel zum Verstehen des globalen Kohlenstoffkreislaufs sein.
Anfälligkeit für Umweltveränderungen
"Dieser riesige Kohlenstoffspeicher ist anfällig für Umweltveränderungen, insbesondere für die Versauerung des Bodens. Säuren lösen Kalziumkarbonat auf und geben Kohlendioxid entweder als Gas oder gelöst direkt ins Wasser ab", erklärt Huang. "Viele Regionen in Ländern wie China und Indien sind von der Versauerung der Böden betroffen, die durch industrielle Aktivitäten und intensive Landwirtschaft verursacht wird. Ohne Maßnahmen zur Abhilfe und bessere Bodenpraktiken wird die Welt in den nächsten dreißig Jahren wahrscheinlich mit einer Beeinträchtigung des anorganischen Kohlenstoffs im Boden konfrontiert sein."
Veränderungen des im Laufe der Erdgeschichte gespeicherten anorganischen Kohlenstoffs im Boden haben tiefgreifende Auswirkungen auf die Gesundheit des Bodens. Sie beeinträchtigen die Fähigkeit des Bodens, den Säuregehalt zu neutralisieren, den Nährstoffgehalt zu regulieren, das Pflanzenwachstum zu fördern und den organischen Kohlenstoff zu stabilisieren. In der Hauptsache spielt der anorganische Bodenkohlenstoff eine Doppelrolle, die entscheidend für die Speicherung von Kohlenstoff ist und für die Unterstützung von Ökosystemfunktionen, die von ihm abhängen.
Die Forscher fanden heraus, dass jedes Jahr etwa 1,13 Milliarden Tonnen anorganischer Kohlenstoff aus den Böden in die Binnengewässer gelangen. Dieser Verlust hat tiefgreifende, aber oft übersehene Auswirkungen auf den Kohlenstofftransport zwischen Land, Atmosphäre, Süßwasser und Ozean.
Wenn auch die Gesellschaft die Bedeutung der Böden als grundlegenden Bestandteil naturbasierter Lösungen im Kampf gegen den Klimawandel erkannt hat, so lag der Schwerpunkt auf dem organischen Kohlenstoff im Boden. Inzwischen ist klar, dass der anorganische Kohlenstoff die gleiche Aufmerksamkeit verdient.
"Obwohl die Mengen an organischem und anorganischem Kohlenstoff im Boden ungefähr gleich groß sind, wurden dem anorganischen Kohlenstoff deutlich weniger Forschungsaktivitäten gewidmet. Man ist davon ausgegangen, dass anorganischer Kohlenstoff viel stabiler ist. Mit dem Klimawandel wird er jedoch zum einen dynamischer und zum anderen kann er bei Technologien zur Sequestrierung (d.i. Abscheidung, Redn.) von Kohlenstoff eine Rolle spielen, z. B. eine verstärkte Verwitterung", erklärt der Mitautor der Studie, Dmitry Shchepashchenko, ein leitender Wissenschaftler am IIASA.
Relevanz für den Klimaschutz
Diese Studie unterstreicht die Dringlichkeit, anorganischen Kohlenstoff als zusätzlichen Hebel zur Erhaltung und Verbesserung der Kohlenstoffsequestrierung in Strategien zur Eindämmung des Klimawandels einzubeziehen. Internationale Programme wie die "4 pro 1000" Initiative, die darauf abzielt, den (hauptsächlich) organischen Kohlenstoff im Boden jährlich um 0,4 % zu erhöhen, sollten ebenfalls die entscheidende Rolle des anorganischen Kohlenstoffs bei der Erreichung der Ziele für eine nachhaltige Bodenbewirtschaftung und den Klimaschutz berücksichtigen.
Durch ein besseres Verstehen der Dynamik des Bodenkohlenstoffs, der beide Formen organischen und anorganischen Kohlenstoff einschließt, hoffen die Forscher, wirksamere Strategien zur Erhaltung der Bodengesundheit, zur Verbesserung der Ökosystemleistungen und zur Abschwächung des Klimawandels entwickeln zu können.
Huang, Y., Song, X., Wang, Y.-P., Canadell, J.G., Luo, Y., Ciais, P., Chen, A., Hong, S., et al. (2024). Size, distribution, and vulnerability of the global soil inorganic carbon. Science 384 (6692) 233-239. DOI: 10.1126/science.adi7918 [pure.iiasa.ac.at/19612] -
*Der Artikel "Study confirms giant store of global soil carbon and highlights its dynamic nature" ist am 14.Mai 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/may-2024/study-confirms-giant-store-of-global-soil-carbon-and-highlights-its-dynamic-nature). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 1 Abbildung plus Legende und Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Wie unsere inneren Uhren ticken
Wie unsere inneren Uhren tickenDo, 09.05.2024— Michael Simm
Von der Millisekunde bis zur Jahreszeit – das Nervensystem und die Organe des Körpers bestimmen die Rhythmen unseres Lebens. Sie folgen dem Wechsel von Tag und Nacht, können aber durch viele Faktoren beeinflusst werden. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm berichtet über das hochkomplexe System von inneren Uhren, Taktgebern und Korrekturmechanismen mit denen unser Organismus die Zeit misst und im Takt bleibt.*
Wer im Leben erfolgreich sein will, sollte seine Prioritäten kennen und zur rechten Zeit am rechten Ort sein. Heute werden derartige Weisheiten gerne auf Fortbildungen für Manager gelehrt, doch die Voraussetzungen dafür trägt der Mensch schon seit Jahrmillionen in sich: Es ist unsere innere Uhr, die uns am Morgen aufstehen lässt, von der Wiege bis ins Grab durch jeden Tag leitet und in der Nacht für die nötigen Ruhepausen sorgt.
Abbildung 1. . Genau getaktet: ein hochkomplexes System von inneren Uhren, Taktgebern und Korrekturmechanismen bestimmt die Rhythmen unseres Lebens. Lizenz: cc-by-nc-sa. |
Von dieser inneren Uhr hängen nicht nur der Schlaf-Wach-Rhythmus und die Anpassungen an die Jahreszeit ab, sondern auch Lernen und Gedächtnis, sowie fast alle physiologischen Tagesrhythmen wie die Schwankungen des Blutdrucks, des Herzschlages, von Hormonspiegeln, der Atemfrequenz und sogar der Blutgerinnung.
Tatsächlich gibt es nicht die eine innere Uhr. Stattdessen herrscht ein hochkomplexes, hierarchisches System von miteinander verbundenen Zeitgebern, Taktgebern und Korrekturmechanismen über unsere Zeit. Abbildung 1. Es besteht aus spezifischen Regionen des Nervensystems, aus spezialisierten Zellen, Hormonen, Botenstoffen, Proteinen und Nukleinsäuren. Letztlich hat sogar jede einzelne Zelle ihre eigene innere Uhr. „Wir verfügen über einen regelrechten Uhrenladen“, erklärt Gregor Eichele, der am Max-Planck-Institut für biophysikalische Chemie in Göttingen die Abteilung „Gene und Verhalten“ leitet.
Gekoppelt an den Wechsel von Tag und Nacht
Erstaunlich klein ist die oberste Zeitgeberinstanz des Nervensystems: Der beidseitig angelegte Hirnkern Nucleus suprachiasmaticus (SCN) ist Teil des Hypothalamus und liegt oberhalb der Kreuzung der Sehnerven (Abbildung 2). Er enthält nur etwa 50.000 Neuronen – also weniger als drei Millionstel der Gesamtzahl unserer 65 Milliarden Nervenzellen. Darunter befinden sich auch die circadianen Schrittmacher-Neuronen. Kennzeichnend sind starke Schwankungen zwischen Tag und Nacht bei der Häufigkeit ihrer spontanen Entladungen. Sowohl die anregenden als auch die hemmenden Signale für einen robusten Tagesrhythmus erwachsen aus der zeitlich abgestimmten Aktivität, mit der Natrium- und Kaliumionen durch die Membranen der Schrittmacher-Neuronen strömen, und aus der spezifischen Veränderung der Ionenleitfähigkeit während der Aktionspotenziale. Die Schrittmacher-Neuronen im SCN sind nicht nur notwendig, sondern tatsächlich auch ausreichend, um den circadianen Rhythmus anzutreiben. Außerdem wirken sie Abweichungen vom 24-stündigen Tag-Nacht-Rhythmus entgegen und koppeln unsere Tätigkeiten an die sich drehende Erde.
Abbildung 2. Erstaunlich klein: Die Oberste Instanz der inneren Uhr ist der Nucleus suprachiasmaticus (SCN, grün), derTeil des Hypothalamus(blau)ist und mit zusammen etwa 50.000 Nervenzellen oberhalb des Chiasma opticum (rot), der Kreuzung der Sehnerven liegt. (Bild leicht modifiziert aus: https://commons.wikimedia.org/wiki/File:Suprachiasmatic_Nucleus.jpg. Lizenz: cc-by-sa) |
Eigentlich hätte die circadiane Uhr des Menschen nämlich einen Rhythmus von knapp 25 Stunden, wie man aus Versuchen mit Freiwilligen weiß, die über mehrere Wochen in gleichmäßig beleuchteten Räumen lebten. Dem Abgleich mit dem echten Tageslicht durch den SCN ist es zu verdanken, dass diese Probanden nach Versuchsende schnell wieder ihren Rhythmus fanden. So bewahrt der SCN uns auch im Zeitalter der künstlichen Beleuchtung davor, nach einer durchgefeierten Nacht das Zeitgefühl zu verlieren und zum Zombie zu werden.
Wie aber gelangen die Informationen zur Tageslänge zum SCN?
Wenig überraschend spielt das Auge dabei eine entscheidende Rolle. Dort sitzen in der Netzhaut zwischen Zapfen und Stäbchen die spezialisierten Ganglionzellen (RGCs), die neben Zapfen und Stäbchen quasi eine dritte Klasse retinaler Photorezeptoren bilden. Sie sind mit dem Photopigment Melanopsin ausgestattet, und können damit einfallendes Licht registrieren. Die Fasern der RGC laufen dann zum SCN und in andere Hirnregionen – einschließlich solcher, die die Stimmung regulieren. Sogar bei Personen, die wegen eines Schadens im Sehzentrum der Hirnrinde erblindet sind, funktioniert dieses Einstellen der inneren Uhr über den Weg von den RCGs zum SCN – solange die Netzhaut und die von dort abgehenden Nervenbahnen noch intakt sind.
Von der Natur nicht vorgesehen war allerdings die Erfindung des Kunstlichtes durch den Menschen und insbesondere von Handys, Tablets und ähnlichen Geräten. Diese strahlen – ähnlich dem normalen Tageslicht – reichlich blaues Licht ab, auf das Melanopsin empfindlich reagiert. Das Problem: Abends ist die innere Uhr besonders empfindlich für Lichteffekte. Gehen die elektrischen Geräte abends nicht aus, besteht das Risiko einer Verzögerung der inneren Uhr und es erhöht sich die Gefahr von Schlafstörungen.
Ein Uhren-Gen kontrolliert sich selbst
Aus dem Sezieren der Schaltkreise haben die Chronobiologen viel gelernt. Was die Uhr ticken lässt, haben dagegen überwiegend Molekularbiologen herausgefunden. Sie stellten fest, dass auch im Inneren der meisten Zellen unseres Körpers ein annähernd 24-stündiger Zyklus abläuft. Dies wurde zwar überwiegend bei Fruchtfliegen und Mäusen erforscht, und die Details sowie die Namensgebung der Komponenten unterscheiden sich teilweise zwischen den verschiedenen Versuchsorganismen. Die Bauweise dieses Uhrwerks ist aber offenbar im ganzen Tierreich sehr ähnlich und findet sich sogar bei der einzelligen Bäckerhefe.
Erreicht wird die Periodizität durch das Prinzip der negativen Rückkoppelung: Ein „Uhren-Gen“, („clock“) wird von der Maschinerie der Zellen abgelesen und aus dieser Information eine Boten-RNA (mRNA) erstellt, die wiederum in ein spezifisches Protein übersetzt wird. Dieses CLOCK-Protein aktiviert tagsüber ein weiteres Uhren-Gen namens „per“ (für Periode). Über die entsprechende per-mRNA wird so PER-Protein synthetisiert. Zusammen mit anderen gewebespezifischen Proteinen bildet das Eiweißmolekül PER einen Komplex, der das CLOCK-Protein bindet und es damit blockiert. Die Folge ist, dass keine neue per-mRNA mehr gebildet wird, das verbleibende PER-Eiweiß allmählich zerfällt und dadurch auch die Blockade des CLOCK-Proteins wieder gelöst wird. Damit beginnt der Zyklus von vorne. Im Detail ist dieses System noch weitaus komplizierter: Mit seinen schwankenden Konzentrationen, unterschiedlichen Bindungspartnern und durch Gleichgewichtsreaktionen mit anderen Zellbestandteilen kann per zum Beispiel indirekt die Energiezufuhr der Zelle erspüren, den Stoffwechsel beeinflussen, oder Stressreaktionen modulieren.
Als oberste Kontrollinstanz, der die zeitlichen Abläufe der Körperfunktionen regelt, fungiert zwar der SCN. Die meisten Organe und Gewebe können jedoch Dank des clock/per-Systems auch alleine ihren Rhythmus bewahren, wie man an isolierten Zellen der Leber, Lunge oder Niere in Kulturschalen beobachten kann.
Die Rhythmen des Körpers
Dass viele innere Organe, aber auch Muskeln, Fettgewebe und Blutgefäße eine gewisse Unabhängigkeit vom SCN haben, ist durchaus sinnvoll. So können sie sich dank eigener molekularer Uhren besser auf die wechselnden Umwelteinflüsse im Verlauf des Tages einstellen. Beispielsweise bereitet uns eine steigende Körpertemperatur bereits vor dem Aufwachen auf den Tag vor, und am Morgen wird vermehrt das Stresshormon Cortisol ausgeschüttet. Dadurch steigen sowohl die körperliche wie auch die geistige Leistungsfähigkeit.
Vom SCN aus werden diese Oszillationen falls nötig nachjustiert, damit sie einen 24-Stunden-Rhythmus beibehalten. Offensichtlich gibt es viele Querverbindungen zwischen den Systemen, deren Details aber noch nicht vollständig erforscht sind. Erst kürzlich hat man eine schnelle Datenleitung entdeckt , dank derer die sogenannten Mitralzellen im Riechzentrum des Gehirns rhythmische Veränderungen der Blutgefäße registrieren, wie sie durch den Herzschlag verursacht werden. Weil weitere dieser „Herzschlagsensoren“ über das gesamte Hirn verteilt sind, spekulieren die Forscher um Luna Jammal Salahmeh vom Zoologischen Institut der Universität Regensburg, hier eine Schnittstelle gefunden zu haben, über die der Herzschlag sich unmittelbar auf unsere Gedanken auswirken könnte.
Choreografie der Hirnwellen
Einen ganz anderen Rhythmus geben Neurone an, die sich unter der Schädeldecke im Neocortex befinden. Zellen unterschiedlicher Regionen können dabei zusammenarbeiten, und verraten dies in Form von „Hirnwellen“, die sich Mithilfe des Elektroenzephalogramms (EEG) sichtbar machen lassen. Seit den 1920er Jahren ist das EEG daher zu einem wichtigen Instrument der Forschung geworden, und mittlerweile dient es auch zur Diagnose neurologischer und psychiatrischer Erkrankungen.
Generell unterscheidet man, sortiert nach dem Ausmaß der Aktivität, die folgenden Wellenformen:
- Gamma-Wellen mit einer Frequenz zwischen 30 – 100 Schwingungen pro Sekunde (Hertz) im Zustand der Konzentration oder beim Lernen,
- Beta-Wellen von 12 bis 30 Hertz, die im normalen Wachzustand erzeugt werden,
- Alpha-Wellen mit 8 bis 13 Hertz, wenn das Versuchsobjekt entspannt mit geschlossenen Augen daliegt,
- Theta-Wellen mit 4 bis 7 Hertz, die im Traum erzeugt werden, aber auch von Gedächtnisaktivitäten zeugen, sowie
- Delta-Wellen von weniger als 1 bis zu 4 Hertz, die im Tiefschlaf entstehen.
Zwischen Wachzustand und Schlaf lösen sich diese Hirnwellen gemäß einer recht übersichtlichen und einheitlichen Choreografie gegenseitig ab. Die vor dem Einschlafen noch eher „zappeligen“ Kurven im EEG scheinen sich beim schlafenden Menschen in der ersten Stunde stufenweise zu beruhigen. Die Muskeln und Augen entspannen sich, Herzschlag, Blutdruck und Körpertemperatur sinken, und im EEG sind charakteristische langsame Wellen mit hoher Amplitude zu sehen – daher auch der Begriff „Slow Wave".
Nachdem der Schläfer etwa eine halbe Stunde am Tiefpunkt dieses Abstiegs verharrt, werden die EEG-Wellen ebenfalls stufenweise wieder schneller. Ähnlich wie beim Aufwachen beginnen die Augen sich zu bewegen, was dieser Schlafphase den Namen REM-Schlaf eingebracht hat (eng.: Rapid Eye Movement). Die Muskeln bleiben gelähmt, aber eine starke Variabilität von Herzschlag, Blutdruck, und Körpertemperatur verrät, dass nun eine Traumphase stattfindet. Etwa 10 bis 15 Minuten dauert diese erste Traumphase, in der Männer übrigens häufig eine Erektion haben.
Diese alternativen Zyklen von Langwellenschlaf und REM-Schlaf wiederholen sich typischerweise im Rest der Nacht noch etwa vier Mal. Dabei werden bis zum Aufwachen die Tiefschlafphasen in der Regel kürzer und die REM-Phasen länger. Wir wissen also schon eine ganze Menge über das Phänomen – allerdings ist noch immer nicht eindeutig geklärt ist, wozu diese Phase überhaupt gebraucht wird!
Vorher, nachher, gleichzeitig?
Ohne innere Uhr wäre eine Anpassung des Lebens an täglich und saisonal schwankende Einflüsse nicht denkbar. Weniger offensichtlich, aber genauso wichtig für das Überleben, ist eine weitere Art der Zeitmessung, die das Nervensystem bewältigt: Es erkennt, welche Ereignisse mehr oder weniger gleichzeitig passieren. Es konstruiert aus den Meldungen der Sinnesorgane ein „vorher“ und ein „nachher“ und es trennt zufällige Begebenheiten von solchen, die als Ursache und Wirkung miteinander verknüpft sind.
Dahinter steht eine der wohl genialsten „Erfindungen“ der Evolution: der Mechanismus der synaptischen Integration. Dieser hilft uns – sehr grob vereinfacht – zu erkennen, was zusammengehört. Die meisten Neuronen des Nervensystems erhalten nämlich über ihre Synapsen tausende von Signalen und integrieren diese derart, dass ein einziges Ausgangssignal entsteht: das Aktionspotenzial. In jeder Sekunde absolviert das Gehirn Milliarden solcher Berechnungen. Signale, die innerhalb kurzer Zeit von einem einzelnen Neuron gesendet werden, können dabei ebenso aufaddiert werden, wie solche, die von verschiedenen Nervenzellen stammen, und (fast) zur gleichen Zeit eintreffen. Diese Reize werden aber nur dann weitergeleitet, wenn eine bestimmte Schwelle überschritten wird. So können zum Beispiel Ereignisse, die von verschiedenen Sinnesorganen fast gleichzeitig registriert werden, wie ein Blitz und der darauffolgende Donner, oder ein Sturz aufs Knie und der nachfolgende Schmerz „zusammengebunden“ werden.
Kommen die Reize in zu großen Abständen oder sind sie nicht stark genug, so werden sie „aussortiert“: Sie haben offenbar nichts miteinander zu tun. Sie sind so unbedeutend, wie unsere Frisur während des Gewitters oder die Tatsache, dass wir an einem Dienstag gestürzt sind. Ganz anders ist die Situation, wenn man die gleiche Reiz-Kombination mehrfach erlebt. Hierauf kann sich das Nervensystem nämlich „einstellen“, indem es das Erlebte abspeichert und seine Reaktionen darauf anpasst – kurz: indem es lernt.
Die Wissenschaftler, die unsere innere Uhr erforschen, haben mittlerweile einen Großteil des Räderwerks freigelegt und begonnen, deren komplexes Wechselspiel zu verstehen. Sie haben dabei unverhoffte Einblicke gewonnen, die weit über das Mechanistische hinausweisen. Mit ihren Antworten berühren sie inzwischen sogar philosophische Fragestellungen nach dem Wesen der Zeit. Und auch die schnöde Frage nach dem Nutzwert können sie guten Gewissens beantworten. Schließlich waren sie es, die mit ihrer Arbeit das Fundament gestärkt haben für ein besseres Verständnis und für zukünftige Therapien vieler neurologisch-psychiatrischer wie auch organischer Erkrankungen, bei denen die innere Uhr aus dem Takt geraten ist.
* Der vorliegende Artikel ist unter dem Titel "Genau getaktet" zum Thema "Zeit" auf der Webseite www.dasGehirn.info am 2.Mai 2024 erschienen (https://www.dasgehirn.info/grundlagen/zeit/genau-getaktet). Der Artikel steht unter einer cc-by-nc-nd Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurde Abbildung 2 eingefügt.
dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).
Zum Weiterlesen
Vaas, Rüdiger. Zeit und Gehirn. Lexikon der Neurowissenschaft (online). URL: https://www.spektrum.de/lexikon/neurowissenschaft/zeit-und-gehirn/14651 ? [Stand 25.3.2024]
Wilhelm, Klaus. Chronobiologie: Innere Uhren im Takt. Max-Plack-Gesellschaft (online). URL: https://www.mpg.de/10778204/chronobiologie[Stand 25.3.2024]
Schützende Genvarianten bei Alzheimer
Schützende Genvarianten bei AlzheimerFr, 03.05.2024 — Ricki Lewis
Hinweise auf die Bekämpfung einer verheerenden Krankheit können sich aus der Identifizierung von Menschen ergeben, die Genvarianten - Mutationen - haben, die sie schützen, indem sie die Krankheit verlangsamen oder überhaupt das Risiko ihrer Entstehung verringern. Wenn wir verstehen, wie sie dies tun, können wir Behandlungsstrategien für die gesamte Patientenpopulation entwickeln. Die Genetikerin Ricki Lewis berichtet über seltene Varianten von drei bereits gut untersuchten Genen - APOE-Cristchurch, Reelin und Fibronektin -, die vererbte Formen der Alzheimer-Krankheit zu verzögern scheinen - und zwar um Jahrzehnte. *
Gen Nr. 1: Der berühmte Fall der aus einer kolumbianischen Familie stammenden Aliria
Im Jahr 2019 berichteten Forscher über die Patientin Aliria Rosa Piedrahita de Villegas, die dank einer Variante eines zweiten, offenbar schützenden Gens die früh einsetzende familiäre Alzheimer-Krankheit abgewehrt zu haben schien. Der Bericht erschien in Nature Medicine [1].
Aliria gehört zu einer 6 000 Mitglieder zählenden Familie in Kolumbien, die dafür bekannt ist, dass viele Menschen im Alter von etwa 44 Jahren Symptome von Alzheimer zeigen, die verdächtige Anhäufung von Amyloid-Beta-Protein aber bereits in ihren Zwanzigern auftrat. Etwa die Hälfte der Familie ist davon betroffen. Sie haben eine Variante des Presenilin-1-Gens (PSEN1 E280A), die für etwa 70 Prozent der Fälle von früh einsetzender Alzheimer-Krankheit verantwortlich ist. Aliria hat die Variante geerbt, doch bei ihr setzte der kognitive Abbau erst im Alter von 72 Jahren ein.
"Unsere Arbeit mit dieser Familie ermöglicht es uns, die frühesten Veränderungen, die mit der Alzheimer-Krankheit in Verbindung gebracht werden, zu verfolgen und festzustellen, wie diese Veränderungen im Laufe der Zeit ablaufen. Dies wird uns helfen, über die Menschen in Kolumbien hinaus festzustellen, wer gefährdet und wer resistenter gegen Alzheimer ist, und zu lernen, welche Biomarker das Fortschreiten der Krankheit besser vorhersagen können", erklärte Dr. Yakeel T. Quiroz vom Massachusetts General Hospital gegenüber der Alzheimer's Association. Dort wurden bei dieser speziellen Patientin Hirnscans durchgeführt, die die für die Krankheit charakteristischen sehr hohen Konzentrationen von Amyloid-Beta-Protein-Plaques aufzeigten.
Aber was genau hat Aliria geschützt?
Sie hatte auch zwei Kopien der Christchurch-Mutation geerbt, einer seltenen Variante desApolipoprotein E (APOE)-Gens, benannt nach dem Ort, an dem es in Neuseeland entdeckt wurde. Die Christchurch-Genvariante verringert die Dichte der Tau-Fibrillen (Tangles), der anderen Art von Protein, das im Alzheimer-Gehirn aggregiert. Abbildung 1.
Abbildung 1 Stliisierte Darstellung der Amyloid-beta-Plaques (braun) im extrazellulären Raum zwischen den Neuronen und den Tau-Protein Knäueln (blau) in den Neuronen. |
Kürzlich haben Forscher der Washington University School of Medicine mit genetisch veränderten "humanisierten" Mäusen gezeigt, dass die Christchurch-Mutation die Wechselwirkung zwischen Amyloid-Beta und Tau unterbindet.
"Wenn Menschen altern, beginnen viele eine Amyloid-Anhäufung im Gehirn zu entwickeln. Anfangs bleiben sie kognitiv unauffällig. Nach vielen Jahren jedoch beginnt die Amyloidablagerung zu einer Anhäufung des Tau-Proteins zu führen. Wenn dies geschieht, kommt es bald zu kognitiven Beeinträchtigungen. Wenn wir einen Weg finden, die Auswirkungen der APOE-Christchurch-Mutation zu imitieren, können wir vielleicht verhindern, dass Menschen, die bereits auf dem Weg zur Alzheimer-Demenz sind, diesen Weg weiter fortsetzen", erklärt Dr. David M. Holtzman von der Universität Washington.
Könnte auf therapeutischem Weg die Bildung von Amyloid-Beta-Plaques von der Ablagerung von Tau-Fibrillen entkoppelt werden?
Das war's, was die Forscher herausfinden wollten, die nun ihre Ergebnisse im Januar 2024 in der Zeitschrift Cell veröffentlichten [2]. Der Übergang von der Amyloidbildung zur Wechselwirkung mit Tau-Protein ist kritisch und noch wenig verstanden. Der Fall von Aliria könnte hier zur Klöärung beitragen.
"Der Fall dieser Frau war sehr, sehr ungewöhnlich, da sie die Amyloid-Pathologie aufwies, aber kaum eine Tau-Pathologie und nur sehr leichte kognitive Symptome, die erst spät auftraten. Das legte uns nahe, dass sie Hinweise auf die Verbindung zwischen Amyloid und Tau bieten könnte", so Holtzman.
Allerdings: Aliria ist ein Einzelfall; weltweit die einzige Person, von der man weiß, dass sie die beiden Mutationen aufweist. Haben diese tatsächlich zusammengewirkt, oder ist ihr ungewöhnlicher , offensichtlich vor Alzheimer schützender Genotyp nur ein Zufall?
Um dieses Rätsel zu lösen, setzte das Team um Holtzman genetisch manipulierte Mäuse ein, die übermäßig viel Amyloid produzierten und dazu auch die menschliche Christchurch-Mutation aufwiesen. Dann injizierten sie menschliches Tau-Protein in die Gehirne der Mäuse. Da die Gehirne der Mäuse bereits voller Amyloid-"Keime" waren, hätten sich die Tau-Knäuel an den Injektionsstellen festsetzen und dann auf andere Hirnregionen ausbreiten müssen - aber das taten sie nicht. Es wurde nur sehr wenig Tau inmitten des reichlich vorhandenen Amyloids gefunden, das die Gehirne erstickte - es war ein Modell für Alirias zufällige Doppelmutation.
Die Mäuse zeigten auf, wie die Christchurch-Mutation schützend wirkte, nämlich durch die Aktivität der Mikroglia, die als Abfallbeseitigungszellen des Gehirns fungieren. Mikroglia sammeln sich um Amyloid-Plaques auf Gehirnzellen. Bei Alzheimer-Mäusen mit der APOE-Christchurch-Mutation liefen die Mikroglia, die die Amyloid-Plaques umgaben, auf Hochtouren, um die Tau-Aggregate zu verschlingen und zu zerstören.
"Diese Mikroglia nehmen das Tau auf und bauen es ab, bevor sich die Tau-Pathologie wirksam auf die nächste Zelle ausbreiten kann. Ohne Tau-Pathologie kommt es nicht zu Neurodegeneration, Atrophie und kognitiven Problemen. Wenn wir die Wirkung der Mutation nachahmen können, könnten wir die Amyloid-Ansammlung unschädlich machen oder zumindest viel weniger schädlich machen und die Menschen vor der Entwicklung kognitiver Beeinträchtigungen schützen", so Holtzman.
Gen Nr. 2: Reelin
Die Forscher, die die große kolumbianische Familie untersuchten, zu der auch Aliria gehört, beschrieben in der Zeitschrift Nature Medicine vom 15. Mai 2023 "den weltweit zweiten Fall mit nachgewiesener extremer Resilienz gegenüber der autosomal dominanten Alzheimer-Krankheit". Wie Aliria behielt der Mann seine kognitiven Fähigkeiten bis zum Alter von 67 Jahren, obwohl er die starke PSEN1 E280A-Mutation hatte, die eine sehr früh einsetzende Alzheimer-Krankheit verursacht.
Im Alter von 73 Jahren zeigten Neuroimaging-Untersuchungen höhere Werte von Amyloid-Beta-Plaques als bei anderen Familienmitgliedern mit der Alzheimer-Mutation. Und obwohl sein Gehirn auch Tau-Knäuel aufwies, war der entorhinale Kortex - ein Gedächtniszentrum - vergleichsweise frei von Tau. Vielleicht ermöglichte diese ungewöhnliche Verteilung, dass seine kognitiven Fähigkeiten trotz des Ertränkens in Amyloid-Beta erhalten blieben.
Aber er hatte nicht die Christchurch-Mutation von Aliria.
Stattdessen wurde der Mann offenbar durch eine seltene Variante eines anderen Gens, RELN, geschützt, das für das Protein Reelin kodiert. Dabei handelt es sich um ein gut untersuchtes Signalprotein, das bei verschiedenen neurologischen und psychiatrischen Erkrankungen wie Schizophrenie, bipolarer Störung und Autismus-Spektrum-Störung eine Rolle spielt.
In Experimenten mit Mäusen zeigten die Forscher, dass diese Form von Reelin eine Gain-of-Function-Mutation ist, d.i. eine verbesserte Funktion im Vergleich zur häufigeren Variante des Gens besitzt. Wie Apolipoprotein E (APOE) bindet Reelin an Rezeptoren auf bestimmten Lipoproteinen, die Cholesterin transportieren. Dadurch wird die Aktivierung von Tau verringert, was offenbar das empfindliche Gleichgewicht zwischen Amyloid-Beta und Tau auf eine Weise stört, die die Alzheimer-Krankheit verlangsamt.
Gen Nr. 3: Veränderung von Fibronektin an der Blut-Hirn-Schranke
In jüngster Zeit haben sich Forscher der Columbia University auf eine andere, offenbar schützende Variante eins Gens konzentriert, das für das Protein Fibronektin kodiert. Es ist im gesunden Gehirn in nur sehr geringen Mengen vorhanden, eine hohe Konzentration wird aber mit einem erhöhten Risiko für die Entstehung von Alzheimer in Verbindung gebracht.
Fibronektin ist in die Blut-Hirn-Schranke eingebettet. Dieses 400 Meilen lange Labyrinth aus Kapillaren, den kleinsten Blutgefäßen, windet sich durch die Neuronen und Gliazellen, die die empfindliche Hirnsubstanz bilden.
Die aus einer einzelnen Zellschichte bestehenden Kapillarwände, das so genannte Endothel, bilden eine Auskleidung, die normalerweise so dicht gepackt ist, dass sie Giftstoffe aus dem Blutkreislauf fernhält, aber lebenswichtige Stoffe wie Sauerstoff ins Gehirn eintreten lässt. Die Schranke mildert auch biochemische Fluktuationen, die das Gehirn überfordern würden, wenn es ständig reagieren müsste, und überwacht den Gehalt an Neurotransmittern.
Zu verstehen, wie die Blut-Hirn-Schranke funktioniert, ist zentrales Thema der Arzneimittel-Forschung bei neurologischen Erkrankungen.
Aus Untersuchungen an Zebrafischen und Mausmodellen der Alzheimer-Krankheit haben die Forscher entdeckt, dass eine Variante des Fibronektin-Gens die Anhäufung von Fibronektin an der Blut-Hirn-Schranke verhindert. Überschüssiges Amyloid-Beta kann dann aus dem Gehirn in den Blutkreislauf eintreten, was das Risiko, an Alzheimer zu erkranken, verringert, so die Forscher. Ihre Forschungsergebnisse sind in Acta Neuropathologica [4] veröffentlicht.
Caghan Kizil, PhD, erklärt die Ergebnisse: "Die Alzheimer-Krankheit beginnt zwar mit Amyloid-Ablagerungen im Gehirn, aber die Krankheitsmanifestationen sind das Ergebnis von Veränderungen, die nach dem Auftreten der Ablagerungen stattfinden. Überschüssiges Fibronektin könnte die Beseitigung von Amyloidablagerungen im Gehirn verhindern. Unsere Ergebnisse deuten darauf hin, dass einige dieser Veränderungen in den Blutgefäßen des Gehirns stattfinden und dass wir in der Lage sein könnten, neue Arten von Therapien zu entwickeln, die die schützende Wirkung des Gens nachahmen, um die Krankheit zu verhindern oder zu behandeln."
Diese Strategie unterscheidet sich von einem direkten Angriff auf die Amyloid-Ablagerungen und einer verbesserten Beseitigung, die zu gering ausfallen und zu spät kommen dürften. "Wir müssen möglicherweise viel früher mit der Beseitigung von Amyloid beginnen, und wir glauben, dass dies über den Blutkreislauf geschehen kann. Deshalb freuen wir uns über die Entdeckung dieser Fibronektin-Variante, die ein gutes Target für die Entwicklung von Medikamenten sein könnte", so Richard Mayeux, Koautor der Studie.
Nachdem die Forscher die Folgen einer Senkung des Fibronektins in Zebrafischen und Mäusen nachgewiesen hatten, haben sie das Protein bei Menschen untersucht, die eine Variante des APOE-Gens, das mit Alzheimer assoziierte APOEε4 geerbt haben, aber lange leben. Hat eine Variante des Fibronektin-Gens sie geschützt?
Um das herauszufinden, haben die Columbia-Forscher die Genome von mehreren hundert Personen mit APOEε4 untersucht, die älter als 70 Jahre und unterschiedlicher Herkunft waren. Einige von ihnen waren bereits an Alzheimer erkankt.
Abbildung 2 Die funktionell inaktive Fibronektin1-Variante schützt vor Alzheimer - Schematische Darstellung. Links: Situation im "normalen" Gehirn. Mit Apolipoprotein Eε4 (APOEε4 ) und nur geringen Mengen an Fibronektin werden Amyloid-Aggregate (Plaques) effizient von Microglia-Zellen abgebaut und die entstandenen Produkte über die Blut-Hirn-Schranke eliminiert ("Clearance"). Mitte: Situation bei Alzheimer - Genotyp APOEε4 zusammen mit einem Zuviel an Fibronektin. Fibronektin lagert sich in der Blut-Hirnschranke an und führt zu deren Verdickung. Abbau von Plaques und Eliminierung von Amyloidprodukten brechen zusammen, Neuronen werden geschädigt ("Synaptic Degeneration"). Rechts: Die funktionell inaktive ("Loss of Function") Fibronektin-Variante lagert sich nicht an der Blut-Hirn-Schranke ab. Die Eliminierung von Amyloidprodukten kann erfolgen. Die Bildung von Amyloid-Plaques erfolgt in reduziertem Ausmaß/verzögert. (Bild von der Redaktion eingefügt aus: Bhattarai, P et al., [4], https://doi.org/10.1007/s00401-024-02721-1 und leicht modifiziert. Lizenz: cc-by.) |
"Von den noch nicht erkrankten (resiliente)n Menschen können wir viel über die Krankheit erfahren und darüber, welche genetischen und nicht-genetischen Faktoren einen Schutz davor bieten könnten", sagt Badri N. Vardarajan, PhD, ein Coautor der Studie. Offensichtlich wirkt eine Variante des Fibronektin-Gens schützend.
Als die Forscher den Preprint ihrer Ergebnisse veröffentlichten, haben andere Teams Daten aus anderen Bevölkerungsgruppen hinzugefügt, die diesen Zusammenhang stützten: Fibronektin schützt. Die Daten von mehr als 11 000 Personen zeigten, dass die Mutation die Wahrscheinlichkeit, an Alzheimer zu erkranken, bei APOEε4 -Trägern um 71 % verringert und den Ausbruch der Krankheit bei denjenigen, die sie entwickeln, um etwa vier Jahre verzögert. Abbildung 2.
Nur etwa 1 bis 3 Prozent der APOEε4 -Träger in den USA besitzen auch die schützende Fibronektin-Mutation, das sind immerhin 200.000 bis 620.000 Menschen, schätzen die Forscher. Dieser angeborene Schutzschild könnte die Forschung inspirieren und zur Entwicklung neuer Medikamente führen, die noch viel mehr Menschen helfen könnten.
Kizil fasst zusammen: "Es gibt einen signifikanten Unterschied im Fibronektinspiegel in der Blut-Hirn-Schranke zwischen kognitiv gesunden Menschen und Alzheimer-Patienten, unabhängig von ihrem APOEε4 -Status. Alles, was überschüssiges Fibronektin reduziert, sollte einen gewissen Schutz bieten, und ein Medikament, das dies tut, könnte ein bedeutender Fortschritt im Kampf gegen diese zehrende Krankheit sein."
[1] Arboleda-Velasquez JF et al., Resistance to autosomal dominant Alzheimer's disease in an APOE3 Christchurch homozygote: a case report. Nat Med. 2019 Nov;25(11):1680-1683. DOI: 10.1038/s41591-019-0611-3
[2] Chen Y et al., APOE3ch alters microglial response and suppresses Aβ-induced tau seeding and spread. Cell. 2024 Jan 18;187(2):428-445.e20. doi: 10.1016/j.cell.2023.11.029
[3] Lopera F. et al., Resilience to autosomal dominant Alzheimer’s disease in a Reelin-COLBOS heterozygous man. Nat Med 29, 1243–1252 (2023). https://doi.org/10.1038/s41591-023-02318-3
[4] Bhattarai, P., Gunasekaran, T.I., Belloy, M.E. et al. Rare genetic variation in fibronectin 1 (FN1) protects against APOEε4 in Alzheimer’s disease. Acta Neuropathol 147, 70 (2024). https://doi.org/10.1007/s00401-024-02721-1.
* Der Artikel ist erstmals am 18. April 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Mutations in Three Genes Protect Against Alzheimer’s" https://dnascience.plos.org/2024/04/18/mutations-in-three-genes-protect-against-alzheimers/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildung 2 plus Text wurden von der Redaktion aus der zitierten Publikation [4] eingefügt.
Im ScienceBlog: Zur Blut-Hirn-Schranke
Inge Schuster, 12.02.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum
Redaktion, 06.02.2020:Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?
Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.
In den Bergen von Europas Metallabfällen lagern Reichtümer
In den Bergen von Europas Metallabfällen lagern ReichtümerDo,18.04.2024 — Redaktion
Metalle sind für neue Technologien unverzichtbar, doch ihre Gewinnung hinterlässt Berge von Abfällen, die eine potenziell gefährliche Umweltbelastung darstellen aber auch Rohmaterial für das Recycling dieser Metalle und die Schaffung wertvoller Industriematerialien bieten. 2 EU-finanzierte Projekte haben sich mit diesem Problemkreis befasst mit dem Ziel eine weitestgehende Wiederverwendung/Verwertung der Abfallberge zu erreichen und nahezu kostendeckend vorzugehen: In "MoveAL" wurden Technologien zur Aufwertung von Bauxitrückständen – dem Nebenprodukt der Aluminiumherstellung - vorgestellt. In "NEMO" ging es um die Gewinnung von Metallen aus sulfidischen Bergbauabfällen mittels modernster Technologien der Biolaugung.*
In der westirischen Stadt Limerick wird auf dem Gelände einer Aluminiumhütte eine 500 Meter lange gepflasterte Straße gebaut, basierend auf einem Experiment, das Europa helfen könnte, Industrieabfälle zu reduzieren. Die Betonstraße auf dem Gelände der Aughinish-Hütte hat einen Unterbau aus Materialien, die Bauxitrückstände enthalten, die auch als Rotschlamm bekannt sind.
Schlammige Materialien
Rotschlamm ist das, was bei der Produktion von Aluminium übrig bleibt - dem Metall, das in allem und jedem - von Küchenfolie und Bierdosen bis hin zu Elektroautos und Flugzeugrümpfen - Anwendung findet. Aluminium wird aus Bauxit gewonnen, einem aluminiumhaltigen Gestein, das aus einem rötlichen Lehmboden entsteht. Während Aluminium im modernen Leben unzählige kommerzielle Verwendungsmöglichkeiten findet, ist dies bei Bauxitrückständen nicht der Fall. Der Schlamm landet in der Regel auf Mülldeponien, nimmt immer mehr Platz ein und stellt eine verpasste Recyclingmöglichkeit dar. Abbildung 1.
Abbildung 1. Rotschlamm, der bei der Aluminiumproduktion anfällt. EU-Forscher suchen nach industriellen Verwendungsmöglichkeiten. © Igor Grochev, Shutterstock.com |
Eine Gruppe von Forschern erhielt EU-Mittel, um diese Herausforderungen zu bewältigen, und kam auf die Idee, Bauxitrückstände für die Straße in der Aluminium-Hütte Aughinish zu verwenden. Ihr Projekt mit der Bezeichnung RemovAL (https://cordis.europa.eu/project/id/776469) hatte eine Laufzeit von fünf Jahren und lief bis April 2023.
"Deponierung ist eine Praxis, von der wir uns verabschieden wollen", sagte Dr. Efthymios Balomenos, der das Projekt koordinierte. "Selbst wenn die Umwelt nicht geschädigt wird, verbraucht man immer noch viel Platz und wirft die Hälfte des Materials weg."
Einfache Zahlen verdeutlichen die Problematik für Industrie und Gesellschaft:
Für jede Tonne Aluminium, die produziert wird, fallen etwa zwei Tonnen Bauxitrückstände an. Weltweit fallen jedes Jahr etwa 150 Millionen Tonnen Rotschlamm aus der Aluminiumproduktion an - das sind 20 Kilogramm pro Person weltweit. Davon werden nicht mehr als 3 % recycelt, der Rest kommt auf die Deponien. Weltweit lagern mehr als 4 Milliarden Tonnen Bauxitrückstände, und diese Zahl könnte sich bis 2050 auf 10 Milliarden Tonnen mehr als verdoppeln, so die Aluminium Stewardship Initiative (https://aluminium-stewardship.org/bauxite-residue-management-risks-opportunities-and-asis-role), eine standardsetzende Organisation, die auf "bahnbrechende Lösungen" für den Rotschlamm drängt.
Ideenlabors
Bauxit ist nach der französischen Stadt Les Baux benannt, in der das Erz 1821 entdeckt wurde.
In Europa fallen jährlich etwa 7 Millionen Tonnen Bauxitrückstände an. Der Rotschlamm wird zu künstlichen Hügeln aufgeschüttet, die der EU die Möglichkeit bieten, ihr Ziel einer Kreislaufwirtschaft mit mehr Recycling und weniger Abfall zu erreichen.
Am Projekt RemovAL waren eine Reihe akademischer und industrieller Teilnehmer beteiligt, darunter Aughinish Alumina, Rio Tinto in Frankreich und das griechische Bergbau- und Metallurgieunternehmen Mytilineos. Um Ideen für potenzielle kommerzielle Verwendungen von Bauxitrückständen zu testen, wurden Demonstrationsprojekte an Industriestandorten in Deutschland, Griechenland und Irland durchgeführt. Das primäre Ziel bestand darin, die Abfallmengen zu verringern und dies unter Vermeidung großer zusätzlicher Kosten.
"Unser Ziel war es, fast kostendeckend zu arbeiten und nahezu keine Abfälle zu erzeugen", so Balomenos, der als Berater bei Mytilineos tätig ist.
Straßen vorneweg
Das RemovAL-Team hat gezeigt, dass Bauxitrückstände als erste Fundamentschicht oder Unterbau für Straßen verwendet werden können. Der Unterbau einer Straße besteht in der Regel aus minderwertigem Schotter, liegt auf dem Boden auf und bildet einen stabilen Unterbau für die nächste, höherwertige Fundamentschicht.
Typischerweise bestehen Bauxitrückstände zu etwa zwei Fünfteln aus Eisenoxid, zu einem Fünftel aus Aluminiumoxid, zu 6 % aus Kieselsäure und zu 5 % aus Titan. Rotschlamm enthält sogar Seltene Erden - eine Gruppe von 17 Metallelementen mit besonderen Eigenschaften, die technologische Fortschritte in einer Reihe von Branchen ermöglichen.
"Das ist eine ganze Menge Material, selbst wenn man es nur als potenzielle Eisenquelle betrachtet", so Balomenos.
An den Standorten in Griechenland und Norwegen wurden im Rahmen des Projekts Bauxitrückstände in einem elektrischen Lichtbogenofen geschmolzen, um eine Eisenlegierung herzustellen, die sich für die Stahlherstellung eignet. RemovAL extrahierte auch die seltene Erde Scandium, die in der Luft- und Raumfahrtindustrie verwendet wird, um Festigkeit und Korrosionsbeständigkeit von Bauteilen sicherzustellen Anschließend wurde der verbleibende Rückstand zur Herstellung von Material verwendet, das der Zementmischung zugesetzt werden kann.
Die Vorführungen waren zwar ein technischer Erfolg, doch laut Balomenos gibt es noch immer Kostenhürden - vor allem, weil die Möglichkeiten zur Wiederverwendung von Bauxitrückständen weniger rentabel sind als die Verwendung von lokal beschafften "neuen" Rohstoffen.
"Letzten Endes ist die Deponierung die einzige finanziell tragfähige Option für die Industrie", sagt er.
Um den Aluminiumsektor umweltfreundlicher zu gestalten, müsse Europa Anreize wie Subventionen oder Vorschriften bieten, um die Verwendung von Bauxitrückständen und anderen metallurgischen Nebenprodukten gegenüber neu abgebauten Rohstoffen zu fördern, so Balomenos.
Weitere Metalle
Das Problem der Metallabfälle geht in Europa weit über das von Aluminium hinaus.
Andere von der EU unterstützte Forscher, zusammengeschlossen in einem Projekt namens NEMO (https://cordis.europa.eu/project/id/776846), haben versucht kommerzielle Verwendungsmöglichkeiten für Abfallhalden zu finden, die beim Abbau von Kupfer, Zink, Blei und Nickel anfallen.
In Europa gibt es schätzungsweise 28 Milliarden Tonnen Erzrückstände, so genannte Tailings, aus der früheren Produktion dieser Metalle, und jedes Jahr fallen weitere 600 Millionen Tonnen an.
Kupfer, Zink, Blei und Nickel sind für die Energiewende in Europa unerlässlich. Ohne sie wären Windturbinen, Elektrofahrzeuge und viele andere saubere Technologien nicht möglich. Doch die Abraumhalden haben einen eigenen ökologischen Fußabdruck. Diese Abfälle werden häufig in Absetzteichen gelagert, enthalten Schwefel und erzeugen bei Regen Schwefelsäure.
"Diese Schwefelsäure kann potenziell gefährliche Elemente in die Umwelt, den Boden und das Wasser auswaschen", so Dr. Peter Tom Jones, Direktor des KU Leuven Institute for Sustainable Metals and Minerals in Belgien. "Die saure Drainage von Minen ist eines der größten Probleme der Bergbauindustrie beim Umgang mit sulfidischen Erzen".
Vielversprechende Technik
Jones war Teilnehmer von NEMO, das im November 2022 nach viereinhalb Jahren endete.
Die Forscher haben Standorte in Finnland und Irland genutzt, um die Durchführbarkeit einer als Biolaugung bekannten Technik zu testen, mit der wertvolle Metalle aus Bergwerksabfällen entfernt und die verbleibenden Abfälle in ein Material umgewandelt werden können, das nicht nur sicherer ist, sondern auch als Zusatzstoff bei der Zementherstellung dienen könnte. Abbildung 2.
Abbildung 2. Das NEMO-Konzept. Sulfidhaltige Bergbaurückstände werden derzeit in der Regel in Haldenlagern abgelagert. NEMO zielt auf die weitere Behandlung dieser Rückstände ab, um wertvolle Metalle und Mineralien zu gewinnen, während gefährliche Elemente konzentriert und die Restmatrix in Zement und Baumaterialien verwendet werden. (Bild von Redn. Eingefügt. Quelle: https://h2020-nemo.eu/project-2/) |
Wertvolle Metalle können bereits durch ein Verfahren namens Auslaugung aus Abfällen zurückgewonnen werden. Dabei werden Chemikalien, in der Regel Säuren, eingesetzt, um die Metalle aufzulösen und aus dem Abfall herauszulösen, so dass sie zurückgewonnen werden können.
Die Biolaugung ähnelt zwar der chemischen Auslaugung, lässt aber lebende Organismen die Arbeit erledigen. Mikroben zehren von den Elementen in den Minenabfällen und schaffen dann eine saure Umgebung, die die Metalle auflöst. Das Verfahren hat das Potenzial, billiger und effektiver zu sein als die chemische Laugung.
Die Forscher haben gezeigt, dass die Biolaugung ein gangbarer Weg ist, um Metalle wie Nickel aus Abraum zu gewinnen. Die Qualität der Metalle wäre gut genug, um beispielsweise Batterien herzustellen. Sie fanden auch heraus, dass die Biolaugung mit zusätzlichen Rückgewinnungsverfahren wertvolle seltene Erden aus bestimmten Bergbauabfällen extrahieren könnte. Außerdem waren die Abfälle nach der Biolaugung weniger sauer und konnten zu einem Zusatzstoff für Zementmischungen verarbeitet werden.
Kostenfragen
Wie auch das RemovAL-Team stellten die NEMO-Forscher jedoch fest, dass diese Verfahren derzeit zu kostspielig sind, um kommerziell interessant zu sein.
"Es ist eine Sache, die Technologie zur Umwandlung von Abraum in wiedergewonnene Metalle und Baumaterialien zu entwickeln", so Jones. "Es ist etwas ganz anderes, dies auf eine Weise zu tun, die wirtschaftlich machbar ist."
Er sagt, dass die relativ geringen Mengen an kritischen Metallen in den Abgängen bedeuten, dass die Betriebskosten tendenziell höher sind als die potenziellen Einnahmen und dass daher der Abbau von Rohstoffen oft eine billigere Option ist, insbesondere wenn er in Niedriglohnländern erfolgt, in denen die Standards für Umwelt, Soziales und Unternehmensführung (ESG) niedriger sind.
Dennoch hat NEMO dazu beigetragen, Technologien zu entwickeln, die den Weg zu einer effizienten Rückgewinnung von Metallen aus abgebauten Materialien weisen und die Abfälle reinigen.
Mit dem richtigen Rechtsrahmen und den richtigen Anreizen könnten die Biolaugung und ähnliche neue Technologien wirtschaftlicher werden. In der Zwischenzeit können diese Verfahren Europa helfen, sein Ziel zu erreichen, die Versorgung mit kritischen Rohstoffen zu erweitern, indem Abraumhalden beseitigt und die Erzförderung verbessert wird.
*Dieser Artikel wurde ursprünglich am 12. April 2024 von Michael Allen in Horizon, the EU Research and Innovation Magazine unter dem Titel "The riches in Europe’s mountains of metals waste" https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/riches-europes-mountains-metals-waste publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 wurde von der Redaktion aus https://h2020-nemo.eu/project-2/ eingefügt.
Zur Verwertung der Abfallberge
EU-Research:
HORIZON: the EU Research & Innovation magazine: The riches in Europe’s mountains of metals waste (April 2024). Video 0:59 min. https://www.youtube.com/watch?v=gwiNoOPnf4E
- RemovAL: Removing the waste streams from the primary Aluminum production and other metal sectors in Europe. https://cordis.europa.eu/project/id/776469. Dazu: Aluminiumverarbeitung erstrahlt in neuem Glanz. https://cordis.europa.eu/article/id/436237-aluminium-processing-takes-on-new-lustre/de
- NEMO: Near-zero-waste recycling of low-grade sulphidic mining waste for critical-metal, mineral and construction raw-material production in a circular economy. https://cordis.europa.eu/project/id/776846. Dazu: Von Bergbauabfällen zum Schatz: nachhaltige Ressourcen für die Gesellschaft. https://cordis.europa.eu/article/id/436235-mine-tailings-to-treasure-providing-society-with-sustainable-resources/de
Aus der Max-Planck-Gesellschaft:
MPG: Grüner Stahl aus giftigem Rotschlamm (Jänner 2024). https://www.mpg.de/21440660/rotschlamm-aluminiumindustrie-gruener-stahl
Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min. https://www.youtube.com/watch?v=a_yUKX8zQfI
Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung
Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der ErderwärmungDo, 11.04.2024 — Roland Wengenmayr
Tropische Passatwolken wirken wie ein Kühlelement im Klimasystem: In der Äquatorzone dienen sie als Schutzschirm gegen die wärmende Sonnenstrahlung. Doch reduziert der menschengemachte Klimawandel möglicherweise ihre Dichte, sodass sich die Erderwärmung verstärkt? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Eurec4a-Feldstudie, die Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, mitinitiiert hat. Diese Studie hat mit vier Forschungsschiffen, fünf Flugzeugen und weiteren Instrumenten die tropischen Passatwolken untersucht und einen bislang unbekannten Feuchtigkeitskreislauf - die Flache Mesoskalige Umwälzzirkulation - entdeckt. Ein besseres Verständnis davon, wie sich in Passatwolken Niederschlag bildet und warum die Passatwolken verschiedene Formen annehmen, hilft Klimamodelle und ihre Prognosen zu präzisieren.*
Anfang 2020 versammelte die Klimaforschung vor Barbados eine See- und Luftflotte, wie sie vorher nur selten an den Start gegangen war: Vier Forschungsschiffe, darunter die beiden deutschen Schiffe Meteor und Maria S. Merian, und fünf Forschungsflugzeuge, darunter der Jet Halo des Deutschen Zentrums für Luft- und Raumfahrt (DLR), eine französische ATR -42 und eine US-amerikanische Lockheed WP-3D Orion Hurricane Hunter, gingen in den Tropen auf Wolkenjagd. Auf Barbados nahm das große Wolkenradar Poldirad des DLR seinen Betrieb auf. Abbildung 1. Mehr als 300 Forschende aus 20 Nationen beteiligten sich an dieser Großoperation. Das Untersuchungsobjekt: die kleinen, niedrigen Passatwolken.
Abbildung 1: Aufbau des Wolkenradars Poldirad (Polarisations-Doppler-Radar) auf Barbados. © MPI-M |
Eurec4a hieß die vierwöchige Kampagne, das steht für „Elucidating the role of clouds-circulation coupling in climate“, also „Klärung der Rolle der Wolken-Zirkulations-Kopplung für das Klima“. Natürlich spielt der Name auch auf Archimedes an; der soll beim Baden das Gesetz des Auftriebs entdeckt und gerufen haben: „Heureka!“ - „Ich habs gefunden!“ Darauf weist Bjorn Stevens hin, denn: „Bei Wolken geht es wirklich um Auftrieb!“ Der Direktor am Max-Planck-Institut für Meteorologie in Hamburg hat die Eurec4a -Kampagne gemeinsam mit seiner französischen Kollegin Sandrine Bony, Direktorin am Centre National de la Recherche Scientifique in Paris, konzipiert und geleitet. Unterstützt wurden sie vor Ort durch David Farrell, Leiter des Caribbean Institute for Meteorology und Hydrology. Stevens hat auch gemeinsam mit Farrell das Barbados Cloud Observatory am östlichsten Punkt der Insel aufgebaut, das 2010 in Betrieb ging.
Aber warum treibt die Klimaforschung einen solchen Aufwand um kleine Wölkchen in den Tropen?
Passatwolken sind niedrige Wolken, sie bilden sich schon in etwa 700 Metern Höhe und dehnen sich – meist – nur bis in zwei Kilometer Höhe aus. Dennoch stellen sie ein Schwergewicht im Klimasystem dar, weil sie so viele sind. Sie sind gesellig wie eine Schafherde und bedecken mehr als 30 Prozent der Gesamtfläche der Passatwindzone, die wie ein Gürtel ein Fünftel der Erde in den Tropen und Subtropen umspannt. Damit bilden die Wolken zusammen einen großen Spiegel, der einen beträchtlichen Teil der Sonnenstrahlung ins All reflektiert und somit die Erde kühlt. Da die Passatwolken eine viel größere Fläche bedecken als das Polareis und zudem fast senkrechter Sonneneinstrahlung ausgesetzt sind, ist ihre Spiegelwirkung für die Wärmestrahlung viel gewichtiger als die der großen Eisflächen in der Arktis und der Antarktis.
Würde nun die Dichte der Passatwolken mit dem Klimawandel abnehmen, dann hätte das erhebliche Auswirkungen auf das Erdklima. Diese Besorgnis lösten die Ergebnisse einiger Klimastudien aus, insbesondere eine wissenschaftliche Arbeit, die 2014 in der britischen Fachzeitschrift Nature erschien. Zugespitzt gesagt, war das Ergebnis dieser Klimasimulationen, dass die Erderwärmung die Passatwolken teilweise wegtrocknen könnte. Die Folge wäre also eine Verstärkung der Erwärmung, was wiederum die Passatwolken-Bedeckung reduzieren würde. „Positive Rückkopplung“ ist der Fachbegriff für einen solchen Teufelskreis.
Nun ist es so, dass die großen, erdumspannenden Klimamodelle zwar sehr zuverlässig geworden sind, wenn es um die Simulation globaler Trends geht: Dass die Menschheit durch ihre Emissionen von Treibhausgasen die Erde erwärmt, steht wissenschaftlich außer Zweifel. Aber mit der Simulation der Wolkenbildung und folglich mit der Frage, wie Wolken auf die Erderwärmung antworten werden, tun sich heutige Klimamodelle recht schwer. Sie konnten die kleinteiligeren Prozesse, die dabei eine Rolle spielen, nicht erfassen. Und es gibt immer noch Wissenslücken, wenn es um ein genaueres Verständnis geht, wie Wolken entstehen und wie sie sich verhalten. Deshalb sollte Eurec4a die Passatwolken vor Ort durchleuchten. Die vierwöchige Kampagne sollte Daten über ihr Entstehen und Vergehen sammeln, über ihre Reaktion auf wärmere, kältere, trockenere und feuchtere Wetteränderungen. Dazu liefen diverse Forschungsaktivitäten parallel, eng aufeinander abgestimmt. Den Kern dieser Wolkenforschung bildete ein zylinderförmiges Volumen von rund 10 Kilometern Höhe und circa 220 Kilometern Durchmesser. In diesem Volumen versuchte das Team vor allem die Luftbewegungen möglichst lückenlos zu erfassen, zusammen mit der transportierten Feuchtigkeit. Grundsätzlich entstehen Kumuluswolken, umgangssprachlich: Quellwolken, aus Luft, die wärmer ist als ihre Umgebung und mehr verdunstendes Wasser aufnehmen kann. Da Wassermoleküle leichter als Sauerstoffmoleküle sind, sorgt ein höherer Feuchtegehalt sogar für mehr Auftrieb als eine höhere Temperatur. Die Luft steigt auf, Konvektion entsteht.
In etwa 700 Metern Höhe kondensiere dann der mittransportierte Wasserdampf zu Wolkentröpfchen, erklärt Raphaela Vogel. Sie hat an Eurec4a teilgenommen und ist heute wissenschaftliche Mitarbeiterin der Universität Hamburg. „Deshalb haben diese Kumuluswolken unten an der Basis so eine messerscharfe Kante“, erklärt sie. Das kann man auch in Europa bei schönem Sommerwetter gut beobachten. Vogel hat am Max-Planck-Institut für Meteorologie promoviert und war als Postdoktorandin in Bonys Gruppe auf Barbados dabei. Ihre Aufgabe war es damals, das Flugprogramm als leitende Wissenschaftlerin zu koordinieren. Dazu flog sie meist auf der französischen ATR -42 mit, gelegentlich auch auf der deutschen Halo. Es sei eine sehr aufregende Zeit gewesen, erzählt sie begeistert, die Kampagne habe das internationale Team zusammengeschweißt.
Flugzeuge für jedes Wolkenstockwerk
Der deutsche Jet Halo war zuständig für das höchste Stockwerk. Er flog den oberen Kreisabschnitt des Zylinders im Lauf der vier Wochen 72-mal ab, hinzu kamen 13 solcher Rundflüge mit der amerikanischen WP-3D. Und jedes Mal saß Geet George im Heck, damals Doktorand in Stevens’ Gruppe und heute Assistenzprofessor an der Technischen Universität Delft. Er kümmerte sich um eine zentrale Messung: Auf exakt zwölf Positionen des 360-Grad-Rundkurses, wie die Fünfminutenstriche auf einem Uhrenziffernblatt, schoss er Wurfsonden aus dem Flugzeug. Diese schwebten dann an Fallschirmen die zehn Kilometer hinunter zur Meeresoberfläche. Ihre Pappröhren enthielten einen Sender, drei Sensoren für Druck, Temperatur und den relativen Feuchtegehalt der Umgebungsluft sowie einen GPS-Empfänger. Auf ihrem etwa zwölfminütigen Weg nach unten sendeten zwei- bis viermal pro Sekunde ihre Messwerte und Positionen an Halo. Besonders wichtig waren die GPS-Daten, denn sie lieferten die Information, wie weit der auf der jeweiligen Höhe herrschende Wind die Sonden zur Seite blies. Aus diesen Daten errechnete George, welche Luftmassen durch die gedachte Wand in das umzirkelte Messvolumen hineinflossen – oder hinaus. Da die Erhaltungssätze der Physik verbieten, dass Luft einfach verschwindet oder hinzukommt, lässt sich daraus errechnen, wie sich die Konvektion innerhalb des Zylinders verhält.
Abbildung 2: Mit einem Laser werden Eigenschaften der Wolken gemessen und daraus Temperatur und Feuchtigkeitsprofile abgeleitet. (Foto: MPI-M, F. Batier; © MPI-M ) |
Die französische ATR -42 hatte die Aufgabe, innerhalb des gedachten Messzylinders viel tiefer, auf Höhe der Wolkenbasis, zu fliegen. Besonders wichtig waren dabei Instrumente, die die Wolken seitlich mit Radar und Lidar, eine Art Laserscanner, abtasteten. Abbildung 2. Sie lieferten vor allem Informationen über die Wolkentröpfchen und deren Bewegungen. Damit diese Instrumente möglichst horizontal blickten, musste das Flugzeug waagerecht im Geradeausflug ausgerichtet sein. Daher flog die ATR -42 immer wieder einen Kurs ab, der wie bei einem römischen Wagenrennen aus zwei engen Kurven und langen geraden Streckenabschnitten bestand. Auch hier war Disziplin gefordert, selbst wenn es kaum Wolken gab, um in den vier Wochen ein Gesamtbild bei allen Wetterlagen zu erhalten. „Das war nicht immer leicht durchzusetzen“, erzählt Raphaela Vogel lachend, „wenn etwas weiter weg ein schönes Gewitter lockte.“ Im Nachhinein ist sie vor allem beeindruckt davon, wie zuverlässig die Eurec4a -Daten sind.
Aber was kam nun dabei heraus?
Dazu erklärt die Forscherin zunächst, was bei der Wolkenbildung grundsätzlich geschieht: Feuchte, von der Sonne erwärmte Luft steigt über dem Wasser auf, zum Ausgleich muss kühlere, trockene Luft aus größerer Höhe absinken. Wenn die feuchte Luft in diesem Konvektionsaufzug in die Höhe fährt, sinkt ihre Temperatur, und so kondensiert ein Teil des Dampfs zu Wolkentröpfchen. Diese feuchten, tröpfchenhaltigen Luftmassen vermischen sich mit den von oben kommenden trockeneren Luftmassen. Das lässt wieder einen Teil der Tropfen verdunsten. Dabei verschwindet das Wasser nicht, es wird nur wieder gasförmig und trägt so nicht zur Wolke bei. Ein wärmeres Klima allerdings könnte nun bewirken, dass sich weniger Wolkentröpfchen bilden, weil die von oben kommende Luft durch die Erderwärmung mehr Wasserdampf aufnehmen kann. Die Folge wäre, dass immer weniger Passatwolken entstehen, was wiederum – wegen der abnehmenden Spiegelwirkung – die Erderwärmung beschleunigen würde. Das wäre die bereits erwähnte positive Rückkopplung.
Abbildung 3. Quellwolken bilden sich dort, wo warme, feuchte Luft aufsteigt; zwischen den Wolken sinkt kühlere, trockene Luft hinab. Diese konvektive Strömung ist seit Langem bekannt. Im Eurec4a-Projekt haben Forschende nun eine mesoskalige Luftzirkulation über 100 bis 200 Kilometer entdeckt, die Feuchtigkeit dorthin bringt, wo die Wolken entstehen. Es ist daher nicht zu befürchten, dass die Passatwolken infolge der Erderwärmung wegtrocknen. © MPG |
Den Ergebnissen der Eurec4a -Kampagne zufolge ist diese Rückkopplung bei Weitem nicht so stark, wie einige Klimamodelle befürchten ließen. Abbildung 3. Das zeigte ein Team um Raphaela Vogel, zu dem auch Bjorn Stevens und Sandrine Bony gehörten, in einer Publikation über die wichtigsten Resultate der Feldstudie im Fachblatt Nature im Dezember 2022. „Das sind doch mal gute Neuigkeiten für uns Menschen“, sagt Raphaela Vogel. Warum das so ist, erklärt Geet George. Er war maßgeblich an einer zweiten wichtigen Veröffentlichung zu den Ergebnissen beteiligt, die im Juli 2023 in Nature Geoscience erschien. Entscheidend seien atmosphärische Zirkulationen, erklärt der Wissenschaftler, die so klein sind, dass sie durch das Raster bisheriger globaler Klimamodelle fallen.
Genug Nachschub an Feuchtigkeit
Diese „flachen mesoskaligen Umwälzzirkulationen“, englisch shallow mesoscale overturning circulations, erstrecken sich über Flächen in der Größenordnung des von Halo umflogenen Gebiets und reichen bis in etwa 1,5 Kilometer Höhe. „Mesoskalig“ bedeutet, dass es um Prozesse in mittelgroßen Räumen des Klimasystems von grob 100 bis 200 Kilometer Ausdehnung geht. Und diese Zirkulation durchmischt feuchte und trockene Luftmassen kräftiger, als einige globale Klimamodelle dies erwarten ließen. Grundsätzlich funktioniert sie wie die Konvektion, die Wolken entstehen lässt, nur dass sie sich genau in diesen mittelgroßen Räumen abspielt, die bei Barbados umflogen wurden. Sie liefert genügend Nachschub an Feuchtigkeit, um das Wegtrocknen der Wolkentröpfchen in einer wärmeren Umgebung weitgehend auszugleichen. Die aufsteigende, feuchte Luft und die fallende, trockene Luft bilden zusammen die aufsteigenden und absteigenden Teile der flachen, mesoskaligen Zirkulation – wie bei einem altmodischen Paternosteraufzug, der mit unterschiedlich besetzten Kabinen auf einer Seite hinauf- und daneben hinunterfährt.
„Wir haben ein neues Zirkulationssystem identifiziert, das die Variabilität in der Wolkenbedeckung beeinflusst“, bilanziert Bjorn Stevens. „Und dieser Mechanismus existiert in unseren bisherigen Klimamodellen nicht!“ Die Entdeckung, wie bedeutend diese flache Zirkulation in Räumen von etwa 100 bis 200 Kilometern für die heutige und zukünftige Existenz der Passatwolken ist, war die wichtigste Erkenntnis von Eurec4a.
Darüber hinausgab es noch andere neue Einsichten ins Wolkengeschehen, zum Beispiel wie Bewegung und Organisation der Passatwindwolken den Niederschlag aus ihnen beeinflussen. Unter welchen Bedingungen aus Wolkentröpfchen Regen, Schnee oder Hagel wird, kann die Klimaforschung noch nicht genau erklären, dies ist aber für Wettervorhersagen und Simulationen regionaler Klimaveränderungen relevant. Um die Niederschlagsbildung in Passatwolken besser zu verstehen, hat Jule Radtke als Doktorandin am Max-Planck-Institut für Meteorologie die Messungen von Poldirad auf Barbados ausgewertet. „Poldirad“ steht für Polarisations-Doppler-Radar. Dieser technische Terminus besagt im Kern, dass das Großgerät über das Radarecho sehr genau die Bewegungen der Tröpfchen in einer Wolke verfolgen kann. Normalerweise steht Poldirad am DLR-Standort in Oberpfaffenhofen. Mit finanzieller Unterstützung der Max-Planck-Förderstiftung wurde die Anlage für Eurec4a demontiert und auf einem Schiff über den Atlantik geschickt. Nach mehreren Monaten kam sie in Barbados an und blieb erst einmal in den Zollformalitäten stecken. Doch trotz aller Hindernisse gelang es dem Team, das Radargerät rechtzeitig in der Nähe des Barbados Cloud Observatory in Betrieb zu nehmen.
Blumen und Fische am Himmel
Abbildung 4. In den Tropen und Subtropen bilden sich in einem Gürtel, in dem der Passatwind vorherrscht, zahllose vielgestaltige Wolken, die das Klima kühlen, da sie Sonnenlicht reflektieren. Die hier gezeigten Formen werden als Blume bezeichnet. (Foto: MPI für Meteorologie / NASA World view.) |
Radtke untersuchte mit Daten von Poldirad, welchen Einfluss das Herdenverhalten der Passatwolken auf ihren Niederschlag hat. „Früher hieß es immer, dass diese kleinen Passatwindwolken Schönwetterwolken sind, die nicht hoch wachsen und daher auch nicht regnen“, sagt die Klimaforscherin, „und dass sie sich eher zufällig verteilen.“ Schon vor Eurec4a war aber klar, dass dieses Bild nicht stimmt. Radtke kam zu dem Ergebnis, dass der Herdentrieb einen deutlichen Einfluss auf das Regenverhalten der Wolken hat. Drängen sich die Wolken stärker zusammen, regnet es aus ihnen öfter. Denn offenbar schützen sie sich gegenseitig vor der Sonne. Das bewirkt eine feuchtere Atmosphäre und verhindert, dass Regentropfen wieder verdunsten, bevor sie den Boden erreichen. Dafür regnet es aus den Wolken in der Herde schwächer, weil in ihnen weniger Regen gebildet wird. „Das könnte daran liegen, dass da auch jüngere oder ältere Wolken mit herumhängen“, sagt Radtke lachend,„die noch nicht oder nicht mehr zum Niederschlag beitragen.“
Dass die Selbstorganisation der Wolken sehr komplex ist, hatte Bjorn Stevens’ Team schon in der Vorbereitungsphase zu Eurec4a entdeckt. Mithilfe von Maschinenlernen und Mustererkennung hatten die Hamburger in Satellitenbildern vier verschiedene Herdenmuster identifiziert, die sie „Zucker (Sugar)“, „Kies (Gravel)“, „Blumen (Flowers)“ und „Fisch (Fish)“ tauften. Letztere Struktur erinnert tatsächlich an ein Fischskelett. Gemeinsam mit Hauke Schulz, der heute an der University of Washington in Seattle forscht, untersuchte Stevens unter anderem, ob ein hochauflösendes Klimamodell, das auf ein kleineres Gebiet beschränkt ist, um Rechenleistung zu sparen, mit den Eurec4a -Daten diese Muster simulieren kann. Für „Fisch“ und „Kies“ gelang die Simulation schon recht gut, für „Blumen“ nicht. Wie wichtig es ist, dass zukünftige Klimamodelle diese Strukturen ganz genau simulieren können, das sei noch offen, betont Stevens. Zumindest die durchschnittliche Wolkenbedeckung müssen die Modelle jedenfalls möglichst genau berechnen, die Wolkenform könnte dabei ein relevanter Faktor sein. Abbildung 4. Die Lehre aus Eurec4a sei, dass Klimamodelle grundsätzlich viel feiner gestrickt sein müssen, um solche mesoskaligen Vorgänge auch in einem künftigen, wärmeren Klima simulieren zu können.
Bjorn Stevens ist optimistisch, dass die hochauflösenden Klimamodelle der Zukunft wesentlich genauere Vorhersagen für kleinräumige Vorgänge ermöglichen werden. Erst wenn Klimamodelle die Prozesse in der Atmosphäre noch besser erfassen, können sie etwa regionale Klimaveränderungen genauer prognostizieren. Dabei hilft sicher auch, dass der Klimaforschung immer leistungsfähigere Supercomputer zur Verfügung stehen. Die Feldforschung in der Natur werden aber auch diese Computer nicht ersetzen können. Im August und September 2024 läuft die Nachfolge-Feldstudie Orcestra, und wieder wird Barbados die Basis sein.
Vogel, R., Albright, A.L., Vial, J. et al. Strong cloud–circulation coupling explains weak trade cumulus feedback. Nature 612, 696–700 (2022).https://doi.org/10.1038/s41586-022-05364-y
George, G., Stevens, B., Bony, S. et al. Widespread shallow mesoscale circulations observed in the trades. Nat. Geosci. 16, 584–589 (2023). https://doi.org/10.1038/s41561-023-01215-1
* Der Artikel ist erstmals im Forschungsmagazin 1/2024 der Max-Planck-Gesellschaft unter dem Titel "Ein Schirm aus Blumenwolken"https://www.mpg.de/21738713/W004_Umwelt-Klima_052-057.pdf erschienen und wird mit Ausnahme des Titels und des Abstracts in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)
Klima/Klimawandel im ScienceBlog
ist ein Themenschwerpunkt, zu dem bis jetzt 52 Artikel erschienen sind.
Das Spektrum reicht von den Folgen des Klimawandels über Strategien der Eindämmung bis hin zu Klimamodellen: Klima & Klimawandel
Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen
Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangenDo, 04.04.2024 — Inge Schuster
Obwohl Fluor zu den am häufigsten vorkommenden Elementen der Erdkruste zählt, hat die belebte Natur von der Schaffung fluorierter organischer Verbindungen abgesehen, da sie offensichtlich mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen inkompatibel sind. Vor 70 Jahren haben synthetisch hergestellte fluororganische Verbindungen, insbesondere per- und polyfluorierte Alkylverbindungen (PFAS) ihren Siegeszug durch die Welt angetreten. Deren herausragende Eigenschaften - Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser - haben sich leider auch als enorm hohe Persistenz gegenüber natürlich entstandenen Abbaumechanismen erwiesen. Dass PFAS in Umwelt und Organismen akkumulieren, war den führenden Industrieunternehmen schon länger bekannt, im Bewusstsein der akademischen Welt und der Bevölkerung samt ihren zögerlich agierenden Vertretern ist das Problem erst im Jahr 2000 angekommen.
Fluor, das leichteste Element aus der Grupe der Halogene (7. Hauptgruppe im Periodensystem, die auch Chlor, Brom und Jod enthält) ist extrem reaktiv und bildet mit nahezu allen Elementen des Periodensystems enorm feste Verbindungen. In der Erdkruste gehört Fluor zu den am häufigsten vorkommenden Elementen und liegt hier in Form von anorganischen Verbindungen - in Mineralien wie u.a. Flussspat, Fluorapatit und Kryolith - vor. Von minimalen Ausnahmen abgesehen hat die belebte Natur allerdings für Fluor keine Verwendung gefunden: Seitdem vor rund 80 Jahren die erste natürlich entstandene Fluorkohlenstoff-Verbindung, die Fluoressigsäure (CH2FCO2H, Abbildung 1), entdeckt wurde, hat man trotz immer besser werdender Analysemethoden und einer immer größeren Fülle an untersuchbarer Spezies erst um die 30 natürlich entstandene Fluorkohlenstoff-(fluororganische)-Verbindungen gefunden, zumeist von der Fluoressigsäure abgeleitete Fluor-Fettsäuren und Fluoraminosäuren. Deren Vorkommen ist auf einige wenige Pflanzenarten, Bakterienstämme (Streptomyces) und eine Meeresschwammart beschränkt. Die bereits erwähnte Fluoressigsäure wird u.a. vom südafrikanischen Strauch Gifblaar synthetisiert und - offensichtlich zur Abwehr von Fressfeinden - in dessen Blättern gespeichert: es ist eine hochgiftige Verbindung, es heißt: "ein Blatt reicht um eine Kuh zu töten". Die Toxizität beruht auf der strukturellen Ähnlichkeit mit der Essigsäure, die eine zentrale Rolle im Stoffwechsel aller aerober Organismen spielt: Fluoressigsäure wird an deren Stelle in den Citratzyklus eingeschleust und bringt diesen zum Erliegen.
Abbildung 1: Fluororganische Verbindungen werden nahezu ausschließlich synthetisch durch Menschenhand hergestellt. Beschreibung der abgebildeten Substanzen im Text. |
Die Natur verzichtet auf fluororganische Verbindungen
Die Bindung von Fluor an Kohlenstoff ist die stärkste Einfachbindung in der organischen Chemie, bei weitem stärker als dessen Bindung zu den anderen Elementen Wasserstoff, Sauerstoff, Stickstoff, Schwefel und Phosphor und sie nimmt an Stärke noch zu, wenn mehrere Fluoratome am selben Kohlenstoff gebunden sind, wie beispielsweise im Tetrafluorkohlenstoff (CF4) mit einer Dissoziationsenergie von 130 kcal/mol oder in den künstlich hergestellten Per- und Polyfluoralkyl Stoffen.
Wird in einer Kohlenstoff-Wasserstoffbindung der Wasserstoff durch ein Fluoratom ersetzt, so ändert sich die Größe des gesamten Moleküls nur wenig, da der Atomradius von Fluor nicht viel größer als der von Wasserstoff ist. Das modifizierte Molekül wird meistens noch in die Bindungsstelle seines vormaligen Enzyms, seines vormaligen Rezeptors passen; allerdings haben sich seine Gesamteigenschaften verändert und damit die Spezifität und Stärke der Bindung und damit die Auswirkungen auf den vormaligen Rezeptor/das Enzym und dessen Funktion im Stoffwechsel verändert: i) Der Ersatz von Wasserstoff kann aber zu einer anderen Stereochemie des Moleküls geführt haben, wenn ein asymmetrisches (im Spiegelbild nicht deckungsgleiches - chirales) C-Atom entstanden ist. ii) Da Fluor das elektronegativste, d.i. das am stärksten Elektronen anziehende Element ist, weist die Kohlenstoff-Fluorbindung ein Dipolmoment (δ+C–δ−F) mit negativer Teilladung am Fluor auf. Fluor kann so mit (partiell) positiv geladenen Atomen wie dem an Sauerstoff oder Stickstoff gebundenen Wasserstoff Bindungen - Wasserstoffbrücken - ausbilden. (Auswirkungen eines teilweisen Einbaus von Fluor auf die Basenpaarungen der DNA oder auf die Wechselwirkungen zwischen Proteinen? Undenkbar) iii) Mit der Einführung von Fluor hat die Lipophilie der Verbindung und damit die Löslichkeit in und der Durchtritt durch Membranen zugenommen. iv) Wenn es vor allem um den Abbau/das Recyceln der fluorierten Verbindung geht - die Kohlenstoff-Fluor-Bindung lässt sich durch bereits entwickelte Enzymsysteme nicht so leicht wie eine Kohlenstoff- Wasserstoff-Bindung auflösen.
In Summe: fluorierte organische Verbindungen erweisen sich als nur wenig kompatibel mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen.
Fluororganische Verbindungen sind also anthropogen
Die Produktion derartiger Stoffe begann vor 90 Jahren mit dem Halogenkohlenwasserstoff Freon-12 (Dichlordifluormethan - CCl2F2; Abbildung 1), einem ungiftigen, verflüssigbaren Gas, das als Kältemittel in Kühlsystemen und später auch als Treibgas in Sprühdosen eingesetzt wurde. Als erkannt wurde, dass Freon und weitere Halogenkohlenwasserstoffe auf die schützende Ozonschicht der Erde zerstörend wirken, wurde deren Herstellung und Verwendung ab 1987 über das Montreal Protokoll verboten.
Zwei Entwicklungen haben dann einen ungeahnten Boom an synthetisch produzierten Fluorverbindungen ausgelöst.
In der medizinischen Chemie
wurde 1954 mit dem Aldosteronderivat Fludrocortison (Abbildung 1) erstmals ein fluoriertes Pharmazeutikum erfolgreich auf den Markt gebracht, das von der WHO in die Liste der essentiellen Arzneimittel aufgenommen wurde. Die gezielte Einführung von Fluor gehörte bald zu den aussichtsreichsten Strategien der medizinischen Chemie, um die Wirkdauer und insgesamt die Wirksamkeit von Entwicklungssubstanzen zu optimieren. Zwei Fluor-Effekte sind dabei von besonderer Bedeutung: i) Fluorierung an Schwachstellen, d.i. an leicht metabolisierbaren Stellen eines Moleküls soll diese Reaktionen erschweren/verhindern und damit die biologische Stabilität der Verbindung und dadurch deren Blutspiegel und Wirkdauer erhöhen. ii) Fluorierung erhöht den lipophilen Charakter von Molekülen und soll so deren Durchtritt durch Lipidmembranen und damit deren Aufnahme in den Organismus und in seine Zellen erleichtern.
In den letzten 3 Jahrzehnten hat der Anteil der fluorierten Wirkstoffe besonders stark zugenommen - bis zu 50 % der neu registrierten synthetischen Pharmaka enthalten heute ein oder mehrere Fluorgruppen und insgesamt über 20 % aller derzeit im Handel erhältlichen Arzneimittel sind bereits Fluorpharmazeutika.
Neue Untersuchungen weisen allerdings auch auf eine Kehrseite der Fluorierung hin: In chemisch instabilen Molekülen und im Verlauf von enzymatischen Reaktionen kann auch die sehr feste Kohlenstof-Fluor-Bindung heterolytisch gespalten werden (d.i. die Bindungselektronen bleiben am Fluor) und Fluorid (F-) wird freigesetzt [Yue Pan, 2019]. Diese Freisetzung lässt sich sehr gut an verschiedenen, mit dem 18Fluor-Isotop markierten Verbindungen verfolgen, die zur Diagnose und auch zur Therapie diverser Tumoren in der Positron-Emissionstomographie (PET) eingesetzt werden (beispielsweise: [Ying-Cheng Huang et al.2016]).
Chronisch anhaltende Fluorid-Zufuhr von täglich mehr als 10 mg Fluorid kann zu schmerzhaften Veränderungen in Knochen und Gelenken (Skelettfluorose) führen. Ein klinisch belegtes Beispiel für die Freisetzung von Fluorid und dessen Folgen bietet das Antimykotikum Voriconazol, das bei Langzeittherapie zu erhöhten Fluoridspiegeln im Plasma und als Folge zu schmerzhaften Beinhautentzündungen und Knochenwucherungen führen kann.
In industriellen Anwendungen
hat die Entdeckung von Teflon (Polytetrafluorethylen, Abbildung 1) und seinen herausragenden Eigenschaften seit den 1950er Jahren zur Entwicklung von mehr als 10 000 unterschiedlichen Stoffen aus der Kategorie der per- und polyfluorierten Alkylverbindungen (PFAS) geführt; dies sind Verbindungen an denen die Wasserstoffatome an den Kohlenstoffatomen ganz oder teilweise durch Fluoratome ersetzt sind (Abbildung 1). Aufgrund der Chemikalienbeständigkeit und wasser-, hitze-, und schmutzabweisenden Eigenschaften wurden und werden PFAS in diversesten Artikeln eingesetzt. Das Spektrum reicht von Feuerlöschschaum bis hin zu wasserdichter Bekleidung, von schmutzabweisenden Beschichtungen bis zu antihaftbeschichtetem Kochgeschirr, von Dichtungsmaterial bis hin zu in Chemielabors und in der Medizintechnik verwendeten inerten Materialien. Zwei der in verschiedenen Anwendungen am häufigsten verwendeten PFAS-Verbindungen sind Perfluoroctansäure (PFOA) und Perfluoroctansulfonsäure (PFOS) (Abbildung 1). Diese langkettigen Stoffe entstehen durch Umweltprozesse auch aus anderen instabileren PFAS.
Die Widerstandsfähigkeit dieser ungemein nützlichen Stoffe ist leider auch die Basis ihrer negativen Auswirkungen auf Mensch und Umwelt: Geschützt durch die dichte Hülle aus Fluoratomen ist das Kohlenstoffskelett praktisch nicht abbaubar; die "Ewigkeitschemikalien" akkumulieren in Boden und Grundwasser und gelangen über Wasser und Nahrungsketten in Mensch und Tier.
Abbildung 2: Die weit verbreitete Verwendung von PFAS hat dazu geführt, dass diese in der Umwelt nun allgegenwärtig sind. Das Vorhandensein von PFAS im Ökosystem bedeutet, dass sie in verschiedene terrestrische und aquatische Nahrungsketten und -netze gelangen und schließlich den Menschen als Endverbraucher erreichen (Quelle: Figure 3 in Wee, S.Y., Aris, A.Z. (2023). https://doi.org/10.1038/s41545-023-00274-6.. Lizenz: cc-by) |
Für den Haushalt war es eine großartige Erneuerung: Ab den 1960er Jahren konnten Stoffe, Teppiche, Polstermöbel u.a. mit dem Fleckenschutzmittel Scotchgard der US-amerikanischen Firma 3M imprägniert werden. Erst als sich im Jahr 2000 herausstellte, dass der Hauptbestandteil von Scotchgard, das langkettige Perfluoroctanylsulfonat (PFOS; Abbildung 1), bereits in der Umwelt und in der menschlichen Bevölkerung nachweisbar geworden war, hat eine hektische Forschung zu möglichen Konsequenzen von PFAS, insbesondere von PFOS und PFOA, auf Mensch und Umwelt begonnen. Seit 2000 sind In der Datenbank PubMed (https://pubmed.ncbi.nlm.nih.gov//; abgerufen am 2.4.2024) jeweils rund 5000 Untersuchungen über PFOS und ebenso viele über PFOA erschienen, darunter rund 1300 zur Toxizität, etwa 1700 zur Exposition des Menschen gegenüber PFOS und PFOA und rund 300 zur Schaffung von unproblematischeren Alternativen. Eine kürzlich erschienene Arbeit gibt einen umfassenden Überblick über die Freisetzung von PFAS aus diversen Produkten und die Wege, die zur Exposition des Menschen führen ([Wee, S.Y., Aris, A.Z. (2023)]; graphisch zusammengefasst in Abbildung 2).
Die wachsende Sorge über die Umweltverschmutzung mit PFAS und die gesundheitlichen Auswirkungen von langkettigen PFAS, insbesondere PFOA und PFOS, haben zu Bemühungen geführt, die Produktionsmethoden zu regulieren und Richtlinien zur Überwachung festzulegen (im Stockholmer Übereinkommen über persistente organische Schadstoffe, https://www.pops.int/). Der größte PFAS-Produzent, die 3M Company und auch der globale Player DuPont haben die Produktion und Verwendung von PFOA uns PFOS bereits eingestellt und andere Unternehmen folgen. Allerdings gibt es - vor allem in Kontinentalasien - neue Hersteller von langkettigen PFAS.
Die Europäische Chemikalienagentur (ECHA) hat im März 2024 die nächsten Schritte für die wissenschaftliche Bewertung des Beschränkungsdossiers für PFAS vorgestellt. Der Vorschlag sieht vor, dass PFAS nur noch in Bereichen zum Einsatz kommen dürfen, in denen es auf absehbare Zeit keine geeigneten sicheren Alternativen geben wird bzw. wo die sozioökonomischen Vorteile die Nachteile für Mensch und Umwelt überwiegen. Tatsächlich gibt es ja für viele dieser Stoffe - u.a. in den Chemielabors (Schläuche, inerte Gefäße) und in der medizinischen Anwendung (Stents, Prothesen) keine offensichtlichen Alternativen.
Die Problematik der Abwägung von Risiko und alternativlosem Inverkehrbringen bestimmter PFAS-Produkte und die hohe Persistenz dieser Produkte lassen befürchten, dass PFAS noch lange Zeit unsere Böden und Gewässer kontaminieren werden.
Die PFAS- Exposition
Menschen und Tiere sind permanent PFAS-Kontaminationen ausgesetzt, viele davon sind es bereits seit Jahrzehnten. PFAS gelangen in unsere Organismen durch direkten Kontakt über die Haut oder durch Inhalation oder über den Verdauungstrakt, d.i. über kontaminierte Nahrung und Trinkwasser. Im Organismus angelangt sind langkettige PFAS praktisch nicht abbaubar, zirkulieren, werden nur sehr langsam ausgeschieden und akkumulieren, solange die Aufnahme aus kontaminierten Quellen weiter besteht. Angaben über die Verweildauer im Organismus beruhen häufig auf Schätzungen und gehen weit auseinander.
Konkretere Zahlen hat eine Studie an 106 Personen aus Ronneby (Schweden) geliefert, deren Trinkwasser von der Mitte der 1980er Jahre an mit PFAS kontaminiert war (Quelle: Löschschaum von einem nahegelegenen Flugfeld). Nach Bereitstellung von sauberem Wasser Ende 2013 wurden über 33 Monate lang die PFAS-Spiegel im Blutserum und daraus die Halbwertszeiten des Absinkens bestimmt: die Mittelwerte lagen für PFOA bei 2,7 Jahren, für PFOS bei 3,5 Jahren und für das kürzerkettige PFHxS (Perfluorohexane sulfonate) bei 5,3 Jahren.
Erschreckend hoch waren die anfänglichen Serumspiegel, die im Mittel für PFHxS bei 277 ng/ml (12 - 1 660), für PFOS bei 345 ng/ml (24 - 1 500) und für PFOA bei 18 ng/ml (2,4 - 9,2) lagen [Li Y, Fletcher T, Mucs D, et al., 2019].
Diese Serumwerte sind vor dem Hintergrund des Leitfadens der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/ zu sehen:
a) < 2 ng / mL , gesundheitsschädliche Wirkungen sind nicht zu erwarten;
b) 2 - 20 ng / mL , mögliche schädliche Wirkungen, insbesondere bei empfindlichen Bevölkerungsgruppen; und
c) > 20 ng / mL , erhöhtes Risiko für schädliche Wirkungen. Säuglinge und Kleinkinder gelten als besonders empfindlich gegenüber PFAS-Exposition.
Wie groß das Problem der menschlichen Exposition bereits ist, wird aus der Kontamination des Trinkwassers mit den sehr häufig verwendeten PFOA und PFOS ersichtlich, die bereits weltweit detektierbar sind. Abbildung 3 zeigt Höchstwerte, die in einzelnen Regionen gemessen wurden, wobei die US und Schweden mit ihrer umfangreichen Produktion und Konsum von PFAS Hotspots bilden [Wee S.Y., Aris, A.Z. (2023)]. Die Produktion von PFAS in diesen Ländern wurde zwar eingestellt und hat dort zu einem Absinken der Blutspiegel geführt. Dafür hat die Produktion in den Entwicklungsländern erheblich zugenommen. Emission von PFAS und Kontamination werden auch vom Wohlstand (dem BIP) der einzelnen Gebiete beeinflusst, der unmittelbar mit Produktion, Verbrauch und Entsorgung von PFAS-Produkten zusammen hängt.
Abbildung 3: Produktion und globale Verbreitung/Verwendung von PFOA und PFOS spiegeln sich in der Kontamination des Trinkwassers wieder. Konzentrationen in Oberflächen- und Grundwasser, in Leitungswasser und in abgefülltem Wasser sind gemessene Maximalwerte in den einzelnen Staaten und sind in erster Linie auf die anhaltende Verschmutzung durch verschiedene Erzeuger, unvollständige Beseitigungsmethoden und unzureichende Überwachung- und Managementpraktiken erklärbar. NA: keine Angaben.(Quelle: Figure 4 in Wee S.Y., Aris, A.Z. (2023) https://doi.org/10.1038/s41545-023-00274-6. Lizenz: cc-by. Grundkarte mit freundlicher Genehmigung von https://www.mapchart.net/; Lizenz cc-by-sa.) |
Die am häufigsten verwendeten PFAS werden wohl noch viele Jahre in der Umwelt gemessen werden können (insbesondere in der Nähe von Flughäfen und Militärstützpunkten), zu der Vielfalt der bereits produzierten und angewandten Tausenden anderen PFAS mit unterschiedlichen Eigenschaften fehlen ausreichend Informationen über Kontaminierungen, Expositionen und mögliche Gesundheitsrisiken und das gilt auch für die neu eingeführten PFAS-Ersatzstoffe.
Ein globales Gesundheitsproblem
Dass akkumulierende PFAS unserer Gesundheit schaden, ist unbestritten auch, wenn die Mechanismen wie und wo PFAS was bewirken noch ziemlich unbekannt sind.
PFAS sind stark lipophile Moleküle, die sich mehr und mehr in Membranen einlagern (und dort wie und was stören). Enzyme (vor allem aus den Cytochrom P450-Familien) scheitern am Versuch PFAS mittels aktiviertem Sauerstoff abzubauen. Sie setzen bloß den aktivierten Sauerstsoff (ROS) frei, der dann Entzündungsreaktionen auslöst, während PFAS-Moleküle weiter unbehelligt für Jahre im Organismus zirkulieren können und immer mehr werden.
Eine Fülle an gesundheitlichen Beeinträchtigungen wurde mit PFAS in Verbindung gebracht - vor allem Leberschäden, Krebserkrankungen im Umfeld von Produktionsstandorten mit sehr hoher Exposition, Nierenerkrankungen, Schilddrüsenerkrankungen, neurodegenerative Erkrankungen und der gesamte Komplex der Fettstoffwechselstörungen und damit verbundene Herz-Kreislauferkrankungen [Sunderland et al., 2019].
Ausreichende Evidenz für einen Zusammenhang mit der PFAS-Exposition gibt es bislang erst für wenige Krankheiten/Auswirkungen auf die Gesundheit. Die oben erwähnten "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" hat diese 2022 zusammengefasst. Es sind dies:
- verminderte Antikörperreaktion (bei Erwachsenen und Kindern),
- Fettstoffwechselstörung (Dyslipoproteinämie; bei Erwachsenen und Kindern),
- vermindertes Wachstum von Säuglingen und Föten und
- erhöhtes Risiko für Nierenkrebs (bei Erwachsenen).
Seit der Einführung der PFAS-Materialien und dem Bekanntwerden der damit für Umwelt und Gesundheit verbundenen Probleme sind Jahrzehnte ungenützt verstrichen. Dass sich die Industrie bereits viel früher über diese Risiken ihrer Erfindungen im Klaren war, ist in höchstem Maße erschreckend. Der für seine lebenslangen Forschungen über Umwelt verschmutzende Chemikalien berühmte Umweltmediziner Philippe Grandjean fasst diesen skandalösen Umstand und die zögerlichen Reaktionen der Entscheidungsträger in einem überaus kritischen, 2018 publizierten Artikel zusammen (Übersetzt aus [P. Grandjean, 2018]):
"Frühe Forschungsergebnisse über die Exposition gegenüber PFAS in der Umwelt und ihre Auswirkungen auf die Gesundheit wurden erst mit erheblicher Verzögerung verfügbar und bei den ersten Regulierungsentscheidungen zur Verringerung der Exposition nicht berücksichtigt. Erst in den letzten zehn Jahren hat sich die umweltmedizinische Forschung auf die PFAS konzentriert und wichtige Risiken für die menschliche Gesundheit, z. B. für das Immunsystem, aufgedeckt. Obwohl die Richtwerte für PFAS im Trinkwasser im Laufe der Zeit gesunken sind, sind sie immer noch zu hoch, um vor einer solchen Toxizität zu schützen. Während die am häufigsten verwendeten PFAS noch viele Jahre in der Umwelt verbleiben werden, werden neue PFAS-Ersatzstoffe eingeführt, obwohl nur wenige Informationen über negative Gesundheitsrisiken verfügbar sind. In Anbetracht der gravierenden Verzögerungen bei der Entdeckung der Toxizität von PFAS, ihrer Persistenz in der Umwelt und ihrer Auswirkungen auf die öffentliche Gesundheit sollten PFAS-Ersatzstoffe und andere persistente Industriechemikalien vor einer weit verbreiteten Verwendung einer eingehenden Forschungsprüfung unterzogen werden."
Grandjean tritt auch als Topexperte in einer 2023 erschienenen Dokumentation auf, die enthüllt, was die PFAS-Produzenten Dupont und 3M schon früh über die Risiken ihrer Verbindingen wussten. [Zembla - The PFAS Cover-up; 2023].
Zitierte Literatur:
Grandjean P. Delayed discovery, dissemination, and decisions on intervention in environmental health: a case study on immunotoxicity of perfluorinated alkylate substances. Environ Health. 2018 Jul 31;17(1):62. DOI: 10.1186/s12940-018-0405-y
Leitfaden der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/
Sunderland EM, Hu XC, Dassuncao C, Tokranov AK, Wagner CC, Allen JG. A review of the pathways of human exposure to poly- and perfluoroalkyl substances (PFASs) and present understanding of health effects. J Expo Sci Environ Epidemiol. 2019 Mar;29(2):131-147. DOI: 10.1038/s41370-018-0094-1
Wee, S.Y., Aris, A.Z. Revisiting the “forever chemicals”, PFOA and PFOS exposure in drinking water. npj Clean Water 6, 57 (2023). https://doi.org/10.1038/s41545-023-00274-6
Li Y, Fletcher T, Mucs D, et al. Half-lives of PFOS, PFHxS and PFOA after end of exposure to contaminated drinking water. Occup Environ Med 2018;75:46–51. doi: DOI: 10.1136/oemed-2017-104651
Ying-Cheng Huang et al., Synthesis and Biological Evaluation of an 18Fluorine-Labeled COX Inhibitor—[18F]Fluorooctyl Fenbufen Amide—For Imaging of Brain Tumors. Molecules 2016, 21, 387; doi: 10.3390/molecules21030387
Yue Pan, The Dark Side of Fluorine. ACS Med. Chem. Lett. 2019, 10, 1016−1019. DOI: 10.1021/acsmedchemlett.9b00235
Zembla - The PFAS Cover-up. Video 51.03 min. https://www.youtube.com/watch?v=y3kzHc-eV88
Verwandte Themen imScienceBlog
Redaktion, 21.03.2024: Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft
Roland Wengenmayr, 11.03.2021: Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial
Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?
Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft
Kunststoffchemikalien: ein umfassender Report zum Stand der WissenschaftDo,21.03.2024 — Redaktion
Ein bestürzender Report ist vergangene Woche erschienen (M.Wagner et al., 2024): Wissenschafter aus Norwegen und der Schweiz haben einen umfassenden Überblick über mehr als 16 000 Chemikalien gegeben, die zur Produktion von Kunststoffen verwendet werden, in diesen potentiell enthalten sind und von diesen freigesetzt werden können. Von mehr als 9000 dieser Substanzen fehlen Angaben wo und wie sie eingesetzt werden, bei mehr als 10 000 Substanzen gibt es keine Informationen zum Gefährdungsrisiko. Über 4 200 Kunststoffchemikalien werden als bedenklich betrachtet, da sie persistent sind und/oder sich in der Biosphäre anreichern und/oder toxisch sind, davon unterliegen 3 600 weltweit keinen Regulierungen. Eine Schlussfolgerung der Forscher: bedenkliche Chemikalien können in allen Kunststoffarten vorkommen.Um zu besserer Chemikaliensicherheit und Nachhaltigkeit zu gelangen, empfehlen sie ein Bündel an Maßnahmen zur politischen Umsetzung.
Die wichtigsten Aussagen der Forscher werden im folgenden Artikel ungefiltert aufgezeigt: in Form der "Executive Summary" des Reports, die hier in deutscher Übersetzung und ergänzt mit einigen Abbildungen aus dem Report vorliegt.
Das Ausmaß der Chemikalien bei Kunststoffen
Chemikalien sind ein essentielles Merkmal aller Materialien und Produkte aus Kunststoff und der Schlüssel, um deren Vorzüge zu erzielen. Allerdings werfen Kunststoffchemikalien erhebliche Bedenken zu Umwelt und Gesundheit auf. Die Vielfalt der Kunststoffchemikalien und ihre problematischen Eigenschaften machen eine umfassende Analyse zum Schutz der menschlichen Gesundheit und der Umwelt während des gesamten Lebenszyklus von Kunststoffen erforderlich. Der PlastChem-Bericht "State-of-the-science on plastic chemicals" gibt einen sorgfältigen und umfassenden Überblick über den aktuellen wissenschaftlichen Kenntnisstand der chemischen Dimension von Kunststoffen, einschließlich der Gefahren, Funktionen, Verwendungen, Produktionsmengen und des rechtlichen Status von Kunststoffchemikalien [1].
Warum spielen Kunststoffchemikalien eine Rolle?
Abbildung 1. Anzahl der Chemikalien von denen die Verwendung bei der Kunststoffproduktion, das Vorhandenseins in den Kunststoffen und die Freisetzung aus Kunststoffen nachgewiesen ist. Chemikalien mit unschlüssigen Ergebnissen sind ebenfalls angeführt. Bei den Informationen über Verwendung, Vorhandensein und Freisetzung gibt es erhebliche Überschneidungen, so dass hier für jede Chemikalie der höchste Beweisgrad angegeben wird. (Quelle: Figure 7 in M. Wagner et al., 2024,[1]. von Redn. deutsch übersetzt. Lizenz cc-by-sa-nc-4.0.) |
Die weltweite Kunststoffindustrie verwendet eine Vielzahl von Chemikalien, von denen viele nachweislich die Umwelt verschmutzen und schädliche Auswirkungen auf Wildtiere, Menschen und Ökosysteme haben. Viele andere Kunststoffchemikalien sind noch unzureichend untersucht (Abbildung 1).
Die bekannten nachteiligen Auswirkungen in Verbindung mit Datenlücken und bruchstückhaften wissenschaftlichen Erkenntnissen stellen ein gewaltiges Hindernis für die Bewältigung der Risiken dar, die durch die Belastung mit Chemikalien während des gesamten Lebenszyklus von Kunststoffen entstehen. Darüber hinaus verhindert dies auch den Übergang zu einer schadstofffreien Zukunft, indem es Innovationen im Hinblick auf sicherere und nachhaltigere Materialien und Produkte behindert.
Was ist über Kunststoffchemikalien bekannt?
Abbildung 2. Anzahl der Kunststoffchemikalien nach ihrem jährlichen Produktionsvolumen. Die Zahlen sind kumuliert, d. h. die Anzahl der Chemikalien mit ≥10 Tonnen umfasst alle Chemikalien mit einem höheren Produktionsvolumen. (Quelle: Figure 5 in M. Wagner et al., 2024,[1].Lizenz cc-by-sa-nc-4.0.) |
Der Bericht über den Stand der Wissenschaft fasst die Erkenntnisse über mehr als 16 000 Chemikalien zusammen, die potentiell in Kunststoffmaterialien und -produkten verwendet werden oder enthalten sind. Nur 6 % dieser Chemikalien unterliegen derzeit internationalen Regulierungen, obwohl eine weitaus größere Zahl in großen Mengen hergestellt wird und ein hohes Expositionspotenzial aufweist. Abbildung 2 gibt einen Überblick über Zahl und Produktionsvolumina von Kunststoffchemikalien.
Mehr als 4200 Kunststoffchemikalien sind bedenklich, weil sie persistieren, in der Biosphäre akkumulieren, mobil und/oder toxisch (PBMT) sind. Was unter diesen Gefährdungskriterien zu verstehen ist, zeigt Abbildung 3.
Abbildung 3. Abbildung 3. Die 4 Gefährdungskriterien Persistenz, Bioakkumulation, Mobiliät und Toxizität - PBMT. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; von Redn. deutsch übersetzt.Lizenz cc-by-nc-sa-4.0.), |
Über 1300 der bedenklichen Chemikalien sind zur Verwendung in Kunststoffen auf dem Markt, und 29 - 66 % der verwendeten oder in gut untersuchten Kunststoffarten gefundenen Chemikalien sind bedenklich.
Dies bedeutet, dass bedenkliche Chemikalien in allen Kunststoffarten vorkommen können.
Der Bericht zeigt auch eklatante Datenlücken auf: Bei mehr als einem Viertel der bekannten Kunststoffchemikalien fehlen grundlegende Informationen über ihre Identität, und bei mehr als der Hälfte sind die Informationen über ihre Funktionen und Anwendungen in der Öffentlichkeit unklar oder fehlen ganz (siehe Abbildung 1). Darüber hinaus sind die Daten zum Produktionsvolumen nicht weltweit repräsentativ und auf bestimmte Länder beschränkt.
Abbildung 4. Übersicht über Kunststoffchemikalien, die als gefährlich, weniger gefährlich und ungefährlich eingestuft sind und von denen keine Gefährdungsdaten vorliegen. Die rechte Seite zeigt, welche Gefahrenkriterien (PBMT: siehe Abb.3) und Eigenschaften die betreffenden Chemikalien erfüllen. Abkürzungen: STOT: spezifische Organ-Toxizität; CMR: carcinogen, mutagen, reproduktionsschädigend; EDC: endokriner Disruptor; POP: persistierende organische Pollution; PBT: persistent, bioakkumulierend, toxisch; PMT: persistent, mobil, toxisch; vPvB: sehr persistent, sehr bioakkumulierend; vPvM: sehr persistent, sehr mobil. (Quelle: Figure 11 in M. Wagner et al., 2024,[1]. von Redn. modifiziert und deutsch übersetzt. Lizenz cc-by-nc-sa-4.0.) |
Besonders wichtig ist, dass für mehr als 10 000 Chemikalien keine Informationen über die Gefahren vorliegen, obwohl diese Informationen für eine ordnungsgemäße Bewertung und Handhabung dieser Chemikalien unerlässlich sind (Abbildung 4). Dies unterstreicht den Bedarf an transparenteren Informationen über die Identität, die Gefahren, die Funktionen, die Produktionsmengen und das Vorkommen von Kunststoffchemikalien in Kunststoffen.
Auf welche Kunststoffchemikalien kommt es besonders an?
Der Bericht skizziert einen systematischen Ansatz zur Identifizierung und Prioritätensetzung von besorgniserregenden Chemikalien, wobei ein gefahren- und gruppenbasierter Rahmen verwendet wird, der auf vier entscheidenden Gefährdungskriterien (PBMT; Abbildung 3) basiert. Diese Methode ermöglicht eine effiziente Identifizierung von Chemikalien, die weitere politische Maßnahmen erfordern. Ein solcher Ansatz löst auch die großen Herausforderungen, die mit der Risikobewertung von mehr als 16.000 Kunststoffchemikalien verbunden sind, einschließlich des immensen Ressourcenbedarfs, der Investitionen und der technischen Herausforderungen zur Ermittlung zuverlässiger Expositionsdaten (d. h. der Konzentration von Kunststoffchemikalien in der Umwelt, in der Tierwelt und beim Menschen).
Unter Anwendung eines strengen und umfassenden gefahren- und gruppenbasierten Ansatzes werden in dem Bericht 15 prioritäre Substanzgruppen bedenklicher Kunststoffchemikalien identifiziert (Abbildung 5) und über 4200 bedenkliche Chemikalien, von denen ca. 3600 derzeit weltweit nicht reguliert sind. Außerdem werden zusätzliche Strategien zur weiteren Priorisierung von Kunststoffchemikalien für politische Maßnahmen vorgestellt und Ansätze zur Identifizierung bedenklicher Polymere aufgezeigt
Abbildung 5. Prioritäre 15 Substanzgruppen von Kunststoffchemikalien, die Anlass zu Besorgnis sind. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.), |
Wie kann diese Evidenz in politische Maßnahmen umgesetzt werden?
Empfehlung 1: Umfassende und effiziente Regulierung von Kunststoffchemikalien
Die große Zahl und die vielfältigen bekannten Gefahren erfordern neue Ansätze, um Kunststoffchemikalien umfassend und effizient zu regeln. Dies kann durch die Umsetzung eines gefahren- und gruppenbasierten Ansatzes zur Ermittlung bedenklicher Kunststoffchemikalien erreicht werden. Eine solche Strategie ist von entscheidender Bedeutung, um die Grenzen der derzeitigen Bewertungssysteme zu überwinden und die Innovation hin zu sichereren Kunststoffchemikalien zu fördern.
Dementsprechend sollten die politischen Entscheidungsträger die PBMT-Kriterien übernehmen und den 15 Gruppen und 3600 bedenklichen Chemikalien Vorrang bei der Regulierung einräumen, da sie derzeit auf globaler Ebene nicht reguliert sind.
Empfehlung 2: Transparenz bei Kunststoffchemikalien fordern
Mehr Transparenz bei der chemischen Zusammensetzung von Kunststoffen ist unerlässlich, um Datenlücken zu schließen, ein umfassendes Management von Kunststoffchemikalien zu fördern und Rechenschaftspflicht über die gesamte Wertschöpfungskette von Kunststoffen zu schaffen. Eine einheitliche Berichterstattung, die Offenlegung der chemischen Zusammensetzung von Kunststoffmaterialien und -produkten sowie ein "Keine Daten, kein Markt"-Ansatz werden empfohlen, um sicherzustellen, dass wesentliche Informationen über Kunststoffchemikalien öffentlich zugänglich werden. Dies dient dem doppelten Zweck, Sicherheitsbewertungen und Entwicklung von sichereren Kunststoffen zu erleichtern.
Empfehlung 3: Vereinfachung von Kunststoffen in Richtung Sicherheit und Nachhaltigkeit
Die vielen auf dem Markt befindlichen Kunststoffchemikalien erfüllen oft ähnliche und manchmal unwesentliche Funktionen. Diese Komplexität und Redundanz stellen ein großes Hindernis für Governance und Kreislaufwirtschaft dar. Das Konzept der chemischen Vereinfachung bietet die Möglichkeit, die Auswirkungen von Kunststoffen zu verringern, indem ein innovationsfreundlicher und evidenzbasierter Weg in die Zukunft eingeschlagen wird. Die Vereinfachung kann durch die Förderung von Maßnahmen erreicht werden, die die Verwendung von weniger und sichereren Chemikalien begünstigen, sowie durch die Annahme von Konzepten für die erforderliche Verwendung und die sichere Gestaltung, um Innovationen zu lenken.
Empfehlung 4: Aufbau von Kapazitäten zur Entwicklung sichererer und nachhaltigerer Kunststoffe
Um Kunststoffchemikalien wirksam zu handhaben und Innovationen in Richtung sicherer und nachhaltiger Kunststoffe zu fördern, sollten im öffentlichen und privaten Sektor technische, institutionelle und kommunikative Kapazitäten aufgebaut werden. Dazu gehört die Förderung des globalen Wissensaustauschs, die Schaffung eines gleichberechtigten Zugangs zu technischen Fähigkeiten und die Verbesserung der institutionellen Ressourcen für ein effektives Management von Kunststoffchemikalien. Durch die Einrichtung einer Plattform für den Wissensaustausch, die internationale Zusammenarbeit und die Zuteilung von Ressourcen regt der Bericht zu kollektiven Anstrengungen an, um gemeinsame Lösungen zu entwickeln und sicherzustellen, dass Wissen, Technologie und Infrastruktur auf offene, faire und gerechte Weise verfügbar sind.
Abbildung 6. Kunststoffchemikalien: Stand der Wissenschaft und empfohlene Maßnahmen zur politischen Umsetzung. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.), |
Abbildung 6. fasst den derzeitigen wissenschaftlichen Stand über Kunststoffchemikalien und die empfohlenen Maßnahmen zur politischen Umsetzung zusammen.
Welche positiven Auswirkungen hat es sich mit Kunststoffchemikalien zu befassen?
Eine umfassende Auseinandersetzung mit besorgniserregenden Kunststoffchemikalien und -polymeren wird erheblichen Nutzen für Umwelt und menschliche Gesundheit mit sich bringen, Innovationen zu sichereren Kunststoffchemikalien, -materialien und -produkten fördern und den Übergang zu einer untoxischen Kreislaufwirtschaft unterstützen. Die vorgeschlagenen Konzepte für Kunststoffchemikalien und Polymere sollen den Stand der Wissenschaft mit den politischen und rechtlichen Rahmenbedingungen in Einklang bringen und so eine fundierte Entscheidungsfindung und verantwortungsvolle Innovationen in allen Sektoren erleichtern.
Da kein Land in der Lage ist, das grenzüberschreitende Problem der Kunststoffchemikalien und -polymere allein anzugehen, ist dem Stand der Wissenschaft entsprechend eine kollektive globale Reaktion am besten geeignet, um die Auswirkungen auf Umwelt und Gesundheit zu mindern. Eine evidenzbasierte Politik, die der Chemikaliensicherheit und Nachhaltigkeit Vorrang einräumt, wird einen Weg zu einer sicheren und nachhaltigen Zukunft bieten.
Der PlastChem-Bericht:
Martin Wagner, Laura Monclús, Hans Peter H. Arp, Ksenia J. Groh, Mari E. Løseth, Jane Muncke, Zhanyun Wang, Raoul Wolf, Lisa Zimmermann (14.03.2024) State of the science on plastic chemicals - Identifying and addressing chemicals and polymers of concern. http://dx.doi.org/10.5281/zenodo.10701706. Lizenz: cc-by-sa-4.0.
Der Bericht
- wird von einer öffentlich zugänglichen, umfassenden Zusammenstellung von Informationen über bekannte Kunststoffchemikalien begleitet, der PlastChem-Datenbank: plastchem_db_v1.0.xlsx
- wurde am 14. März 2024 im Rahmen einer Online-Veranstaltung des Geneva Environment Network vorgestellt: Launch and Panel Discussion: State of the Science on Plastic Chemicals. Video 1:30:25 (mit Transkript) https://www.youtube.com/watch?v=zM-xbq_QyG8
- ist im Vorfeld der April-Sitzung des Fourth Intergovernmental Negotiating Committee on Plastic Pollution (INC-4, in Ottawa, Ontario) erschienen, eines Ausschusses des Umweltprogramms der Vereinten Nationen, der bis Ende des Jahres ein globales Plastikabkommen mit 175 Ländern ausarbeiten soll.
Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?
Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?Fr, 15.03.2024 — Ricki Lewis
Im Labor aus tierischen Zellen gezüchtetes Fleisch ist bislang ein Fehlschlag geblieben. Schlangen könnten eine neue Quelle für die Fleischzucht darstellen. Eine australische Forschergruppe hat mehr als 4600 Tiere von zwei großen Pythonarten über 12 Monate hinweg auf Farmen in Thailand und Vietnam - wo Schlangenfleisch als Delikatesse gilt - untersucht. Sie haben festgestellt, dass Pythons hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit sind und in der Lage Proteine weitaus effizienter als alle anderen bisher untersuchten Arten zu produzieren. Die Genetikerin Rick Lewis berichtet über Pythonzucht als eine der Antworten auf eine Klimawandel-bedingte, weltweite Ernährungsunsicherheit.*
Die Biotechnologie hat viele Probleme gelöst, von rekombinanter DNA und monoklonalen Antikörpern über Gentherapie und Transplantation von Stammzellen bis hin zu Impfstoffen auf RNA-Basis und gentechnisch veränderten Pflanzen, die Krankheiten und Pestiziden widerstehen.
Im Gegensatz dazu ist das so genannte kultivierte Fleisch bisher ein Fehlschlag geblieben.
Eine ausführliche Stellungnahme dazu von Joe Fassler ist in der New York Times vom 9. Februar unter dem Titel Die Revolution, die auf dem Weg zur Mahlzeit verkommen ist (The Revolution That Died on Its Way to Dinner ) erschienen. Der Autor setzt sich darin mit den unrealistischen Erwartungen, Verkettungen und Pannen auseinander, die verhindert haben, was er sich unter "einer Hightech-Fabrik mit Stahltanks" vorstellt, "die so hoch sind wie Wohnhäuser, und Fließbändern, die jeden Tag Millionen Kilo fertig geformter Steaks ausrollen - genug, um eine ganze Nation zu ernähren."
Die Herstellung von Fleisch
Gezüchtetes Fleisch zielt darauf ab, Fleisch außerhalb von Körpern nachzubauen. Es handelt sich dabei nicht um einen mit Erbsenprotein voll gepackten Beyond Burger oder einen raffiniert auf Hämoglobin basierenden Impossible Burger, sondern um tierische Zellen, die in einer Suppe aus Nährstoffen gebraut werden, unter Zusatz von Hormonen, welche die Entwicklung in Richtung Muskel-, Fett- und Bindegewebe lenken, um das Ergebnis dann in Formen zu bringen, die Restaurantgerichten ähneln.
Wenn wir so geheimnisvolle Lebensmittel wie Hot Dogs, Fischstäbchen, Gyros und Chicken Nuggets essen können, warum dann nicht auch einen gezüchteten Fleischklumpen?
Das Mantra für Fleischesser besagt, dass bei den im Labor gezüchteten Sorten keine Tiere getötet werden und der Zerstörung von Wäldern zwecks Schaffung von Weideflächen entgegen gewirkt werden könne. Seit 2016 sind Milliarden in die Erforschung von kultiviertem Fleisch investiert worden, entstanden sind aber nur eine Handvoll Produkte, in Singapur, den Vereinigten Staaten und Israel.
Als Biologin kann ich mir nicht vorstellen, wie man geschmackvolle Teile eines Tierkörpers reproduzieren kann, die im Laufe der Jahrtausende von der Evolution immer mehr verfeinert wurden. Würden die Züchter Aktin- und Myosinfasern dazu bringen, sich zu Skelettmuskelfasern zu verflechten, welche der Form nach einem Ribeye-Steak oder einem Kronfleisch entsprechen? Wie genau reproduziert das Gebräu aus Nährstoffen und Hormonen die biochemischen Kaskaden, welche Zellteilung und Zelldifferenzierung bei der Bildung von Organen aus nicht-spezialisierten Vorläuferzellen organisieren? Würden die Versuche stattdessen zu einem Mischmasch von Zelltypen führen?
Und dann ist da noch die Frage des Scale-ups. Ein Prototyp für 10.000 Dollar ist nicht gerade ermutigend.
Als ob diese Herausforderungen nicht schon entmutigend genug wären, haben einige Versuche, Fleisch zu züchten, zu Produkten geführt, die Zellen von Mäusen oder Ratten enthalten. Huch! Nun, das sind auch Säugetiere.
Fleischzüchter - die Unternehmen
Mehr als 20 Unternehmen forschen an kultiviertem Fleisch, darunter Upside Foods, New Age Eats, BlueNalu, das zellgezüchteten" Blauflossenthunfisch anbietet und Shiok Meats aus Singapur mit kultivierten Krustentiere (sogenannten Meeresfrüchten).
Auf der Website von Vow (Sidney, Australien) werden die einzelnen Schritte der Fleischzüchtung sobeschrieben (https://www.vowfood.com/what-we-do):
- "Zellkuration: Wir züchten die perfekte Kombination von Zellen hinsichtlich ihrer Fähigkeit zur Selbsterneuerung und für idealen Geschmack, Textur und Aromen.
- Vorbereiten und nähren: Wir fügen essenzielle Mikronährstoffe zu, die dazu beitragen, ein schmackhaftes, strukturiertes Fleischprofil zu erzeugen. Es ist wie Ihre bevorzugte Rezeptur, aber auf molekularer Ebene, und bietet Qualität, Reinheit und Konsistenz besser als jedes andere Fleisch. Immer.
- Purer Nährwert: Wir setzen die Zellen in unsere klimatisierten Kultivatoren und sorgen so für einen natürlichen Verlauf der Bildung von Muskel-, Fett- und Bindegewebe auf die sicherste Art und Weise.
- Wir verpacken sie zu einer Reihe von Markenprodukten für den Verbraucher."
Warum sind Schlangen interessant?
Ökonomischer als der Versuch, die Natur nachzubilden und zu verändern, um Steaks und Sushi zu züchten, könnte es sein, neue Quellen für die Fleischzucht zu finden. Diesbezüglich ist kürzlich unter dem Titel "Pythonzucht als flexible und effiziente Form der landwirtschaftlichen Nahrungsmittel-sicherheit (Python Farming as a flexible and efficient form of agricultural food security) eine Arbeit in Scientific Report erschienen [1]. Darin untersuchen Daniel Natusch und seine Kollegen von der Macquarie University in Sydney die Möglichkeit, Reptilien zu züchten, die ja in Asien bereits ein Grundnahrungsmittel sind.
Abbildung 1. Netzpython (links) und Burmesischer Python (rechts). Die beiden Arten leben hauptsächlich in den Tropen Südostasiens und gehören zu größten Schlangen der Welt. Ausgewachsene weibliche Netzpythons werden bis zu 7 m lang und bis zu 75 kg schwer. Burmesische Pythons sind etwas kleiner. Die Tiere sind Fleischfresser, verzehren u.a. Nagetiere aber auch mache Insekten (Grillen). (Quellen: Links: Rushenby, Malayopython reticulatus, Reticulated python - Kaeng Krachan District, Phetchaburi Province (47924282891) cc-by-sa. Rechts: gemeinfrei.) |
Die Forscher haben die Wachstumsraten von 4.601 Netzpythons und burmesischen Pythons in zwei Farmen in Thailand und Vietnam analysiert. Abbildung 1.Die Tiere wurden wöchentlich mit wild gefangenen Nagetieren und Fischmehl gefüttert und ein Jahr lang wöchentlich gewogen und gemessen.
Wie die Forscher berichten, sind Schlangen eine gute Nahrungsquelle. Im Vergleich zu Hühnern, Kühen und Ziegen fressen sie nicht oft. Und 82 % der Masse einer lebenden Schlange können zu "verwertbaren Produkten" werden, schreiben die Forscher.
Beide Arten sind schnell gewachsen - bis zu 46 Gramm pro Tag, wobei die Weibchen schneller wuchsen als die Männchen. Die Wachstumsrate in den ersten beiden Lebensmonaten sagte am besten die spätere Körpergröße voraus.
Die Forscher wählten außerdem 58 Schlangen auf der Farm in Ho Chi Minh Stadt (Vietnam) aus und fütterten sie mit unterschiedlicher proteinreicher Kost, u.a. mit Huhn, Schweinefleischabfällen, Nagetieren und Fischmehl. Für je 4,1 Gramm verzehrter Nahrung konnten die Forscher 1 Gramm Pythonfleisch ernten. "Hinsichtlich des Verhältnisses von Nahrung und Proteinverwertung übertreffen Pythons alle bisher untersuchten landwirtschaftlichen Arten", schreiben die Forscher.
Ein weiteres positives Ergebnis: die Reptilien konnten über lange Zeiträume (20 bis zu 127 Tage) fasten, ohne viel an Körpermasse zu verlieren - rein theoretisch könnte man das Füttern für ein Jahr aussetzen - was bedeutet, dass sie weniger Arbeit für die Fütterung benötigten als herkömmliche Zuchttiere.
Und ja, Schlangenfleisch schmeckt wie Huhn aber geschmackvoller.
Anmerkung der Redaktion
Die Washington Post hat den Artikel von Natusch et al., [1] gestern unter dem Titel "Want a more sustainable meat for the grill? Try a 13-foot python steak." kommentiert https://www.washingtonpost.com/climate-solutions/2024/03/14/snake-meat-food-sustainability-python/:
Wenn auch Schlangen in absehbarer Zeit wohl kaum einen großen Teil der westlichen Ernährung ausmachen werden, so spricht dennoch Einiges für eine Pythonzucht als Antwort auf eine weltweite Ernährungsunsicherheit infolge des Klimawandels.
Pythons sind recht einfach zu halten -sie sind von Natur aus sesshaft und koexistieren problemlos mit anderen Schlangen. Es gibt nur wenige der komplexen Tierschutzprobleme, die bei Vögeln und Säugetieren in Käfigen auftreten.
Pythons sind hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren. Sie brauchen sehr wenig Wasser. Ein Python kann von dem Tau leben, der sich auf seinen Schuppen bildet. Theoretisch könnte man einfach ein Jahr lang aufhören, sie zu füttern.
In einer Welt, in der Prognosen zufolge der Klimawandel zu extremeren Wetter- und Umweltkatastrophen führen wird, ist eine Art, die hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit ist und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren, "fast ein wahr gewordener Traum".
[1] Natusch, D., Aust, P.W., Caraguel, C. et al. Python farming as a flexible and efficient form of agricultural food security. Sci Rep 14, 5419 (2024). https://doi.org/10.1038/s41598-024-54874-4
* Der Artikel ist erstmals am 14. März 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Cultivated Meat? Let Them Eat Snake" https://dnascience.plos.org/2024/03/14/cultivated-meat-let-them-eat-snake/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Artikel in ScienceBlog.at
I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?
Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle
Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden EizelleDo, 07.03.2024 — Christina Beck
Laut einer 2023 veröffentlichten Studie der Weltgesundheitsorganisation ist jeder sechste Mensch im gebärfähigen Alter zumindest zeitweise unfruchtbar. Prof. Dr. Melina Schuh, Direktorin am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen) und ihr Team erforschen den Reifungsprozess der Eizelle und zeigen, dass und warum dieser sehr fehleranfällig ist und zu falscher Chromosomenverteilung (Aneuploidie) in der Eizelle führen kann: Diesen Eizellen dürfte ein wichtiges Motor-Protein (KIFC1) zur Stabilisierung der Maschine fehlen, welche die Chromosomen während der Zellteilung korrekt trennen sollte. Das Einbringen dieses Motor-Proteins in menschliche Oozyten stellt somit einen möglichen neuen Ansatz dar, um Kinderwunsch erfolgreicher behandeln zu können. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber und über den bislang noch nicht völlig verstandenen Prozess, der am Anfang unseres Lebens steht.*
Global sind 17,5 Prozent aller Männer und Frauen demnach an einem Punkt in ihrem Leben davon betroffen, kein Kind zeugen zu können. Ausgewählt und ausgewertet wurden dazu 133 aus weltweit mehr als 12.000 Studien, die zwischen 1990 und 2021 entstanden sind. In Deutschland ist fast jedes zehnte Paar zwischen 25 und 59 Jahren ungewollt kinderlos. Die Gründe dafür sind vielfältig und – das ist wichtig zu wissen – betreffen beide Geschlechter. Tatsächlich sind die medizinischen Ursachen für Unfruchtbarkeit bei Männern und Frauen gleichverteilt (Abbildung 1). Die Hauptursache für ungewollte Kinderlosigkeit liegt hierzulande vor allem darin, dass die Menschen sich immer später für eine Elternschaft entscheiden. Das betrifft Männer wie Frauen gleichermaßen. Das Alter der Erstgebärenden ist in den vergangenen Jahrzehnten stetig gestiegen, ebenso wie das der Väter.
Abbildung 1: Verteilung der Unfruchtbarkeit: Verschiedene physiologische Faktoren können zur Unfruchtbarkeit beitragen und betreffen die Frau, den Mann oder beide Partner. Die prozentualen Anteile unterscheiden sich je nach Studie und untersuchten Kriterien. Die Angaben in der Abbildung stellen ungefähre Werte dar. (© Zahlen nach Forti, G. (1998), doi: 10.1210/jcem.83.12.5296 // Grafik: HNBM CC BY-NC-SA 4.0) |
So waren einer Studie des Max-Planck-Instituts für demografische Forschung in Rostock zufolge schon 2013 sechs Prozent aller Neuväter in Deutschland 45 Jahre oder älter und damit fast drei Mal so viele wie noch 1995. Es ist zwar richtig, dass Männer im Durchschnitt deutlich länger fruchtbar sind als Frauen. Etwa ab 40 bis 50 Jahren verschlechtert sich jedoch die Funktion der Spermien, weil sich genetische Defekte in den Samenzellen häufen. Wenn es insgesamt mehr Spermien mit Chromosomenstörungen gibt, dann dauert es länger, bis die Frau schwanger wird. Und abgesehen vom Alter gibt es weitere Faktoren, die die Zeugungsfähigkeit von Männern einschränken können – medizinische ebenso wie durch den Lebensstil implizierte wie Alkohol, Rauchen oder Übergewicht.
Keine lebenslange Reserve
Bei Frauen enden die fruchtbaren Jahre deutlich früher. Im Alter zwischen 20 und 24 Jahren haben sie ihre höchste Fruchtbarkeit. Je älter Frauen werden, desto mehr sinkt jedoch die Wahrscheinlichkeit, schwanger zu werden, während die Wahrscheinlichkeit einer Unfruchtbarkeit ansteigt (Abbildung 2). Und das hängt ganz maßgeblich mit den Eizellen zusammen. So wird eine Frau bereits mit ihrer gesamten Reserve an Eizellen geboren. Im Laufe des Lebens entstehen keine neuen Eizellen mehr. Bei Geburt sind rund eine Million unreife Eizellen (Oozyten) angelegt. Die meisten sterben ab – zu Beginn der Pubertät sind noch etwa 300.000 übrig. Ihre Zahl nimmt dann weiter kontinuierlich ab. Bei einer von 100 Frauen ist die Eizellreserve bereits vor dem 40. Lebensjahr komplett erschöpft. Auch die Qualität der Eizellen sinkt ab dem 35. Lebensjahr deutlich. So steigt der Anteil jener Eizellen, die eine von der Norm abweichende Anzahl an Chromosomen aufweisen (man bezeichnet diese Eizellen als aneuploid). Bei Frauen ab 35 Jahren treten bei mehr als 50 Prozent der Eizellen Aneuploidien auf. Man spricht hier vom „maternal age effect“ (mütterlicher Alterseffekt).
Abbildung 2: Die biologische Uhr tickt © Quellen: Carcio, H. A.: Management of the Infertile Woman; Rosenthal, M. S.: The Fertility Sourcebook (1998) // Grafik: HNBM |
Am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften in Göttingen erforscht das Team um Melina Schuh die Entwicklung von Eizellen – und was dabei alles schief gehen kann. Denn tatsächlich sind bereits bei jungen Frauen im Alter von 20 bis Anfang 30 mehr als 20 Prozent der Eizellen aneuploid. „Im Gegensatz dazu sind nur ein bis zwei Prozent der Spermien und weniger als ein Prozent der meisten somatischen Zelltypen aneuploid“, erklärt Schuh. Wenn diese fehlerhaften Eizellen befruchtet werden, dann führt das typischerweise zu Fehlgeburten oder auch zu Unfruchtbarkeit. Statistisch führt nur jede dritte Befruchtung bei Frauen zu einer erfolgreichen Schwangerschaft.
Falsch aussortiert
Eine reife Eizelle entwickelt sich aus einer Oozyte, die noch jeweils zwei Kopien von jedem Chromosom besitzt, also diploid ist. Um ein befruchtungsfähiges Ei zu werden, muss sie daher die Hälfte ihrer 46 Chromosomen ausschleusen. Dies geschieht einmal pro Menstruationszyklus in einer spezialisierten Zellteilung, der Reifeteilung I. Dabei werden die homologen Chromosomen der Oozyten mithilfe einer komplexen Maschinerie – dem Spindelapparat – getrennt. Er besteht aus Spindelfasern, die sich während der Meiose an die Chromosomen anheften. Die Fasern ziehen dann jeweils eines der homologen Chromosomen zu den gegenüberliegenden Polen der Spindel. Die Oozyte teilt sich dazwischen in eine große, nun haploide Eizelle und eine deutlich kleinere „Abfallzelle“, den sog. Polkörper. Abbildung 3.
Abbildung 3: . Reifeteilung einer menschlichen Oozyte. Diese Vorläuferzelle der Eizelle ist diploid, d.i. sie besitzt noch zwei Kopien eines jeden Chromosoms. Während der Reifeteilung halbiert der Spindelapparat (grün) den Chromosomensatz, indem er die Chromosomenpaare (magenta) voneinander trennt. (Quelle: © Chun So / MPI für Multidisziplinäre Naturwissenschaften.) |
„Genau das klappt jedoch oftmals nicht zuverlässig, sodass eine Eizelle mit falscher Chromosomenzahl entsteht“, erklärt Melina Schuh. Das Max-Planck-Forschungsteam will daher verstehen, wie die Zelle die Chromosomen vorbereitet, um sie in den Polkörper zu entsorgen, und wie die Maschinerie im Detail funktioniert, die die Chromosomen zwischen Eizelle und Polkörper verteilt. Die große Herausforderung dabei: Bei Säugetieren entwickeln sich die Oozyten im Inneren des Körpers. Um diesen Vorgang überhaupt untersuchen zu können, musste Schuh einen Weg finden, die Zellen außerhalb des Körpers zu kultivieren, und zwar so, dass sie diese über viele Stunden hinweg unter einem hochauflösenden Mikroskop untersuchen kann – eine Pionierleistung, die ihr schon während ihrer Promotion gelang.
Wichtiger Brückenbauer
„Was wir bereits wussten ist, dass menschliche Eizellen häufig Spindeln mit instabilen Polen bilden. Solche labilen Spindeln ordnen die Chromosomen bei der Zellteilung falsch an oder bringen sie durcheinander“, berichtet Schuh. Damit sind menschliche Oozyten im Tierreich eher eine Ausnahme. „Die Spindeln anderer Säugetier-Oozyten waren in unseren Experimenten sehr stabil“, so die Max-Planck-Direktorin. Um herauszufinden, was menschliche Spindeln derart labil macht, verglich das Team das molekulare Inventar an Proteinen, das für die Spindelstabilität erforderlich ist, in verschiedenen Säugetier-Oozyten. Für diese Versuche nutzten die Forschenden auch unbefruchtete unreife menschliche Eizellen, die nicht für die Kinderwunschbehandlung verwendet werden konnten und von den Patientinnen gespendet wurden. Ein Motorprotein (Motorproteine erzeugen Bewegungen innerhalb der Zelle) mit dem Namen KIFC1 weckte besondere Aufmerksamkeit: Es baut Brücken zwischen den Spindelfasern, hilft so, die Fasern richtig auszurichten, und verhindert, dass sie auseinanderfallen. Interessanterweise enthalten Oozyten von Mäusen und Rindern im Vergleich zu menschlichen Oozyten deutlich mehr von diesem Protein. Beeinflusst die Menge des Proteins somit möglicherweise die Stabilität der Spindeln?
Abbildung 4: Instabile Spindeln. Oben: Entfernt man den molekularen Motor KIFC1 aus Mäuse- und Rinder-Oozyten, entstehen multipolare Spindeln und Fehler bei der Chromosomentrennung, wie sie auch bei menschlichen Oozyten mit instabilen Spindeln beobachtbar sind. Die gelben Pfeile weisen auf die instabilen Spindelpole. Unten: Menschliche Eizellen bilden oft Spindeln mit mehreren Polen (blaue Kreise). Wird zusätzliches KIFC1 in die Eizelle eingebracht, verbessert es die Stabilität der bipolaren Spindel, indem es deren Mikrotubuli (blau) vernetzt. Die homologen Chromosomen (magenta) werden korrekt getrennt. © Foto: Chun So / MPI für Multidisziplinäre Naturwissenschaften; Grafik: HNBM / CC BY NC-SA 4.0 |
Um das herauszufinden, entfernten die Forschenden KIFC1 aus den Oozyten von Mäusen und Rindern. Das Ergebnis: Ohne das Protein bildeten auch Mäuse- und Rinder-Oozyten instabile Spindeln und es kam zu mehr Fehlern bei der Chromosomentrennung (Abbildung 4). „Unsere Versuche legen tatsächlich nahe, dass KIFC1 entscheidend dazu beiträgt, Chromosomen bei der Meiose fehlerfrei zu verteilen“, erklärt Schuh. Könnte das Protein daher ein Ansatzpunkt sein, um Fehler bei der Chromosomentrennung in menschlichen Eizellen zu reduzieren? „Für uns war die spannende Frage, ob die Spindel stabiler wird, wenn wir zusätzliches KIFC1 in menschliche Oozyten einbringen“, erklärt Schuh. Unter dem Mikroskop waren in den Zellen, die zusätzliche Mengen des Motorproteins enthielten, die Spindeln deutlich intakter und es traten weniger Fehler beim Trennen der Chromosomen auf. „Das Einbringen von KIFC1 in menschliche Oozyten ist somit ein möglicher Ansatz, um Fehler in Eizellen zu reduzieren“, hofft die Max-Planck-Forscherin.
Aber das ist nicht der einzige Entwicklungsschritt, der fehlerbehaftet ist (Abbildung 5). Das Göttinger Team hat sich insbesondere gefragt, warum das Risiko, aneuploide Eizellen zu erzeugen, für Frauen in fortgeschrittenem Alter deutlich höher ist und dabei das sogenannte Zygoten-Stadium in den Blick genommen, also die Phase direkt nach der Vereinigung von Spermium und Eizelle. Während nämlich in der Reifeteilung I die homologen Chromosomen auf Eizelle und Polkörper verteilt werden, werden in der Reifeteilung II nach der Befruchtung die Schwesterchromatiden eines jeden homologen Chromosoms voneinander getrennt und auf die Zygote und einen zweiten Polkörper verteilt.
Abbildung 5: Was alles bei der Verteilung schief gehen kann. Reifeteilung I: Während der Reifeteilung I kann es zu einer fehlerhaften Trennung kommen, bei der die homologen Chromosomen falsch verteilt werden (Ia). Es kann auch ein einzelnes Chromatid falsch zugeordnet werden (Ib) oder beide Schwesterchromatiden verteilen sich umgekehrt (Ic). Durch diese inverse Verteilung besitzt die Eizelle zwar die richtige Chromosomenzahl, doch die Chromatiden stammen von verschiedenen homologen Chromosomen und sind nicht mehr durch Kohäsin verbunden, was die Ausrichtung und Trennung in der Reifeteilung II beeinträchtigen kann. Reifeteilung II: In der Reifeteilung II kann es zu einer fehlerhaften Trennung kommen, bei der beide Schwesterchromatiden entweder in der Zygote verbleiben (IIa) oder im zweiten Polkörper entsorgt werden (IIb). © MPI für Multidisziplinäre Naturwissenschaften / Grafik: HNBM / CC BY-NC-SA 4.0 |
Alter Chromosomen-Kleber
Ringförmige Proteinstrukturen, sogenannte Kohäsin-Komplexe, halten die Schwesterchromatiden zusammen. Sie werden im weiblichen Embryo sehr früh während der DNA-Verdopplung installiert. Studien an Maus-Oozyten zeigen, dass Kohäsin-Komplexe später im Leben nicht mehr neu installiert werden können. „Wenn dies auch für menschliche Oozyten gilt, dann müssen Kohäsin-Komplexe die Chromosomen mehrere Jahrzehnte des Lebens zusammenhalten, bevor sie bei einem Ovulationszyklus zur korrekten Chromosomentrennung beitragen“, erklärt Schuh. Mit fortschreitendem Alter geht das Kohäsin jedoch verloren – zumindest bei der Maus –, was zu einer vorzeitigen Trennung der Schwesterchromatiden während der Reifeteilung I führt. „Wenn die Schwesterchromatiden bereits getrennt sind, dann werden sie zufällig und somit gegebenenfalls eben fehlerhaft zwischen den beiden Spindelpolen verteilt“, erklärt die Wissenschaftlerin. Ob Kohäsin auch in menschlichen Eizellen aus den Chromosomen verloren geht, ist noch nicht klar. Allerdings erfahren Chromosomen in menschlichen Oozyten während der Alterung ähnliche Strukturveränderungen wie die Forschenden sie in Oozyten älterer Mäuse beobachten.
Kinderwunsch erfüllen
Es besteht also weiterhin Forschungsbedarf und somit viel Arbeit für Melina Schuh und ihr Team in Göttingen. Für die Durchführung entsprechender Studien bedarf es immer wieder auch neuer Methoden, die in Schuhs Abteilung in den vergangenen Jahren entwickelt wurden, wie beispielsweise jene, mit der Proteine aus Eizellen funktional untersucht werden können. Ihr erklärtes Ziel dabei: „Wir möchten mehr Paaren helfen, ihren Kinderwunsch zu erfüllen und auch dazu beitragen, dass es mehr Geburten mit weniger In-vitro-Fertilisationszyklen gibt, dass also Kinderwunschbehandlung effizienter ablaufen kann“, so die Forscherin.
*Der Artikel ist erstmals unter dem Titel: "Chromosomen-Durcheinander in der Eizelle" https://www.max-wissen.de/max-hefte/meiose/ in BIOMAX 39, Frühjahr 2024 erschienen und wurde mit Ausnahme des Abstracts und der Legende zu Abbildung 3 unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.
Weiterführende Links
Meiose-Forschung am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen): https://www.mpinat.mpg.de/de/mschuh
Von der Erforschung der Eizelle bis zum Kinderwunsch | Prof. Dr. Melina Schuh. Video (12.2023) 1:01:55. https://www.youtube.com/watch?v=em-C4OMwEYc
Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen
Eine Abschätzung der durch den Krieg in der Ukraine verursachten TreibhausgasemissionenDo, 29.02.2024 — IIASA
Während eines Krieges können aufgrund militärischer Aktionen die Treibhausgasemissionen erheblich ansteigen; die Leitlinien des Weltklimarats (IPCC) zur Emissionsberichterstattung sind allerdings ausschließlich auf Friedensszenarien zugeschnitten. Eine kürzlich veröffentlichte Studie bringt nun erstmals etwas Licht in die mit Krieg verbundenen Treibhausgasemissionen. Mit dem Hauptaugenmerk auf diese hat ein internationales Team von Wissenschaftlern, darunter mehrere Forscher vom Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) die ersten 18 Monate seit Beginn des Krieges in der Ukraine und dessen Folgen untersucht [1]. Die Ergebnisse zeigen die Grenzen des derzeitigen Rahmens für die Emissionsberichterstattung im Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (UNFCCC) auf.*
Bewaffnete Konflikte auf der ganzen Welt lasten am schwersten auf den Schultern der einfachen Bevölkerung und führen zu erhöhter Verwundbarkeit, Sterblichkeit und Morbidität sowie zu politischer Instabilität und Zerstörung der Infrastruktur. Abgesehen von den sozialen, wirtschaftlichen und politischen Folgen haben bewaffnete Konflikte jedoch auch schwerwiegende Auswirkungen auf die Umwelt und führen zu deren verstärkter Zerstörung und Verschmutzung. Abbildung 1. Schlussendlich bringen sie zusätzliche Belastungen für den internationalen politischen Rahmen und zeigen Herausforderungen auf, die man bis dahin möglicherweise noch nicht berücksichtigt hatte.
Abbildung 1. Veranschaulichung der durch militärische Aktionen in der Ukraine verursachten Treibhausgasemissionen, die in der offiziellen nationalen Berichterstattung und den globalen Schätzungen möglicherweise nicht berücksichtigt werden: Einsatz von Bomben, Raketen, Artilleriegeschossen, Minen und Kleinwaffen (a); Verwendung von Erdölprodukten für militärische Zwecke (b); Emissionen aus Bränden von Erdölprodukten in Erdöllagern (c); Emissionen aus Bränden von Gebäuden und Infrastruktureinrichtungen (d); Emissionen aus Waldbränden und Bränden auf landwirtschaftlichen Flächen (e); Emissionen aus Müll/Abfall (f).(Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd). |
Im Rahmen des Pariser Abkommens sind die Unterzeichnerstaaten verpflichtet, ihre Treibhausgas-emissionen an das UNFCCC zu melden, um die Bemühungen zur Emissionsreduzierung zu evaluieren und strengere Ziele zur Begrenzung des globalen Temperaturanstiegs festzulegen.
In einer Studie, die in der Fachzeitschrift Science of the Total Environment veröffentlicht wurde, zeigen die Autoren, dass eine genaue Erfassung der in die Atmosphäre abgegebenen Treibhausgas-emissionen notwendig ist [1].
"Unsere Ergebnisse zeigen, dass militärische Emissionen eine ungewöhnliche Herausforderung darstellen, da sie in den derzeitigen Berichterstattungsrahmen nicht explizit berücksichtigt werden; THG-Emissionen, insbesondere solche aus menschlichen Aktivitäten, werden in der Regel anhand sogenannter "Aktivitätsdaten" wie Kraftstoffverbrauch, Verkehrszählungen und anderen sozioökonomischen Daten geschätzt", erklärt Linda See, Studienautorin und Mitglied der Forschungsgruppe Novel Data Ecosystems for Sustainability des IIASA Advancing Systems Analysis Program.
Der Hauptautor der Studie, Rostyslav Bun, Professor an der Lviv (Lemberg) Polytechnic National University in der Ukraine und der WBS University in Polen, hat die Auswirkungen des Krieges auf die Fähigkeit der Ukraine kommentiert, seit 2022 grundlegende Aktivitätsdaten zu sammeln; er hat darauf hingewiesen, dass infolge des Kriegs die Infrastruktur des Landes, einschließlich der Möglichkeiten der Datenerhebung, erheblich beeinträchtigt und zerstört wurde. Darüber hinaus betont Bun, dass bei Befolgung der aktuellen UN-Konvention alle Emissionen der Ukraine zugerechnet würden, einschließlich derjenigen, die aus kriegsbedingten Schäden resultieren.
"Auch wenn die Verfolgung von kriegsverursachten Emissionen aufgrund der Art der militärischen Aktivitäten und des Mangels an Informationen eine Herausforderung darstellt, schätzt unsere Studie die Treibhausgasemissionen anhand der besten verfügbaren Daten", erklärt Matthias Jonas, Mitautor der Studie und Gastwissenschaftler im IIASA Advancing Systems Analysis Program. "Die internationalen politischen Rahmenwerke sind auf eine derartige Situation nicht vorbereitet und dies zeigt eine wichtige Einschränkung unseres derzeitigen Ansatzes für das Netto-Null-Emissionen Ziel auf. Dieses geht von einer Welt ohne Konflikte aus und entspricht leider nicht der Realität, mit der wir heute konfrontiert sind. Wenn auch bewaffnete Konflikte zweifellos die lokale Bevölkerung am härtesten treffen, ist es wichtig, dass wir auch die Auswirkungen analysieren, die sie auf unsere Umwelt auf globaler Ebene haben können."
Abbildung 2. Treibhausgasemissionen in Friedenszeiten versus Kriegszeiten. Eine Analyse der öffentlich zugänglichen Daten gestützt auf das Urteil von Experten, um Emissionen aus (1) dem Einsatz von Bomben, Raketen, Artilleriegeschossen und Minen, (2) dem Verbrauch von Erdölprodukten für militärische Operationen, (3) Bränden in Erdöllagern und Raffinerien, (4) Bränden in Gebäuden und Infrastruktureinrichtungen, (5) Bränden auf Wald- und landwirtschaftlichen Flächen und (6) der Zersetzung von kriegsbedingtem Müll zu schätzen. Die Schätzung dieser kriegsbedingten Emissionen von Kohlendioxid, Methan und Lachgas für die ersten 18 Monate des Krieges in der Ukraine beläuft sich auf 77 MtCO2-eq. mit einer relativen Unsicherheit von +/-22 % (95 % Vertrauensintervall)). (Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd). |
Die Studie konzentriert sich auf Emissionen, die aus kriegsbedingten Aktivitäten resultieren und in den offiziellen nationalen Berichten nicht erfasst sein dürften. Sie legt nahe, dass die Summe dieser "nicht erfassten" Emissionen von Kohlendioxid, Methan und Lachgas in den 18 Monaten des Krieges die jährlichen Emissionen einiger europäischer Länder wie Österreich, Ungarn und Portugal überstiegen hat. Abbildung 2.
"Der Krieg beeinträchtigt unsere Befähigung, Emissionen über die auf Aktivitätsdaten basierende Berichterstattung global und nicht nur regional zu überwachen, wie dies bei der globalen Ernährungssicherheit und bei humanitären Fragen der Fall ist", fügt Tomohiro Oda, leitender Wissenschaftler bei der Universities Space Research Association in den USA, hinzu und unterstreicht damit die Bedeutung der Emissionsüberwachung durch Atmosphärenbeobachtung, die unabhängig von Aktivitätsdaten ist.
Die Ergebnisse der Studie werden auf der Generalversammlung 2024 der Europäischen Geowissenschaftlichen Union (EGU) in Wien, Österreich, im April 2024 vorgestellt und weiter diskutiert.
[1] Bun, R., Marland, G., Oda, T., See, L. et al. (2024). Tracking unaccounted greenhouse gas emissions due to the war in Ukraine since 2022. Science of the Total Environment, 914. https://doi.org/10.1016/j.scitotenv.2024.169879https://www.sciencedirect.com/science/article/pii/S0048969724000135
*Der Artikel " Significant greenhouse gas emissions resulting from conflict in Ukraine" ist am 15.Feber 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/feb-2024/significant-greenhouse-gas-emissions-resulting-from-conflict-in-ukraine). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Abbildungen aus der Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.
Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren
Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei JahrenDo,22.02.2024 — Redaktion
Der durch nichts zu rechtfertigende russische Überfall auf die Ukraine am 24.Feber 2022 hat damals in Russland einen sofortigen Tsunami des Protests ausgelöst: Bis zum 4. März haben über 1,18 Millionen Russen Petitionen gegen den Krieg mit der Ukraine unterschrieben. Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und andere haben darin den Krieg als ungerechtfertigt, schändlich und kriminell bezeichnet. Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher "Falschinformationen" über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben die Initiatoren der Aufrufe diese gelöscht. Um den mutigen Protest der Russen in Erinnerung zu rufen, stellen wir den Blogartikel vom 4.3.2022 nochmals online.
Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben (Blogartikel vom 4.3.2022):
Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.
Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.
Lew Ponomarjow: Gegen den Krieg - Net Voyne
Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:
Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.) |
"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.
Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "
Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.
Wir sind nicht allein - My ne odni
Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:
"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"
Gestern nachts (3.3.2022) hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.
Proteste aus ganz Russland
Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.
Abbildung 2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben. |
Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!
Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.
Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.
Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben. |
Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg)
Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg
https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180
(Bis jetzt : 5795 Unterschriften)
Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.
Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.
Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.
Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.
Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.
Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.
Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.
Wir sind gegen Krieg!
Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität
(Bis jetzt : 1 071 Unterschriften)
Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.
Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.
Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.
Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.
Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.
Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.
Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.
Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine
(Bis jetzt : 3 321 Unterschriften)
Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.
Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.
Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.
Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.
Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.
Mit Hoffnung für die Welt
Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine
(Bis jetzt : 1 818 Unterschriften)
An Wladimir Putin, Präsident der Russischen Föderation
Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.
Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.
Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.
Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.
Die Kämpfe müssen sofort eingestellt werden!
Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine
(Bis jetzt rund 4600 Unterschriften)
Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.
Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.
Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.
Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.
Nachsatz 22.2.2024
Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher Falschinformationen über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. (https://orf.at/stories/3251037/) Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:
Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg
Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.
------------------------------
Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität
UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.
-----------------------------------------
Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs
Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.
----------------------------------
Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet
Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.
Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt
Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirktFr, 16.02.2024 — Redaktion
Eine kürzlich publizierte Studie, die an den US-National Intitutes of Health (NIH) unter streng kontrollierten klinischen Bedingungen durchgeführt wurde, zeigt signifikante Auswirkungen einer Umstellung auf zwei gegensätzliche Ernährungsformen, auf die vegane oder die ketogene Diät. Neben einer Veränderung des Stoffwechsels und der Darmflora reagiert vor allem das Immunsystem schnell und unterschiedlich auf die veränderte Kost. So verstärkte die vegane Ernährung die Reaktionen der ersten unspezifischen Abwehr von Krankheitserregern - der angeborenen Immunantwort -, während die ketogene Ernährung eine Hochregulierung von Signalwegen und Zellen der später einsetzenden, erregerspezifischen adaptiven Immunantwort auslöste.
Unsere Ernährung hat weitreichende direkte Auswirkungen auf unsere Physiologie und auch indirekte infolge der unterschiedlichen Zusammensetzung des mit uns in Symbiose lebenden Mikrobioms und seiner Stoffwechselprodukte. Welche Ernährungsform aber welche Auswirkungen auf welche Vorgänge - beispielsweise auf unsere Immunantwort - hat, ist jedoch noch weitgehend unbekannt. Zu vielfältig sind die Ernährungsweisen, zu unterschiedlich die individuellen Reaktionen. Trotz einer im letzten Jahrzehnt ungemein boomenden Forschung - die US-Datenbank PubMed verzeichnet zu "diet & health" fast 130 000 Publikationen, davon rund 10 100 zu "diet & immune system" - mangelt es an qualitativ hochwertigen Studien, vor allem an rigoros konzipierten klinischen Studien zu den Auswirkungen einzelner Diäten und noch viel mehr zum Vergleich von Diäten.
Welche Folgen kann aber der nun weltweit steigende Trend zu einer pflanzenbasiertetn Ernährungsform haben?
Eine randomisierte klinische Studie zum Vergleich zweier Diäten ....
Ein Forscherteam um Yasmine Belkaid vom National Institute of Allergy and Infectious Diseases (NIAID, NIH)) in Bethesda/Maryland hat nun in einer randomisierten klinischen Studie die Auswirkungen von zwei gegensätzlichen Ernährungsformen - einer ketogenen Diät und einer veganen Diät auf Immunsystem, Mikrobiom und Stoffwechsel untersucht. Erstmals konnte mit Hilfe eines Multiomics-Ansatzes (d.i . der Analyse von Transcriptom, Proteom, Metabolom und Mikrobiom; siehe weiter unten) ein detailliertes Bild von den mit den Diätumstellungen verbundenen Veränderungen auf menschliche und mikrobielle Systeme gegeben werden. Die wesentlichen Ergebnisse sind zusammen mit einem ausführlichen Datenmaterial kürzlich im Fachjournal Nature Medicine erschienen [1].
Beide Arten der Ernährung wurden in der Vergangenheit mit unterschiedlichen gesundheitlichen Vorteilen assoziiert: vegane Kost mit weniger Entzündungserkrankungen, einem reduziertem Risiko für Herz-Kreislauferkrankungen und einer insgesamt höheren Lebenserwartung; ketogene Kost mit positiven Effekten auf das Zentralnervensystem (niedrigere Neuroinflammation und anti-epileptisch wirksam).
Die klinische Studie wurde an einer heterogen zusammengesetzten Gruppe von 20 Teilnehmern ausgeführt. Es handelte sich dabei um gesunde Männer und Frauen im Alter von 18 - 50 Jahren mit konstantem Körpergewicht, die über die Versuchsdauer von 4 Wochen stationär in der Klinik (Metabolic Clinical Research Unit at the NIH Clinical Center) aufgenommen waren; dies ermöglichte den Forschern genau zu verfolgen, was die Probanden konsumierten.
Aufgeteilt auf 2 Gruppen begann die erste Gruppe mit einer zweiwöchigen veganen Diät und stieg dann sofort auf eine ketogene Diät um, während die zweite Gruppe mit einer ketogenen Diät anfing und auf eine vegane Diät umstieg. Abbildung 1. Die ketogene kohlenhydratarme Diät bestand zu 75.8% aus Fett, zu 10.0% aus Kohlenhydraten, die vegane, fettarme Diät zu 10.3% aus Fett und zu 75.2% aus Kohlenhydraten. Die ketogene Diät enthielt Produkte tierischen Ursprungs, einschließlich Fleisch, Geflügel, Fisch, Eier, Milchprodukten und Nüssen, die vegane Diät Hülsenfrüchte, Reis, Wurzelgemüse, Sojaprodukte, Mais, Linsen, Erbsen, Vollkornprodukte, Brot und Obst. Beide Diäten enthielten nicht-stärkehaltiges Gemüse (1 kg/Tag) und nur minimale Anteile an hochverarbeiteten Lebensmitteln; die vegane Kost war ballaststoffreicher und zuckerärmer als die ketogene Kost. Den Studienteilnehmern stand es frei so viel von den Speisen zu essen, wie sie wollten (nebenbei: von der ketogenen Kost wurde mehr konsumiert).
....mit Hilfe eines Multiomics Ansatzes .....
Die Auswirkungen der beiden Diäten wurden mit Hilfe eines "Multiomics"-Ansatzes untersucht. Dazu wurden Blut-, Urin- und Kotproben analysiert um die Gesamtheit der darin ersichtlichen Reaktionen des Körpers sowie des im Darm ansässigen/sezernierten Mikrobioms zu erfassen:
- die biochemischen Reaktionen im Transkriptom (der mittels RNA-Sequenzierung erhaltenen Genexpression) und im Proteom (der Gesamtheit der in den Proben vorliegenden Proteine),
- die Zusammensetzung der Blutkörperchen und des Mikrobioms und deren zelluläre Reaktionen,
- die Reaktionen des Stoffwechsels im Metabolom (der Gesamtheit der Stoffwechselprodukte in den Proben) . Abbildung 1.
Abbildung 1: Schematische Darstellung des Versuchsaufbaus. Zwanzig Teilnehmer (Frauen pink, Männer blau) wurden in zwei Gruppen aufgeteilt , wobei Gruppe A mit einer zweiwöchigen veganen Diät begann und dann sofort auf eine ketogene Diät umstieg, während Gruppe B mit einer ketogenen Diät begann und auf eine vegane Diät umstieg. Blut-und Urinproben wurden unmittelbar vor der ersten Diät als Ausgangswert und am Ende der ersten und zweiten Diät entnommen. Im Blut erfolgten Analysen zur Proteinzusammensetzung (SomatLogic), Genexpression mittels RNA-Sequenzierung (RNA-seq), Zusammensetzung der Zellpopulation (Flow Cytometry) und Spiegel von Metaboliten (Metabolomics), Metabolitenspiegel wurden auch im Harn bestimmt. Für die Kot-Proben zur mikrobiologischen Metagenom-Sequenzierung (Microbiome) wurden die Daten an verschiedenen Tagen erhoben. (Quelle: Fig. 1a in Link, V.M. et al., Nat Med (2024) [1].Lizenz: cc-by. https://doi.org/10.1038/s41591-023-02761-2) |
.....ermöglicht erstmals einen Blick auf das Gesamtbild der Auswirkungen
Das erstaunliche Ergebnis: Trotz der geringen Zahl der Teilnehmer, deren Verschiedenheit und der kurzen Beobachtungszeit hat die 2-wöchige kontrollierte Ernährungsintervention ausgereicht, um die Immunität des Wirts und die Zusammensetzung des Mikrobioms signifikant und - abhängig von der Diät - unterschiedlich zu beeinflussen.
Auswirkungen auf das Immunsystem
Die vegane Diät hat sich vor allem auf das angeborene Immunsystem ausgewirkt und Leukozyten und Signalwege (über Interferone) hochreguliert, die mit der antiviralen Immunität assoziiert sind. (Angeborene Immunität: die rasch einsetzende, unspezifisch wirkende erste Abwehrlinie, die in Form von Makrophagen, Granulozyten, dem Komplement und freigesetzten Signalmolekülen gegen Krankheitserreger vorgeht.)
Auch rote Blutkörperchen (Erythrocyten) gehören zu den wichtigen Modulatoren der angeborenen Immunität. Die vegane Ernährung hat deren Bildung (Erythropoiese) und den Stoffwechsel des Häm (dem Sauerstoff-transportierenden, farbgebenden Eisen-haltigen Komplex von Hämoglobin) deutlich erhöht (dies könnte auf den höheren Eisengehalt dieser Diät zurückzuführen sein).
Die ketogene Diät führte dagegen zu einem signifikanten Anstieg der biochemischen und zellulären Prozesse, die mit der adaptiven Immunität verbunden sind, einschließlich der Aktivierung von T-Zellen, der Anreicherung von B-Zellen und der Antikörper-produzierenden Plasmazellen. (Adaptive Immunität: die spezifisch wirkende zweite, viel später einsetzenden Abwehrlinie der Immunreaktion, in der B-Zellen Antikörper gegen Erreger freisetzen und T-Zellen diese direkt angreifen und Zytokine gegen diese sezernieren.)
Die beiden Diätformen zeigten unterschiedliche Auswirkungen auf insgesamt 308 mit Krebs assoziierte Signalwege und könnten so den Verlauf von Krebserkrankungen beeinflussen. Vegane Kost aktivierte 242 Signalwege (davon 4 in sehr hohem Ausmaß), ketogene Kost 66 Wege. Erste Hinweise sprechen dafür, dass ketogene Ernährung in Verbindung mit anderen Krebstherapien von Vorteil sein könnten.
Auswirkungen auf die Plasmaproteine
Die ketogene Diät wirkte sich stärker auf den Gehalt von Proteinen im Blutplasma aus als die vegane Diät. Von den rund 1300 im Proteom bestimmten Proteinen zeigten mehr als 100 veränderte Spiegel nach Umstellung von Normalkost auf die ketogene Kost, dagegen nur wenige nach der Umstellung auf vegane Diät. Bei den weiblichen Teilnehmern waren die Veränderungen nach einer ketogenen Diät wesentlich größer, was auf eine mögliche geschlechtsspezifische Reaktion auf die Diät hinweist. Zu diesen geschlechtsspezifischen Unterschieden in der Proteinhäufigkeit gehörten Proteine, die mit dem Glukosestoffwechsel sowie mit der Immunität in Verbindung stehen.
Auswirkungen auf das Mikrobiom
Die Ernährung ist der wichtigste Regulator des Mikrobioms und beeinflusst dessen Zusammensetzung und Funktion.
Beide Diäten haben zu Veränderungen in der Häufigkeit der Darmbakterienarten geführt, vor allem von Actinobacteria, Bacteroidetes, Proteobacteria und am stärksten von Firmicutes; insgesamt waren 26 Arten betroffen, 18 davon kamen bei veganer Diät häufiger vor.
Übereinstimmend mit der Diät waren die meisten, der nach einer veganen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von pflanzlichen Polysacchariden assoziiert, während die nach einer ketogenen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von sowohl pflanzlichen als auch tierischen Polysacchariden zu tun hatten.
Im Vergleich zur Ausgangsdiät und zur veganen Diät führte die ketogene Diät zu einer erheblichen Herunterregulierung des mikrobiellen Genvorkommens und dies spiegelte sich in der Herabregulierung zahlreicher mikrobieller Stoffwechselwege wider, wie der Biosynthese von 12 Aminosäuren (darunter essentielle und verzweigte Aminosäuren) und von 9 Vitaminen (darunter B1. B5 und B12).
Effekte auf die Blut- und Harnspiegel der Stoffwechselprodukte (Metaboliten)
Insgesamt wurden im Metabolom des Plasmas 860 Metabolite erfasst; 54 davon waren bei veganer, 131 bei ketogener Ernährung hochreguliert. Die betroffenen Metabolite und das Ausmaß ihrer geänderten Gehalte bieten zweifellos Raum für Hypothesen/Spekulationen zu Nutzen oder Schaden der einen oder anderen Art der Diät.
Die stärkste Veränderung erfuhren die Lipidspiegel.
Der Lipidstoffwechsel war in der Keto-Diät stark gesteigert, da in dieser kohlenhydratarmen Kost Lipide ja zur Energieversorgung der Zellen herangezogen werden. Im Einklang mit der fettreichen Kost, fanden sich mehr Lipide (81) angereichert im Plasma als bei der veganen Kost mit 22 Lipiden. Erhöht wurden bei der Keto-Diät die Gehalte an Lipiden mit gesättigten Fettsäuren, im Fall der veganen Diät waren es Lipide mit ungesättigten Fettsäuren.
Sowohl die ketogene als auch die vegane Kost war mit einem gesteigerten Stoffwechsel von Aminosäuren korreliert. War es bei der ketogenen Diät vor allem die Steigerung der Stoffwechselwege zur Nutzung der essentiellen Aminosäuren Valin, Leucin und Isoleucin, so war bei der veganen Kost der Metabolismus der Aminosäuren Alanin, Asparaginsäure, Glutaminsäure und Arginin erhöht.
Der Vergleich von Plasma- und Urinproben zeigte insgesamt 4 Signalwege, die in beiden Probenarten verstärkt waren: alle waren mit der Hochregulierung der Aminosäure- und Vitaminbiosynthese bei der ketogenen Ernährung korreliert.
Auswirkungen der beiden Diätformen, zusammengefasst
Abbildung 2: Eine Zusammenfassung der wesentlichen Veränderungen nach der Umstellung auf vegane oder ketogene Kost. Pfeile deuten Zunahme oder Abnahme von Reaktionswegen, Metaboliten und Zelltypen an. (Quelle: Fig. 5d in Link, V.M. et al., Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2. Lizenz cc-by) |
Trotz der geringen Zahl an Teilnehmern und der Heterogenität ihrer Zusammensetzung ließen sich aus dem komplexen Datensatz von Proteinen, mikrobiellen Enzymen und Stoffwechselprodukten einige grundlegende Unterschiede in den Auswirkungen von veganer und ketogener Diät erkennen, die in Abbildung 2 zusammengefasst sind.
Von primärer Bedeutung sind die neu beschriebenen Effekte auf das Immunsystem: Bereits eine zwei Wochen dauernde Umstellung auf eine der beiden Diätformen reicht aus, um das angeborene oder das adaptive Immunsystem - also die primäre unspezifische Abwehr von Erregern oder die darauf folgende spezifische, über lange Zeit persistierende Abwehr - anzukurbeln.
Um herauszufinden, wie die Diätformen die Abwehr von Krankheitserregern im realen Leben beeinflussen - ob vegane Kost Ansteckung und Verlauf von Infektionen günstig beeinflussen kann und, ob ketogene Kost die Aussichten in der Krebstherapie verbessert -, sind epidemiologische Studien am Menschen und mechanistische Untersuchungen an Tiermodellen erforderlich.
[1) Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2
Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum
Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-RachenraumMo, 12.02.2024 — Inge Schuster
Erst vor wenigen Jahren wurden zwei Drainagesysteme entdeckt, die Abfallprodukte des Stoffwechsels aus dem Gehirngewebe ausschleusen können: das glymphatische System und ein Lymphsystem in den Hirnhäuten. Koreanische Forscher um Gou Young Koh haben nun eine wesentliche Komponente des Drainagesystems hinzugefügt: ein verschlungenes Netzwerk von Lymphgefäßen im hinteren Teil der Nase (der nasopharyngeale lymphatische Plexus), das eine entscheidende Rolle auf dem bislang unbekannten Weg des Liquorabflusses aus dem Gehirn spielt. Die Stimulierung des Liquorabflusses und damit der darin gelösten toxischen Proteine könnte eine neue erfolgversprechende Strategie zur Behandlung von bislang nur unzulänglich therapierbaren neurodegenerativen Erkrankungen sein.
"Wir sagen, dass wir Demenz verhindern können, wenn wir viel lachen oder viel reden. Das ist kein Scherz. Lachen und Sprechen stimulieren die Lymphgefäße und fördern den Abfluss des Liquors. Ich möchte ein Medikament oder ein Hilfsmittel entwickeln, das die Verschlimmerung von Demenz verhindern kann, indem ich die Forschungsergebnisse des Zentrums für Gefäßforschung nutze."
Gou Young Koh, Director, Center for Vascular Research, IBS
Eine Balance von Versorgung und Entsorgung
Unsere Organe sind auf die kontinuierliche, über den Blutstrom erfolgende Zufuhr von Nährstoffen angewiesen und ebenso auf den Abtransport von Abfallprodukten über das Lymphsystem. Dieses dichte Netzwerk aus verästelten Lymphgefäßen durchzieht unsere Gewebe und fungiert als Drainagesystem. Es verhindert, dass aus den Blutkapillaren in den extrazellulären Raum der Gewebe (das Interstitium) austretende größere Moleküle (vor allem Plasmaproteine), überschüssige Gewebsflüssigkeit, Immunzellen, Abbauprodukte von Zellen ebenso aber auch Partikel und Mikroorganismen sich dort ansammeln. Diese Stoffe treten durch die durchlässigen Wände in Lymphkapillaren ein und werden in der Lymphflüssigkeit durch die Lymphknoten hindurch wieder dem Blutkreislauf und der Ausscheidung zugeführt.
Wie entsorgt das Gehirn seine Abfallprodukte?
Das Gehirn unterscheidet sich von den peripheren Organen u.a. dadurch, dass eine sogenannte Blut-Hirn-Schranke den unkontrollierten Eintritt von Proteinen, Partikeln und Flüssigkeit in das Organ verhindert. Auf Grund des enorm hohen Stoffwechsels - bei rund 2 % unseres Körpergewichts benötigt das Gehirn 20 % des in den Organismus gepumpten Blutes zu seiner Versorgung - entstehen reichlich Abfallprodukte, die in das Interstitium des Gehirngewebes (des Parenchyms) abgegeben werden. Zu solchen Produkten zählen auch fehlgefaltete/aggregierte Proteine, deren Akkumulierung im Gehirngewebe schwere Schädigungen des Nervensystems auslösen kann. Derartige toxische Produkte sind ein gemeinsames Merkmal von neurodegenerativen Erkrankungen, wie der Alzheimer-Krankheit, Parkinson-Krankheit, Huntington-Erkrankung und der amyotrophen lateralen Sklerose.
Bis vor wenigen Jahren rätselte man, wie Abfallprodukte, insbesondere toxische Proteine, aus dem Gehirn ausgeschleust werden können. Die vorherrschende Lehrmeinung besagte ja, dass das Gehirn über kein Lymphdrainagesystem verfügt. Dass dieses Dogma falsch war, wurde 2012 und 2015 durch Studienbewiesen. Demzufolge verfügt das Gehirn sogar über zwei Systeme zum Transport von Abfallprodukten [1]:
Das glymphatische System ...
bewirkt, dass der Liquor (Cerebrospinalflüssigkeit: CSF) das Gehirn durchströmt und sich mit der interstitiellen Flüssigkeit (ISF) und den darin gelösten Stoffen austauscht.
Abbildung 1: Das glymphatische System. Wie Liquor, interstitielle Flüssigkeit und darin gelöste Abfallprodukte im Hirn zirkulieren. A. Liquor fließt über periarterielle Räume, gebildet von den Endfortsätzen von Gliazellen (Astrozyten) ins Gehirn; Wasserkanäle (Aquaporin 4) der Gliazellen regen hier den Austausch von Liquor und interstitieller Flüssigkeit mit den darin gelösten Abfallprodukten an und treiben diese in den abfließenden perivenösen Raum. B. Die perivenöse Flüssigkeit und die gelösten Stoffe fließen dann über große Venen aus dem Gehirn ab, dargestellt am Beispiel eines Mäusehirns . Aus dem subarachnoidalen Liquor können gelöste Stoffe (wie Amyloid-β) den Schädel u.a. über Lymphgefäße der Hirnhäute verlassen. (Abbildung unverändert übernommen aus: Leveaux et al., 2017 [1]. Lizenz cc-by) |
Liquor wird kontinuierlich in den Hirnkammern (Ventrikeln) gebildet (etwa 500 ml/Tag), füllt diese und ein Teil gelangt auch in den spaltförmigen Subarachnoidalraum, der zwischen der mittleren Hirnhaut (Arachnoidea mater) und der inneren Hirnhaut (Pia mater) liegt.
Von hier durchfließt der Liquor perivaskulär - d.i. in einem engen, durch die Endfüßchen von Gliazellen (Astrozyten) um die arteriellen Blutgefäße gebildeten Transportraum - das Gehirn (Abbildung 1 A).
Der Austausch von gelösten Stoffen zwischen Liquor und ISF wird in erster Linie durch den arteriellen Pulsschlag gesteuert, wobei die von Gliazellen in den Endfortsätzen exprimierten Wasserkanäle (Aquaporine) essentiell involviert sind. Das Pulsen von Liquor in das Gehirngewebe treibt die Flüssigkeit und die darin gelösten Stoffe in Wellen durch den extrazellulären Raum in die perivenösen Räume. Von hier gelangen sie in wieder in den subarachnoidalen Liquor, können in Lymphgefäße in den Hirnhäuten eintreten und über diese den Schädel verlassen (Abbildung 1 B).
... aktiviert "Gehirnwäsche" im Schlafzustand
Eine besonders wichtige Entdeckung im Jahr 2013 zeigt, dass das glymphatische Transportsystem im Schlafzusstand aktiviert ist [2]: während des Schlafens dehnt sich der extrazelluläre Raum im Hirngewebe um 60 % aus. Dies führt zu einem stark gesteigerten Austausch von Liquor - ISF Austausches und damit zu einer erhöhten Rate der Beseitigung von Abfallprodukten - beispielsweise von Beta-Amyloid, Tau-Protein oder alpha Synuclein - gegenüber dem Wachzustand gesteigert.
Das in den Hirnhäuten lokalisierte Lymphsystem
Abbildung 2: 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: Kopie aus [3]; das Bild stammt aus https://elifesciences.org/articles/29738. Lizenz cc-by) |
Erst 2015 gelang erstmals der Nachweis von Lymphgefäßen in der äußeren Hirnhaut - der Dura Mater - von Mäusehirnen; diese sehr schwer detektierbaren Gefäße wurden mit ausgeklügelten MRT-Techniken nicht-invasiv zwei Jahre später auch in der Dura Mater des Menschen festgestellt (dazu eine ausführlichere Darstellung im ScienceBlog [3]).
Ebenso wie im peripheren Lymphsystem verlaufen die meningealen (Meninges = Hirnhäute) Lymphgefäße entlang der Blutgefäße, sind aber weniger dicht und verästelt angelegt. Abbildung 2.
Die Lymphgefäße drainieren überschüssige Flüssigkeit und Stoffwechselprodukte der Hirnhäute, transportieren ebenso Immunzellen und dazu - im Anschluss an das glymphatische System - die Mischung aus Liquor und ISF mit den darin gelösten Abfallprodukten des Hirngewebes.
Der nasopharyngeale lymphatische Plexus
Dass das meningeale Lymphsystem schlussendlich zu den tiefen Halslymphknoten außerhalb des Schädels drainiert, ist evident, nicht klar war aber auf welchen Wegen der Abfluss stattfindet und wie er reguliert wird . Ein Team um Gou Young Koh, einem Pionier der Gefäßforschung, Gründungsdirektor und Direktor des Zentrums für Gefäßforschung am Institute for Basic Schiene (IBS) in Daejeon, Korea, hat nun eine entscheidende Schaltstelle auf diesem Weg entdeckt [4].
Das Forscherteam hat dazu transgene Mäuse mit fluoreszierenden Markern zur Sichtbarmachung der Lymphgefäße eingesetzt und die Liquor-/Lymphwege mittels ausgefeilten histologischen, biochemischen und bildgebendern Verfahren untersucht. Um festzustellen, ob die Ergebnisse an der Maus auch für Primaten Relevanz haben, wurden auch einige Versuche am Nasopharynx von Affen (Macaca fascicularis) angestellt.
Die Studie wurde kürzlich im Fachjournal Nature publiziert, die Bedeutung der Ergebnisse ist am Titelblatt des Journals durch ein ganzseitiges Bild zum "Brain Drain" hervorgehoben [4].
Abbildung 3: Schematische Darstellung der Lymphregionen 1, 2 und 3, die über den nasopharyngealen Lymphgefäßplexus (NPLP) zu den medialen tiefen Halslymphgefäßen und den tiefen Halslymphknoten drainieren, Oben: Versuche an Mäusen. Die in den NPLP drainierende Lymphregion 1 umfasst Lymphgefäße in der Nähe der Hypophyse und des Sinus cavernosus liegen. Lymphregion Nr. 2 umfasst Lymphgefäße im vorderen Bereich der basolateralen Dura in der Nähe der mittleren Meningealarterie und des Sinus petrosquamosus (PSS), die entlang der Arteria pterygopalatina (PPA) zum NPLP verlaufen. Die ableitende Lymphregion 3 umfasst Lymphgefäße in der Nähe des Siebbeins (cribriform plate), die zu Lymphgefäßen in der Riechschleimhaut drainieren und zum NPLP führen. Lymphgefäße in der hinteren Region der basolateralen Dura leiten um den Sinus sigmoideus allerdings nicht in den NPLP, sondern durch das Foramen jugulare über die seitlichen tiefen Halslymphgefäße, zu den tiefen Halslymphknoten.(Quelle: Ausschnitt aus Fig. 3 Nature (2024). DOI: 10.1038/s41586-023-06899-4; Lizenz cc-by) Unten: Basierend auf den Ergebnissen an Mäusen und Makaken ist die angenommene Drainierung von Liquor über das nasopharyngeale Lymphgeflechts beim Menschen zu den tiefen zervikalen Lymphgefäßen und Lymphknoten skizziert. (Credit: Institute of Basic Science) |
An Hand von vielen hervorragenden fluoresenzmikroskopischen Bildern zeigt die Studie im hinteren Teil der Nase, dem Nasopharynx (Rachenraum), ein wie ein Spinnennetz verschlungenes Netzwerk von Lymphgefäßen, den nasopharyngealen lymphatischen Plexus (NPLP), der als wesentlicher Knotenpunkt für den Abfluss von Liquor zu den tiefen Halslymphknoten im Nacken fungiert. In dem, sich von der Schädelbasis bis zum weichen Gaumen des Mundes erstreckenden Nasopharynx, reicht das Netzwerk der Lymphgefäße bis zur Gehirnbasis; diese vereinigen sich dann zu einigen wenigen Lymphgefäßsträngen, die mit den Halslymphknoten verbunden sind. Aus drei Regionen des Gehirns wird Liquor über Lymphgefäße in der Dura mater in den NPLP abgeleitet und drainiert von dort über die tiefen Halslymphgefäße in die tiefen Halslymphknoten.
Nur das Lymphgefäß in den Hirnhäuten der seitlichen Schädelbasis entsorg auf einem anderen Weg - über die seitlichen Halslymphgefäße - in den tiefen Halslymphknoten. Abbildung 3 (oben) gibt einen Überblick über die Abflusswege (leider nicht für rasches Überfliegen geeignet).
Die Ähnlichkeit des lymphatischen Netzwerks im Nasopharynx von Maus und Affe und seiner Funktion, lässt auf eine Konservierung dieses Drainagesystem bei den Spezies und damit auch auf sein Vorkommen und seine Rolle in der Entsorgung von Abfallprodukten des Gehirns beim Menschen schließen (Abbildung 3, unten).
Aktivierung der tiefen Halslymphgefäße
Ein sehr wichtiger Befund der Studie: die tiefen Halslymphgefäße sind von glatten Muskelzellen umhüllt, die pharmakologisch moduliert werden können, sodass sie die Gefäße zusammendrücken oder erweitern und damit den Liquorfluss regulieren.
Die Forscher haben dies demonstriert: mit Natriumnitroprussid (das Stickstoffmonoxid - NO - freisetzt) konnte eine Muskelentspannung und damit eine Gefäßerweiterung bewirkt werden, mit Phenylephrin - einem Adrenalin-Analogon - eine Gefäßkontraktion.
Diese pharmakologischen Auswirkungen blieben auch bei alten Mäusen aufrecht, während das Lymphgeflecht im Nasopharynx geschrumpft war, und die Drainage von Liquor abgenommen hatte.
Die Aktivierung der tiefen Halslymphgefäße könnte somit zu einer erfolgversprechende Strategie werden, um bei neurodegenerativen Erkrankungen den Abfluss von Liquor und damit von toxischen Abfallprodukten zu steigern.
[1] A. Leveaux et al., Understanding the functions and relationships of the glymphatic system and meningeal lymphatics. Clin Invest. 2017 Sep 1; 127(9): 3210–3219. Published online 2017 Sep 1. doi: 10.1172/JCI90603
[2] L.Xie et al., Sleep Drives Metabolite Clearance from the Adult Brain. Science. 2013 Oct 18; 342(6156): 10.1126/science.1241224. doi: 10.1126/science.1241224
[3] Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.
[4] Yoon, JH., et al., Nasopharyngeal lymphatic plexus is a hub for cerebrospinal fluid drainage. Nature 625, 768–777 (2024). https://doi.org/10.1038/s41586-023-06899-4
Aus dem Center for vascular Research (Korea)
Homepage des Center for Vascular Research at the Institute for Basic Science (Korea): https://vascular.ibs.re.kr/
Rezente Artikel im Online Magazin (2023) IBS Research 20th.pdf:
Seon Pyo HONG, Why We Focus on Vessels
Koh Gou Young, The Key to Solving Degenerative Brain Disease: Vessels
Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf
Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm aufMo, 05.02.2024 — Inge Schuster
Nachdem fast 20 Jahre lang keine neuen Alzheimer-Medikamente den Markt erreicht hatten, erhielt 2021 der Anti-Amyloid Antikörper Aduhelm des US-Biotechkonzerns Biogen als erster Vertreter einer neuen Klasse von Therapeutika die Zulassung durch die US-Behörde FDA. Dass die Entscheidung trotz des Fehlens eindeutiger Nachweise der Wirksamkeit und des Auftretens bedenklicher Nebenwirkungen erfolgte, löste enorme Kritik aus und das von skeptischen Ärzten kaum verschriebene Präparat wurde zum Flop. Vor 5 Tagen hat Biogen nun mitgeteilt, dass Entwicklung und Vermarktung von Aduhelm einstellt gestellt wird und freiwerdende Ressourcen nun seunem zweiten (im Juli 2023 registrierten) Anti-Amyloid -Antikörper Leqembi (Lecanemab) gewidmet werden sollen.
Für den US-Biotechkonzern Biogen war Aduhelm die bahnbrechende Entdeckung, die den Weg für eine neue Klasse von Medikamenten in der Alzheimer -Therapie ebnete und Forschung und nötige Investitionen in diesem Bereich wieder möglich machte. Waren die bis jetzt wenigen verfügbaren Therapien bestenfalls geeignet Symptome der Alzheimer-Krankheit etwas abzumildern, so sollte nun erstmals der (?) zugrundeliegende Krankheitsprozess beeinflusst werden.
Beta-Amyloid als Target für Alzheimer-Therapeutika
Ein zentrales Element der Erkrankung ist die massive Ablagerung von unlöslichen Protein-Plaques zwischen den Nervenzellen; diese lösen eine Kaskade von pathophysiologischen Ereignissen aus: Schädigungen von Nervenzellen und deren Funktionen, Unterbindungen der Nervenverbindungen und schlussendlich Absterben der Nervenzellen. Wie heute mittels der nicht-invasiven Positronen-Emissionstomographie (PET) gezeigt werden kann, sind solche Plaques bereits Jahre, bevor noch die ersten Symptome auftreten, nachweisbar.
Die Zusammensetzung der Plaques wurde schon vor 40 Jahren aufgeklärt: Sie bestehen aus aggregierten, etwa 40 Aminosäuren langen Beta-Amyloid- Peptidketten, die aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden, das in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert ist. Abbildung 1.
Abbildung 1: Bildung von Beta-Amyloid-Plaques. Enzyme wirken auf das in den Zellmembranen sitzende Amyloid-Vorläuferprotein ein und zerschneiden es in Fragmente. Zu den Bruchstücken gehören die etwa 40 Aminosäuren langen Beta-Amyloidpeptide (gelb), die im extrazellulären Raum zu unlöslichen Plaques aggregieren können. (Bild: http://www.nia.nih.gov/Alzheimers/Resources/HighRes.htm, gemeinfrei) |
Seit mehr als 30 Jahren gehört Hemmung der Bildung von Amyloid-Aggregaten/Auflösung der Amyloid-Plaques zu den wichtigen Strategien in Forschung und Entwicklung von Alzheimer-Therapeutika. Laut der kuratierten Datenbank von Alzforum (https://www.alzforum.org/therapeutics) sind bis jetzt insgesamt 314 unterschiedliche Target-Typen in Tausenden klinischen Studien geprüft worden, 81 dieser Targets beziehen sich auf Beta-Amyloid, 9 davon sind Antikörper gegen Beta-Amyloid.
Die Ausbeute an registrierten Präparaten ist äußerst ernüchternd: seit den 1990-er Jahren wurden insgesamt nur 9 Medikamente zugelassen, davon 2 mit Bezug auf Amyloid-Beta (bei beiden handelt es sich um Antikörper gegen Beta-Amyloid). Abbildung 2.
Die Misserfolgsquote von über 97 % ist damit bedeutend höher als für Pharmaka in anderen Indikationen, wo 5 % (im Tumorgbiet) bis 10 % derer, die in die klinische Phase gelangen, auf dem Markt landen.
Abbildung 2: Alle bisherigen Alzheimer Targets, die in die klinische Entwicklung gelangten (314), etwa ein Viertel davon (81) betreffen die Blockierung/Auflösung der Amyloid-Plaques.(Grafik aus den Daten vom Alzforum erstellt; https://www.alzforum.org/therapeutics.) |
Neben der marginalen Erfolgsrate ist auch die Wirksamkeit der registrierten Präparate bescheiden: sie können den fortschreitenden kognitiven Abbau etwas verlangsamen, nicht aber stoppen oder gar rückgängig machen.
Die Aduhelm-Saga
Nachdem fast 20 Jahre lang die Entwicklung von Alzheimer-Therapeutika nur Misserfolge gezeitigt hatte, wurde im Juli 2021 von der US-amerikanischen Food and Drug Administration (FDA) ein neues Präparat - Aduhelm (Aducanumab) - zugelassen, genauer gesagt: Aduhelm erhielt eine beschleunigte Zulassung unter der Voraussetzung, dass eine Phase 4 -Studie die klinische Wirksamkeit des Medikaments bestätigen würde und die Anwendung sich auf Patienten in frühem Krankheitsstadium mit milden Symptomen beschränkte.
Forschung und Entwicklung von Aduhelm
Aduhelm ist eine Entdeckung des Schweizer Biotech-Unternehmens Neurimmune, eines Spin-offs der Universität Zürich, das um das Jahr 2000 schützende Anti-Amyloid-Antikörper bei gesunden älteren Menschen und Patienten mit langsam fortschreitender Demenz entdeckte und daraus den monoklonalen humanen Antikörper Aduhelm entwickelte [1].
Dieser Antikörper bindet spezifisch an eine Stelle (Epitop) des Amyloids in den Geweben der Patienten. Intravenös verabreicht passiert Aduhelm die Blut-Hirn-Schranke, bindet an das Beta-Amyloid im Gehirn und löst damit Immunreaktionen aus, die die Amyloid-Ablagerungen auflösen und beseitigen.
2007 hat Neurimmune den Antikörper an das US-Biotechunternehmen Biogen - einem Pionier in der Alzheimer-Forschung - auslizensiert, der diesen dann - zusammen mit dem japanischen Konzern Eisai - präklinisch und klinisch entwickelte.
In einer Studie im Jahr 2016 konnte mit Hilfe der Positron Emission Tomographie (PET) gezeigt werden, dass der Antikörper dosis- und zeitabhängig die Beta-Amyloid-Ablagerungen auflöste - nicht gezeigt wurde aber, wieweit die Reduktion der Plaques mit einer besseren kognitiven Leistung korrelierte.
Bezüglich der kognitiven Leistung lieferten 2019 zwei große klinische Studien an Patienten mit leichten Symptomen im frühen Stadium der Alzheimer-Krankheit widersprüchliche Ergebnisse: Obwohl die Behandlung mit Aduhelm die Amyloid-Ablagerungen stark reduzierte, konnte in einer der Studien (ENGAGE) keine Verbesserung der Gedächtnisleistungen im Vergleich zur Plazebogruppe gezeigt werden. In der zweiten Studie (EMERGE) war nach Auswertung weiterer Daten ein leichter Unterschied (18 - 22 % verlangsamte Verschlechterung gegenüber der Kontrollgruppe) in der hochdosierten Medikamentengruppe zu sehen. Die Reduktion der Plaques rief bei bis zu einem Drittel der Patienten Nebenwirkungen hervor, die im Gehirnscan als Schwellungen und Mikroblutungen des Gehirns erkennbar waren (sogenannte Amyloid-bedingte Bildgebungsanomalien (ARIA)) und in einigen Fällen schwerwiegende Folgen hatten.
Eine umstrittene Zulassung
2020 haben Biogen/Eisai den Zulassungsantrag bei der FDA eingereicht.
Die wissenschaftlich hochrangigen Mitglieder eines unabhängigen Beratergremiums der FDA haben wegen des Fehlens eindeutiger Wirksamkeitsnachweise und bedenklicher Sicherheitsaspekte gegen die Zulassung gestimmt. Die FDA hat dennoch am 7. Juni 2021 für eine beschleunigte Zulassung entschieden, wobei sie den Nachweis der Plaque-Reduktion durch Aduhelm als Surrogatmarker - Ersatzmesswert - für die wahrscheinliche Wirkung am Patienten akzeptierte. Der FDA schien es wichtig, dass nach fast 20 Jahren von Misserfolgen nun mit Aduhelm der erste Vertreter einer neuen Klasse von Alzheimer-Therapeutika registriert wurde.
Viele Experten haben die Zulassung als eine der schlechtesten Entscheidungen der FDA bezeichnet. Die Zulassung stieß auch auf heftige Kritik vieler Organisationen wie beispielsweis des amerikanischen Konsumentenschutzes ("Die Entscheidung zeigt eine rücksichtslose Missachtung der Wissenschaft und schadet der Glaubwürdigkeit der Behörde"), ebenso wie der Medien (New York Times: "How Aduhelm, an Unproven Alzheimer's Drug, Got Approved").
Angesichts einer fragwürdigen Wirksamkeit und mangelnder Sicherheit verweigerte die Europäische Arzneimittel-Agentur (EMA) jedenfalls die Zulassung.
Aduhelm wird ein Flop...
Biogen hatte anfänglich den Preis des Medikaments auf 56.000 US-Dollar pro Jahr und Patient festgesetzt und später auf die Hälfte reduziert. Der hohe Preis und die Skepsis gegen das Medikament führten zu viel, viel weniger Verschreibungen als Biogen erwartet hatte. Dazu kam, dass dies US-Krankenversicherung Medicare die Erstattung auf Patienten beschränkte, die an klinischen Studien teilnahmen. Biogen konnte damit nur einen Bruchteil der erwarteten Umsätze einfahren.
Die Firma hat nun die klinische Studie ENVISION, mit der sie den von der FDA geforderten Wirksamkeitsnachweis erbringen wollte, weitere Entwicklungsarbeiten und das Marketing gestoppt und die Rechte an Aduhelm dem ursprünglichen Entdecker Neurimmune zurückgegeben.
... Nachfolger Leqembi bereits vorhanden
Dieser Schritt war offensichtlich nicht nur dem schlechten Abschneiden von Aduhelm geschuldet: Zusammen mit Eisai hatte Biogen ja mit Leqembi (Lecanemab) bereits einen Nachfolger mit besseren Erfolgsaussichten entwickelt. Dessen Wirksamkeit - eine bescheidene Verlangsamung des kognitiven Abbaus um 27 % - bei Patienten im frühen Stadium der Erkrankung (Studie CLARITY AD) reichte der FDA, um Leqembi 2023 als zweiten Amyloid-Antikörper zuzulassen - allerdings mit einer Black-Box-Warnung (das bedeutet: das Medikament kann ernste bis lebensbedrohende Nebenwirkungen ausllösen), da auch Leqembi die von Aduhelm bekannten Nebenwirkungen, Amyloid-bedingte Bildgebungsanomalien, hervorruft.
Leqembi gilt als Hoffnungsträger, da derzeit keine Therapie am Markt ist, die den Krankheitsprozess umkehreren/stoppen kann oder zumindest einen günstigeren Verlauf verspricht. Allerdings steht nun offensichtlich ein neuer Amyloid-Antikörper - Donanemab - des Pharmakonzerns Eli Lilly vor der Zulassung. Von Donanemab liegen als ausreichend eingestufte Wirksamkeitsdaten vor; allerdings ruft das Präparat - ebenso wie Aduhelm und Leqembi (und andere bis jetzt untersuchte Amyloid-Antikörper) - die auf Amlyoid-zurückführbaren Nebenerscheinungen - Gehirnschwellung en und Mikroblutungen - hervor.
Um der Konkurrenz zu begegnen, muss sich Biogen anstrengen und nun voll auf die Vermarktung von Leqembi konzentrieren.
Nachsatz
Ob die neuen Präparate die Alzheimer-Therapie revolutionieren werden, ist ungewiss. Das behandelbare Patientenkollektiv beschränkt sich (derzeit) ja nur auf Erkrankte im Frühstadium, die dazu auch u.a. mittels Gehirnscans selektiert und dann überwacht werden müssen, um die Amyloid-bedingten Nebenwirkungen möglichst gering zu halten. Da es derzeit keine Medikamente am Markt gibt, die Alzheimer heilen oder den Verlauf günstig modifizieren können, werden wohl viele dieser Patienten zu dem "Strohhalm" der Anti- Amyloid-Antikörper greifen und hoffen damit das Fortschreiten der Erkrankung längerfristig aufhalten zu können.
[1] Ch. Hock et al., Antibodies against Slow Cognitive Decline in Alzheimer’s Disease. Neuron, Vol. 38, 547–554, May 22, 2003.
Die Alzheimer-Erkrankung im ScienceBlog
Inge Schuster, 14.08.2022: Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein
Irina Dudanova, 23.09.2021: Wie Eiweißablagerungen das Gehirn verändern
Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein
Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie
Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts
Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich
Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an
Bluttests zur Früherkennung von Krebserkrankungen kündigen sich anDo, 25.01.2024 — Ricki Lewis
Krebs im frühen Stadium zu erkennen und zu behandeln kann die Erfolgsaussichten für Patienten bedeutend verbessern. Eine neue Entwicklung zur möglichst frühen Erkennung von möglichst vielen Arten von Krebserkrankungen sind Multi-Cancer-Early-Detection (MCED) Tests, auch als Flüssigbiopsie bezeichnete Tests, die von Krebszellen ins Blut (und andere Körperflüssigkeiten) abgesonderte biologische Substanzen wie Tumor-DNA oder - Proteine messen. Wie großangelegte neue Untersuchungen zeigen, lassen MCED-Testes Rückschlüsse auf mehr als 50 unterschiedliche Tumoren - darunter viele seltene Krebsarten, die oft viel zu lange unentdeckt bleiben - und den Ort ihrer Entstehung zu. Die Genetikerin Rick Lewis berichtet über das vielversprechende Potential dieser neuen Bluttests.*
Eine 52-jährige Frau ist bei ihrer jährlichen ärztlichen Untersuchung. Der Arzthelfer erwähnt, dass er zwei zusätzliche Blutkonserven für neue Krebsfrüherkennungstests benötigt, von denen einer gerade von der FDA zugelassen wurde und der andere im Rahmen einer klinischen Studie verfügbar ist.
"Aber ich bekomme bereits Mammographien und Darmspiegelungen aufgrund der Familienanamnese, und mein Mann wird jedes Jahr auf Prostatakrebs untersucht. Warum brauche ich diese neuen Tests?", fragt die Patientin.
"Diese können Krebserkrankungen viel früher erkennen, und zwar anhand der DNA und der Proteine in Ihrem Plasma, also dem flüssigen Teil des Bluts. Da sind auch Krebsarten dabei, die viel seltener sind als Brust-, Dickdarm- und Prostatakrebs."
"OK", sagt die Patientin und krempelt einen Ärmel hoch. Sie würde zu den Ersten gehören, die sich der "Multi-Krebs-Früherkennung" (MCED) unterziehen - einem Bluttest, der Hinweise darauf findet, dass Krebszellen in den Blutkreislauf gelangt sind. Eine im frühen Stadium begonnene Behandlung hat eine höhere Erfolgswahrscheinlichkeit. Ein MCED-Bluttest könnte ein Gamechanger für Menschen sein, die noch nicht symptomatisch an Krebs erkrankt sind.
Eine Flüssigbiopsie
Krebserkrankungen sind für 1 von 6 Todesfällen verantwortlich; nur etwa 40 Prozent werden früh genug erkannt, um erfolgreich therapiert zu werden. Bei einer Mammographie wurde mein Brustkrebs frühzeitig entdeckt; ein Arzt, der eine Beule in meinem Hals bemerkte, fand Schilddrüsenkrebs.
Für diejenigen, die an Krebs erkrankt waren, kann mittels einer "Flüssigbiopsie" auf ein Rezidiv - die Rückkehr der Erkrankung - geschlossen werden; dabei wird eine Körperflüssigkeit - in der Regel Blut, aber möglicherweise auch Urin, Sputum oder Kot - auf winzige DNA-Stücke untersucht, die krebsverursachende Mutationen enthalten. Die Forschung an solchen Flüssigbiopsien begann vor drei Jahrzehnten.
Die DNA-Schnipsel werden als "zellfrei zirkulierende DNA" oder cfDNA bezeichnet. Durch Überlagerung der Fragmente lässt sich die gesamte Genomsequenz der im Blutkreislauf enthaltenen Krebszellen wieder zusammensetzen und daraus Mutationen identifiziert werden. Darüber hinaus kann die Expression von Krebsgenen (ob es nun eingeschaltete oder ausgeschaltete Gene sind) aus den Methylierungsmustern - Methylgruppen, die an der DNA kleben - abgeleitet werden. Bei Krebs kann ein Tumorsuppressor-Gen mit Methylgruppen umhüllt und stillgelegt (silenced) werden und damit seine Funktion als Tumor-Unterdrücker verlieren. Oder ein Onkogen kann durch den Wegfall von Methylgruppen aktiviert werden und Krebs verursachen.
Eine Flüssigbiopsie - eben nur ein Bluttest - ist viel weniger schmerzhaft und invasiv als eine herkömmliche chirurgisch erhaltene Biopsie, bei der Krebszellen aus einem festen Tumor entnommen werden. Und eine Tumor-DNA ist spezifischer als ein Protein-Biomarker, der auch auf gesunden Zellen vorhanden sein kann, auf Krebszellen aber häufiger vorkommt.
Flüssigbiopsien haben bislang ihren Fokus auf Menschen gerichtet, die bereits an Krebs erkrankt waren, um ein Wiederauftreten des Tumors zu erkennen oder das Ansprechen auf die Behandlung zu überwachen. Der Heilige Gral ist aber der Einsatz bei Menschen, die weder an Krebs erkrankt waren noch sich aufgrund von Risikofaktoren wie Alter oder Familiengeschichte anderen Untersuchungen wie beispielsweise dem PSA-Test unterziehen müssen. Eierstockkrebs ist das klassische Beispiel. Er wird oft erst spät diagnostiziert, weil Verdacht erweckende Anzeichen - Blähungen und Müdigkeit - vage sind und häufig auftreten und leicht auf etwas Harmloses wie eine Umstellung der Ernährung oder des Sportprogramms zurückgeführt werden.
MCED-Bluttests sind besonders vielversprechend für die vielen seltenen Krebsarten, die oft viel zu lange unentdeckt bleiben. Sie werden wahrscheinlich auch ältere Screening-Methoden in Bezug auf Sensitivität (alle an Krebs Erkrankten werden als krank identifiziert) und Spezifität (alle nicht an Krebs Erkrankten werden als gesund erkannt) übertreffen.
Die neuen MCED-Bluttests - ein Typ ist zugelassen, ein anderer experimentell - weisen DNA oder Proteine nach. Abbildung.
Die MECD- Bluttests weisen im Blutplasma DNA-Stückchen (blau) oder Proteine (grün) nach, die von Tumoren in die Blutbahn abgesondert werden. (credit Jill George, NIH) |
Verdächtige DNA
Bereits auf Rezept erhältlich ist die "Multi-Krebs-Früherkennung aus einer einzigen Blutabnahme" des US-Gesundheitsunternehmens GRAIL. Im Oktober 2023 veröffentlichte das Unternehmen die Ergebnisse seiner Pathfinder-Studie im Fachjournal The Lancet. Darin wurden 6 662 Erwachsene im Alter von 50 + ohne Symptome beobachtet, die den Test gemacht hatten [1].
Die Überprüfung von Methylierungsmustern (ob Krebsgene ein- oder ausgeschaltet sind) führte zu mehr als einer Verdopplung der Zahl der neu entdeckten Krebserkrankungen, wobei sich fast die Hälfte davon in frühen Stadien befand. Nach einer Nachuntersuchung auf der Grundlage der spezifischen Krebsarten wurden die meisten Diagnosen in weniger als drei Monaten gestellt, also weitaus schneller als bei herkömmlichen Screening-Tests.
Der DNA-MCED-Test, Galleri genannt, deckt mehr als 50 Krebsarten ab, darunter viele, die derzeit mit den empfohlenen Screening-Tests nicht erkannt werden. So erkennt Galleri drei Arten von Krebs des Gallengangs, sowie Krebsarten des Dünndarms, der Mundhöhle, der Vagina, des Blinddarms, des Penis, des Bauchfells und weitere Arten, sowie die üblichen Krebsarten wie Bauchspeicheldrüsen-, Prostata- und Blasenkrebs.
Maschinelles Lernen wird eingesetzt, um DNA-Methylierungsmuster mit nützlichen klinischen Informationen zu verknüpfen, wie in einem Bericht in der Zeitschrift Cancer Cell erläutert wird. Der Ansatz gibt Aufschluss über die Krebsart und das Ursprungsorgan und unterscheidet Krebszellen von normalen Zellen, die einfach nur alt sind und DNA absondern.
Der Test hat 36 Krebsarten bei 35 Teilnehmern identifiziert, wobei bei einer Person zwei Krebsarten diagnostiziert wurden. Bei den üblichen Krebsuntersuchungen wurden 29 Krebsarten festgestellt.
Untersuchung von Proteinen
Wie bei der DNA in Flüssigbiopsien beruht die Identifizierung von Proteinen im Blutplasma auf der Erfassung von vielen Stückchen an Information.
Bekannt sind Screening-Tests zum Nachweis bestimmter Proteine, die mit einem erhöhten Risiko für bestimmte Krebsarten in Verbindung gebracht werden: PSA steht für Verdacht auf Prostatakrebs, Östrogen- und Progesteronrezeptoren auf Brustkrebszellen sind für die Wahl der Therapie ausschlaggebend, erhöhte Werte von CA125 weisen auf Eierstockkrebs hin.
Dies ist jedoch nur ein winziger Ausschnitt dessen, was durch die Katalogisierung der Konzentrationen vieler Proteine im Blutplasma möglich ist - ein Proteomik- Ansatz (Anm. Redn.: Unter Proteom versteht man die Gesamtheit aller in einer Zelle oder einem Lebewesen unter definierten Bedingungen und zu einem definierten Zeitpunkt vorliegenden Proteine.)
Eine "Proof-of-Concept"-Studie, die eben im BMJ Oncology veröffentlicht wurde, hat Schlagzeilen gemacht: "Ein geschlechtsspezifisches Panel von 10 Proteinen kann 18 verschiedene Krebsarten im Frühstadium erkennen" [2]:
Forscher von Novelna Inc. in Palo Alto haben aus Plasmaproben von 440 Personen, bei denen vor der Behandlung 18 verschiedene Krebsarten diagnostiziert wurden, und von 44 gesunden Blutspendern proteinbasierte "Signaturen solider Tumore" in bestimmten Organen abgeleitet. Sie haben die Häufigkeit von mehr als 3.000 Proteinen gemessen und die mit den Krebsarten assoziierten hohen und niedrigen Spiegel festgestellt. Die Auswahl der zu untersuchenden Proteine erfolgte auf Grund der biochemischen Reaktionswege, an denen diese Proteine beteiligt sind und die bei Krebs gestört sind, wie z. B. Signaltransduktion, Zelladhäsion und Zellteilung.
Ein wichtiger Teil der Studie war die Berücksichtigung des biologischen Geschlechts, da bestimmte Krebsarten bei Männern oder bei Frauen viel häufiger auftreten. Auch hier half künstliche Intelligenz den Ursprungsort des Tumors zu identifizieren sowie innerhalb eines Körperteils abzugrenzen, beispielsweise zwischen medullärem und follikulärem bzw. papillärem Schilddrüsenkrebs sowie zwischen kleinzelligem und nicht-kleinzelligem Lungenkrebs zu unterscheiden.
Niedrige Spiegel von zehn Plasmaproteinen erwiesen sich als aussagekräftige Prädiktoren für 18 Arten von soliden Tumoren, die geschlechtsabhängig sind. Aus den Konzentrationen von 150 Proteinen konnte auf den Entstehungsort des Tumors geschlossen werden, die Proteinsignatur zeigte auch das Stadium an, sogar ein sehr frühes.
In einem Leitartikel, der den Bericht im BMJ Oncology begleitete, weist Holli Loomans-Kropp von der Ohio State University darauf hin, dass "feststellbare geschlechtsspezifische Unterschiede bei Krebs - einschließlich des Alters des Auftretens, der Krebsarten und der genetischen Veränderungen - darauf hindeuten, dass der Ansatz mit MCEDs von Nutzen sein wird.... Kehlkopf-, Rachen- und Blasenkrebs treten bei Männern häufiger auf, Anal- und Schilddrüsenkrebs bei Frauen. Krebserkrankungen, die auf Mutationen im p53-Gen zurückzuführen sind, beginnen bei Frauen früher. Und die akute lymphoblastische Leukämie wird bei Männern und Frauen durch unterschiedliche Arten von Mutationen ausgelöst."
Auch andere genetische Messgrößen unterscheiden sich zwischen den Geschlechtern, z. B. die Anzahl der Mutationen, Kopienzahlveränderungen und Methylierungsmuster. Gene auf dem X-Chromosom unterdrücken das Tumorwachstum, und wir Frauen haben natürlich zwei Xs im Vergleich zu einem bei den Männern.
-------------------------------------------------
In Zukunft wird ein Bluttest zur Früherkennung von Krebs vielleicht so zur Routine werden wie ein Cholesterin-Test. Krebs in einem frühen Stadium, auf eine so einfache Weise zu erkennen, verspricht schlussendlich viele Leben zu retten!
[1] Nicholson B.D., et al., Multi-cancer early detection test in symptomatic patients referred for cancer investigation in England and Wales (SYMPLIFY): a large-scale, observational cohort study. Lancet Oncology (2023); 24/7: 733-743. https://doi.org/10.1016/S1470-2045(23)00277-2
[2] Budnik B, et al.: Novel proteomics-based plasma test for early detection of multiple cancers in the general population. BMJ Oncology 2024;3:e000073. doi: 10.1136/bmjonc-2023-000073.
[3] Loomans-Kropp H., Multi-cancer early detection tests: a strategy for improvement. BMJ Oncology 2024;3:e000184. doi: 10.1136/bmjonc-2023-000184
* Der Artikel ist erstmals am 11. Jänner 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Multi-cancer Early Detection Blood Tests (MCED) Debut "https://dnascience.plos.org/2024/01/11/multi-cancer-early-detection-blood-tests-mced-debut/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel
PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im KlimawandelDo, 18.01.2024 — Redaktion
Die Ozeane und die Atmosphäre der Erde verändern sich mit der Erwärmung des Planeten. Einige Meeresgewässer werden grüner, weil mehr mikroskopisch kleine Organismen blühen. In der Atmosphäre beeinträchtigen Staubstürme, die auf einem Kontinent entstehen, die Luftqualität eines anderen Kontinents, während der Rauch großer Waldbrände ganze Regionen tagelang einhüllen kann. Der neueste Erdbeobachtungssatellit der NASA mit der Bezeichnung PACE (Plankton, Aerosol, Wolken, Ozean-Ökosystem) wird im Februar 2024 gestartet und soll uns helfen, die komplexen Systeme, die diese und andere globale Veränderungen im Zuge der Klimaerwärmung bewirken, besser zu verstehen.*
Mit der fortschreitenden Erwärmung des Klimas, die möglicherweise zu mehr Waldbränden und damit zu einer stärkeren Ablagerung von Asche führt, können wir davon ausgehen, dass sich die Phytoplankton-Gemeinschaften verändern werden. Ivona Cetinić, Oceanographer - Ocean Ecology Lab at NASA Goddard.
"Der Ozean und die Atmosphäre interagieren auf eine Art und Weise, die nur durch kontinuierliche Forschung vollständig verstanden werden kann", sagte Jeremy Werdell, Projektwissenschaftler für die PACE-Mission am Goddard Space Flight Center der NASA in Greenbelt, Maryland, "Mit PACE werden wir unsere Augen für viele neue Aspekte des Klimawandels öffnen". Abbildung 1.
Abbildung 1. . PACE wird dazu beitragen, den Gesundheitszustand der Ozeane zu beurteilen, indem es die Verteilung von Phytoplankton misst - winzige pflanzenähnliche Organismen und Algen, die das marine Nahrungsnetz erhalten. Außerdem wird es die Aufzeichnungen wichtiger atmosphärischer Variablen im Zusammenhang mit der Luftqualität und dem Klima der Erde erweitern. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio |
Der Ozean verändert seine Farbe
Die Auswirkungen des Klimawandels auf den Ozean sind vielfältig und reichen vom Anstieg des Meeresspiegels über marine Hitzewellen bis hin zum Verlust der Artenvielfalt. Mit PACE ((Plankton, Aerosol, Wolken, Ozean-Ökosystem) werden die Forscher in der Lage sein, die Auswirkungen auf das Meeresleben in seinen kleinsten Formen zu untersuchen.
Phytoplankton sind mikroskopisch kleine, pflanzenähnliche Organismen, die nahe der Wasseroberfläche schwimmen und das Zentrum des aquatischen Nahrungsnetzes bilden, das allen möglichen Tieren - von Muscheln über Fische bis hin zu Walen - Nahrung bietet. Es gibt Tausende von Phytoplanktonarten, die jeweils unterschiedliche Nischen im Ozean besetzen.
Abbildung 2. Im Frühjahr und Sommer sind in der Barentssee nördlich von Norwegen und Russland oft blaue und grüne Blüten von Phytoplankton zu sehen. Das Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord des NASA-Satelliten Aqua hat dieses Echtfarbenbild am 15. Juli 2021 aufgenommen. Bildnachweis: NASA Earth Observatory |
Während ein einzelnes Phytoplankton in der Regel nicht mit bloßem Auge zu erkennen ist, können Gemeinschaften von Billionen von Phytoplankton, sogenannte Blüten, vom Weltraum aus gesehen werden. Blüten haben oft eine grünliche Färbung, was auf die Chlorophyllmoleküle zurückzuführen ist, die das Phytoplankton- wie die Landpflanzen - zur Energiegewinnung durch Photosynthese nutzt. Abbildung 2.
Laut Ivona Cetinić, einer Ozeanografin im Ocean Ecology Lab der NASA Goddard, reagiert das Phytoplankton auf Veränderungen in seiner Umgebung. Unterschiede in den Meerestemperaturen, den Nährstoffen oder der Verfügbarkeit von Sonnenlicht können dazu führen, dass eine Art aufblüht oder verschwindet.
Aus dem Weltraum lassen sich diese Veränderungen in den Phytoplankton-Populationen als Farbunterschiede erkennen, so dass Wissenschaftler die Abundanz und Vielfalt des Phytoplanktons aus der Ferne und im globalen Maßstab untersuchen können. Und Wissenschaftler haben kürzlich festgestellt, dass der Ozean etwas grüner wird.
In einer im Jahr 2023 veröffentlichten Studie haben die Forscher Daten zur Chlorophyllkonzentration genutzt, die das Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem Aqua-Satelliten der NASA über mehr als 20 Jahre gesammelt hatte, um festzustellen, nicht nur wann und wo Phytoplanktonblüten auftraten, sondern auch, wie gesund und reichlich vorhanden sie waren. Abbildung 3.
Abbildung 3. Analyse von Ozeanfarbdaten des MODIS-Instruments auf dem Aqua-Satelliten der NASA. Die Wissenschaftler stellten fest, dass Teile des Ozeans durch mehr Chlorophyll-tragendes Phytoplankton grüner geworden sind. Kredit: NASA-Erdbeobachtungsstelle |
Das Ocean Color Instrument (OCI) von PACE, ein Hyperspektralsensor, wird die Meeresforschung einen Schritt weiterbringen, indem es den Forschern ermöglicht, das Phytoplankton aus der Ferne nach Arten zu unterscheiden. (In der Vergangenheit konnten die Arten nur direkt aus Wasserproben heraus bestimmt werden). Jede Gemeinschaft hat ihre eigene Farbsignatur, die ein Instrument wie OCI identifizieren kann.
Die Identifizierung von Phytoplanktonarten ist von entscheidender Bedeutung, da die verschiedenen Phytoplanktonarten sehr unterschiedliche Funktionen in aquatischen Ökosystemen haben. Sie haben nützliche Funktionen, wie die Versorgung der Nahrungskette oder die Aufnahme von Kohlendioxid aus der Atmosphäre für die Photosynthese. Einige Phytoplanktonpopulationen binden Kohlenstoff, wenn sie sterben und in die Tiefsee sinken; andere geben das Gas wieder an die Atmosphäre ab, wenn sie in der Nähe der Oberfläche zerfallen.
Einige jedoch, wie die in den schädlichen Algenblüten vorkommenden, können sich negativ auf Menschen und aquatische Ökosysteme auswirken. Das Vorhandensein schädlicher Algen kann uns auch etwas über die Qualität der Wasserquellen verraten, z. B. ob zu viele Nährstoffe aus menschlichen Aktivitäten vorhanden sind. Durch die Identifizierung dieser Gemeinschaften im Ozean können Wissenschaftler Informationen darüber gewinnen, wie und wo das Phytoplankton vom Klimawandel betroffen ist, und wie sich Veränderungen bei diesen winzigen Organismen auf andere Lebewesen und die Ökosysteme der Ozeane auswirken können.
Partikel in der Luft ernähren das Phytoplankton im Meer
Neben seiner Rolle als Gras des Meeres spielt das Phytoplankton auch eine Rolle in einem komplexen Tanz zwischen Atmosphäre und Ozean. Und PACE wird beide Partner in diesem Tanz beobachten.
Abbildung 4. Modell, das die Bewegung von Aerosolen über Land und Wasser im Aug. 2017 zeigt. Hurrikane und tropische Stürme zeichnen sich durch große Mengen an Meeressalzpartikeln aus, die von ihren wirbelnden Winden aufgefangen werden. Staub, der aus der Sahara weht, kann von Wassertröpfchen aufgefangen werden und aus der Atmosphäre abregnen. Rauch von massiven Waldbränden im pazifischen Nordwesten Nordamerikas wird über den Atlantik nach Europa getragen. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio |
Mit einem Blick aus dem Weltraum über den gesamten Planeten innerhalb von 2 Tagen, wird PACE sowohl mikroskopisch kleine Organismen im Ozean als auch mikroskopisch kleine Partikel in der Atmosphäre, die so genannten Aerosole, verfolgen. Wie diese beiden interagieren, wird den Wissenschaftlern zusätzliche Erkenntnisse über die Auswirkungen des sich ändernden Klimas liefern. Abbildung 4.
Wenn sich beispielsweise Aerosolpartikel aus der Atmosphäre auf dem Ozean ablagern, können sie wichtige Nährstoffe liefern, die eine Phytoplanktonblüte auslösen. Winde tragen manchmal Asche und Staub von Waldbränden und Staubstürmen über den Ozean. Wenn diese Partikel ins Wasser fallen, können sie als Dünger wirken und Nährstoffe wie Eisen liefern, die das Wachstum der Phytoplanktonpopulationen fördern. Abbildung 5.
Abbildung 5. Visualisierung, die ein Beispiel für einen Waldbrand in den Bergen der Sierra Nevada zeigt. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio |
Während das Farberkennungsinstrument von PACE Veränderungen im Phytoplankton erkennen wird, trägt der Satellit auch zwei als Polarimeter bezeichnete Instrumente - SPEXone und HARP2 - die Eigenschaften des Lichts (Polarisation) nutzen, um Aerosolpartikel und Wolken zu beobachten. Die Wissenschaftler werden in der Lage sein, die Größe, Zusammensetzung und Häufigkeit dieser mikroskopisch kleinen Partikel in unserer Atmosphäre zu messen.
Rauch, Schadstoffe und Staub sind auch der Ursprung der Wolken
Die neuen Daten von PACE zur Charakterisierung atmosphärischer Partikel werden es den Wissenschaftlern ermöglichen, eine der am schwierigsten zu modellierenden Komponenten des Klimawandels zu untersuchen: die Wechselwirkung zwischen Wolken und Aerosolen.
Wolken bilden sich, wenn Wasser auf Luftpartikeln wie Rauch und Asche kondensiert. Ein leicht zu erkennendes Beispiel sind Schiffsspuren, die entstehen, wenn Wasserdampf kondensiert und helle, tiefliegende Wolken auf von Schiffen ausgestoßenen Schadstoffen bildet. Abbildung 6.
Abbildung 6. Schiffsspuren über dem nördlichen Pazifik. NASA-Bild, aufgenommen am 3. Juli 2010 mit dem Satelliten Aqua. Kredit: NASA NASA |
Verschiedene Arten von Aerosolen beeinflussen auch die Eigenschaften von Wolken, wie etwa ihre Helligkeit, die von der Größe und Anzahl der Wolkentröpfchen abhängt. Diese Eigenschaften können zu unterschiedlichen Auswirkungen - Erwärmung oder Abkühlung - auf der Erdoberfläche führen.
Eine helle Wolke oder eine Wolke aus Aerosolpartikeln, die tief über einem viel dunkleren Ozean schwebt, reflektiert beispielsweise mehr Licht zurück in den Weltraum, was eine lokale Abkühlung bewirkt. In anderen Fällen haben sowohl Wolken als auch Aerosole eine wärmende Wirkung, die als "Blanketing" bezeichnet wird. Dünne Wolkenfahnen hoch oben in der Atmosphäre absorbieren die Wärme von der Erdoberfläche und strahlen sie dann wieder in Richtung Boden ab.
"Aus der Klimaperspektive ist die Beziehung zwischen Aerosolen und Wolken eine der größten Unsicherheitsquellen in unserem Verständnis des Klimas", sagt Kirk Knobelspiesse, Leiter der Polarimetrie für die PACE-Mission bei der NASA Goddard. Die neuen Erkenntnisse des Satelliten über Aerosolpartikel werden den Wissenschaftlern helfen, Wissenslücken zu schließen und unser Verständnis dieser Beziehung zu vertiefen.
*Der vorliegende Artikel von Erica McNamee (NASA's Goddard Space Flight Center, Greenbelt, Md) ist unter dem Titel "NASA’s PACE To Investigate Oceans, Atmospheres in Changing Climate" am 11. Jänner 2024 auf der Website der NASA erschienen https://science.nasa.gov/earth/nasas-pace-to-investigate-oceans-atmospheres-in-changing-climate/. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.
NASA im ScienceBlog
Redaktion, 29.06.2023: Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt.
Redaktion, 22.06.2023: Gibt es Leben auf dem Saturnmond Enceladus?
Redaktion, 27.04.2023: NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern.
Redaktion, 19.01.2023: NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen.
Redaktion, 05.01.2023: NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars.
Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan.
Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums.
Inge Schuster, 05.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen.
Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher
Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum WasserstoffspeicherDo, 11.01.2024 — Roland Wengenmayr
Katalysatoren spielen als Reaktionsbeschleuniger in Natur und Technik eine entscheidende Rolle. Lebensprozesse werden von Enzymen angekurbelt und über neunzig Prozent aller von der Chemieindustrie eingesetzten Reaktionen benötigen einen Katalysator. Dazu zählt die Ammoniaksynthese, der die Menschheit den künstlichen Stickstoffdünger verdankt. Weil Ammoniak viel Wasserstoff enthält, ist es auch als Wasserstoffspeicher für eine zukünftige Energiewirtschaft interessant. Allerdings muss es dazu auch wieder effizient in Wasserstoff und Stickstoff zerlegt werden - der Schlüssel dazu sind neue Feststoffkatalysatoren. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Arbeiten von Prof. Dr. Claudia Weidenthaler, die mit ihrem Team am Max-Planck-Institut für Kohlenforschung in Mülheim an effizienten, preisgünstigen Katalysatoren für die Ammoniakzerlegung forscht.*
Katalysatoren eröffnen einer chemischen Reaktion einen günstigen Pfad durch eine Energielandschaft, der sonst verschlossen wäre. Während einer Reaktion brechen zuerst chemische Bindungen in den Edukten auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle der Produkte. Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg. Um diesen zu bezwingen, brauchen die Moleküle Energie. Der Katalysator senkt nun diesen hemmenden Energieberg ab. Grundsätzlich gibt es zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die reagierenden Stoffe und der Katalysator in der gleichen Phase, etwa in einer Lösung. In der heterogenen Katalyse sind beide in getrennten Phasen. Bei technischen Anwendungen fließen dabei oft Gase über festes Katalysatormaterial, zum Beispiel beim „Autokat“.
Ammoniaksynthese ..............
Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet, denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. 2020 wurden weltweit 183 Millionen Tonnen Ammoniak produziert, was zwei Prozent des globalen Energieverbrauchs der Menschheit erforderte. Da die Energie und der Wasserstoff hauptsächlich aus fossilen Quellen stammten, setzte das 450 Millionen Tonnen CO2 frei. Das entspricht etwa 1,4 Prozent der menschlichen CO2-Emissionen im Jahr 2020. Ohne Katalysator wären allerdings Energieverbrauch und Emissionen ungleich dramatischer: Allein die Produktion von einem Kilogramm Ammoniak würde dann rund 66 Millionen Joule an Energie verbrauchen, was ungefähr der Verbrennungswärme von 1,5 kg Rohöl entspricht.
Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte eine Hungerkatastrophe. Rettung versprach der riesige Stickstoffvorrat in der Luft, denn sie besteht zu 78 Prozent aus Stickstoffmolekülen. Allerdings verschließt die sehr stabile Dreifachbindung des Moleküls den Zugang zu den Stickstoffatomen. An der dreifach harten Nuss scheiterten alle Forschenden – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus Stickstoff ermöglicht. Leider ist Osmium extrem selten, doch der Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form winziger Nanopartikel erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 bar und Temperaturen zwischen 400 °C und 500 °C. Boschs Gruppe konstruierte dafür einen massiven Durchflussreaktor. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt 1919 den Nobelpreis für Chemie, Bosch 1931.
Die Reaktionsgleichung der kompletten Ammoniaksynthese lautet
N2 + 3 H2 → 2 NH3
Die Reaktion ist exotherm, in der Bilanz wird Wärmenergie frei: Pro Mol N2 sind es 92,2 Kilojoule, pro Mol NH3 die Hälfte, was auf ein Kilogramm Ammoniak rund 2,7 Megajoule ergibt. So viel Wärmeenergie setzt die Verbrennung von 92 Gramm Steinkohle frei. Der Eisenkatalysator im Haber-Bosch-Verfahren beschleunigt nun diese Reaktion. Aber was sich da genau auf seiner Oberfläche abspielt, konnte die Forschung lange nicht aufdecken. Man ging davon aus, dass die Anlagerung der N2-Moleküle an seiner Oberfläche die Geschwindigkeit der Reaktion bestimmt. Offen blieb aber, ob die N2-Moleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette N2-Molekül reagiert.
.............und ihr Ablauf im Einkristall
Erst 1975 konnten Gerhard Ertl und sein Team zeigen, dass das N2-Molekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Metalle wie Eisen besitzen eine kristalline Struktur, bei der die Eisenatome ein geordnetes dreidimensionales Gitter ausbilden. Ein perfekter Kristall heißt „Einkristall“. Schneidet man durch ihn hindurch, sind die Eisenatome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, vermutete Ertl. Tiefer im Kristall ist jedes Atom auf allen Seiten von Nachbaratomen umgeben. An der Oberfläche dagegen liegen die Atome frei. Kommt dort ein H2-Molekül vorbei, dann können sie es deshalb an sich binden. Das passiert allerdings nur etwa einmal in einer Million Fällen. Durch diese Bindung an das Eisen geht der Energiegewinn durch die Dreifachbindung im N2-Molekül verloren. Die Stickstoffatome lösen sich aus dieser Bindung und werden frei. Dem H2-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die einzelnen Stickstoff- und Wasserstoffatome können nun untereinander chemische Bindungen eingehen (Abbildung 1). Ertls Gruppe schaffte es, den kompletten Ablauf der Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. Gerhard Ertl führte damit die exakten Methoden der Oberflächenforschung erstmals in die Katalyseforschung ein. Dafür bekam der frühere Direktor am Berliner Fritz- Haber- Institut der Max -Planck- Gesellschaft 2007 den Nobelpreis für Chemie.
Abbildung 1: Schritte der Ammoniaksynthese. Die rot gestrichelte Energiekurve zeigt die Reaktion ohne, die durchgezogene grüne mit Katalysator: Die N2– und H2– Moleküle liegen frei vor (1). Das N2-Molekül haftet sich an die Eisenoberfläche (2). Die dort adsorbierten N2– und H2– Moleküle zerfallen zu N- und H- Atomen (3). Es entstehen NH (4), NH2 (5) und NH3 (6). Das fertige Ammoniakmolekül hat sich von der Eisenoberfläche gelöst (7). Die grün und rot gestrichelten Energiekurven enden rechts auf einem tieferen Energieniveau – bei der Reaktion wird Energie frei. © Grafik: R. Wengenmayr nach G. Ertl / CC BY-NC-SA 4.0 |
Ammoniak – ein guter Wasserstoffspeicher?
Für eine Zukunft ohne fossile Brennstoffe gilt Wasserstoff als wichtiger Energieträger. Zum Beispiel könnten große Solarkraftwerke in sonnenreichen Ländern regenerativen Strom produzieren und in Elektrolyseanlagen Wasser zu Wasserstoff und Sauerstoff zerlegen. Der grüne Wasserstoff würde dann zum Beispiel in Tankschiffen nach Europa verfrachtet werden, wo er in Industrieprozessen oder für die Energieerzeugung, etwa in Brennstoffzellen, verbraucht würde. Allerdings müsste der Wasserstoff dazu entweder gasförmig unter hohem Druck von 200 bar oder verflüssigt unterhalb von -252 °C in Tanks transportiert werden, was teuer und energetisch ineffizient ist.
Im Vergleich dazu bietet Ammoniak als Wasserstoffspeicher einige Vorteile. Der erste Vorteil ist seine hohe Energiedichte von 3,2 Kilowattstunden pro Liter, pro Kilogramm sogar 5,2 Kilowattstunden – zum Vergleich: bei Benzin sind es 9,7 beziehungsweise 12,7 Kilowattstunden. Zweitens wird Ammoniak bei 20 °C schon bei 8,6 bar Druck flüssig, grob dem doppelten Druck eines Fahrradreifens. Damit ist es gut in Tanks transportierbar. Ammoniak könnte die Tankschiffe selbst emissionsfrei antreiben. Die „Viking Energy“ ist das erste Schiff mit einer Hochtemperatur-Brennstoffzelle, die aus Ammoniak elektrischen Strom für den Schiffsantrieb gewinnt.
Allerdings kann Ammoniak nur ein effizienter Wasserstoffspeicher sein, wenn das chemische Binden und Rückgewinnen des Wasserstoffs möglichst wenig Energie verbraucht. Hier kommt die Forschung von Claudia Weidenthaler ins Spiel. Die Professorin erzählt, dass nach besseren Katalysatoren und alternativen industriellen Prozessen gesucht wird, die das traditionelle Haber-Bosch-Verfahren in der Effizienz schlagen können. Ihr Team sucht hingegen Metallkatalysatoren, die Ammoniak in einem „Cracker“-Reaktor möglichst effizient wieder zerlegen. Mit ihren Methoden steht sie in der Tradition des Pioniers Gerhard Ertl. Sie erforscht systematisch verschiedene Metalle, die sich theoretisch gut als Katalysatoren eignen. Und sie räumt auch gleich mit der Vorstellung auf, dass Katalysatoren sich während der Reaktion nicht verändern. Das Gegenteil ist der Fall. Umso wichtiger wäre es, die Vorgänge an ihrer Oberfläche und darunter, im Trägermaterial, bis auf die Ebene einzelner Atome direkt „filmen“ zu können.
Die Katalyse im Blick
Abbildung 2. Ein Röntgen-Pulverdiffraktometer. (© David Bonsen/MPI für Kohlenforschung) |
Leider gibt es kein konventionelles Mikroskop, mit dem man einfach bis in die Welt der Atome zoomen und direkt im chemischen Reaktor Videos aufzeichnen kann. Also muss das Team verschiedene Methoden kombinieren, die eines gemeinsam haben: Sie verwenden Wellenlängen, die viel kürzer als die von sichtbarem Licht sind. Röntgenlicht und fliegende Elektronen in Elektronenmikroskopen sind kurzwellig genug, um auch Details bis teilweise hinunter in den Zehntelnanometerbereich erfassen zu können. Herkömmliche Elektronenmikroskope können sehr gut die Strukturen von Oberflächen abbilden, haben aber den Nachteil, dass sie Vakuum benötigen. Damit lassen sich also mit gewöhnlichen Geräten nur Bilder von Katalysatoroberflächen vor und nach der Reaktion aufnehmen. Für die Beobachtung der laufenden katalytischen Reaktion nutzt das Mülheimer Team daher verschiedene Röntgenmethoden. Mit Hilfe eines Röntgen-Pulverdiffraktometers (Abbildung 2) kann das Team das Innere der winzigen Kristalle durchleuchten.
Die Methode ähnelt dem Physikexperiment, in dem Lichtwellen an einem feinen Gitter gebeugt werden. Das dahinter aufgenommene Beugungsbild enthält die genaue Information über die Beschaffenheit des Gitters. Auch die Metallatome im Kristall bilden ein räumliches Gitter mit Abständen im Bereich von Zehntelnanometern. Passt die Wellenlänge des Röntgenlichts, so liefert das Beugungsbild eine genaue Information über den Aufbau des Kristalls – und dessen Veränderungen während der katalysierten Reaktion.
Alternativen zum teuren Edelmetall
Die Reaktionsgleichung beim „Cracken“ von Ammoniak lautet
2 NH3 → N2 + 3 H2
Diese Reaktion benötigt Energie, sie ist endotherm. Pro Mol NH3 sind das die schon bei der Synthese erwähnten 46,1 Kilojoule. Nun hat sich Eisen als relativ guter Katalysator beim Haber-Bosch-Verfahren etabliert. Doch ist es auch ein guter Katalysator für das Cracken? Eigentlich läge das nahe, ein Video kann ja auch einfach rückwärts ablaufen. Doch die Antwort lautet: nein. Für die Ammoniaksynthese und -zerlegung gilt, dass ein guter Katalysator für die eine Reaktionsrichtung nicht automatisch auch für die umgekehrte Richtung funktioniert.
Abbildung 3. Ammoniakzerlegung. Test von vier verschiedenen Proben des Katalysator-Trägermaterials, die entweder bei 550 oder 700 °C hergestellt wurden. Zwei Proben enthielten 4, zwei 8 Gewichtsprozent Cobalt. Untersucht wurde die Zerlegung von NH3 bei Temperaturen von 350 bis 650 °C. Das Katalysator-Trägermaterial, das bei 550 °C hergestellt wurde, ist effektiver, da bei niedrigeren Herstellungstemperaturen weniger Cobalt mit dem Al2O3 im Träger reagiert und als Katalysator inaktiviert wird. Ein höherer Anteil von Cobalt in der Probe wirkt sich positiv auf die NH3-Zerlegung aus, weil mehr Cobalt für die Katalyse zur Verfügung steht. © C. Weidenthaler; verändert nach ChemCatChem, 14/20, 2022, DOI: (10.1002/cctc.202200688) / CC BY 4.0 |
Der beste metallische Katalysator für das Zerlegen von NH3 ist nach heutigem Kenntnisstand Ruthenium. Da dieses Edelmetall aber selten und teuer ist, sucht Weidenthalers Team nach günstigeren Alternativen. Vor allem sollen sich die neuen Katalysatoren später auch für die Reaktoren in der Industrie eignen. Dabei ist das Zusammenspiel zwischen dem Katalysator und dem Trägermaterial, auf dem er aufgebracht ist, wichtig. Auch das untersucht das Team. Ein Beispiel ist die jüngste Arbeit mit Cobalt als Katalysator auf einem Träger aus Aluminiumoxid-Nanokristallen. Cobalt ist ein vielversprechender Kandidat für die Ammoniakzerlegung. Und Aluminiumoxid versprach ein gutes Trägermaterial: Bei hohen Temperaturen von mehreren hundert Grad verhindert es, dass die feinen Cobaltpartikel auf der Trägeroberfläche „zusammenbacken“. Sintern heißt dieser unerwünschte Effekt, der die gesamte Cobaltoberfläche verkleinern würde, die für die Katalyse noch zur Verfügung stünde.
Das Mühlheimer Team stellte zunächst verschiedene Proben des Katalysator-Trägermaterials mit unterschiedlichen Cobaltanteilen bei Temperaturen von 550 °C und 700 °C her. Diese Proben testete das Team in einem Reaktor, durch den Ammoniakgas floss. Es konnte zeigen, dass sich eine niedrige Herstellungstemperatur und ein hoher Cobaltanteil positiv auf die Ammoniakzerlegung auswirken (Abbildung 3).
Die getesteten Proben sind jedoch für die industrielle Anwendung noch nicht geeignet, da erst bei Temperaturen ab ca. 600 °C eine vollständige Zerlegung des Ammoniaks erreicht wird. Diese hohen Temperaturen benötigen für Industrieprozesse zu viel Energie. Bei niedrigeren Temperaturen wäre der entstehende Wasserstoff noch mit Ammoniak verunreinigt und würde beispielweise Probleme beim Einsatz in Brennstoffzellen verursachen.
Die Forschenden untersuchten auch die Vorgänge bei der Herstellung des Katalysator-Trägermaterials: Auf der Oberfläche des Trägers bilden sich Nanopartikel von elementarem Cobalt, das katalytisch wirksam ist. Ein Teil des Cobalts wandert in das Trägermaterial, bildet mit dem Aluminiumoxid einen Mischkristall und wird dadurch inaktiviert (Abbildung 4).
Abbildung 4: Strukturen im Cobalt-Aluminiumoxid-Träger. Das Trägermaterial besteht aus γ-Aluminiumoxid (links; Sauerstoff: kleine, dunkelrote Kugeln ; Aluminium: große, rosafarbene Kugeln). Auf der Oberfläche des Trägers bildet sich beim Herstellungsprozess elementares Cobalt. Dieses katalysiert die Ammoniakzerlegung. Ein Teil des Cobalts wandert in den Träger und bildet einen Mischkristall (rechts). Das Cobalt ist in dieser Form (blau: CoO4) nicht mehr katalytisch wirksam. © C. Weidenthaler, MPI für Kohlenforschung / CC BY-NC-SA 4.0 |
Für die industrielle Anwendung ist es auch wichtig zu untersuchen, was passiert, wenn der „Cracker“-Reaktor abgeschaltet wird und das Katalysator-Trägermaterial abkühlt. Dem Team gelang es nicht mehr, Cobalt auf der Oberfläche des Trägermaterials nachzuweisen. Claudia Weidenthaler erklärt: „Wir vermuten, dass die Cobalt-Nanopartikel beim Abkühlen in noch kleinere Partikel zerfallen und deshalb mit der Röntgendiffraktometrie nicht mehr nachweisbar sind. Deshalb setzen wir nun Röntgenspektroskopie-Methoden ein, die eine atomare Auflösung erlauben.“ Damit kommt Claudia Weidenthalers Team dem „Filmen“ von Katalysevorgängen schon sehr nahe.
Optimierte Katalysatoren
Weitere offene Fragen sind:
- Wohin wandert das Cobalt und in welcher Form liegt es vor?
- Verändert sich das Katalysator-Trägermaterial, wenn es mehrfach erhitzt wird und wieder abkühlt?
Die Suche nach einer geeigneten Kombination geht in Mülheim also weiter. Eine grundsätzliche Herausforderung ist dabei, dass der Katalysator mit dem Trägermaterial keine stabilen Bindungen eingehen darf, die ihn deaktivieren. Die andere Herausforderung: Der Katalysator darf mit den Produkten und Edukten keine Wechselwirkungen eingehen, die die Reaktion behindern.
Findet die Forschung hier gute, energieeffiziente Lösungen, wäre das ein großer Schritt zum Einsatz von Ammoniak als Wasserstoffspeicher.
*Der Artikel ist erstmals unter dem Titel: " Auf dem Weg zum Wasserstoffspeicher - Katalysatoren für die Ammoniakzerlegung" https://www.max-wissen.de/max-hefte/techmax-10-ammoniakzerlegung-wasserstoffspeicher/ in TECH-Max 10 im Herbst 2023 erschienen und wurde mit Ausnahme von Titel und Abstract und leichten Kürzungen unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz
Ammoniak - Energieträger und Wasserstoffvektor
Max-Planck-Gesellschaft: Mit Ammoniak zu grünem Stahl (24.04.2023). https://www.mpg.de/20212313/gruener-stahl-klimaneutral-ammoniak
Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min.https://www.youtube.com/watch?v=a_yUKX8zQfI&t=128s
Das Campfire Bündnis (BMBF): Wind und Wasser zu Ammoniak. https://wir-campfire.de/
EnergieZukunft (eu): Ammoniak in der Energiewirtschaft - Wasserstoff transportieren (14.11.2023). https://www.energiezukunft.eu/wirtschaft/wasserstoff-transportieren/
Frauenhofer ISE: Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende (21.9.2022). https://www.ise.fraunhofer.de/de/presse-und-medien/news/2022/ammoniak-als-wasserstoff-vektor-neue-integrierte-reaktortechnologie-fuer-die-energiewende.html
Deutsches Umweltbundesamt :Kurzeinschätzung von Ammoniak als Energieträger und Transportmedium für Wasserstoff - Stärken, Schwächen, Chancen und Risiken (15.02.2023). https://www.umweltbundesamt.de/dokument/kurzeinschaetzung-von-ammoniak-als-energietraeger
Armin Scheuermann:Flüssiger Wasserstoff, Ammoniak oder LOHC – was spricht für welchen H2-Träger? (28.12.2022). https://www.chemietechnik.de/energie-utilities/wasserstoff/fluessiger-wasserstoff-ammoniak-oder-lohc-was-spricht-fuer-welchen-h2-traeger-381.html