2022

2022 inge Fri, 07.01.2022 - 20:15

Fliegen lehren uns, wie wir lernen

Fliegen lehren uns, wie wir lernen

Do, 29.12.2022 — Nora Schultz

Nora SchultzIcon Gehirn-Fliege

Die Taufliege Drosophila gehört zu den beliebtesten Tiermodellen der Genetiker und auch der Neurowissenschafter. Zwar liegen zwischen Fliegen und Menschen Welten; doch schaut man dem kleinen Insekt ins Gehirn – und ins Genom – , so zeigt sich, dass doch vieles sehr ähnlich funktioniert. Viele der heute auch für den Menschen relevanten Gene wurden erstmals in Taufliegen entdeckt. Die Tiere entfalten komplexe Verhaltensmuster, sie machen Erfahrungen, bewerten, lernen, erinnern sich und können auch vergessen. Die Entwicklungsbiologin Nora Schultz gibt eine Einführung in das faszinierendeThema.*

In Kurt Neumanns Horrorfilm „Die Fliege“ aus dem Jahr 1958 widerfahren einem Forscher schlimme Dinge, nachdem sein Körper in einem Experiment versehentlich mit dem einer Fliege verschmolzen ist. Im Gegensatz dazu bleibt die reale Forschung, die sich in vielen Disziplinen seit mehr als 100 Jahren um die Taufliege Drosophila melanogaster dreht, bislang ohne gruselige Nebenwirkungen. An Visionsfülle steht die Realität dem Film jedoch kaum nach: Das kleine Insekt – vielen auch als Frucht- oder Essigfliege bekannt – soll große Fragen beantworten und hat viele Antworten bereits geliefert: Wie wächst aus einer befruchteten Eizelle ein komplexer Körper? Wie entstehen Krebs und andere Krankheiten? Wie lernt ein Gehirn?

Gerade die letzte Frage erscheint anmaßend. Nur 100.000 Neurone arbeiten im Drosophila-Gehirn; im Menschenkopf knäulen sich 86 Milliarden Nervenzellen, fast zehntausendmal so viele. Doch was man bisher über die Fliege weiß, gibt Anlass zum Optimismus, dass uns das bescheidene Fliegenhirn einiges über das Lernen lehren kann. Nicht ohne Grund ist Drosophila das liebste Versuchstier der Forschung. (Siehe Box).

Drosophila - Superstar unter den Tiermodellen

  • Die Taufliege Drosophila ist der Superstar unter den Versuchstieren: klein, pflegeleicht und vermehrungsfreudig. Eine neue Fliegengeneration wächst in nur 10 Tagen heran.
  • Viele heute bekannte Gene wurden zuerst in Taufliegen entdeckt. Das klappt in Reihenuntersuchungen, in denen man zum Beispiel mit Strahlen oder Chemikalien Mutationen entstehen lässt und dann in den Insekten nach veränderten Eigenschaften sucht und diese beschreibt. Viele der so gefundenen Gene arbeiten in ähnlicher Form auch im Menschen.
  • Auch die Struktur und Funktion von Nervenzellen und neuronalen Netzwerken ähneln sich im Menschen und in der Fliege. Und da Fliegen einiges lernen und sich vielfältig verhalten können, lassen sich auch neurowissenschaftliche Fragen gut an ihnen untersuchen.
  • Fruchtfliegen sind experimentell besonders zugänglich. Ihre Gene lassen sich in einzelnen Gewebe- oder Zelltypen gezielt aktivieren, blockieren oder in ihrer Funktion verändern. Auch die Aktivität einzelner Zellen oder Moleküle lässt sich im lebenden Tier gut manipulieren und beobachten. Fliegen eignen sich daher gut für die Untersuchung molekularer und zellulärer Mechanismen.
  • Im Gehirn der Fliege vereint der Pilzkörper auf kompaktem Raum wichtige Funktionen, die im menschlichen Gehirn auf unterschiedliche Regionen verteilt sind: die Integration von Sinneseindrücken, die Bildung und Speicherung von Erinnerungen und eine Entscheidungszentrale zur Verhaltenssteuerung. Im Pilzkörper lässt sich daher besonders gut integrativ untersuchen, wie Moleküle, Nervenzellen und Netzwerke zusammenwirken, um situations- und erfahrungsabhängiges Verhalten hervorzubringen.

Bild von Redn. eingefügt. Quelle: Flickr by cudmore. https://www.flickr.com/photos/cudmore/4277800.   Lizenz: cc-by-sa.

Schon um 1910 wusste der US-amerikanische Zoologe und Genetiker Thomas Hunt Morgan die Vorzüge der kleinen Fliege zu schätzen: für seine Pionierarbeiten in der Genetik, für die er später den Nobelpreis bekam. Taufliegen sind klein, pflegeleicht, überaus fruchtbar und vermehren sich schnell. Eine Generationszeit dauert gerade mal zehn Tage. Morgan und sein Team benötigten in ihrem „Fly Room“ – einem nur 35 Quadratmeter kleinen Labor – anfangs wenig mehr als reife Bananen, Milchflaschen und Lupen, um an tausenden Fliegen zu beobachten, wie bestimmte Merkmale von Generation zu Generation weitervererbt wurden.

Es sind die Gene

Dabei wurde schnell klar, dass Fliegen in vielerlei anderer Hinsicht einen Glücksgriff für die biologische Forschung bedeuten. Die Tiere lassen sich sowohl genetisch als auch zell- und molekularbiologisch überaus gut untersuchen und manipulieren. Morgan und viele andere, die schon bald in dessen Fußstapfen traten, entlockten Drosophila zunächst Geheimnisse, indem sie die Tiere mutierenden Röntgenstrahlen oder Chemikalien aussetzten. Die Effekte dieser Mutationen untersuchten sie dann im Rahmen sogenannter Screens in mühevoller Kleinarbeit und ordneten sie konkreten Positionen auf den Chromosomen zu.

Christiane Nüsslein-Volhard und Eric Wieschaus beispielsweise charakterisierten 1980 auf diese Weise 600 Mutationen in 120 Genen, die das Segmentmuster von Fliegenlarven verändern – eine Arbeit, für die sie später ebenfalls den Nobelpreis erhielten. Damit entschlüsselten sie entscheidenden Mechanismen der Embryonalentwicklung. Und, wie sich später herausstellte, orchestrieren diese Gene vielfach auch bei anderen Tieren bis hin zum Menschen die Entwicklung und sind an Krankheitsprozessen beteiligt – so auch im Nervensystem.

Die überraschende Ähnlichkeit zwischen Taufliegen und anderen, mit ihr nur äußerst entfernt verwandten Lebewesen hat sich seitdem immer wieder bestätigt. Im Jahr 2000 gelang es, das Genom der Fliege vollständig zu entschlüsseln; wenige Monate später erschien 2001 die erste, noch nicht ganz vollständige Sequenzierung des menschlichen Genoms. Seitdem ist klar, dass es für viele menschliche Gene entsprechende Pendants mit ähnlicher Struktur und/oder Funktion in der Fliege gibt. Das gilt beispielsweise für 77 Prozent der 2001 bekannten krankheitsrelevanten menschlichen Gene . Die Liste wird in einer online einsehbaren Datenbank, der „ Flybase “ “ (https://flybase.org/lists/FBhh/), ständig aktualisiert.

Durchaus lernfähig

Auch das Fliegenhirn ähnelt dem menschlichen Gehirn mehr, als man zunächst vermuten möchte. Es ist zwar nur so groß wie ein Mohnkorn, leistet aber auf diesem kleinen Raum eine ganze Menge an Dingen. Fliegen riechen und sehen zum Beispiel sehr gut und gleichen diese und andere sensorische Informationen ständig mit weiteren Details ab, um Entscheidungen zu treffen, durch den dreidimensionalen Raum zu navigieren, Futter zu finden, Gefahren zu meiden und andere Fliegen zu bezirzen oder zu bekämpfen.Abbildung.

Fliegenhirn:- Klein wie ein Mohnkorn, aber ähnlicher dem menschlichen Gehirn, als man vermuten möchte. Unten: Signale der Aussenwelt - z.B. Duft - werden im Pilzkörper verarbeitet. (Bilder von Redn. eingefügt. Quelle: Die Fliege. https://www.youtube.com/watch?v=oH0Fy3lp7Zg.© 2022 www.dasGehirn.info. Lizenz: cc-by-nc)

Ein derart komplexes Verhaltensrepertoire kann nur entfalten, wer lernfähig ist. Fliegen lernen, greifen auf Erinnerungen zurück und vergessen manches auch wieder, genau wie Menschen. Selbst wenn zwischen dem Alltag von Drosophila melanogaster und dem des Homo sapiens Welten liegen, sind die Grundherausforderungen ans Überleben im Kern so ähnlich, dass auch bewährte Lernmechanismen im Laufe der Evolution erhalten geblieben sind – genau wie die beteiligten Gene. Schon in den 1960er und -70er Jahren entdeckte der US-Forscher Seymour Benzer in Screens Gene, die sich auf die Lernfähigkeit von Fliegen auswirken. Gene mit den klangvollen Namen dunce und rutabaga zum Beispiel verschlüsseln die Bauanleitung für Enzyme, die eine wichtige Rolle in intrazellulären Signalkaskaden spielen, die essenziell für Lernprozesse sind. Auch von diesen und vielen weiteren neurobiologisch relevanten Fliegengenen haben Forschende seitdem menschliche Pendants ausgemacht. Es existieren also durchaus grundlegende Gemeinsamkeiten zwischen Drosophila melanogaster und Homo sapiens. Und so ist es dann auch möglich, durch Untersuchungen an der Fliege auch für den Menschen relevante Details darüber herauszufinden, wie Erfahrungen und Lernprozesse, aber auch Krankheiten die neuronalen Schaltkreise verändern, die zur Verhaltenssteuerung dienen.

Fliegenforschung vorn

Die Taufliege macht es Forschern leicht, sie experimentell unter die Lupe zu nehmen und Fragen nachzugehen, die sich beim Menschen oder auch bei anderen Versuchstieren nicht oder nur schwer untersuchen lassen. Bereits seit den 1980er Jahren existieren experimentelle Techniken, um gezielt in das Genom der Fliege einzugreifen, und sie werden ständig verfeinert. Bestimmte Gene oder Genabschnitte lassen sich gezielt in einzelnen Gewebe- oder Zelltypen aktivieren, blockieren oder in ihrer Funktion verändern, auch durch Zugabe von Transgenen, also Genabschnitten anderer Spezies. Solche Veränderungen können dauerhaft sein oder so konzipiert, dass sie sich durch bestimmte Signale ein- und ausschalten lassen, etwa durch Licht.

Bei der Untersuchung molekularer und zellulärer Lernmechanismen hat zudem gerade die kleine Statur des Fliegenhirns einen entscheidenden Vorteil: „In der Maus liegen die Zellen und Schaltkreise, die an einem bestimmten Verhalten mitwirken, so weit auseinander, dass man sie nicht gleichzeitig bei der Arbeit beobachten kann“, sagt André Fiala von der Universität Göttingen. „In der Fliege hingegen können wir zugleich auf die Details der einzelnen Nervenzelle mit ihren Synapsen schauen und auf das, was im Netzwerk passiert.“

Flexible Neurone

Dabei zeigt sich, dass unterschiedliche Synapsen in ein und derselben Zelle je nach Geruch unterschiedlich aktiv sind – und dass diese Aktivitätsmuster sich verändern, wenn die Fliege lernt, einen Duft mit einem negativen Reiz, beispielsweise Schmerz zu verknüpfen. Diese Veränderungen gibt die Kenyonzelle an die an den jeweiligen Synapsen verknüpften Neurone weiter, die nun selbst verändert auf die stärkeren oder schwächeren Signale reagieren, die an dieser Synapse empfangen. Das Gelernte ist damit als messbare Gedächtnisspur fixiert worden. „Interessant ist, dass das Gedächtnis hier nicht in ganzen Zellen, sondern in einzelnen Zellabschnitten codiert wird“, erklärt Fiala. Aktuell untersucht sein Team, wie diese abschnittsweise Regulierung der Aktivität auf der molekularen Ebene funktioniert.

Es gibt noch viele weitere offene Fragen zur Verhaltenssteuerung, bei deren Beantwortung die Pilzkörper der Fliege helfen könnten. Was verändert sich zum Beispiel, wenn Gedächtnisspuren vom Kurzzeitgedächtnis ins Langzeitgedächtnis wandern? Wie genau lernt man, dass bestimmte Nahrungsmittel giftig oder verdorben waren, wenn zwischen der Aufnahme und unangenehmen Symptomen etwas Zeit verstreicht? Wie unterscheiden sich Lernprozesse, bei denen ein bestimmtes Ereignis mit einer angenehmen Belohnung verbunden wird von solchen, bei denen man „nur“ einer unangenehmen Situation entkommt? Und was geschieht, wenn das Altern oder neurodegenerative Erkrankungen die Funktion von Zellen und Schaltkreisen, die am Lernen und Gedächtnis beteiligt sind, beeinträchtigt?

Mit Hilfe von Drosophila und einem gut gefüllten molekularbiologischen Werkzeugkasten lassen sich Antworten finden und in Computermodelle übersetzen, die auch für Menschen relevante Vorhersagen darüber erlauben, wie die raum-zeitliche Dynamik von Molekülen, Zellen und Netzwerken im Gehirn Lernprozesse und die Steuerung von Verhalten. Solche Modelle könnten sogar im Bereich Künstliche Intelligenz zum Einsatz kommen, um Maschinen effektiver lernen zu lassen. Welche Erkenntnisse aus der Fliegenwelt dann wirklich auch für den Menschen gelten, bleibt abzuwarten. Um das, was sie von der Fliege gelernt haben, auf die nächste Ebene zu bringen, setzen Forscher auch auf weitere, näher mit dem Menschen verwandte Modellorganismen, wie Zebrafische und Mäuse, sowie auf Studien mit menschlichen Zellkulturen und Gewebeproben. Ein aus Mensch und Fliege verschmolzenes Mischwesen wie in Neumanns Horrorfilm braucht es zur Klärung dieser Fragen zum Glück nicht.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Dezember steht das Thema "Fliege". Der vorliegende Artikel ist am 6.12.2022 unter dem Titel: "Fliegen? Wieso Fliegen?" https://www.dasgehirn.info/entdecken/die-fliege/fliegen-wieso-fliegen   erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


 Weiterführende Links

Arvid Ley (dasGehirnInfo): Die Fliege. (12.2022) Video 5:07 min. https://www.youtube.com/watch?v=oH0Fy3lp7Zg

Arvid Ley (dasGehirnInfo): Im Kopf der Fliege. (12.2022) Video 36:06 min. https://www.youtube.com/watch?v=BBQZd-fKCh0&t=50s

Zum Weiterlesen

• Hales KG, Korey CA, Larracuente AM, Roberts DM. Genetics on the Fly: A Primer on the Drosophila Model System. Genetics. 2015 Nov;201(3):815-42. DOI: 10.1534/genetics.115.183392

• Bellen HJ, Tong C, Tsuda H. 100 years of Drosophila research and its impact on vertebrate neuroscience: a history lesson for the future. Nat Rev Neurosci. 2010 Jul;11(7):514-22. doi: 10.1038/nrn2839

• Bilz, F., Geurten, B.R.H., Hancock, C.E., Widmann, A., and Fiala, A. (2020). Visualisation of a distributed synaptic memory code in the Drosophila brain. Neuron, 106, 1–14. DOI: 10.1016/j.neuron.2020.03.010

• https://www.annualreviews.org/doi/10.1146/annurev-cellbio-113015-023138.https://doi.org/10.1146/annurev-cellbio-113015-023138

https://journals.biologists.com/dmm/article/9/3/235/20105/Drosophila-tools-and-assays-for-the-study-of-human

https://www.sciencedirect.com/science/article/pii/S0092867418307876

https://www.cell.com/cell/fulltext/S0092-8674(18)30787-6

Fliegen im ScienceBlog

Jacob w.Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 13.12.2013: Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

Bill S. Hansson, 19.12.2014: Täuschende Schönheiten

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Nora Schultz, 30.12.2021: Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten


 

 

 

 

 

inge Fri, 30.12.2022 - 00:37

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Do, 22.12.2022 — Redaktion

Redaktion

Icon Molekularbiologie

In den letzten Jahren häufen sich die dramatischen Berichte über den enormen Rückgang der Insekten, wobei sich die Beobachtungen oft nur auf kurze Zeiträume und begrenzte Standorte erstrecken und die Biomasse gefangener Tiere zur Abschätzung der reduzierten Biodiversität (Artenzusammensetzung) herangezogen wird. Eine bahnbrechende Studie hat nun erstmals Anzahl und Biodiversität der Insektenarten an Hand von über drei Jahrzehnte lang gesammelten und konservierten Baumblättern verfolgt. Aus diesen Blättern wurden DNA-Spuren - sogenannte Umwelt-DNA (eDNA) - , wie sie von Insekten beim Fressen von Blättern zurückbleiben, extrahiert, analysiert und Tausende Insektenarten nachgewiesen. Es zeigte sich, dass die Gesamtzahl der Insektenarten im Laufe der Zeit weitgehend gleich blieb, viele einzelne Arten jedoch zurückgingen und durch neue, sich weiter verbreitende Arten ersetzt wurden.*

Insekten stellen ein Barometer für die Gesundheit der Umwelt dar. Ökosysteme auf der ganzen Welt sind beispiellosen, vom Menschen verursachten Belastungen ausgesetzt, die sich vom Klimawandel über die Umweltverschmutzung bis zur intensiven Landnutzung hin erstrecken. Diese Belastungen wurden in letzter Zeit mit mehreren dramatischen Rückgängen der Insektenpopulationen in Verbindung gebracht, insbesondere in Gebieten, die von stark industrialisierter Landwirtschaft betroffen sind.

Ohne darauf weiter einzugehen - die Zusammenhänge zwischen Insektenrückgang, Umweltbelastung und r Gesundheit der Ökosysteme sind derzeit nur wenig verstanden. Ein Rückgang in einem Gebiet mag wohl katastrophal aussehen, könnte aber auch einfach Teil normaler, längerfristiger Veränderungen sein. Oft wissen wir nicht, ob der Insektenrückgang ein lokales Phänomen ist oder weitergehende Umwelttrends widerspiegelt. Zudem reichen die meisten Studien zeitlich nicht weit genug zurück oder decken keinen ausreichend großen geografischen Bereich ab, um solche Unterscheidungen treffen zu können.

Probenmaterial: eDNA aus Baumblättern

Will man den Insektenrückgang verstehen und dagegen ankämpfen, so braucht man zuverlässige Methoden, um Insektenpopulationen über lange Zeiträume verfolgen zu können. Zur Lösung dieses Problems hat ein Forscherteam um den Biogeographen Henrik Krehenwinkel (von derUniversität Trier) für Untersuchungen an Insektengemeinschaften eine neue Quelle herangezogen, nämlich Baumblätter. Es ist dies ein Probenmaterial, das ursprünglich für andere Zwecke - nämlich zur Untersuchung der Luftverschmutzung - gesammelt und in der deutschen Bundesumweltprobenbank archiviert wurde. Dieses Material enthält aber auch die DNA von Insekten, die damit vor dem Einsammeln in Kontakt gekommen sind: beispielsweise ist dies in Kauspuren zurückgebliebene DNA, d.i. an Stellen wo die Insekten die Blätter angeknabbert hatten. Diese DNA wird als Umwelt-DNA oder kurz eDNA bezeichnet.

Abbildung 1: Sammelstellen von Baumblättern und Baumarten(A) und repräsentative Typen der Landnutzung (B). Analysen der Pestizidbelastung zu drei Zeitpunkten zeigen eine gleichbleibende, mit durchschnittlich 5 Pestiziden höchste Belastung auf landwirtschaftlich genutzten Flächen. (Bild von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Um die Insektengemeinschaften, die in diesen Bäumen lebten, zu untersuchen, haben Krehenwinkel und sein Team zunächst die eDNA aus den Blättern extrahiert und sequenziert. Die Blätter stammten dabei von vier Baumarten - Buche, Föhre, Lombardeipapel und Fichte -, die an 24 Standorten in ganz Deutschland fachgerecht unter standardisierten Bedingungen über einen Zeitraum von 30 Jahren gesammelt und konserviert worden waren. Die Standorte waren für vier Landnutzungstypen repräsentativ: landwirtschaftlich benutzte Flächen, städtische Parks, Wälder und Nationalparks. Abbildung 1.

Die Analyse der verschiedenen DNA-Sequenzen aus den Blattproben

ergab nicht nur die Anzahl der Insektenarten, sondern auch die Häufigkeit (oder Seltenheit) der einzelnen Arten innerhalb der einzelnen Gemeinschaften. Die eDNA-Analyse hat subtile Veränderungen in der Zusammensetzung der Gemeinschaften der Waldinsekten ergeben. In den Wäldern, aus denen die untersuchten Blätter herstammten, ist die Gesamtzahl der Insektenarten im Verlauf der letzten drei Jahrzehnte weitgehend gleich geblieben. Viele einzelne Arten sind zwar zurück gegangen, aber nur um dann durch neue Arten abgelöst zu werden.

Abbildung 2: Änderungen von Diversität und Zahl (Biomasse) der Insektenarten in allen Standorten im Zeitraum von 30 Jahren. Oben links: Über alle Standorte ist die Diversität der Insektenarten nahezu unverändert geblieben; die Reduktion einiger Arten wurde durch neue Besiedler abgelöst Oben rechts: gleichbleibende Diversität von Insektenklassen. Unten: Bei gleichbleibender Diversität ist über den Zeitraum ein Rückgang der Biomasse zu beobachten. (Bilder von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Solche Veränderungen haben sich für alle Insektenordnungen als unabhängig von der Art der Landnutzung erwiesen. Die neuen Besiedler haben sich bereits weit verbreitet - dies führt wahrscheinlich zu einem Gesamtmuster mit weniger Arten, die sich aber weiter verbreiten - mit anderen Worten zu mehr Homogenität der Populationen. Abbildung 2.

Fazit

Der Ansatz von Krehenwinkel, et al. [1] bietet eine zuverlässige Methode, um Insektenpopulationen über mehrere Jahrzehnte hinweg im Detail zu untersuchen. Dabei ist es essentiell auf archiviertes Probenmaterial aus Umweltstudien zurück greifen zu können. Informationen, die daraus gewonnen werden, haben praktische Bedeutung für Umweltfragen von enormen sozialen Auswirkungen, die vom Naturschutz über die Landwirtschaft bis hin zur öffentlichen Gesundheit reichen.


 [1] Henrik Krehenwinkel et al., (2022): Environmental DNA from archived leaves reveals widespread temporal turnover and biotic homogenization in forest arthropod communities. eLife 11:e78521. https://doi.org/10.7554/eLife.78521.


 * Eine leicht verständliche Zusammenfassung (Digest) des Artikels von H. Krewinkel et al., 2022, [1] ist am 20.12.2022 unter dem Titel "Insect data grown on trees" im eLife Magazin erschienen: https://elifesciences.org/digests/78521/insect-data-grown-on-trees. Der Digest wurde von der Redaktion ins Deutsche übersetzt und mit 2 Abbildungen aus dem Originaltext [1] plus Legenden ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz .


 Weiterführende Links:

Uni Trier (2022) eDNA: Ein entscheidender Fortschritt für das Biomonitoring. Video 4:00 min. https://www.youtube.com/watch?v=F0sTyYRiCvA

Artikel im ScienceBlog:


 

inge Thu, 22.12.2022 - 18:43

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Do, 15.12.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Eine vor 2 Millionen Jahren belebte Landschaft im nördlichen Grönland konnte aus an Mineralien gebundenen DNA-Stückchen rekonstruiert werden. Diese lässt ein eiszeitliches Ökosystem inmitten eines Klimawandels erkennen und zeigt möglicherweise Wege auf, wie auf die heute steigenden globalen Temperaturen reagiert werden kann. Probensammlung, Analyse und Interpretation der Umwelt-DNA aus dieser fernen Zeit und von diesem fernen Ort liefern einen "genetischen Fahrplan", wie sich Organismen an ein wärmer werdendes Klima anpassen können. Die Untersuchung war vergangene Woche das Titelthema des Fachjournals Nature [1]. Auf einer Pressekonferenz haben sechs Mitglieder des 40-köpfigen multinationalen Teams die Ergebnisse erläutert. Die Genetikerin Ricki Lewis berichtet darüber.*

Umwelt-DNA (eDNA)

wird verwendet, um sowohl frühere als auch heutige Lebensräume zu beschreiben. Bislang stammte die älteste eDNA von einem Mammut, das vor einer Million Jahren in Sibirien lebte.

In der neuen Studie [1] kommt die eDNA aus der Kap København Formation in der "polaren Wüste" von Peary Land, Nordgrönland (Abbildung 1). Mit Fossilien und konservierten Pollen ermöglicht eDNA ein Bild längst vergangener Lebensräume zu zeichnen.

eDNA wird von den Zellen in die Umgebung ausgeschieden , wobei aus Mitochondrien und Chloroplasten stammende eDNA häufiger vorkommt als Kern-DNA, da diese Organellen in zahlreichen Kopien in einer Zelle vorliegen. Außerdem ist es wahrscheinlicher, dass sie erhalten bleibt, weil sie im Vergleich zur DNA in einem Zellkern stärker fragmentiert ist.

Der Leiter des Teams, Eske Willerslev, ein Geogenetiker von der Universität Cambridge, vergleicht von Fossilien und eDNA hergeleitete Evidenz. "Bei einem Fossil weiß man, dass die DNA von einem einzigen Individuum stammt. Aus Sedimenten heraus kann man ein Genom rekonstruieren, aber man weiß nicht, ob das Genom von einem oder mehreren Individuen stammt. Ein großer Vorteil der Umwelt-DNA ist jedoch, dass man DNA von Organismen erhalten kann, die nicht versteinert sind, und dass man das gesamte Ökosystem sehen kann." Der Umweltkontext ist ebenfalls wichtig. Man denke nur an die Fossilien eines Elefanten und einer Pflanze, die nur wenige Kilometer entfernt sind. Der Fund von DNA an den beiden Orten ist nicht so aussagekräftig wie der Fund der Pflanzen-DNA im Darm des Elefanten.

" DNA kann sich schnell zersetzen, aber wir haben gezeigt, dass wir unter den richtigen Voraussetzungen weiter in die Vergangenheit zurückgehen können, als man es sich je vorzustellen wagte. Damit schlagen wir ein neues Kapitel auf, das eine Million Jahre länger in der Geschichte zurückliegt. Zum ersten Mal können wir einen direkten Blick auf die DNA eines vergangenen Ökosystems werfen, das so weit in der Vergangenheit liegt", so Willerslev.

Der Fundort

Die Forscher haben an fünf Standorten 41 verwertbare Proben im Ton und Quarz gesammelt Abbildung 1., wobei jedes Schnipsel genetischen Materials nur Millionstel Millimeter lang war.

Abbildung 1. Die Kap København Formation in Nord Grönland. Geografische Lage (a) und Abfolge der Ablagerungen: Räumliche Verteilung der Erosionsreste der rund 100 m mächtigen Abfolge von flachmarinen küstennahen Sedimenten zwischen Mudderbugt und dem Mittelgebirge im Norden (b und c). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

"Die alten DNA-Proben waren tief im Sediment vergraben, das sich über 20 000 Jahre in einer flachen Bucht angesammelt hatte. Das Sediment wurde schließlich im Eis oder im Permafrostboden konserviert und - was entscheidend ist - zwei Millionen Jahre lang nicht vom Menschen gestört", erklärt der Geologe Kurt Kjaer von der Universität Kopenhagen.

Die rund 100 m dicke Sedimentschicht sammelte sich in der Mündung eines Fjords an, der im nördlichsten Punkt Grönlands in den Arktischen Ozean ragt. Am Ende der pleistozäne Eiszeit, vor zwei bis drei Millionen Jahren, schwankte das Klima in Grönland eine Zeit lang zwischen arktisch und gemäßigt. Die Temperaturen waren um 10 bis 17 Grad Celsius wärmer als heute.

Geschichten aus der eDNA lesen

Drei technologische Fortschritte ermöglichten laut Willerslev die Untersuchung:

  • die Entdeckung, wie DNA an Mineralienpartikel bindet,
  • eine neue Sequenzierungsplattform, die kleine Schnipsel "frayed" DNA (DNA mit an den Enden geöffneten Basenpaaren) verarbeiten kann,
  • das Sammeln des alten genetischen Materials (mit einem coolen "Arctic PaleoChip" - klingt wie ein Diäteis, ist aber eine optimierte Strategie zu gezielten Anreicherung der eDNA).

Für die Konservierung der eDNA hat deren Wechselwirkung mit der Mineral-Grenzfläche eine entscheidende Roll gespielt. Karina Sand von der Universität Kopenhagen eklärt: "Marine Bedingungen haben die Adsorption der DNA an Mineralien begünstigt; die recht starke Bindung konnte so den enzymatischen Abbau der eDNA verhindern. Alle Mineralien in der Formation konnten DNA adsorbieren, allerdings in anderen Stärken, als wir sie kannten."

Im offenen Meerwasser hätte - laut Sand - die Bindung von DNA an Mineralien nicht stattgefunden. Die Forscher haben die Bindung moderner DNA an Oberflächen mit Hilfe der Rasterkraftmikroskopie untersucht und die Parameter manipuliert, um nachzuvollziehen, was mit den konservierten DNA-Stücken in den alten Sedimenten Grönlands wohl geschehen war.

Dann verglichen die Forscher die kurzen eDNA-Sequenzen mit denen moderner Arten in DNA-Datenbanken. Einige Proben stimmten mit entfernten zeitgenössischen Verwandten überein, während andere keine Treffer ergaben. Anhand bekannter Mutationsraten bestimmter DNA-Sequenzen lassen sich Zeitrahmen auf alte DNA anwenden.

Als die ersten Artenidentifizierungen mit ungefähren Zeitangaben eintrafen, waren die Forscher zunächst verwirrt, berichtet Mikkel Pedersen von der Universität Kopenhagen. "Als ich die Daten erhielt, kam mir das verrückt vor, ich verstand die Zeitstempel nicht. Wir hatten Taxa (taxonomische Gruppen) verschiedener Landpflanzen und -tiere, und plötzlich tauchten marine Arten auf! Das war wirklich merkwürdig. Also rannte ich zu Kurts Büro und fragte: 'Was hast du mir gegeben? Marine Taxa oder terrestrische?' Das war ein Zeichen dafür, dass der Boden in eine marine Umgebung gespült worden war." Abbildung 2.

Abbildung 2. Terrestrische und marine Tiere am Fundort 69. Taxonomische Profile der Tierbestände aus den Sedimentgruppen B1, B2 und B3 (b). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

Flora und Fauna des alten Ökosystems

Das Bild des alten Ökosystems glich einem riesigen, aus wenigen Teilen bestehenden Puzzle - aus Fossilien, konservierten Pollen und DNA, die vor allem aus den widerstandsfähigen Chloroplasten und Mitochondrien stammte. Anhand dieser spärlichen Hinweise identifizierte das Team 102 Pflanzenarten, von Algen bis hin zu Bäumen, auf Gattungsebene - die Auflösung war nicht hoch genug, um Arten zu unterscheiden, so Pedersen. "Wir fanden 9 Tierarten, die zu dieser Zeit in der Landschaft am häufigsten vorkamen (und DNA hinterlassen hatten)- Abbildung 2 -, sowie viele Bakterien und Pilze. Wahrscheinlich ist die große Mehrheit der Pflanzen und Tiere aufgrund ihrer ständig niedrigen Biomasse nicht nachweisbar", fügte er hinzu.

Fossilien und DNA aus dem südlichen Teil des Gebiets deuten auf Pappeln, Rotzedern und Tannen hin. "Die Pflanzen kamen in einer Weise zusammen vor, die wir heute nicht mehr sehen würden. Es war ein offener borealer Wald mit Pappeln, Weiden, Birken und Thujabäumen und einer Mischung aus arktischen und borealen Sträuchern und Kräutern", so Pedersen.

Mastodonten lebten in diesem Gebiet, was überraschend war, da sie aufgrund ihrer Fossilien nur aus Nord- und Mittelamerika bekannt waren. Die neue Information wurde durch den reichlichen Kot des riesigen Tieres möglich, der auch Spuren der DNA seiner Nahrung von Bäumen und Sträuchern enthält.

Die DNA zeigte auch, dass atlantische Pfeilschwanzkrebse weiter südlich im Atlantik lebten als heute, was auf wärmere Oberflächengewässer während des Pleistozäns schließen lässt. Winzige DNA-Stücke stammen auch von Gänsen, Hasen, Rentieren, Lemmingen, einem Korallenriff-Erbauer und einer Ameisen- und Flohart.

Der Schauplatz

Bis zur Entdeckung der DNA war die einzige Spur eines Säugetiers ein Stück eines Zahns. Willerslev erzählte, wie das Team auf seinen Fund reagierte:

"Als wir 2006 wegen eines anderen Projekts in dieses Gebiet kamen, haben wir nicht viel gesehen. Es war ähnlich wie in der Sahara, fast kein Leben. Flechten, Moose, das war's. Es war also sehr aufregend, als wir die DNA wiederherstellten und ein ganz anderes Ökosystem zum Vorschein kam. Aus Makrofossilien wusste man, dass es dort einen Wald gegeben hatte, aber die DNA identifizierte viel mehr Taxa. Pollen und Makrofossilien hatten einige Arten identifiziert, aber die Umwelt-DNA identifizierte 102 Pflanzen!

Als wir die DNA eines Mastodons, eines mit Nordamerika assoziierten Tieres, fanden, dachten wir, dass es nach Grönland geschwommen sein und das Eis überquert haben musste!

Wir haben auch Rentiere detektiert. Erstaunlich! Wir hatten erwartet, dass es sich dabei um eine viel jüngere Art handelt. Rentierhaare und Pfeilschwanzkrebse in einer Meeresumgebung lassen auf ein viel wärmeres Klima schließen.

Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere, die herumlaufen, und einen Fluss, der Sedimente und Ablagerungen vom Land mit sich führt. Deshalb ist die DNA eine Mischung aus terrrestrischen und marinen Organismen. Irgendwann hob sich das Land, so dass die riesigen Berge jetzt im Landesinneren liegen und nicht mehr an der Küste." Abbildung 3.

Abbildung 3. " Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere,......". (Illustration credit: Beth Zaiken/bethzaiken.com; siehe [2])

Ein Vorbehalt gegenüber der Aussagekraft der eDNA-Forschung ist die Häufigkeit des eDNA-Vorkommens: Von einer Art mit einer kleinen Population wird wahrscheinlich kaum eDNA auftauchen. Und das ist der Grund, warum nach der Beweislage, Karnivoren in Grönland nicht vorkamen.

Es ist ein Zahlenspiel, so Willerslev. "Je mehr Biomasse, desto mehr DNA ist übrig. Pflanzen sind häufiger als Pflanzenfresser und die wiederum häufiger als Fleischfresser. Aber wenn wir weiterhin Proben nehmen und die DNA sequenzieren, sage ich voraus, dass wir irgendwann Beweise für Fleischfresser finden werden, vielleicht ein Tier, das Mastodonten gefressen hat." Er fügt hinzu, dass es (noch) keine-DNA Evidenz für Bären, Wölfe und Säbelzahntiger gibt, vertraute Bewohner pleistozäner Szenen.

Ein genetischer Fahrplan

Ist der in Grönland entdeckte Zeitabschnitt ein Vorbote dessen, was die derzeitige Klimaerwärmung mit sich bringen wird? Wahrscheinlich nicht, sagt Willerslev, aber das ist nicht unbedingt eine schlechte Nachricht:

"Dieses Ökosystem und seine Mix aus arktischen und gemäßigten Arten hat kein modernes Gegenstück. Das deutet darauf hin, dass unsere Fähigkeit, die biologischen Folgen des Klimawandels vorherzusagen, ziemlich schlecht ist. Ausgehend von der heutigen Artenvielfalt hätte niemand ein solches Ökosystem vorausgesagt. Dies zeigt jedoch, dass die Plastizität der Organismen größer und komplexer ist, als wir es uns vorgestellt haben. "

Was wir haben, betont Willerslev, ist eine "genetische Roadmap mit Hinweisen in Form von Genen, wie sich Organismen an einen sehr schnellen Klimawandel anpassen. Aber viele dieser Anpassungen sind wahrscheinlich verloren gegangen, weil sie über lange Zeit keinen Nutzen brachten. Jetzt vollzieht sich der Klimawandel extrem schnell, und die Evolution kann dem nicht folgen. Wir sollten also mit großen Aussterbeereignissen rechnen."

Was aber, wenn wir die Informationen aus Studien wie der in Grönland nutzen, um den DNA-Veränderungen, die die Anpassung an Umweltveränderungen vorantreiben, zuvorzukommen? Kann die Biotechnologie hier eingreifen? Vielleicht.

"Die Gentechnik könnte die Strategie nachahmen, die Pflanzen und Bäume vor zwei Millionen Jahren entwickelt haben, um in einem Klima mit steigenden Temperaturen zu überleben und das Aussterben einiger Arten zu verhindern", so Kjaer.

Willerslev rechnet damit, dass sich solche Bemühungen zunächst auf Pflanzen konzentrieren. "Die Roadmap kann Aufschluss darüber geben, wo und wie man das Genom einer Pflanze verändern kann, um sie widerstandsfähiger gegen den Klimawandel zu machen. Die Werkzeuge sind vorhanden. Das klingt drastisch, und ich sage nicht, dass es so sein sollte, aber es eröffnet eine neue Möglichkeit, die Auswirkungen des Klimawandels abzumildern."

Doch im Moment könnte das Überleben der Arten ein Wettlauf mit der Zeit sein, auch wenn sich das Klima schon früher verändert hat. Pedersen zieht eine eher ernüchternde Bilanz:

"Die Daten deuten darauf hin, dass sich mehr Arten entwickeln und an stark schwankende Temperaturen anpassen können als bisher angenommen. Entscheidend ist jedoch, dass diese Ergebnisse zeigen, dass sie dafür Zeit brauchen. Die Geschwindigkeit der heutigen globalen Erwärmung bedeutet, dass Organismen und Arten diese Zeit nicht haben, so dass der Klimanotstand eine enorme Bedrohung für die Artenvielfalt bleibt. Für einige Arten steht das Aussterben unmittelbar bevor."

----------------------------------------------------

[1] Kjær, K.H., Winther Pedersen, M., De Sanctis, B. et al. A 2-million-year-old ecosystem in Greenland uncovered by environmental DNA. Nature 612, 283–291 (2022). https://doi.org/10.1038/s41586-022-05453-y. open access;Lizenz: cc-by

[2]The world's oldest DNA: Extinct beasts of ancient Greenland. Nature Video 9:12 min. https://www.youtube.com/watch?v=qav579ZURpk&t=550s.


* Der Artikel ist erstmals am 8.Dezember 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "A 2-Million-Year-Old Ecosystem in the Throes of Climate Change Revealed in Environmental DNA" https://dnascience.plos.org/2022/12/08/a-2-million-year-old-ecosystem-in-the-throes-of-climate-change-revealed-in-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


inge Thu, 15.12.2022 - 13:15

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

So, 11.12.2022— Redaktion Vorname ZunameIcon Medizin

Übermäßiger und untauglicher Einsatz von Antibiotika in Human- und Veterinärmedizin hat zunehmend zur Entstehung (multi-) resistenter Keime geführt, gegen die auch die potentesten Reserve-Antibiotika nichts mehr ausrichten können; an und mit antibiotikaresistenten Infektionen sterben weltweit jährlich bereits Millionen Menschen. Um die Ausbreitung solcher Infektionen einzudämmen, ist ein gezielter, maßvoller Umgang mit Antibiotika erforderlich. Dies setzt ausreichende Kenntnisse über Antibiotika, deren Gebrauch und Risiken voraus. Seit 2009 hat die EU-Kommission ihre Bürger nun bereits zum fünften Mal hinsichtlich ihres diesbezüglichen Wissenstands, ihrer Einstellungen und Verhaltensweisen befragt. Laut der diesjährigen Umfrage ist der Einsatz von Antibiotika zwar auf den bislang niedrigsten Wert gesunken, allerdings nimmt die Hälfte der Befragten fälschlicherweise an, dass Antibiotika gegen Virusinfektionen wirken und wendet diese auch dagegen an  - das Problem, dasss über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, wird nicht behandelt [1].

Die Krise der Antibiotikaresistenz ist - wie auch andere derzeitige Krisen - eine globale und anthropogen, vom Menschen gemacht. Verursacht wurde sie durch übermäßigen Einsatz und falsche Anwendung der vorhandenen Antibiotika und eine vor mehr als 30 Jahren ins Stocken geratene Entwicklung neuer wirksamer Antibiotika, gegen die (vorübergehend noch) keine Resistenzen bestehen. Zuvor existierte eine so breite Palette hochwirksamer Medikamente, dass die Pharmaindustrie die Forschung und Entwicklung neuer Antibiotikaklassen einstellte und aus nachvollziehbaren Rentabilitätsgründen auch nicht wieder aufnahm, als Resistenzen gegen mehr und mehr "alte" Antibiotika auftauchten. Abbildung 1.

Abbildung 1. Seit mehr als 30 Jahren sind keine neue Klassen von Antibiotika auf den Markt gekommen. (Bild übernommen aus A. Hudson (11.2021) https://www.asbmb.org/asbmb-today/policy/110721/antibiotic-resistance-is-at-a-crisis-point. Quelle React Group, Lizenz cc-by-nd)

Antibiotikaresistenzen sind auf dem Vormarsch....

Mikroorganismen - ob es sich nun um Bakterien, Pilze, Algen, Viren oder Protozoen handelt - werden in zunehmendem Maße gegen antimikrobielle Substanzen resistent, auf die sie vordem hochsensitiv angesprochen haben. Dies ist ein natürlicher Evolutionsprozess, der auf Genmutation und Selektion der fittesten - d.i. im Infektionsprozess am besten propagierenden - Mikrobenstämme basiert.

Bakterien vermehren sich sehr rasch und machen bei der Kopierung ihres Erbguts relativ viele Fehler. Durch solche Mutationen kann eine bakterielle Zielstruktur (Target) von dem dagegen designten Antibiotikum schlechter/nicht mehr erkannt werden; das betroffene Bakterium kann sich in Gegenwart des Antibiotikums weiter zu einer neuen, resistenteren Population vermehren. Erfolgt eine Antibiotika Behandlung nicht ausreichend lang, oder war die Dosis zu niedrig, um auch die resistenteren Keime zu eliminieren, so bleiben diese über und können ihre Resistenzgene auch auf andere Bakterien übertragen. So entstehen dann multiresistente Erreger.

Der übermäßige Einsatz von Antibiotika in der Human- und Veterinärmedizin und ihre falsche Anwendung - etwa bei der Behandlung von Viren, gegen die sie ja unwirksam sind, oder wenn sie nicht über die notwendige Behandlungsdauer eingenommen werden - haben die Resistenzentwicklung von Bakterien gegen diese Medikamente forciert und zu einer enormen Gefahr für die ganze Welt werden lassen.

Gegen Antibiotika (multi)resistente Bakterien kommen überall und in allen Ländern vor. Sie finden sich in Lebensmitteln, in der Umwelt, bei Tier und Mensch; in Spitälern - vor allem in den Intensivstationen - stellen sie eine enorme Bedrohung dar. Es wird damit immer schwieriger, Patienten vor solchen Infektionen zu schützen und chirurgische Eingriffe, Transplantationen, Chemotherapien und andere Behandlungen mit nur geringem Risiko durchzuführen. Ein Video der WHO vor 2 Wochen hat eingehend vor einem Aufsuchen von Spitälern ohne triftigem Grund gewarnt [2].

Eine Prognose der WHO aus dem Jahr 2015 geht davon aus, dass 2050 voraussichtlich bereits 10 Millionen Menschen an bakteriellen Infektionen sterben werden, mehr als an der bisherigen Nummer 1, den Krebserkrankungen, sofern keine wirksamen neuen Medikamente, Vakzinen oder andere Behandlungsmethoden auf den Markt kommen. Eine neue Studie [3] lässt befürchten, dass dieser Todeszoll schon viel früher erreicht werden wird.

....... und gehören bereits zu den häufigsten Todesursachen

Die Entwicklung der Corona-Pandemie hat die Gefahr der global steigenden Antibiotikaresistenzen vorübergehend in den Hintergrund rücken lassen, obwohl deren Auswirkungen noch gravierender sein dürften, als die von COVID-19. So sind laut täglichem Dashboard seit Beginn der Pandemie anfangs 2020 rund 6,65 Millionen Menschen an und mit COVID-19 verstorben. Pandemien sind definitionsgemäß aber zeitlich begrenzt, nicht so Antibiotikaresistenzen - die Zahl der Schwerstkranken und der Todeszoll steigen weiter und weiter. Eine neue, im Rahmen des  Global Research on Antimicrobial Resistance (GRAM) Project durchgeführte Studie, liefert die erste umfassende Evaluierung der antibiotikaresistenten Bakterien und deren Auswirkungen auf der ganzen Welt. Basierend auf der Analyse von 471 Millionen einzelnen Datensätzen oder Isolaten aus 204 Ländern kommt das Autorenteam (mehr als 170 Forscher!) zu dem Schluss, dass 1,27 Millionen Todesfälle im Jahr 2019 direkt durch Antibiotikaresistenzen verursacht wurden und insgesamt 4,95 Millionen Verstorbene mit mindestens einer antibiotikaresistenten Infektion assoziiert wurden [3].

Es sind durchwegs häufige, früher auf Antibiotika gut ansprechende bakterielle Infektionen, die nun durch resistente, oft multiresistente Keime ausgelöst werden; vor allem sind hier Infektionen der unteren Atemwege, des Blutkreislaufs (Sepsis) und intraabdominelle Infektionen zu nennen, die Hunderttausende Todesopfer fordern. Abbildung 2. Für fast 80 % dieser Todesfälle sind 6 (multi)resistent gewordene Bakterienstämme verantwortlich von: Escherichia coli , Staphylococcus aureus, Klebsiella pneumoniae , Streptococcus pneumoniae, Acinetobacter baumannii, und Pseudomonas aeruginosa [3].

Diese Ergebnisse unterstreichen die Notwendigkeit kollektiver globaler Maßnahmen, wie die Entwicklung neuer Antibiotika - die von der Pharmaindustrie über Jahrzehnte ignoriert wurden - und Impfstoffe und eine verbesserte Überwachung der Antibiotikaresistenz.

Abbildung 2. Weltweite Todesfälle (Zahlen), die auf bakterielle Resistenz gegen Antibiotika zurückzuführen sind ("attributable")/ damit in Verbindung stehen ("associated"), nach infektiösem Krankheitsbild. Abkürzungen stehen für bakterielle Infektionen von: LRI+: unteren Atemwegen,Thorax; BSI: Blutbahn; UTI: Harntrakt, Pyelonephritis; CNS: Meningitis u.a. CNS Infektionen, cardiac: Endocarditis u.a.; Skin= Haut und Subcutis; Bone+: Knochen, Gelenke; TF–PF–iNTS= Typhus, Paratyphus und invasive nicht-typhoide Salmonella spp. (Bild aus ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ [2]; Lizenz: cc-by)

Zur Situation in der EU....

Laut einem aktuellen Report der ECDC (Europäisches Zentrum für die Prävention und die Kontrolle von Krankheiten) sind im Zeitraum 2016 - 2020 in der EU/EEA jährlich mehr als 35 000 Menschen an antibiotikaresistenten Infektionen gestorben [4]; 4 Jahre zuvor war man noch von mehr als 25 000 Todesfällen ausgegangen. Die Infektionen mit den oben genannten resistenten Bakterienstämmen haben sich z.T. mehr als verdoppelt.

Die Bekämpfung von antibiotikaresistenten Infektionen hat zweifellos prioritäre Bedeutung. Die EU hat bereits 2017 den Aktionsplan "One Health" ins Leben gerufen, der über 70 Maßnahmen in neun Politikbereichen umfasst und Gesundheit von Mensch und Tier, Landwirtschaft, Umwelt und Forschung einschliesst [5]. Es kommt darin klar zum Ausdruckt, dass "menschliche und tierische Gesundheit miteinander zusammenhängen, Krankheiten vom Menschen auf Tiere und umgekehrt übertragen werden und deshalb bei beiden bekämpft werden müssen" [5].

Zudem soll auch für ein besseres Verständnis der EU-Bürger für das Resistenzproblem und einen sachgerechten Umgang mit Antibiotika gesorgt werden. In diesem Sinn hat nun bereits zum fünften Mal seit 2009 - vom Feber bis März 2022 - eine Befragung der EU-Bürger zur Antibiotikaresistenz stattgefunden.

.........und EU-weite Umfrage zur Antibiotikaresistenz - Spezial Eurobarometer 522

Wie in den vergangenen Umfragen war das Ziel Kenntnisse, Meinungen und Verhaltensweisen der EU-Bürger zum Problem antimikrobielle Resistenz zu erheben. Im Auftrag der EU-Kommission erfolgte die Umfrage in den 27 Mitgliedstaaten vom 21.Feber bis 21.März, und insgesamt 26 511 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland -nahmen teil. Diese wurden persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt.

Wie auch 2018 wurden die Teilnehmer u.a. gefragt ob und warum sie im letzten Jahr Antibiotika genommen hatten, wie sie diese erhalten hatten und ob ein Test auf den Erreger der Erkrankung erfolgt war.

Des weiteren gab es Fragen

  • zum Kenntnisstand über die Funktionsweise von Antibiotika, über die mit einem unnötigen Einsatz verbundenen Risiken, ob sich die Bürger ausreichend über die Notwendigkeit den unnötigen Antibiotikaeinsatz einzuschränken informiert fühlten, sowie ihr Interesse, mehr und aus welchen Quellen über Antibiotika zu erfahren,
  • zu Ansichten über die am besten geeignete politische Reaktion auf Antibiotikaresistenzen,
  • zu Einstellungen zur Verwendung von Antibiotika bei kranken Tieren und zur Kenntnis des Verbots einer Anwendung von Antibiotika zur Wachstumsförderung bei Nutztieren,
  • zum Verbrauch von Antibiotika sowie Zugang und Bedarf an Antibiotika im Zusammenhang mit der COVID-19-Pandemie.

 

Die Antworten lauteten ähnlich wie 2018 und nicht minder besorgniserregend:

Haben Sie im letzten Jahr Antibiotika genommen?

Diese Frage beantworteten im EU27-Mittel 23 % der befragten Bürger mit Ja. Dies war scheinbar ein erfreulicher Rückgang zu den früheren Umfragen: 2009 waren es im Mittel 40 %, 2018 immerhin noch 32 %. Der Unterschied im Antibiotikaverbrauch der einzelnen Länder war beträchtlich und reichte von 15 % in Schweden und Deutschland bis 42 % in Malta; in Österreich haben 20 % der befragten Personen angegeben Antibiotika genommen zu haben. Abbildung 3.

Allerdings dürfte der starke Rückgang seit 2018 eine Folge der COVID-19 Epidemie sein: In einem späteren Abschnitt gaben im EU27-Schnitt  insgesamt 45 % - in Österreich 47 % - der Befragten an, dass durch COVID-19 der Bedarf an Antibiotika gesunken sei, weil sie aufgrund verstärkter persönlicher Schutzmaßnahmen wie Masken, räumlicher Distanzierung, verstärkter Handhygiene und auch während der Lockdowns seltener erkrankten.

Abbildung 3. Haben Sie im letzten Jahr orale Antibiotika genommen? Zwischen 15 und 42 % der Teilnahme bejahen diese Frage.(Quelle: [1])

Es ist hier besonders wichtig zu betonen, dass der überwiegende Teil der Befragten in allen Ländern (80 - 95 %) ihre Antibiotika über ein ärztliches Rezept oder direkt vom Arzt erhalten haben, der Rest hatte es sich sonst wo -- in Apotheken, von Freunden, aus übrig gebliebenen Packungen - besorgt. Am unteren Ende der Skala lagen Österreich und Belgien mit 84 % ärztlichen Verschreibungen und Rumänien mit 80 %.

Wofür wurden Antibiotika eingesetzt?

Der (COVID-19-bedingte) Rückgang im Verbrauch von Antibiotika erhält einen negativen Beigeschmack, da ein beträchtlicher Teil der EU-Bürger diese fälschlicherweise bei viralen Infektionen wie "Erkältung", Grippe, der zumeist viral verursachten Bronchitis und den Begleitsymptomen (Fieber, Halsschmerzen, Husten) einsetzte, in denen Antibiotika nutzlos sind:

Nach der im EU27-Schnitt am häufigsten genannten Harnwegsinfektion (15 %) rangierten bereits Anwendungen bei Halsschmerzen (13 %), Bronchitis (12 %), Erkältung (11 %), Grippe (10 %) und Fieber (10 %), um die 9% hatten Antibiotika auch gegen COVID-19 angewandt. Dabei erfolgte die Verschreibung von Antibiotika im EU27-Schnitt bei rund 53 % der Befragten (in Österreich bei 51 %) ohne dass eine Testung auf Bakterien in Blut, Harn oder Speichel stattgefunden hätte.

Man kann sich darüber nur wundern, dass Ärzte für bis zu 98 % der angewandten Antibiotika Rezepte ausgestellt haben, auch wenn offensichtlich virale Infektionen vorlagen, und auch nur in der Hälfte der Fälle auf das mögliche Vorliegen bakterieller Infektionen getestet wurde.

Kenntnisse über Antibiotika und ihre Anwendung

Hier wurden dieselben 4 Fragen wie bereits 2018 gestellt, die Antworten lassen nach wie vor besorgniserregende Wissenslücken erkennen.

  • Können Antibiotika Viren töten ? Im EU27-Mittel gaben nur 50 % (2018: 43 %) der Befragten die richtige Antwort "Nein", dass Antibiotika dazu nicht imstande sind. 11 % sagten, dass sie es nicht wüssten. Auch in den bestabschneidenden Ländern Schweden, Luxemburg, Niederlande und Irland gaben nur 3/4 bis 2/3 der Befragten die richtige Antwort. Österreich hat mit 49 % gegenüber 2018 - damals 28 % - aufgeholt. Abbildung 4.

Abbildung 4 Können Antibiotika Viren töten? Wissenslücken bestehen in allen Ländern (Quelle: [1])
  • 2. Sind Antibiotika bei Verkühlung wirksam? Im EU27-Schnitt wurde dies von 62 % der Teilnehmer richtig mit "Nein" beantwortet (2018 waren es 66 %). In nur 6 Staaten (Ungarn, Bulgarien, Polen, Griechenland, Zypern und Rumänien) gab weniger als die Hälfte die richtige Antwort.
  • Kann unnötige Anwendung von Antibiotika zu deren Wirkungsverlust führen? Hier wussten die Europäer besser Bescheid. 82 % der Teilnehmer bejahten dies (2018 waren es 85 %). Nur 5 Staaten - Bulgarien, Frankreich, Italien, Ungarn und Rumänien - lagen mit der richtigen Antwort unter 80 %.
  • Ist die Anwendung von Antibiotika häufig mit Nebenwirkungen - beispielsweise Durchfall - verbunden? Wie 2018 ist in allen Staaten der überwiegende Teil der befragten Bevölkerung - EU27-Mittel 67 % (2018 68 %) - dieser Meinung. Die Bandbreite reicht von 57 % in Rumänien bis 81 % in Polen.

Der Kenntnisstand ist zusammengefasst, ähnlich wie 2018: europaweit ist etwa nur ein Viertel der Teilnehmer in der Lage die 4 Fragen richtig zu beantworten, und es gibt keinen Staat, in welchem die Mehrheit der Bevölkerung auf alle 4 Fragen die richtige Antwort gibt. Am besten schneidet Nordeuropa ab (Finnland, Schweden, Holland, Luxemburg und Dänemark), am schlechtesten Lettland, Rumänien und Bulgarien.

  • Ähnlich wie 2018 war dem Großteil der Befragten (EU-Schnitt 85 %) bewusst, dass Antibiotika in der vom Arzt verschriebenen Menge und Dauer genommen werden sollen. Allerdings meinen im Mittel 13 %, dass sie mit der Einnahme aufhören können, sobald es ihnen besser geht.
  • Darüber, dass Antibiotika nicht unnötigerweise (beispielsweise bei einer Verkühlung) eingenommen werden sollten, fühlte sich nur ein Fünftel der Befragten informiert. Diese hatten die Information im Wesentlichen vom ihrem Arzt, Apotheker aber auch aus verschiedenen Medien erhalten, wobei Arzt und Apotheker als besonders vertrauenswürdig angesehen wurden.

--------------------------------------------------------------------------------

  • Die Anwendung von Antibiotika im Veterinärgebiet, die damit verbundenen Risiken und die Einstellungen dazu in der EU sollen wegen der enormen Wichtigkeit in einem nachfolgenden Artikel dargestellt werden.

 Fazit

Durch uns verursachte Antibiotikaresistenzen haben eine sehr bedrohliche Lage entstehen lassen, die - wie im Fall von COVID-19 - nur durch ernsthafte, globale Anstrengungen gemildert/gelöst werden kann. Hier brauchbare Informationen zu liefern, ist auch das Ziel der letzten diesbezüglichen EU-weiten Umfrage [1]: "Um die Resistenz gegen antimikrobielle Mittel, die eine große Bedrohung für die öffentliche Gesundheit in Europa und weltweit darstellt, zu verlangsamen und zu verringern, ist es von entscheidender Bedeutung, den übermäßigen und falschen Einsatz von Antibiotika zu reduzieren. Das Wissen, die Einstellung und das Verhalten der Allgemeinheit spielen eine Schlüsselrolle bei der Gewährleistung eines umsichtigen Einsatzes von Antibiotika.".

Der vorliegende Report [1] zur Umfrage hält dieser Ambition leider in keiner Weise stand. Es ist eine Aneinanderreihung von Zahlen aus den einzelnen Ländern, ohne die Ergebnisse im Zusammenhang zu diskutieren:

Beispielsweise wird in den Conclusions stolz verkündet, dass der Antibiotikaverbrauch im letzten Jahr stark gesunken ist, ohne darauf einzugehen, dass dies - den Antworten der EU-Bürger entsprechend - zumindest zum großen Teil - den Restriktionen der COVID-19 Pandemie geschuldet war. Ebendort wird auch konstatiert, dass "insgesamt das Wissen der Europäer über Antibiotika verbesserungswürdig ist", da ja nur "die Hälfte weiß, dass Antibiotika gegen Viren unwirksam sind" und ein hoher Anteil der Europäer diese auch bei viralen Infektionen - Erkältungen, Influenza und deren Symptomen - einsetzt. Dass über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, und daher primär deren Vorgangsweise in Frage gestellt werden sollte, wird nicht angesprochen. Unerwähnt in den Conclusions bleibt auch der enorme Antibiotikaverbrauch im Veterinärgebiet mit den Risiken der weiten Verbreitung (multi)resistenter Keime.

Alles in allem ist Eurobarometer 522 ein ärgerliches, oberflächliches Machwerk, dessen Informationsgehalt mit den vermutlichen Kosten kaum im Einklang steht.

------------------------------------------------------------

[1] Special Eurobarometer 522: Antimicrobial Resistance. 17. November 2022. doi: 10.2875/16102

[2] WHO's Science in 5: Microbes are becoming resistant to antibiotics (24 November 2022), Video 5:29 min. https://www.youtube.com/watch?v=ELRw0jRiJe0&t=320s

[3] Antimicrobial Resistance Collaborators ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ Lancet2022; 399: 629-55. https://doi.org/10.1016/ S0140-6736(21)02724-0

[4] 35 000 annual deaths from antimicrobial resistance in the EU/EEA (press release, 17. 11.2022). https://www.ecdc.europa.eu/en/news-events/eaad-2022-launch

[5] Europäischer Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ {SWD(2017) 240 final} https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=COM%3A2017%3A339%3AFIN


Weiterführende Links

Antibiotic resistance - the silent tsunami. Video 2:50 min. https://www.youtube.com/watch?v=Uti42LK3lAQ

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Artikel im ScienceBlog:

Redaktion, 22.11.2018: Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Inge Schuster, 23.09.2016: Gehen wir auf eine Post-Antibiotika Ära zu?


 

 

inge Sun, 11.12.2022 - 18:02

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Do. 01.12.2022— Susanne Donner

Susanne DonnerIcon Gehirn

Hirn und Herz kommunizieren miteinander über das autonome Nervensystem und über Botenstoffe und beeinflussen einander massiv. Im Gehirn existiert ein Abbild des Herzens: Der Herzschlag ist dort über das Herzschlag-evozierte Potential (HEP) repräsentiert. Mit dem Herzschlag ändert sich unsere Wahrnehmung und sogar unsere Neigung zu Vorurteilen. Umgekehrt wirken sich psychische Belastungen sowie neurologische Erkrankungen auf die Herzgesundheit aus. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner fasst die faszinierenden Ergebnisse dieser neuen Forschungsrichtung zusammen.*

Die 85 Männer ahnten nicht, dass sie sich auf ein Experiment eingelassen hatten, das später in die Lehrbücher der Psychologie eingehen würde. Ein Teil von ihnen überquerte auf einer stabilen Holzbrücke den kanadischen Capilano Canyon. Eine andere Gruppe musste über eine schwankende Hängebrücke auf die andere Seite gelangen. Festhalten konnten sie sich bei dieser furchteinflößenden Überquerung nur an zwei Drahtseilen. Links und rechts ging es 70 Meter in die Tiefe.

Auf der Mitte der beiden Brücken wartete jeweils eine attraktive Frau. Die Probanden sollten in ihrem Beisein einen Fragenbogen ausfüllen und einen Text schreiben. Für weitere Fragen bot die Frau ihre private Rufnummer an.

Mit dem Experiment wollten Donald Dutton und sein Kollege Arthur Aron von der University of British Columbia in Vancouver herausfinden, ob die aufregende Brückenüberquerung die Wahrnehmung und das Verhalten gegenüber der attraktiven Mitarbeiterin beeinflusste.

Weiche Knie oder Schmetterlinge im Bauch?

1974 veröffentlichten die Psychologen ihr Experiment im Journal of Personality and Social Psychology – mit Ergebnissen, die bis heute schmunzeln lassen: Ein Drittel der Männer, die jener Frau auf der schwankenden Hängebrücke begegnete, rief sie später an. Nach der Überquerung der stabilen Brücke nahmen dagegen nur elf Prozent der Männer Kontakt auf. Offenbar projizierten die Probanden ihre Aufregung auf die Frau und wähnten sich zu ihr hingezogen. Das verrieten auch die Texte, die die Männer schrieben: Auf der schwankenden Brücke enthielten die Schriftstücke mehr sexuelle Bezüge [1].

Die falsche Zuordnung des Gefühls zu einem Ereignis bezeichnen Psychologen als „Fehlattribution“. Dahinter steht, dass sich weiche Knie und Schmetterlinge im Bauch ja tatsächlich ähnlich anfühlen: In beiden Fällen schlägt das Herz fester, der Puls beschleunigt sich. „Mann“ schwitzt vielleicht.

Nun sind wir nicht jeden Tag verliebt und schon gar nicht begeben wir uns regelmäßig auf eine schwankende Hängebrücke. Doch die Kommunikation zwischen Herz und Hirn beeinflusst unser Leben permanent.

Der immergleiche Herzschlag ist gefährlich

Beide Organe sind gewissermaßen über eine Standleitung verbunden, das autonome Nervensystem. „Autonom“ heißt es, weil es sich nicht direkt willentlich beeinflussen lässt. Es besteht aus Sympathicus und Parasympathicus. Die beiden Nervensysteme werden überwiegend vom Hirnstamm gesteuert und wirken als Gegenspieler. Abbildung 1.

Abbildung 1. . Sympathicus und Parasympathicus regulieren die Herzaktivität (Bild von Redn. eingefügt aus: OpenStax College - Anatomy & Physiology, Connexions Web site; Fig. 19.32. http://cnx.org/content/col11496/1.6/ Lizenz: cc-by)

Der Sympathicus aktiviert uns und sorgt für die notwendigen körperlichen Reaktionen auf Angriff und Flucht. Er lässt unser Herz beispielsweise bei Bedrohung schneller schlagen und erhöht den Muskeltonus. Er sorgt für ein rotes Gesicht in einer peinlichen Situation oder für hektische Flecken bei einem Vortrag.

Der Parasympathicus dagegen bringt uns in die Ruhe. Er verlangsamt die Atmung und lässt das Herz gemächlich schlagen. Auf diese Weise halten sich Entspannung und Anspannung beim gesunden Menschen ständig die Waage. Im Nebeneffekt ist der Herzschlag variabel. Er passt sich ständig der jeweiligen Situation an. Eine hohe Herzratenvariabilität gilt als Zeichen einer vitalen Herz-Hirn-Connection und letztlich von Gesundheit. „Eine starre Herzfunktion ist dagegen lebensbedrohlich und kann zum plötzlichen Tod führen“, sagt Neurologe Arno Villringer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig.

Ein Abbild des Herzens im Hirn

Villringer interessiert sich für feinstimmige Kommunikation zwischen Gehirn und Herz. Dafür analysieren Forscher seiner Arbeitsgruppe das Elektrokardiogramm und die Hirnströme gleichzeitig. Sie gleichen das Muster elektrischer Erregung in beiden Organen im Detail miteinander ab. Es fällt auf, dass bestimmte Regionen des Gehirns synchron mit dem Herzen aktiviert werden. Es kommt zu einem gewissen Gleichklang in beiden Organen. Messbar wird das im so genannte Herzschlag-evozierten Potential (Heartbeat-evoked Potential, kurz: HEP). Infolge der elektrischen Erregungsausbreitung im Herzgewebe, die zur Kontraktion des Herzmuskels führt, entsteht eine elektrische Spannung. Diese lässt sich im Gehirn als Erregung messen. Vor allem in der Inselregion des Gehirns konnte Villringer diese rhythmische Korrelation mit dem Herzen feststellen. Es handelt sich quasi um ein Abbild des pumpenden Herzens im Hirn. Abbildung 2.

Abbildung 2 . Links: Während der systolischen Phase (rot) werden schwache äussere Reize weniger stark wahrgenommen als in der diastolischen Phase (blau). Rechts: Ein Teil der Gehirnaktivität (“P300”) ist in der systolischen Phase unterdrückt (Bild von Redn. eingefügt ; Quelle: AL et al., PNAS (2020), [2]; Lizenz cc-by)

Der Neurologe geht davon aus, dass das HEP aber weit mehr besagt. Es ist nämlich bei verschiedenen Menschen unterschiedlich hoch. „Wir vermuten, dass das Gehirn zwei unterschiedliche Modi hat. Wenn das HEP hoch ist, konzentriert man sich auf den eigenen Körper, die Innenwelt. Im zweiten Modus ist das HEP niedrig: Man wendet sich der Außenwelt zu, im evolutiven Kontext waren das etwa Nahrungssuche und Angriff“, sagt Villringer. Zu dieser Deutung passt ein weiterer Befund: Wenn das HEP groß ist, nehmen Probanden einen äußeren elektrischen Reiz am Finger schwächer wahr. Umgekehrt nehmen sie diesen intensiver wahr, wenn das HEP kleiner ist. Dies beschrieb Villringers Team 2020 im Fachblatt PNAS [2].

Wie der Herzschlag das Denken und Fühlen verändert

Noch ist unklar, ob die Höhe des HEP und damit die Größe des Abbilds des Herzens im Hirn nur von der Situation abhängt oder auch eine Persönlichkeitseigenschaft ist. Fest steht nur, dass der Einfluss des Herzens auf das Gehirn so ausgeprägt ist, dass sich sogar der Herzschlag auf die Wahrnehmung und das Denken auswirkt.

Wieder untersuchte Villringers Team dazu, wie stark Probanden einen elektrischen Reiz am Finger empfinden. Wenn das Herz sich zusammenzieht und Blut in den Körper pumpt, also in der so genannten systolischen Phase, spüren sie den Reiz nicht so intensiv. Das könnte daran liegen, vermuten die Forscher, dass just in diesem Moment Rezeptoren in den großen Blutgefäßen eine Information über den Blutdruck ans Gehirn übermitteln. Der Informationsschwall dieser so genannten Barorezeptoren nimmt das Gehirn offenbar ziemlich in Beschlag. Eindrücke der Außenwelt erreichen uns in diesem Moment nur gedämpft. In der folgenden Diastole dagegen registrieren Probanden einen äußeren elektrischen Reiz intensiver. In dieser Phase füllt sich das Herz wieder mit Blut.

Es war nicht der erste Befund dieser Art. Ein Experiment von Psychologen um Ruben Azevedo von der Universität in London ist laut Villringer das wohl beunruhigendste Ergebnis zum Einfluss des Herzschlags. Azevedo zeigte 30 Probanden in schneller Folge Fotos von Gesichtern – entweder schwarzer oder weißer Männer gefolgt von einer Waffe oder einem Werkzeug. Möglichst rasch sollten die Testpersonen zuordnen, ob einem hellhäutigen oder dunkelhäutigen Mann ein Werkzeug oder eine Waffe folgt. Dabei erfassten die Experimentatoren auch den Herzschlag. Wenn das Herz sich zusammenzog und Blut in die Gefäße strömte, folgten die Teilnehmer signifikant häufiger ihrem Vorurteil: Sie wiesen einem schwarzen Mann eine Waffe zu. In dieser Phase wird das Gehirn so sehr von den Barorezeptoren in Beschlag genommen, dass für die kritische Selbstreflexion nicht mehr genug Hirn übrigbleibt, argumentiert Azevedo 2016 in Nature Communications [3].

Wenn das Gehirn leidet, schwächelt das Herz

Herz und Hirn stehen in einer innigen Verbindung. Aus dieser Perspektive verwundert es nicht, dass sich viele neurologische Erkrankungen auf das Herz auswirken können. Wer an einer Depression leidet, hat beispielsweise ein doppelt so hohes Risiko einen Herzinfarkt oder einen plötzlichen Herztod zu erleiden. Bei knapp 62 Prozent der Schlaganfallpatienten sitzen in den Herzgefäßen Plaques. Und ein Herzinfarkt nach dem Hirnschlag ist eine gefürchtete Komplikation auf den Intensivstationen.

Und sogar auf Stress hin können kerngesunde Menschen eine Herzmuskelschwäche entwickeln. Dieses Krankheitsbild beschrieb ein japanischer Arzt in den neunziger Jahren und benannte es als „Takotsubo-Syndrom“.

„Die Betroffenen kommen in die Notaufnahmen verängstigt, mit Brustschmerzen und Atemnot“, erzählen Victor Schweiger und Julien Mereier aus der Arbeitsgruppe des Kardiologen Christian Templin vom Universitätsspital Zürich. „Manchmal erzählen sie, dass am Tag vorher der Mann gestorben ist. In der Katheteruntersuchung sind dann alle Gefäße offen.“ Die linke Herzkammer pumpt allerdings weniger effizient als gewöhnlich. Die Herzspitze ist ballonartig erweitert, die Hauptschlagader dagegen verengt.

Auf die leichte Schulter darf man die stressbedingte Herzschwäche nicht nehmen, warnen die beiden angehenden Kardiologen. Die Betroffenen brauchen eine Reha, um sich zu erholen. Ihr Risiko zu sterben, ist erhöht. „Es ist nicht nur etwas Psychisches, wie viele glauben, sondern eine körperliche Erkrankung“, betont Schweiger.

Gebrochenes Herz mit Folgen

Das legt auch eine Untersuchung der Gehirne von Patienten mit funktioneller Magnetresonanztomografie nahe, die Templin 2019 der Fachwelt vorstellte [4]. Danach ist die Verarbeitung emotionaler Eindrücke bei den Betroffenen in verschiedenen Gehirnarealen weniger ausgeprägt. Diese verminderte Konnektivität fiel besonders in der Amygdala, dem Hippocampus und dem Gyrus cinguli auf, die für die Kontrolle von Emotionen entscheidend sind. Amygdala und Gyrus cinguli sind zudem an der Steuerung des autonomen Nervensystems beteiligt und können darüber auch die Herzfunktion beeinflussen.

Wie das Gehirn bei einem emotionalen Ereignis das Herz stresst, ist gleichwohl nicht genau verstanden. Eine Schlüsselrolle kommt wohl dem Stresshormon Adrenalin zu. Künstlich gegebenes Adrenalin kann in Tieren eine Herzmuskelschwäche auslösen. In den Patienten sind die Spiegel bestimmter Katecholamine, zu denen die Botenstoffe Adrenalin, Dopamin und Noradrenalin gehören, ein bis drei Tage nach dem Auftreten des Takotsubo-Syndroms deutlich höher als in Gesunden. Bekanntermaßen schadet ein Übermaß an Katecholaminen auf Dauer dem Herzen.

Auch nach einem Schlaganfall sind die Pegel der Katecholamine erhöht. An diesem Punkt schließt sich der Kreis: Ein schwächelndes Herz kann nicht nur eine Reaktion auf heftigen Liebeskummer oder einen Todesfall sein. Auch neurologische Ereignisse gehen gar nicht selten, nämlich in 7,6 Prozent der Fälle, einem Takotsubo-Syndrom voraus. Das konnte Templins Team in den Daten des weltweit größten Registers mit mittlerweile mehr als 4.000 Patienten erkennen [4]. „Meist liegen nur ein bis zwei, maximal zehn Tage zwischen dem Erstereignis im Hirn und der stressbedingten Herzmuskelschwäche“, sagt Schweiger.

Wie neurologische Erkrankungen und seelisches Leid dem Herzen zusetzen, versucht die junge Disziplin der Psychokardiologie zu ergründen. „Es ist schon verblüffend“, sagt Schweiger. „Trauer, Ärger und Freude können organische Veränderungen an einem so wichtigen Organ hervorrufen.“

Als ob Johann Wolfgang von Goethe es schon vor zweihundert Jahren geahnt hätte, als er über die Liebe dichtete: „Herz, mein Herz, was soll das geben? Was bedränget dich so sehr? Welch ein fremdes neues Leben! Ich erkenne dich nicht mehr.“


  [1] Donald D, et al.: Some evidence for heightened sexual attraction under conditions of hig anxiety. Journal of Personality and Social Psychology, 1974, 30 (4). (zum Abstract: https://pubmed.ncbi.nlm.nih.gov/4455773/)

[2] Al E, et al.: Heart–brain interactions shape somatosensory perception and evoked potentials. PNAS, 2020 Mai, 117 (19) 10575-10584. (zum Volltext: https://www.nature.com/articles/ncomms13854)

[3] Azevedo R, et al.: Cardiac afferent activity modulates the expression of racial stereotypes. Nature Communications, 2016 Januar, 8 (13854). (zum Volltext: https://academic.oup.com/eurheartj/article/40/15/1183/5366976?login=false)

[4] Templin C, et al.: Altered limbic and autonomic processing supports brain-heart axis in Takotsubo syndrome. European Heart Journal, 2019 April, 40 (15): 1183–1187. (zum Volltext https://www.pnas.org/doi/full/10.1073/pnas.1915629117)


*Der Artikel ist am 1.10.2022 auf der Website https://www.dasgehirn.info/ unter dem Titel "Die Herz-Hirn Connection" erschienen https://www.dasgehirn.info/grundlagen/herz/die-herz-hirn-connection und steht unter einer CC-BY-NC-SA Lizenz.

www.dasGehirn.info ist ein Projekt der Klaus Tschira Stiftung, der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medien Karlsruhe.


Verwandte Artikel im ScienceBlog

Nora Schultz, 13.10.2022: Neurokardiologie - Herz und Gehirn bilden ein System

Artikel von Susanne Donner unter: https://scienceblog.at/susanne-donner


 

inge Thu, 01.12.2022 - 16:55

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Do, 24.11.2022 -— Inge Schuster Inge SchusterIcon Chemie

Vor 53 Jahren, als die Molekularbiologie noch in den Kinderschuhen steckte, habe ich den ebenso jungen Biochemiker Manfred Bühner auf einer wissenschaftlichen Tagung kennengelernt. Manfred war insbesondere von einem Vortrag des US-Amerikaners Michael Rossmanns fasziniert; dieser Pionier der Strukturaufklärung von Enzymen mittels Röntgenstrukturanalyse nahm dann Manfred als Postdoc in seiner Abteilung auf. Manfred konnte sich dort in die damals noch sehr neuen Methoden einarbeiten und baute nach seiner Rückkehr nach Deutschland in Würzburg das erste Forschungslabor an Hochschulen für Röntgenstrukturanalyse von Biomolekülen auf. Seine Forschungen zu Struktur, Funktion und deren Optimierung führten immer wieder zum Thema "chemische Evolution" . Manfred Bühner hat nun darüber ein großartiges Buch "Wie alles anfing - Von Molekülen über Einzeller zum Menschen" verfasst [1]. Die folgende Rezension soll einen kurzen Eindruck davon geben.

Wie ist auf unserem Planeten aus unbelebter Materie belebte Materie bis hin zu komplexen, intelligenten Lebensformen der Gegenwart entstanden? Anders als in den meisten deutschsprachigen Büchern über Evolution, deren Hauptaugenmerk auf der biologischen Phase - also auf der Entwicklung der Arten - liegt, steht in "Wie alles anfing" die präbiotische Phase, die chemische Evolution, im Zentrum.

"Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden"

In vier Teilen, auf rund 170 Seiten (plus einem ausführlichen Anhang mit chemischen und physikalischen Grundlagen, sowie einem Glossar) führt der Biochemiker Manfred Bühner aus, dass und warum die Chemie die Basis für den Weg zum Leben, wie auch für das Leben in seiner ganzen Vielfalt ist. In der nüchternen, induktiven Betrachtungsweise des Naturwissenschaftlers, die von Beobachtungen und zu berücksichtigenden Rahmenbedingungen ausgeht, kommt er zu dem Schluss: "Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden". Er bezieht sich dabei auf etabliertes Wissen über Struktur, Funktion und Steuerung der Bausteine lebender Materie und auf plausible Mechanismen ihrer Entstehung, die in der zweiten Hälfte des vorigen Jahrhunderts - dank der Fortschritte der Molekularbiologie - enorm ausgeweitet wurden. Bühner ist Zeitzeuge dieser Entwicklung und hat selbst seit den frühen 1970er Jahren an der Aufklärung der 3D-Struktur von Enzymen gearbeitet und sich eingehend mit deren Evolution zu den überaus präzisen Katalysatoren der Gegenwart befasst.

Abbildung 1. . Kohlenstoff im Zentrum der Chemischen Evolution. Von der Entstehung organischer Moleküle in der Uratmosphäre über Biomoleküle, Protozellen bis hin zur ersten Lebensform LUCA (Last universal common ancestor) . Quelle: Chiswick Chap, https://en.wikipedia.org/wiki/Abiogenesis; Lizenz: cc-by-sa.

Entstanden ist ein umfassender Überblick über mehr als 4,5 Milliarden Jahre Evolution, der mit der Entstehung der chemischen Elemente im Universum und den chemischen Reaktionen von Atomen und Molekülen in der Uratmosphäre beginnt. Abbildung. Bühner erklärt, warum (nur) Kohlenstoff auf Grund seiner vielfältigen Bindungsmöglichkeiten die strukturelle Basis für die Bausteine des Lebens bieten kann und wie in den Reaktionen mit den am häufigsten vorhandenen Elementen - Wasserstoff, Sauerstoff, Stickstoff - und dazu Phosphor und Schwefel zwangsläufig ein nahezu unendliches Spektrum von Biomolekülen entstehen konnte. Verständlicherweise konnten die weniger stabilen Makromoleküle - Kohlenhydrate, Proteine, Nukleinsäuren - erst entstehen, als vor etwa 4,3 Milliarden Jahren die Oberflächentemperatur der Erde gesunken war und atmosphärischer Wasserdampf zu Meeren kondensierte; geschützt vor zu zerstörerischer UV-Strahlung reicherten sich die Moleküle der Uratmosphäre in diesen "Ursuppen" an, aggregierten und reagierten miteinander. Bühner zeigt wahrscheinliche Synthesewege auf, erläutert, welche Rolle dabei flüssiges Wasser spielte und woher die zur Polymerisierung notwendige Energie kommen konnte.

Wie er an späterer Stelle ausführt, sollten - nach den im ganzen Universum geltenden Gesetzen der Chemie und Physik und sofern es die planetar-physikalischen Bedingungen erlaubten - auch auf anderen Himmelskörpern die Moleküle der Uratmosphäre einer zumindest sehr ähnlichen chemischen Evolution unterworfen (gewesen) sein.

Hervorgehoben wird die zentrale Bedeutung der Nukleinsäuren, deren Fähigkeit komplementäre Nukleotide anzulagern und Kopien mit der in der Nukleotid-Abfolge gespeicherten Information entstehen zu lassen, die Grundvoraussetzung für Leben, Vermehrung und Vielfalt der Nachkommenschaft ist. Es wird gezeigt wie die Nukleotid-Sequenz der RNA - und später der längeren, stabileren DNA - für die Aminosäurensequenz von Proteinen kodiert, wie Ablesung und Übersetzung des Codes funktionieren, wie schlussendlich kompliziert gefaltete Proteine entstehen und was solche zu hocheffektiv, spezifisch arbeitenden Enzymen macht. Zur Lösung des Henne- Ei Dilemmas - Was kam zuerst - Proteine, die das Kopieren der Nukleinsäuren katalysieren oder Nukleinsäuren, die für solche Proteine kodieren? - verweist Bühner auf die sogenannten Ribozyme - Ribonukleinsäuren mit zusätzlichen katalytischen Eigenschaften, die in anfänglichen RNA-Welten imstande gewesen sein dürften ohne zusätzliche Katalysatoren den vorerst langsamen und fehlerbehafteten Kopierprozess von RNAs zu beschleunigen und verbessern.

Breiten Raum nimmt auch die Chemie der niedermolekularen Lipide und der daraus spontan gebildeten Membranen ein: wie aus Membran-umschlossenen Tröpfchen der Ursuppe mit darin gelösten Biomolekülen erste Protozellen generiert werden konnten und wie diese Protozellen Stoffwechselsysteme entwickelten, die energieliefernde Stoffe aus der Ursuppe aufnehmen, für Funktionen wie Kopieren und Katalyse einsetzen und Abfallprodukte ausscheiden konnten. Nach mehreren Hundertmillionen Jahren chemischer Evolution, in denen vermutlich unzählige Biomoleküle ausprobiert und verworfen worden waren, gab es vor etwa 3,7 Milliarden Jahren erstmals Voraussetzungen für die Entstehung von Leben, die - als die geophysikalischen Bedingungen taugten - zu ersten Prokaryoten, einzelligen Vorläufern von Bakterien und Archaeen, führten.

"Das Leben? Ist alles nur Chemie mit der Fähigkeit zum autonomen Selbstkopieren"

sagt Bühner. Dieses Kopieren ist Hauptthema des (wesentlich kürzeren, da in der populärwissenschaftlichen Literatur bereits ausführlichst behandelten) Teils über biologische Evolution: wie dem Zufall unterworfene Mutationen in den Nukleotid-Basen und Selektion der Nachkommenschaft durch Adaptation an die Umgebungsbedingungen die Basis für die Evolution der Arten schufen; wie Optimierung von Kopiermaschinerie und Reparatursystemen für defekte Nukleotide immer größere Speicherkapazitäten und damit komplizierter aufgebaute Organismen ermöglichten. Als wesentliche Meilensteine in dem ungeheuer langen Zeitraum der biologischen Evolution (immer mit dem Fokus auf deren Chemie) nennt der Autor die "Erfindung" der Photosynthese durch Cyanobakterien vor etwa 2,7 Milliarden Jahren (d.i. der Nutzung von Sonnenergie zur Synthese von Kohlenhydraten aus CO2 und H2O, wobei der entstehende, für viele Proteobakterien toxische Sauerstoff das erste große Artensterben auslöste) und die Entstehung von Eukaryonten aus Archaea und Proteobakterien durch Endosymbiose 1 Milliarde Jahre später. Der letzte Teil des Buches führt dann von der Entstehung von Mehrzellern vor 800 Millionen Jahren, dem Aufkommen der sexuellen Vermehrung, der Entstehung von kompliziert aufgebauten Organismen bis zu intelligentem Leben und dem Homo sapiens.

Fazit

Ohne philosophische Aspekte zu berühren, erklärt das Buch in überzeugender Weise, wie Leben durch chemische Evolution entstanden sein kann. Anspruchsvoll und sehr dicht geschrieben vermittelt jede Zeile profundes, sorgfältig recherchiertes Wissen und bietet selbst für den Chemiker neue, inspirierende Einblicke. Vor allem Studenten und Absolventen naturwissenschaftlicher und medizinischer Fachrichtungen, (Oberstufen-)Schüler aber auch am Thema Evolution interessierte Laien werden (mit etwas "Nach-Googeln") das Buch mit Gewinn lesen.

Addendum: In einer zweiten Auflage sollte der Verlag die chemischen Strukturformeln in einer dem heutigen Usus adäquaten Form wiedergeben.


 [1] In der Reihe De Gruyter De Gruyter Populärwissenschaftliche Reihe:

Bühner, Manfred. Wie alles anfing: Von Molekülen über Einzeller zum Menschen, Berlin, Boston: De Gruyter, 2022. https://doi.org/10.1515/9783110783155


 

Artikel im ScienceBlog zu verwandten Themen

inge Thu, 24.11.2022 - 00:41

Eine rasche Senkung der Methanemissionen ist erforderlich

Eine rasche Senkung der Methanemissionen ist erforderlich

Do, 17.11.2022 — IIASA

IIASA Logo

Icon Klima

Die vom Menschen verursachten Methanemissionen sind für fast 45 % der derzeitigen Nettoerwärmung verantwortlich. Der von der Climate and Clean Air Coalition herausgegebene und von der IIASA-Forscherin Lena Höglund-Isaksson mitverfasste Bericht "Global Methane Assessment 2030 Baseline Report" bewertet die Fortschritte bei den globalen Reduktionsbemühungen. Wenn die Welt den globalen Temperaturanstieg unter den Zielwerten von 1,5° und 2°C halten will, sind rasche Maßnahmen erforderlich.*

Während der Zusammenhang zwischen Kohlendioxid (CO2)-Emissionen und steigenden Temperaturen weithin bekannt ist, findet die Rolle von Methan als Treiber des Klimawandels in der Öffentlichkeit im Allgemeinen weniger Beachtung. Die Methankonzentrationen in der Atmosphäre steigen rapide an, was zu einem überwiegendem Teil auf Emissionen aus menschlichen Tätigkeiten zurückzuführen ist. Sie liegen derzeit bei 260 % des vorindustriellen Niveaus und betragen jährlich zwischen 350 und 390 Millionen Tonnen. Um die globale Erwärmung in den nächsten Jahrzehnten einzudämmen, muss die CO2-Reduzierung durch rasche und wirksame Maßnahmen zur Verringerung von Methan und anderen Klimaschadstoffen ergänzt werden. Abbildung 1.

Abbildung 1. Gewinnung fossiler Brennstoffe, Landwirtschaft und Abfallwirtschaft sind Hauptverursacher anthropogener Methanemissionen. (Bild von Red. aus "Global Methane Assessment: 2030 Baseline Report" [1] eingefügt; Lizenz: cc-by-nc).

In Anlehnung an den Bericht Global Methane Assessment 2021: "Benefits and Costs of Mitigating Methane Emissions" (Nutzen und Kosten der Minderung von Methanemissionen) der Climate and Clean Air Coalition (CCAC), einer Plattform unter dem Dach des Umweltprogramms der Vereinten Nationen (UNEP), nimmt der neu veröffentlichte 2030 Baseline Report [1] eine Bestandsaufnahme der derzeitigen Bemühungen vor und prognostiziert die anthropogenen Methanemissionen unter verschiedenen Basisszenarien. Die Basisszenarien für die Emissionen gehen von der Umsetzung bestehender Strategien und Verpflichtungen aus, beinhalten aber keine zusätzlichen Minderungsmaßnahmen.

Die Landwirtschaft, die Abfallwirtschaft, die Gewinnung fossiler Brennstoffe und die offene Verbrennung von Biomasse sind die wichtigsten Quellen für anthropogenes Methan. Abbildung 2.

Abbildung 2. Geschätzte anthropogene Methanemissionen für 2020 (2019) nach Sektoren/Subsektoren. Quellen: EPA: US Environmental Protection Agency; IIASA, CEDS:US Comprehensive Economic Development Strategy, EDGAR: EU- The Emissions Database for Global Atmospheric Research (Bild von Redn. aus [1] eingefügt, cc-by-nc-Lizenz).

In dem Bericht wird hervorgehoben, dass die weltweiten Methanemissionen ohne ernsthafte Anstrengungen weiter ansteigen werden. Bis 2030 wird mit einem Anstieg um 5-13 % gegenüber 2020 gerechnet, wobei der größte Anstieg im Agrarsektor erwartet wird. Least-Cost-Szenarien zur Begrenzung der Erwärmung auf 1,5°C erfordern bis 2030 eine Verringerung der Methanemissionen: bezogen auf die Emissionen von 2020 um etwa 60 % aus fossilen Brennstoffen, 30-35 % aus Abfällen und 20-25 % aus der Landwirtschaft.

Um dies zu erreichen, bedarf es umfassender, gezielter und vor allem sozial gerechter Maßnahmen:

"Für die Sektoren der fossilen Brennstoffe brauchen wir einen Rechtsrahmen, der sicherstellt, dass die vorhandenen Technologien von der Industrie umgesetzt und genutzt werden. Bei den Sektoren Abfall und Landwirtschaft müssen die sozioökonomischen Auswirkungen des Wandels berücksichtigt werden, um sicherzustellen, dass arme Menschen und Angehörige benachteiligter Gruppen an den Lösungen beteiligt werden. So wird sichergestellt, dass Veränderungen die bestehenden Probleme dieser Gruppen nicht noch verschlimmern", sagt Lena Höglund-Isaksson, Mitverfasserin des Berichts und leitende Forscherin in der IIASA-Forschungsgruppe für Pollution-Management.

Auf der Konferenz der Vertragsparteien 2021 (COP26) in Glasgow wurde die Globale Methanverpflichtung (GMP) ins Leben gerufen, die die umfassenderen CO2-Bemühungen ergänzt, die allein nicht ausreichen, um an die 1,5°C-Szenarien anzupassen. Im Rahmen der GMP einigten sich die Teilnehmer darauf, gemeinsame Maßnahmen zu ergreifen, um die anthropogenen Methanemissionen bis 2030 um mindestens 30 % gegenüber dem Stand von 2020 zu senken. Bis August 2022 haben sich mehr als 120 Länder dieser Verpflichtung angeschlossen. Abbildung 3.

Abbildung 3. Projektierte Reduktionen der Methanemissionen 2020 bis 2030 nach Regionen und Sektoren. (Bild von Redn. aus [1] eingefügt, Lizemz cc-by-nc).

Die Verwirklichung der GMP-Ziele würde die Erwärmung zwischen 2040 und 2070 um mindestens 0,2°C verringern und darüber hinaus jährlich etwa 6 Millionen vorzeitige Todesfälle aufgrund von Ozonbelastung verhindern, den Verlust von fast 580 Millionen Tonnen an Ernteeinbußen vermeiden, Kosten in Höhe von 500 Milliarden US-Dollar aufgrund von Gesundheitsschäden, die nicht auf Todesfälle zurückzuführen sind, sowie Kosten für die Forst- und Landwirtschaft vermeiden und den Verlust von 1.600 Milliarden Arbeitsstunden aufgrund von Hitzebelastung verhindern. Zusammenfassend lässt sich sagen, dass bei fast 85 % der gezielten Maßnahmen der Nutzen die Kosten überwiegt.

Der Bericht macht jedoch deutlich, dass die derzeitigen Strategien und Maßnahmen zwar ein Schritt in die richtige Richtung sind, aber noch mehr getan werden muss. Die GMP deckt nur die Hälfte der weltweiten anthropogenen Methanemissionen ab, und nur ein Bruchteil der Länder hat explizite Maßnahmen vorgeschlagen, um ihre Minderungsziele zu erreichen. Es müssen mehr Unterzeichnerländer an Bord geholt werden, und die derzeitigen Verpflichtungen müssen erweitert werden.

"Wir müssen in allen Sektoren eine erhebliche Verringerung erreichen, und zwar jetzt. Die rasche Umsetzung der Methanemissionskontrolle ist eine der wenigen Optionen, die uns bleiben, um die globale Erwärmung in den nächsten Jahrzehnten auf einem beherrschbaren Niveau zu halten", so Höglund-Isaksson.

-----------------------------------------------------------

[1] United Nations Environment Programme/Climate and Clean Air Coalition (2022). Global Methane Assessment: 2030 Baseline Report. Nairobi. https://www.ccacoalition.org/en/resources/global-methane-assessment-2030-baseline-report


 *Der Artikel von Lena Höglund Isaksson "The need for rapid methane mitigation" https://iiasa.ac.at/news/nov-2022/need-for-rapid-methane-mitigation ist am 16. November 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Abbildungen aus dem Global Methane Assessment: 2030 Baseline Report [1] ergänzt (Lizenz: cc-by-nc). IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Einige Artikel über Methanemissionen im ScienceBlog


 

inge Thu, 17.11.2022 - 00:21

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Do, 10.11.2022 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr „Es ist eindeutig, dass der Einfluss des Menschen die Atmosphäre, die Ozeane und die Landflächen erwärmt hat“, stellt der Sachstandsbericht 6 (AR6) des Weltklimarats IPCC fest: „Eine globale Erwärmung von 1,5 °C und 2 °C wird im Laufe des 21. Jahrhunderts überschritten werden, außer es erfolgen in den kommenden Jahrzehnten drastische Verringerungen der CO2– und anderer Treibhausgasemissionen.“ Solche Kernaussagen sind das Ergebnis einer weltweiten Zusammenarbeit von 270 Forschenden aus verschiedenen Spezialgebieten. Mit dabei ist Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Der AR6-Bericht basiert auf vielen Messdaten, Beobachtungen sowie Klimamodellen, wie sie Marotzke mit seiner Abteilung entwickelt. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet darüber.*

Die Lage ist ernst, aber Jochem Marotzke legt Wert darauf, der jungen Generation Mut zu machen. Es sei nicht zu spät, betont er, wir können etwas gegen die weitere Klimaerwärmung tun. Physikalische Gesetze schaffen die Grundlage, dass wir eine lebensfeindliche Heißzeit verhindern können. „Es wäre also ein fataler Fehler, in eine Angstlähmung zu verfallen, denn dann handelt man nicht.“ Handeln müssen wir aber, denn eines ist klar: Solange wir Menschen weiter Kohlenstoffdioxid ausstoßen, wird es wärmer. Je schneller wir unseren Ausstoß an Treibhausgasen in der Gesamtbilanz auf „Netto-Null“ herunterschrauben können, desto früher wird auch die Erderwärmung gestoppt. Netto-Null heißt, dass der dann noch vorhandene Treibhausgas-Ausstoß der Menschheit vollständig mit nachhaltigen Maßnahmen ausgeglichen wird.

Energieflüsse im Modell

Wer in das Gebiet der Klimamodelle eintauchen will, muss zuerst verstehen, wie das komplexe Klimasystem der Erde grundsätzlich funktioniert. Und wie der Mensch es beeinflusst. Dabei hat die Physik ihren Auftritt, denn beim Erdklima geht es global gesehen um eine Bilanz von Energieflüssen. Diese lassen sich in Watt pro Quadratmeter ausdrücken. Axel Kleidon, Klimaforscher am Max-Planck-Institut für Biogeochemie in Jena, hat ein physikalisches Modell mit drei Fällen aufgestellt. Für die Energiezufuhr sorgt die Sonne. Ihre Strahlung trifft auf die Erdatmosphäre, mit einem globalen Mittelwert von 342 W/m2 (Abbildung 1, Fall A). Davon werden durch Schnee und Eis auf der Erdoberfläche und durch Wolken 102 W/m2, also knapp 30 %, zurück ins Weltall reflektiert. Es verbleiben somit 240 W/m2, die auf den Erdboden treffen und ihn aufwärmen. Sobald sich ein Gleichgewicht eingestellt hat, strahlt der Boden die 240 W/m2, umgewandelt in Form von Infrarotstrahlung, wieder ins Weltall ab. In diesem Fall A würde sich die Bodentemperatur theoretisch bei einem globalen Mittelwert von –18 °C einpendeln. Das kann man mit Hilfe der sogenannten Schwarzkörper-Strahlung ausrechnen, die das Stefan-Boltzmann-Gesetz beschreibt. Ohne Treibhauseffekt wäre die Erde also eingefroren. „Tatsächlich würde sie sogar noch kälter werden“, sagt Jochem Marotzke. Die einfache Abschätzung berücksichtigt nämlich nicht, dass die durch Eis und Schnee hellere Oberfläche mehr Sonnenstrahlung als heute ins All zurückreflektieren würde. Dieses Rückstrahlvermögen heißt Albedo, und eine „Schneeballerde“ hätte eine viel größere Albedo als die heutige Erde.

Abbildung 1. . Energiebilanz im einfachen Klimamodell. Die Fälle der Energiebilanz in der Erdatmosphäre werden von A bis C genauer. Die drei Säulen pro Fall zeigen jeweils von links nach rechts: Solarstrahlung, Abstrahlung des Bodens, Konvektion. Die Konvektion ist nur im Fall C berücksichtigt, der rote Pfeil symbolisiert die Wärmeenergie der Luft, der blaue Pfeil die im Dampf gespeicherte latente Wärme. Fall C ergibt eine global gemittelte Bodentemperatur von durchschnittlich 17 °C, was schon sehr nahe an den realen 15 °C ist.© A. Kleidon, R. Wengenmayr / CC BY-NC-SA 4.0

Davor rettet uns der natürliche Treibhauseffekt, zusammen mit den Wolken. „Das wirkt wie ein warmer Mantel um die Erde“, sagt Marotzke. Wenn das Licht der Sonne in die Atmosphäre eindringt, absorbieren zunächst Ozon und Wasserdampf einen Teil davon, sodass im globalen Mittel nur 165 W/m2 den Boden erreichen (Abbildung 1, Fall B). Der eigentliche Treibhauseffekt entsteht, sobald die vom Boden ausgesandte Infrarotstrahlung sich auf den Weg ins Weltall macht. Sie trifft nun wieder auf Wassermoleküle, CO2 und weitere Treibhausgase. Moleküle, die aus drei und mehr unterschiedlichen Atomen bestehen, absorbieren wie kleine Antennen Energie aus der langwelligen Infrarotstrahlung. Diese Energie geben sie über Stöße an die Nachbarmoleküle in der Luft ab, und deren stärkere Bewegung lässt die Temperatur der Atmosphäre steigen. Obwohl Treibhausgase nur Spurengase geringer Konzentration in der Atmosphäre sind, entfalten sie so eine große Wirkung. Sie senden nun selbst mehr Infrarotstrahlung zur Erdoberfläche zurück, im globalen Mittel 347 W/m2. Als Folge erwärmt sich der Boden immer weiter, strahlt aber auch stärker im Infraroten ab. Schließlich stellt sich bei einer Bodenabstrahlung von 512 W/m2 ein neues Gleichgewicht in der Strahlungsbilanz ein. Dadurch steigt nun allerdings die Lufttemperatur am Boden auf einen globalen Mittelwert von 35 °C!

Das ist viel zu warm im Vergleich zur realen Erde. Es fehlt noch ein dritter, stark kühlender Mechanismus der Atmosphäre und der Erdoberfläche (Abbildung 1, Fall C): die Konvektion. Ihre Bedeutung erkannte der japanisch-amerikanische Klimaforscher Syukuro Manabe, als er Anfang der 1960er-Jahren erste, noch sehr einfache Klimamodelle entwickelte. Im Jahr 2021 erhielt er gemeinsam mit Klaus Hasselmann, dem Gründungsdirektor des Max-Planck-Instituts für Meteorologie, für Pionierarbeiten zur Klimaforschung den Nobelpreis für Physik. Konvektion entsteht, weil vom Boden aufgewärmte Luft wie ein Heißluftballon aufsteigt, sich in der Atmosphäre abkühlt und wieder herunterfällt. Dieser Kreislauf transportiert Wasserdampf hinauf zu den Wolken. Wenn Wasser aus dem Boden verdampft, nimmt es sehr viel Energie auf. Diese latente Wärme plus die Wärme in der aufgeheizten Luft werden dem Boden entzogen und kühlen ihn. So gelangen im Gleichgewicht zusätzliche 112 W/m2 in die Atmosphäre. Damit pendelt sich der globale Mittelwert der Bodentemperatur bei rund 17 °C ein. Kleidons einfache Abschätzung kommt dem tatsächlichen Wert von etwa 15 °C erstaunlich nahe. Der Fall C beschreibt das Klimasystem der Erde in einem Gleichgewicht vor dem Zeitalter der Industrialisierung. Danach begann der Mensch, immer mehr fossile Brennstoffe wie Kohle, später auch Erdöl und Erdgas, zu verbrennen. Dadurch gelangten zusätzliche Treibhausgase in die Atmosphäre, vor allem CO2. Dessen Konzentration ist seit 1750 durch menschliche Aktivitäten um etwa die Hälfte angestiegen.

Entscheidende Rückkopplungen

„Dieser Treibhausgas-Ausstoß des Menschen wirkt wie eine zusätzliche Wärmedecke um die Erde“, sagt Marotzke. Entsprechend verschiebt sich das Gleichgewicht in der Bilanz der Strahlungsflüsse. Was da genau geschieht, will die Klimaforschung herausfinden. Entscheidend sind die Rückkopplungen im Klimasystem. Eine Rückkopplung ist die Albedo der Erdoberfläche, die abnimmt, wenn die hellen Eisflächen im wärmeren Klima schrumpfen. Sie beschleunigt somit die Erderwärmung, was durch einen positiven Rückkopplungsparameter beschrieben wird. Der aktuelle IPCC-Bericht nennt dafür einen geschätzten Zahlenwert von +0,35 W/(m2 • K). Den stärksten positiven Rückkopplungsparameter mit +1,3 W/(m2 • K) bringen zusätzlicher Wasserdampf und die Temperaturzunahme der Luft in die Bilanz ein. Wolken kommen mit +0,42 W/(m2 • K) dazu. Gäbe es also nur diese positiven Rückkopplungen im Klimasystem, dann würde die Erde tödliches Fieber bekommen.

Abbildung 2. Das Stefan-Boltzmann-Gesetz beschreibt, welche Wärmestrahlung ein idealer schwarzer Körper in Abhängigkeit von der Temperatur abstrahlt. Für die Erde ist das zwar eine Idealisierung, kommt aber ihrem Verhalten sehr nahe. Eingezeichnet sind hier die Strahlungsleistungen bei -18 °C (ohne Treibhausgase) und den 17 °C nach dem einfachen Modell von Abbildung 1, Fall C. Die tatsächliche, global gemittelte Bodentemperatur liegt bei ungefähr 15 °C, also etwas darunter. © R. Wengenmayr / CC BY-NC-SA 4.0

Dem wirkt aber ein starker Kühlmechanismus entgegen: die negative Planck-Rückkopplung. Sie gleicht mit geschätzten -3,22 W/(m2 • K) alle positiven Rückkopplungen mehr als aus. Das gilt auch für den Effekt der zusätzlichen Treibhausgase aus auftauenden Permafrostböden. Unter Berücksichtigung der Rückkopplungen von Biosphäre und Geologie, die ebenfalls negativ wirken, kommt der AR6-Bericht in der Bilanz auf einen geschätzten Rückkopplungswert von -1,16 W/(m2 • K). Hinter dieser Rettung steckt die schon erwähnte Schwarzkörper-Strahlung. Damit lässt sich beschreiben, wie sich das Abstrahlverhalten der Erde mit der Temperatur (T) verändert. Die Formel dafür liefert die Physik in Form des Stefan-Boltzmann-Gesetzes: Danach steigt der in den Kosmos zurückgestrahlte Energiefluss mit T4 an! An diese Kurve (Abbildung 2) können wir bei der aktuellen, globalen Mitteltemperatur von 17 °C am Boden eine Gerade anlegen. Diese hat dann eine Steigung, die dem Wert 3,22 W/(m2 • K) der Planck-Rückkopplung entspricht.

Eine entscheidende Frage in diesem Zusammenhang ist, ob es im Klimasystem sogenannte „Kippelemente“ gibt und wo sie liegen. Ein Teil der Klimaforschenden geht davon aus, dass etwa die Permafrostböden oder das Eisschild von Grönland zu den Kippelementen zählen. Übersteigt die Klimaerwärmung einen gewissen Punkt, könnten diese unumkehrbar zu schmelzen beginnen. Welche Kippelemente es im Klimasystem möglicherweise gibt und bei welchem Anstieg der mittleren globalen Temperatur sie umkippen könnten, wird kontrovers diskutiert.

Die Klimasensitivität

Hier kommt eine wichtige Größe ins Spiel: die Gleichgewichts-Klimasensitivität, abgekürzt ECS für „Equilibrium Climate Sensitivity“. Dieser Begriff geht auf eine Pionierarbeit zum Treibhauseffekt zurück, die der schwedische Physiker und Chemiker Svante Arrhenius 1896 veröffentlichte. Im Kern geht es um die Frage, wie sich die umhüllende Wärmedecke verhält, wenn das Klima wärmer wird. „Die Wirkung der ECS können wir uns in einem Gedankenexperiment vorstellen, in dem wir die CO2-Konzentration in der Atmosphäre verdoppeln“, sagt Marotzke: „Dann stellt sie die global gemittelte Erwärmung der Erdoberfläche dar, die sich langfristig im neuen Gleichgewicht einstellt.“

Eine der großen Herausforderungen besteht darin, den Wert der ECS einzugrenzen. Viele Jahre lang blieb sie hartnäckig in einer Spanne zwischen 1,5 und 4,5 °C stecken. Der AR6-Bericht konnte nun endlich diese Unsicherheit verkleinern, auf eine wahrscheinliche Spanne von 2,5 bis 4 °C. Diese Reduktion um 1,5 °C klingt nach nicht viel. Sie ist aber ein großer Schritt, um genauere Aussagen darüber machen zu können, wie viel Treibhausgase die Menschheit noch ausstoßen darf, um das Pariser Klimaziel von 1,5 °C einhalten zu können. Auf jeden Fall wird das knapp! Der globale Mittelwert der Bodentemperatur ist seit Beginn verlässlicher Wetteraufzeichnungen bereits um 1,2 °C angestiegen, in Deutschland seit 1881 sogar schon um 1,6 °C.

Das einfache physikalische Modell der Strahlungsbilanz (Abbildung 1) kann die mittlere Oberflächentemperatur verblüffend gut errechnen. Will man aber genauere Aussagen treffen, etwa über regionale Veränderungen, dann braucht man Klimamodelle. Davor beantwortet Jochem Marotzke noch die Frage, warum CO2 eine so dominante Rolle im Treibhaus der Erde spielt. Schließlich sorgt Wasserdampf für einen stärkeren Treibhauseffekt. „Der Wasserdampf ist aber sozusagen der Sklave des CO2“, entgegnet der Forscher. Ursache ist dessen kurze Aufenthaltsdauer im Klimasystem. Das Wasser in der Luft wird ungefähr alle zehn Tage komplett erneuert. „Das CO2 hingegen hat eine viel längere Verweildauer“, erläutert er. „Ein Viertel davon bleibt für Jahrhunderte in der Luft!“ Deshalb steuert das CO2 in seiner Trägheit das Klima, während der schnelllebige Wasserkreislauf sich an die Temperaturveränderung anpassen muss.

Schnell folgt langsam

Diese Erkenntnis, dass im Klima ein schnelles System immer einem langsamen folgen muss, geht vor allem auf Klaus Hasselmann zurück. Der Nobelpreisträger baute darauf zwei bedeutende Pionierarbeiten auf. Darin untersuchte er das Zusammenspiel der Ozeane mit der Atmosphäre. Der riesige Wasserkörper der Meere reagiert sehr langsam auf Klimaveränderungen, er ist das Langzeitgedächtnis. Damit diktieren die langsamen Ozeane der viel schneller reagierenden Atmosphäre langfristige Klimatrends. Man kann das mit einem Menschen vergleichen, der einen unerzogenen Hund an der Leine hält. Der Hund rennt wild hin und her und lässt dadurch den Menschen scheinbar ziellos herumtorkeln. Wenn man länger zuschaut, sieht man jedoch, wie das langsame System Mensch das schnelle System Hund allmählich in die Richtung zwingt, in die der Mensch will. Wie aber kann man einen solchen Trend bereits im chaotischen Bewegungsmuster des Pärchens Mensch-Hund ausmachen, wenn er für das bloße Auge noch gar nicht erkennbar ist? Das entspricht der Frage, die sich Hasselmann gestellt hat: Wie kann man den menschlichen Klima-Handabdruck zweifelsfrei nachweisen, obwohl er sich als winziges Signal im chaotischen Rauschen der täglichen Wetterschwankungen verbirgt? Dieser Nachweis gelang dem Forscher in seiner zweiten Pionierarbeit.

Wie funktionieren Klimamodelle?

„Klimamodelle kann man sich als digitale Zwillinge der Erde vorstellen“, führt Marotzke in sein Forschungsgebiet ein (Abbildung 3). Die Modelle können aber nicht jedes Wassertröpfchen oder gar Molekül nachbilden, das würde alle Supercomputer weit überfordern. Stattdessen besteht der digitale Zwilling aus einem erdumspannenden, dreidimensionalen Netz aus mathematischen Zellen. Diese Zellen erfassen die Atmosphäre, den Boden bis in eine Tiefe von etwa zehn Metern, sowie den Wasserkörper der Ozeane. Für jede Zelle wird bilanziert, welche Energie und welche Masse hinein- und wieder herausströmt. „Es geht also um Energie- und Impulsänderungen, um die Erhaltungssätze der Physik“, sagt der Forscher. Damit lässt sich ausrechnen, wie sich der Energie- und Impulsinhalt jeder Zelle ändert. „Aus dem Energieinhalt können wir die Temperatur ausrechnen, aus der Temperatur die Dichte und daraus den Luftdruck“, erklärt er weiter. Das führt wiederum zu den Windgeschwindigkeiten. In der Atmosphäre wird es allerdings dadurch kompliziert, dass Phasenübergänge stattfinden können: Wasser verdampft, kondensiert wieder zu Tröpfchen oder friert sogar aus.

Abbildung 3. Module eines Klimamodells, wie sie am MPI für Meteorologie entwickelt und eingesetzt werden. Die einzelnen Elemente (farbige Boxen) werden über den Austausch von Energie, Impuls, Wasser und Kohlenstoff miteinander gekoppelt. Das „O.-A.-Koppler“-Modul (rot) simuliert den besonders wichtigen Austausch zwischen Ozean und Atmosphäre. Physikalische, biologische, chemische und geologische Prozesse werden berücksichtigt. Eine zentrale Rolle spielt der Kohlenstoffkreislauf (braune Pfeile, s. auch [1]). © MPI für Meteorologie / CC BY 4.0

Das Computerprogramm rechnet nun in Zeitschritten die Mittelwerte für alle Zellen aus. Hierin unterscheiden sich Klimamodelle nicht von Wettermodellen. Allerdings müssen Klimamodelle in der Regel einige Jahrzehnte bis Jahrhunderte erfassen. Deshalb ist ihr Netz an Zellen viel grobmaschiger, um die Rechenleistung der Computer nicht zu sprengen. Als Folge fallen feine, aber wichtige Elemente des Klimasystems durch das Raster. Forschende müssen Schätzungen einsetzen, was die Genauigkeit reduziert. Außerdem starten Klimamodelle nicht mit Wetterdaten für einen Tag X, wie Wettermodelle. Stattdessen werden sie mit Annahmen über die Entwicklung von Treibhausgasen gefüttert. Diese beruhen auf verschiedenen Szenarien der gesellschaftlichen Entwicklung. Der AR6-Bericht arbeitet mit fünf Szenarien: Im extremen „Weiter-so“-Szenario steigt der CO2-Ausstoß der Menschheit ungebremst an, im günstigsten Szenario kann sie diese Emissionen sehr bald auf Netto-Null reduzieren. Im ersteren Fall würden wir am Ende des 21. Jahrhunderts bei einer um fast fünf Grad aufgeheizten Erde im Vergleich zur Mitte des 19. Jahrhunderts landen. Das Ergebnis wäre ein radikal veränderter Planet mit einigen Regionen, die wahrscheinlich nicht mehr bewohnbar wären.

Blick in die Zukunft

Abbildung 4. Simulation einer Wetterlage mit zwei Klimamodellen. Das Modell mit Zellen von 2,5 km Breite (rechts) erfasst die Wolkenstrukturen viel feiner als das Modell mit 80-km-Zellen (links). Das ermöglicht genauere Klimavorhersagen.© F. Ziemen, DKRZ

Aber woher weiß man, wie gut ein Klimamodell funktioniert? Dazu muss es als Test die Klimaentwicklung der Vergangenheit simulieren (s. [2]). Heutige Klimamodelle können das sehr genau. Ihre Problemzone ist die immer noch geringe Auflösung, typische Zellengrößen liegen bei 150 km. Das erschwert auch Aussagen über regionale Klimaentwicklungen. Deshalb forschen die Hamburger an hochauflösenden Klimamodellen, die mit viel feineren Zellen auch kleinräumige Prozesse in der Atmosphäre physikalisch genau beschreiben können. Im Projekt „Sapphire“ konnte ein Team um Cathy Hohenegger und Daniel Klocke am Institut schon großräumige Klimavorgänge in einer Auflösung von 2,5 Kilometern und noch feiner simulieren. Damit wird auch die Simulation von Wolken realistischer, die eine wichtige Rolle im Klima spielen (Abbildung 4). Eine schlankere Programmierung und leistungsfähigere Computer machen dies möglich.

In Zukunft werden Klimamodelle die Erde immer kleinräumiger erfassen können. Sie erlauben damit genauere Aussagen über die Folgen des menschlichen Handabdrucks im Klima. Das betrifft zum Beispiel regionale Zunahmen von Extremwetterlagen (s. [3]). Eines ist klar: Jedes eingesparte Kilogramm CO2 ist eine Investition in die Zukunft!

---------------------------------------------------------

 [1]Elke Maier: Geomax 22: Das sechste Element - Wie Forschung nach Kohlenstoff fahndet. https://www.max-wissen.de/max-hefte/geomax-22-kohlenstoffkreislauf/

[2] Geomax 19: Der Fingerabdruck des Monsuns - Wie Forschende im Buch der Klimageschichte blättern. https://www.max-wissen.de/max-hefte/geomax-19-monsun/

[3] Elke Maier: Geomax 25: Wetter extrem - Wenn sich Hitzewellen, Stürme und Starkregen häufen. https://www.max-wissen.de/max-hefte/geomax-25-wetter-extrem/


 * Der Artikel unter dem Titel: "Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt" stammt aus dem TECHMAX 31-Heft der Max-Planck-Gesellschaft, das im November 2022 erschienen ist ((https://www.max-wissen.de/max-hefte/digitale-zwillinge-der-erde/). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Jochen Marotzke: Im Maschinenraum des neuen IPCC-Berichts - Der 6. Sachstandsbericht des Weltklimarats (2.November 2022) Physik in unserer Zeit. https://doi.org/10.1002/piuz.202201651 (open access)

UBA-Erklärfilm: Treibhausgase und Treibhauseffekt. Video 4:10 min. https://www.youtube.com/watch?v=eI8L3wV3pBo 

6. IPCC-Sachstandsbericht:  https://www.ipcc.ch/assessment-report/ar6/

IIASA, 07.04.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

 Klimamodelle im ScienceBlog

(Artikelserie der britischen Plattform Carbon Brief - https://www.carbonbrief.org/)

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?

[5] Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

[6] Teil 6 (1.11.2018): Klimamodelle: wie werden diese validiert?

Teil 7 (06.12.2018): Grenzen der Klimamodellierungen


 

inge Thu, 10.11.2022 - 00:17

Comments

Wolfbeis (not verified)

Thu, 24.11.2022 - 13:10

Es ist alles schon gesagt, aber offensichtlich noch nicht von allen . . .

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

Do, 3.11.2022 — Redaktion

Redaktion

Icon Astronomie

Im Juli 2022 hat die NASA eine neue Weltraummission zur "Untersuchung von Mineralstaubquellen an der Erdoberfläche (Earth Surface Mineral Dust Source Investigation - EMIT) gestartet. Mit Hilfe eines an der Internationalen Raumstation angedockten, bildgebenden Spektrometers sollen die Mineralstaubquellen auf der Erdoberfläche charakterisiert und kartiert werden. Man erhofft daraus besser verstehen zu können, welche Auswirkungen atmosphärischer Mineralstaub auf das Klima hat. Das Spektrometer zeigt noch eine weitere, für den Kampf gegen den Klimawandel entscheidende Anwendungsmöglichkeit: es kann auch Emissionen des starken Treibhausgases Methan aufspüren und hat bereits mehr als 50 "Super-Emitter" identifiziert.*

Die NASA-Mission EMIT (Earth Surface Mineral Dust Source Investigation) kartiert das Vorkommen wichtiger Mineralien in den staubproduzierenden Wüsten der Erde - es sind Informationen, die uns helfen werden die Auswirkungen von atmosphärischem Staub auf das Klima zu verstehen. Darüber hinaus hat EMIT aber noch eine weitere, enorm wichtige Anwendungsmöglichkeit gezeigt: es kann das starke Treibhausgas Methan nachweisen.

Mit den Daten, die EMIT seit seiner Installation auf der Internationalen Raumstation im Juli gesammelt hat, konnten die Wissenschaftler bereits mehr als 50 "Super-Emitter" identifizieren: in Zentralasien, im Nahen Osten und im Südwesten der Vereinigten Staaten. "Super-Emittenten" sind typischerweise in den Bereichen fossile Brennstoff-Förderung, Abfallwirtschaft oder Landwirtschaft mit hohem Methanausstoß angesiedelt.

"Die Eindämmung der Methanemissionen ist ein Schlüssel zur Eindämmung der globalen Erwärmung. Diese aufregende neue Entwicklung wird den Forschern nicht nur dabei helfen, präziser festzulegen, woher die Methanlecks kommen, sondern auch Aufschluss darüber geben, wie sie beseitigt werden können - und zwar schnell", sagt NASA-Administrator Bill Nelson. "Die Internationale Raumstation und die mehr als zwei Dutzend Satelliten und Instrumente der NASA im Weltraum sind seit langem von unschätzbarem Wert, um Veränderungen des Erdklima festzustellen. EMIT erweist sich als ein wichtiges Instrument in unserem Werkzeugkasten, um dieses starke Treibhausgas zu messen - und es an der Quelle zu stoppen."

Methan absorbiert infrarotes Licht in charakteristischer Weise - es gibt eine sogenannten spektralen Fingerabdruck, den das bildgebende Spektrometer von EMIT mit hoher Genauigkeit und Präzision detektieren kann. Abbildung 1. Das Instrument kann zusätzlich auch Kohlendioxid messen.

Abbildung 1. Daten vom bildgebenden Spektrometer. Der Würfel (links) zeigt auf der Vorderseite Methanfahnen (lila, orange, gelb) über Turkmenistan (siehe auch Abbildung 3). Die Regenbogenfarben an den Seiten sind die spektralen Fingerabdrücke der entsprechenden Punkte auf der Vorderseite. Die blaue Linie im Diagramm (rechts) zeigt den Methan-Fingerabdruck, den EMIT entdeckt hat; die rote Linie ist der erwartete Fingerabdruck, der auf einer atmosphärischen Simulation beruht. Credits: NASA/JPL-Caltech

Die neuen Befunde stammen aus dem breiten Bereich des Planeten, der von der umkreisenden Raumstation erfasst wird, sowie aus der Fähigkeit von EMIT, Streifen der Erdoberfläche zu scannen, die Dutzende von Kilometern breit sind, und dabei Bereiche aufzulösen, die so klein sind wie ein Fußballfeld sind.

"Die Ergebnisse sind spektakulär und zeigen, wie wertvoll es ist, eine Perspektive auf globaler Ebene mit der Auflösung zu verbinden, die für die Identifizierung von Methan-Punktquellen bis hinunter auf die Ebene der Anlagen erforderlich ist", sagt David Thompson, EMIT-Forschungstechniker; er ist Senior-Forscher am Jet Propulsion Laboratory der NASA in Südkalifornien, das die Mission leitet. "Es handelt sich um eine einzigartige Fähigkeit, welche die Messlatte für Bestrebungen zur Zuordnung von Methanquellen und Eindämmung von anthropogenen Emissionen höher legen wird."

Verglichen mit Kohlendioxid macht Methan nur einen Bruchteil der vom Menschen verursachten Treibhausgasemissionen aus. Es Ist aber in den 20 Jahren nach seiner Freisetzung etwa 80-mal wirksamer in der Speicherung von Wärme in der Atmosphäre als Kohlendioxid. Während Kohlendioxid in der Atmosphäre Jahrhunderte überdauert, hält sich Methan etwa ein Jahrzehnt; dies bedeutet, dass die Atmosphäre auf eine Verringerung der Emissionen in einem ähnlichen Zeitrahmen reagiert und dies zu einer verlangsamten kurzfristigen Erwärmung führt.

Die Identifizierung von punktuellen Methanquellen kann ein wichtiger Schritt in diesem Prozess sein. Mit dem Wissen um die Standorte der großen Emittenten können die Betreiber von Anlagen, Ausrüstungen und Infrastrukturen, die das Gas freisetzen, schnell handeln, um die Emissionen zu begrenzen.

Die Feststellung von Methan durch EMIT erfolgte, als die Wissenschaftler die Genauigkeit der Mineraldaten des bildgebenden Spektrometers überprüften. Während seiner Mission wird EMIT Messungen von Oberflächenmineralien in trockenen Regionen Afrikas, Asiens, Nord- und Südamerikas und Australiens durchführen. Die Daten werden den Forschern helfen, die Rolle der Staubpartikel in der Luft bei der Erwärmung und Abkühlung der Erdatmosphäre und -oberfläche besser zu verstehen.

"Wir sind sehr gespannt darauf, wie die EMIT-Mineraldaten die Klimamodellierung verbessern werden", sagte Kate Calvin, leitende Wissenschaftlerin und Klimaberaterin der NASA. "Die zusätzliche Fähigkeit zum Nachweis von Methan bietet eine bemerkenswerte Möglichkeit zur Messung und Überwachung von Treibhausgasen, die zum Klimawandel beitragen."

Methanfahnen aufspüren

Das Untersuchungsgebiet der Mission deckt sich mit bekannten Methan-Hotspots auf der ganzen Welt, was es den Forschern ermöglicht, in diesen Regionen nach dem Gas zu suchen und die Fähigkeiten des bildgebenden Spektrometers zu testen.

Abbildung 2. Methanfahne über einem Ölfeld. Eine 3 km lange Methanfahne, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation südöstlich von Carlsbad, New Mexico, entdeckt wurde. Methan ist ein starkes Treibhausgas, das die Wärme in der Atmosphäre viel effektiver als Kohlendioxid speichert. Credits: NASA/JPL-Caltech

"Einige der von EMIT entdeckten Methanfahnen gehören zu den größten, die je gesehen wurden - anders als alles, was bisher aus dem Weltraum beobachtet wurde", sagt Andrew Thorpe, ein Forschungstechniker am Jet Propulsion Laboratory (JPL) der NASA, der die EMIT-Methanforschung leitet. "Was wir in der kurzen Zeit gefunden haben, übertrifft bereits unsere Erwartungen".

So entdeckte das Instrument beispielsweise eine etwa 3,3 Kilometer lange Abgasfahne südöstlich von Carlsbad, New Mexico, im Permian Basin. Das Permian-Becken ist eines der größten Ölfelder der Welt und erstreckt sich über Teile des südöstlichen New Mexico und des westlichen Texas. Abbildung 2.

In Turkmenistan hat EMIT über Öl- und Gasinfrastrukturen östlich der Hafenstadt Hazar am Kaspischen Meer 12 Abgasfahnen identifiziert. Einige Abgasfahnen erstrecken sich über mehr als 32 Kilometer In westlicher Richtung. Abbildung 3.

Abbildung 3. Methanfahnen über Erdöl- und Erdgas-Förderanlagen. Östlich von Hazar, Turkmenistan, einer Hafenstadt am Kaspischen Meer, strömen 12 Methanschwaden nach Westen, einige von ihnen über eine Länge von mehr als 32 km. Die Methanfahnen wurden von der NASA-Mission EMIT entdeck. Credits: NASA/JPL-Caltech

Das Team identifizierte auch eine Methanfahne südlich von Teheran, Iran, mit einer Länge von mindestens 4,8 Kilometern, die von einer großen Abfallverwertungsanlage ausgeht. Methan ist ein Nebenprodukt der Zersetzung, und Mülldeponien können eine wichtige Quelle sein. Abbildung 4.

Abbildung 4. Methanfahne über einer Mülldeponie. Eine mindestens 4,8 Kilometer lange Methanfahne steigt südlich von Teheran im Iran in die Atmosphäre auf. Die Wolke, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation entdeckt wurde, stammt von einer großen Mülldeponie, in der Methan ein Nebenprodukt der Zersetzung ist.Credits: NASA/JPL-Caltech

Die Wissenschaftler schätzen , dass stündlich etwa 18.300 Kilogramm Methan am Standort Perm abgegeben werden, 50.400 Kilogramm aus den turkmenischen Quellen und 8.500 Kilogramm am Standort im Iran.

Die turkmenischen Quellen haben zusammen eine ähnliche Ausstoßrate wie das Gasleck im Aliso Canyon im Jahr 2015, bei dem zeitweise mehr als 50.000 Kilogramm pro Stunde austraten. Die Katastrophe im Gebiet von Los Angeles war eine der größten Methanfreisetzungen in der Geschichte der USA.

Mit einer breiten, wiederholten Erfassung von seinem Aussichtspunkt auf der Raumstation aus, wird EMIT möglicherweise Hunderte von Super-Emittern finden - einige, die man bereits aus Messungen in der Luft, im Weltraum oder am Boden kennt, andere, die bisher unbekannt sind.

"Bei der weiteren Erkundung des Planeten wird EMIT Orte beobachten, an denen bisher niemand nach Treibhausgasemittenten gesucht hat, und es wird Abgasfahnen finden, die niemand erwartet hat", so Robert Green, leitender Forscher von EMIT am JPL.

EMIT ist das erste aus einer neuen Klasse von weltraumgestützten bildgebenden Spektrometern zur Untersuchung der Erde. Ein Beispiel ist der Carbon Plume Mapper (CPM), ein Instrument, das am JPL entwickelt wird und Methan und Kohlendioxid aufspüren soll. Das JPL arbeitet mit der gemeinnützigen Organisation Carbon Mapper und anderen Partnern zusammen, um Ende 2023 zwei mit CPM ausgestattete Satelliten zu starten.


* Der vorliegende Artikel ist unter dem Titel " Methane ‘Super-Emitters’ Mapped by NASA’s New Earth Space Mission" am 25.Oktober 2022 auf der Web-Seite der NASA erschienen, https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/.  Der unter einer cc-by stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


Links

 EMIT launch and post-launch video 2:30 min. A video covering EMIT's launch and early post-launch activities, including first light data. https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/

Einige Artikel über Methan-Emissionen im ScienceBlog

IIASA, 7.4.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Redaktion, 9.11.2020: Bäume und Insekten emittieren Methan - wie geschieht das?

IIASA, 23.7.2020: Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden.

Redaktion, 07.11.2019: Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt.

IIASA, 25.9.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima 36 Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher


inge Fri, 04.11.2022 - 00:46

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Do, 27.10.2022 — Redaktion

Redaktion

Icon MINT

Laut WHO rangiert Umgebungslärm nach Luftverschmutzung an zweiter Stelle als Verursacher von Gesundheitsproblemen. Der Verkehr ist eine der Hauptursachen für beide Probleme. Neben Anstrengungen den Verkehr insgesamt zu reduzieren, wird an Lösungen zur Minimierung der Lärmbelastung gearbeitet. Zwei EU-finanzierte Projekte haben dazu marktfähige Lösungen entwickelt: Im WHISSPER-Projekt sind dies Lärmschutzwände, die mittels einer innovativen Technologie den Schall nach oben ablenken; im SILENT RUBBER PAVE-Projekt führt gummimodifizierter Asphalt zur erhöhten Absorption des Schalls.*

In den Städten der Europäischen Union stellt Lärm neben der Luftverschmutzung ein erhebliches Gesundheitsrisiko dar. Rund 22 Millionen Menschen leiden unter chronisch hoher Lärmbelastung und jedes Jahr sterben 12 000 Menschen vorzeitig an den Folgen einer langfristigen Belastung durch Umweltlärm, wobei der Verkehr eine der Hauptquellen ist. Abbildung 1.

Abbildung 2. Eine zentrale Herausforderung in städtischen Gebieten ist die Begrenzung der verkehrsbedingten Lärmbelastung. Bildnachweis: Pexels via Pixabay

Doch so wie beim Klimawandel geht es der EU bei der Bekämpfung der Lärmbelastung nicht nur um Schadensbegrenzung, sondern auch um Anpassung. Zwar kann der Verkehr durch eine bessere Stadtplanung reduziert werden, doch der motorisierte Verkehr wird auch weiterhin Lärm emittieren, und eine zentrale Herausforderung besteht darin, Wege zu finden, die Auswirkungen auf die Menschen zu begrenzen.

Hier betritt Bart Willems die Szene. Er ist begeistert von einer Art von Wand, die seiner Meinung nach die Menschen mehr vereinen als trennen kann. Willems war an einem Forschungsprojekt beteiligt, bei dem es darum ging, belastenden Straßen- und Eisenbahnlärm zu reduzieren, indem man Barrieren einsetzt, die Schallwellen ablenken und sie von den Gebäuden wegleiten. Das Phänomen ist als Beugung bekannt.

Nervenaufreibend

Das Ziel war ein ernstzunehmendes, jedoch unterschätztes Umweltproblem aus einer neuen Sichtweise anzugehen. Konventionell existieren zwei Methoden zur Lärmreduktion: Blockierung des Schalls durch hohe Lärmschutzwände und Verwendung von Materialien für Straßen und Schienen, die den Lärm besser absorbieren. Die Beugung bietet eine dritte Lösung", sagte Willems, dessen niederländisches Unternehmen 4Silence BV (https://www.4silence.com/) das EU-Horizon-finanzierte WHISSPER-Projekt koordiniert hat.

Das niederländische Unternehmen 4Silence hat Wände mit unterschiedlich breiten Rillen entwickelt, die den horizontalen Lärm reduzieren, indem sie ihn in vertikaler Richtung nach oben ablenken. Die Methode wird im WHISSPER-Projekt folgendermaßen beschrieben [1]: „Die Innovation nutzt das Prinzip aus, dass Schallwellen durch Überlagerung mit anderen Schallwellen gebrochen werden. Dabei erzeugen die aus vorbeifahrenden Fahrzeuge in die Rillen schießenden Schallwellen Resonanz. Der daraus entstehende Luftwiderstand hemmt wiederum die horizontale Ausbreitung der Schallwellen. Da sich Schall ähnlich wie Wasser den Weg des geringsten Widerstands sucht, tendieren problematische Schallwellen dazu, der in den Rillen erzeugten Resonanz nach oben „auszuweichen“, was die Lärmbelastung für das Straßenumfeld reduziert. Die innovativen Lärmschutzwände können auch neben Zuggleisen angebracht werden."

Mit dieser Technologie können niedrigere Wände verwendet werden, um mehr Lärm von den Menschen in der Umgebung abzulenken. "Wenn eine unserer Schallschutzwände einen Meter hoch ist, reduziert sie den Lärm um sieben bis neun Dezibel", so Willems. Eine normale Wand müsste drei Meter hoch sein, um den gleichen Effekt zu erzielen. Abbildung 2.

Abbildung 2. Ablenkung der Schallwellen: Die Lärmschutzwand WHISwall, installiert in Belgien an der N445 in der Nähe von Zele. Ein 1,00 m hohes Element in Kombination mit einem beugenden Element (Resonator) führt zu einer Lärmreduzierung, die einer 3,00 m hohen Schallschutzwand entspricht. © 4Silence, 2022

Diese Technologie wurde im Rahmen des WHISSPER-Projekts von 2019 bis Anfang 2022 getestet. Pilotversuche wurden in den Niederlanden, Belgien, Deutschland und Dänemark durchgeführt und die signifikante Minderung des Geräuschpegels und die Marktfähigkeit demonstriert; nach Angaben des Unternehmens sind die schallumlenkenden Wände einfach zu installieren und zu warten. Man will jetzt damit auf den Markt kommen.

"Wir haben inzwischen mit unseren ersten kommerziellen Projekten in den Niederlanden begonnen", so Willems. "Und wir sind bestrebt, unsere Wände in verschiedenen Ländern zu vermarkten."

Für diese Initiativen arbeitet 4Silence generell mit lokalen Behörden, wie denen der Stadt Eindhoven oder der Provinz Utrecht zusammen. In Deutschland und im Vereinigten Königreich wurden kommerzielle Projekte für das Staatliche Bauamt Augsburg und für Transport for London gestartet. Für die kommenden Monate sind neue Kunden aus ganz Europa angekündigt, wobei 4Silence Kunden in Ländern wie Belgien und Dänemark ins Auge fasst.

Entlastung des Budgets

Lärmschutzwände entlasten auch die öffentlichen Haushalte, denn sie sind nur halb so teuer wie herkömmliche Maßnahmen zur Lärmreduktion. Die öffentlichen Kassen für Infrastrukturen sind bereits stark strapaziert. Die Ausgaben für die Bekämpfung von Straßen- und Schienenlärm belaufen sich in Europa auf etwa 5,4 Milliarden Euro pro Jahr, das sind 6 % der jährlichen Gesamtausgaben für beide Verkehrsträger.

Doch die Belastung der Menschen durch Verkehrslärm nimmt in der EU zu. Mehr als jeder vierte Europäer ist zu Hause, in der Schule und am Arbeitsplatz gesundheitsgefährdenden Lärmpegeln ausgesetzt.

Gute Vibrationen

Inzwischen wird an Verbesserungen der klassischen Methoden zur Bekämpfung von Verkehrslärm gearbeitet. Ein separates, von Horizon finanziertes Projekt namens SILENT RUBBER PAVE [2] macht Asphalt auf umweltfreundliche Weise schwammiger und hoffentlich leiser. An dem Projekt ist ein spanisches Unternehmen namens Cirtec (https://cirtec.es/) beteiligt. Abbildung 3.

Abbildung 3. Der Flüsterbelag wird aufgebracht (Quelle: [2] © SILENT RUBBER PAVE)

Cirtec steht kurz vor dem Verkauf eines neuen Asphaltzusatzes namens RARx, der aus Gummi von Altreifen hergestellt wird. RARx wird dem Asphalt beigemischt, um einen Teil des Straßenverkehrslärms zu dämpfen.

Die Beimischung von Gummipulver zu Asphalt (auch als Bitumen bekannt) wurde zwar schon früher ausprobiert, aber es ergaben sich technische Schwierigkeiten. "Früher mischten die Bauunternehmer die Gummimischung direkt in das Bitumen, was viele Probleme verursachte", so Guillermo Rodríguez Marfil von Cirtec. "Probleme mit dem Mischung und mit der anschließenden Reinigung der Gerätschaften."

Bei RARx wird das Gummipulver vom Hersteller mit mineralischen Zusätzen wie Bitumen gemischt, so dass es für die Asphalthersteller einfacher zu verarbeiten ist. Rodríguez Marfil zufolge wird der Lärm der Fahrzeuge um 4-5 Dezibel reduziert. "Das Gemisch verringert die Steifigkeit des Asphalts, was zu einer geringeren Vibration im Reifen und damit zu weniger Lärm führt", sagt er.

Außerdem kann damit die Lebensdauer des Straßenbelags verlängert und so die Wartungskosten reduziert werden. Zudem entspricht RARx dem Recycling -Gedanken, da die Gummimischung aus Altreifen hergestellt wird.

RARx wird derzeit in Ländern wie Spanien eingeführt. Tests und Bauprojekte wurden auch in Deutschland, Italien, Portugal und Irland durchgeführt, teilweise unter dem Dach von SILENT RUBBER PAVE. Neben der Produktion in Spanien wird RARx auch in einer zweiten Fabrik hergestellt, die derzeit in Mexiko gebaut wird - laut Rodríguez Marfil der größte Markt für Cirtec.

Die Zukunft sieht rosig aus", sagte er. Wir arbeiten auf mehreren Kontinenten und unser Einfluss wächst. Wir sparen den öffentlichen Verwaltungen Geld und verringern den Lärm für die Bürger.

Regulatorische Hürden

Cirtec und 4Silence hoffen nicht nur auf neue Märkte für ihre neuen Produkte zur Lärmminderung, sondern auch auf Änderungen der Rechtsvorschriften, um ihr Geschäft auszubauen.

"Da Straßen oft von Regierungen und deren Subunternehmern gebaut werden, ist diese Tätigkeit stark reguliert. Im Straßenbau wird seit Ewigkeiten das Gleiche getan, und dies lässt sich nur schwer überwinden," so Rodríguez Marfil. Willems von 4Silence schließt sich diesem Standpunkt an: "Die Infrastruktur entwickelt sich nicht schnell, vor allem, wenn Gesetze geändert werden müssen, bevor wir unsere Technologie einführen können", sagt er. "Wir sind dennoch optimistisch, dass die Menschen in Europa in den kommenden drei Jahren an den Anblick unserer Barrieren gewöhnt sein werden."


 [1] WHISSPER-Projekt (06. 2019 - 03. 2022) - Ergebnisse: : https://cordis.europa.eu/article/id/442164-sound-wave-bending-innovation-cuts-noise-pollution/de . DOI10.3030/859337

[2] SILENT RUBBER PAVE-Projekt (04.2017 - 31.03.2020) - Ergebnisse: https://cordis.europa.eu/article/id/422356-novel-asphalt-additive-for-better-safer-and-environment-friendly-roads/de  DOI10.3030/760564


*Dieser Artikel wurde zuerst am 21.Oktober 2022 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "Reducing noise pollution with acoustic walls and rubberised roads https://ec.europa.eu/research-and-innovation/en/horizon-magazine/reducing-noise-pollution-acoustic-walls-and-rubberised-roads  publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt Ein Absatz zur Funktion der Lärmschutzwände und Abbildung 2. wurden aus [1] eingefügt, Abbildung 3 stammt aus [2].


Video: Horizon EU: Reducing noise pollution with acoustic walls and rubberised roads (1:17 min) https://www.youtube.com/watch?v=x5A9woyJd_w&t=77s


 

inge Thu, 27.10.2022 - 13:04

Neurokardiologie - Herz und Gehirn bilden ein System

Neurokardiologie - Herz und Gehirn bilden ein System

Do, 13.10.2022 — Nora Schultz

Nora SchultzIcon Gehirn

Das Herz spielt eine wichtige Rolle für das Gehirn. Nicht nur seine unmittelbare Gesundheit hängt daran: Je besser das Herz, desto besser das Gehirn. Auch schlägt Stress direkt durch aufs Gehirn. Bekannteste Krankheit ist vermutlich das Broken-Heart-Syndrom, doch es gibt einige mehr. Selbst auf Zellebene gibt es verblüffende Parallelen, weshalb die neue Richtung der Neurokardiologie Herz und Hirn als System betrachtet. Damit es ein Leben lang rund um die Uhr situationsgerecht pocht, hat es sich einige Tricks vom Gehirn abgeschaut und spezielle Muskelzellen in ein elektrisch erregbares Kommunikationsnetzwerk umgewandelt. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über das System "Herz-Gehirn".*

Neurokardiologie: Herz und Hirn als System betrachtet.

Beherzte Entscheidungen; Worte, die von Herzen kommen; Herzen, die auf der Zunge getragen werden oder in die Hose rutschen – Vieles, was wir im Kopf wälzen, scheint eng verknüpft mit dem Organ, das in unserer Brust schlägt (Abbildung 1), Aristoteles verortete im Herzen sogar den Sitz der Seele. Das Gehirn dagegen betrachtete er als bloßes Kühlsystem. Heute wissen wir, dass die Emotionen, die wir „im Herzen“ spüren, in Wirklichkeit durch Neuronengewitter im Kopf entstehen. Längst mehren sich aber die Hinweise auf Parallelen und Verbindungen zwischen Herz und Hirn, die biologisch und medizinisch in vielerlei Hinsicht bedeutsam sind: Psychische Gesundheit und Herzgesundheit hängen oft eng zusammen.

Ein Herzensleben

Das Herz spielt eine Hauptrolle im Leben, fast von Anbeginn. Nur in den ersten beiden Wochen nach der Befruchtung ist der menschliche Embryo herzlos. Kurz nachdem er sich in die Gebärmutter eingenistet hat, verschmelzen kleine Hohlräume in seinem Inneren zu einem Schlauch, der optisch zunächst noch an eine Nacktschnecke erinnert. Zu Beginn der vierten Entwicklungswoche fängt der Herzschlauch an zu pumpen – schon jetzt im Ultraschall messbar. In den folgenden fünf Wochen kringelt sich der Schlauch in eine Schleifenform. Anschließend bilden sich die verschiedenen Herzkammern aus, Wände und Klappen entstehen, um die Kammern voneinander abzutrennen. Und schließlich formen sich die großen Blutgefäße.

In nur neun Wochen ist das menschliche Herz im Wesentlichen fertig konstruiert und verrichtet fortan ein Leben lang seinen Dienst. Schlägt es ganz zu Beginn der Entwicklung noch gemächlich und ähnlich wie das Herz der Mutter etwa 80-mal pro Minute, drückt das Ungeborene bald danach erst einmal gehörig auf die Tube. In der siebten Entwicklungswoche rast das sich formende Herzchen mit 185 Schlägen pro Minute und verlangsamt dann nach und nach bis zum Erreichen des Erwachsenenalters wieder auf durchschnittlich 80 Schläge pro Minute.

Bei gesunden Erwachsenen pumpt jeder Schlag etwa 80 Milliliter Blut in den Körper. Pro Minute sind das ungefähr 5 Liter – etwa die gesamte Blutmenge im Körper. Regen wir uns auf oder strengen wir uns an, schafft das Herz zeitweise und je nach Alter mehr als 200 Schläge und bis zu 20 Liter pro Minute. Selbst wenn man nur die erwachsenen Durchschnittswerte zugrunde legt, kommt ein Mensch so auf über 115.000 Herzschläge und 7.200 Liter gepumptes Blut pro Tag. Das macht rund 42 Millionen Herzschläge und knapp 263.000 Liter Blut pro Lebensjahr und knapp dreieinhalb Milliarden Schläge sowie über 210 Millionen Liter Blut in einem 80-jährigen Menschenleben.

Zentrum des Blutkreislaufs

Der südafrikanische Chirurg Christiaan Barnard, der 1967 die erste Herztransplantation durchgeführt hat, soll gesagt haben: „Das Herz ist nur eine Pumpe.“ Ganz so schlicht sehen Fachleute die Sache heute nicht mehr. Doch ist gerade die Pumpfunktion des Herzens zentral für unser Leben. Wir sind darauf angewiesen, dass das Herz als Motor unseres Blutkreislaufs zuverlässig seinen Dienst verrichtet – und zwar rund um die Uhr.

Schema des menschlichen Herzens (Quelle: Jakov - Eigenes Werk based on image by Yaddah, https://commons.wikimedia.org/w/index.php?curid=3327983. Lizenz: cc-by-sa.)

Das Grundprinzip ist einfach: Das Herz besteht aus zwei von der Herzscheidewand getrennten Hälften. Jede Hälfte ist noch einmal in einen Vorhof und eine Kammer unterteilt. Blut kann nur auf einer Einbahnstraße durch die Herzhälften fließen. Dafür sorgen die Herzklappen, die sich jeweils nur in eine Richtung öffnen. Die zwei Hälften des Herzens bedienen zwei unterschiedliche Kreisläufe. Der Körperkreislauf versorgt den Körper mit Sauerstoff. Sauerstoffreiches Blut fließt über die Lungenvenen in den Vorhof und dann in die Kammer der linken Herzhälfte. Mit ihren kraftvollen Pumpbewegungen schickt die linke Herzkammer das sauerstoffreiche Blut anschließend über die Hauptschlagader bis in die entlegensten feinen Blutgefäße des Körperkreislaufs, die Kapillaren, wo das Blut Sauerstoff und Nährstoffe an die vielfältigen Gewebe abgibt. Auf der Rückreise fließt das nun sauerstoffarme Blut durch Körpervenen zurück zum Herzen: in den Vorhof und die Kammer der rechten Herzhälfte. Von hier aus gelangt es über die Lungenarterien in die Lunge, wo es wieder mit Sauerstoff angereichert wird. Dieser kleinere Kreislauf ist bekannt als Lungenkreislauf.

Arbeitstiere und Impulsgeber

Damit das Herz jeden Winkel des Körpers im Dauereinsatz versorgen kann – und zwar immer genau abgestimmt auf die aktuellen Bedürfnisse – verfügt es über eine Reihe von besonderen Eigenschaften, die teilweise erstaunliche Parallelen zum Gehirn aufweisen. Vereinfacht betrachtet arbeiten in der Hauptsache zwei Zelltypen im Herzen: die Zellen der Arbeitsmuskulatur und die Zellen des Erregungsleitungssystems. Wie der Name schon vermuten lässt, sorgt die Arbeitsmuskulatur dafür, dass das Herz sich verlässlich und kräftig rhythmisch zusammenzieht. Im Unterschied zur Skelettmuskulatur, deren Zellen schon vor der Geburt zu langen Muskelfasern mit mehreren Zellkernen verschmelzen, bewahren Herzmuskelzellen ihre Individualität. Sie enthalten meist höchstens zwei Zellkerne, die bei einer letzten DNA-Verdopplung entstehen, bevor die Zelle den Zellzyklus für immer verlässt.

Einzelkämpfer sind Herzmuskelzellen deshalb noch lange nicht. Vielmehr verketten sie sich über verzweigte Endungen mit ihren Nachbarn und bilden so ebenfalls lange Muskelfasern. An den Verbindungsstellen sitzen viele kleine Poren, die so genannten Gap Junctions. Über diese kann Zellplasma direkt von Zelle zu Zelle fließen. So lassen sich nicht nur chemische Botenstoffe, sondern – über den Austausch von Ionen – auch elektrische Signale besonders schnell übertragen. Das ist nützlich, wenn es wie im Herzmuskel gilt, die rhythmische Aktivität vieler Zellen zu koordinieren. Ähnliches findet sich im Gehirn: Auch hier verbinden Gap Junctions bestimmte, eng zusammenarbeitende Nervenzellen, so etwa im Hippocampus, der zentralen Schaltstelle zwischen dem Kurz- und Langzeitgedächtnis.

Noch mehr Parallelen zum Gehirn weist das Erregungsleitungssystem auf. Es besteht aus abgewandelten Herzmuskelzellen, die sich zu einem komplexen und mit diversen Backup-Mechanismen ausgestatteten Signalnetzwerk verschalten. Dieses Netzwerk übernimmt die Bildung und das Weiterleiten der elektrischen Impulse, die der Arbeitsmuskulatur ihren Takt vorgeben – und das fast ohne Zutun des Nervensystems. Herzmuskelzellen im Erregungsleitungssystem können sich weniger gut zusammenziehen als ihre Kolleginnen in der Arbeitsmuskulatur, sind dafür aber Spezialistinnen im Erzeugen und Weiterleiten von elektrischen Impulsen, den Aktionspotentialen.

Das Erregungsleitungssystem besteht aus mehreren Komponenten. Die primären Impulsgeber sind die Schrittmacherzellen im Sinusknoten. Hierbei handelt es sich um eine rund ein bis zwei Zentimeter lange, spindelförmige Struktur in der Wand des rechten Herzvorhofs. Die Schrittmacherzellen liefern spontan und idealerweise regelmäßig die elektrischen Impulse, die jeden Herzschlag in Gang bringen. Das funktioniert, weil Schrittmacherzellen die Fähigkeit haben, sich selbst immer wieder zu depolarisieren und so rhythmisch neue Aktionspotentiale zu erzeugen. Auf jedes Aktionspotential in elektrisch erregbaren Zellen folgt eine Repolarisationsphase, während der die Natriumkanäle in der Zellmembran sich schließen und den weiteren Einstrom positiv geladener Natriumionen stoppen. Gleichzeitig werden ebenfalls positiv geladene Kaliumionen aus der Zelle herausgepumpt. So wird die Ladung im Zellinnern nach und nach wieder negativer, die Zelle nähert sich ihrem Ruhepotential an. Die meisten elektrisch erregbaren Zellen – einschließlich Neuronen und Zellen der Herzarbeitsmuskulatur – verharren nun eine Weile im Ruhepotential. Anders die Schrittmacherzellen im Sinusknoten des Herzens: Sie verfügen über ganz besondere Natriumkanäle, die sich beim Erreichen der Hyperpolarisation sofort wieder öffnen. Das Zellinnere wird umgehend wieder positiver und es kommt zu einer erneuten Depolarisation.

Erregungsleitungssystem des menschlichen Herzens. 1: Sinusknoten, 2: Atrioventrikular(AV)knoten. ((Quelle: Heuser https://de.wikipedia.org/wiki/Sinusknoten#/media/Datei:Reizleitungssystem_1.png. Lizenz: cc-by) .

Dank dieser besonderen Ausstattung können die Schrittmacherzellen im Sinusknoten als autonome Taktgeber fungieren. Ganz unabhängig vom Rest des Körpers sind sie allerdings nicht. Vor allem das autonome Nervensystem kann über seine Transmitter die Entladungsfrequenz des Sinusknotens, und damit die gesamte Herzfrequenz, sowohl senken als auch erhöhen. Eine wichtige Rolle spielt dabei die Regulierung des Calcium-Haushalts – auch dies eine Gemeinsamkeit mit dem Gehirn, wo calciumabhängige Signale vielfältig an der Modulierung von Synapsen und Netzwerken mitwirken.

Vom Sinusknoten wandern die Impulse in den Atrioventrikularknoten, der in der Wand zwischen dem rechten und linken Vorhof nahe der Grenze zu den Herzkammern sitzt, und weiter in das so genannte His-Bündel. Es verläuft in zwei Strängen (Tawara-Schenkel) entlang der Herzscheidewand in Richtung Herzspitze. Dort verzweigen sie sich in die letzte Komponente des Erregungsleitungssystems, die so genannten Purkinje-Fasern. Diese sind mit den Zellketten der Arbeitsmuskulatur verbunden und diktieren ihnen unmittelbar den Takt. Interessanterweise können auch die Zellen, die im Erregungsleitungssystem dem Sinusknoten nachgeschaltet sind, als Schrittmacher arbeiten. Im Normalbetrieb kommen sie allerdings nicht zum Zug, können aber zum Beispiel einspringen, wenn der Sinusnoten ausfällt.

Energiehunger und Regenerationsfähigkeit

Das ständige Erzeugen und Weiterleiten elektrischer Impulse sowie die unermüdliche Pumpleistung der Arbeitsmuskulatur sind energetisch teuer. Um die Energieversorgung zu gewährleisten, enthalten Herzmuskelzellen daher besonders viele Mitochondrien. Dies ist eine weitere Parallele zum Gehirn, dessen Nervenzellen ebenfalls sehr energiehungrig sind. Beide Organe teilen sich noch eine Gemeinsamkeit: Die große Mehrheit ihrer Zellen verschreibt sich spätestens kurz nach der Geburt ihren spezialisierten Aufgaben, und zwar so rigoros, dass sie darüber die Fähigkeit verliert, sich zu teilen. Das bedeutet, dass beide Gewebe sich nach Verletzung oder Erkrankung, etwa einem Infarkt, kaum regenerieren können.

Lange dachte man, das menschliche Herz sei überhaupt nicht regenerationsfähig. Inzwischen steht fest, dass Regeneration zwar möglich ist, aber nicht in einem Maß, um auch größere Schäden reparieren zu können. Warum das so ist, dass andere Lebewesen wie beispielsweise der Zebrafisch keine Mühe haben, neues Herzgewebe zu bilden, weiß man bis heute nicht genau. Es wäre denkbar, dass diese Unfähigkeit direkt mit dem großen Energiebedarf von Herz und Hirn zusammenhängt. Wo besonders viele Mitochondrien energiehaltige Stoffe mit Hilfe von Sauerstoff zu ATP, der universellen Energiewährung des Körpers, verarbeiten, entstehen auch mehr freie Radikale, die aufgrund ihrer großen chemischen Reaktionsfreudigkeit die DNA schädigen können. In Zellen, die sich noch teilen, bedeutet dies ein erhöhtes Tumorrisiko. Der energieintensive Betrieb in Herz und Hirn ist also möglicherweise nicht kompatibel mit starker Zellteilung.

Wechselwirkungen

Die Ähnlichkeiten zwischen Herz und Gehirn sind umso interessanter, je näher man die vielfältigen Zusammenhänge und Wechselwirkungen zwischen beiden Organen betrachtet. Inzwischen ist bekannt, dass psychische Erkrankungen und Herzkrankheiten eng zusammenhängen. Funktioniert das Herz nicht gut, können Probleme in der Blutversorgung des Gehirns schnell zu Beeinträchtigungen seiner Funktionen führen – zum Beispiel zu einer Demenz ▸ Wenn Herz und Gehirn gemeinsam leiden. Umgekehrt kann nicht nur intensive physische Aktivität das Herz an die Belastungsgrenze treiben, sondern auch großer emotionaler Stress seine Funktionen bedrohen ▸ Wie Stress im Kopf dem Herzen schadet . Wie genau der Austausch zwischen beiden Systemen funktioniert ▸ Herz und Gehirn – das dynamische Duo und welche Faktoren sie aus dem Gleichgewicht bringen können ist daher zunehmend Gegenstand der Forschung. Das Herz, so zeigt sich dabei immer deutlicher, ist letztlich weder Sitz der Seele noch schnöde Pumpe, sondern hat ein bisschen was von beidem.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht das Thema "Herz". Der vorliegende Artikel ist am 1.10.2022 unter dem Titel: "Mehr als eine Pumpe" https://www.dasgehirn.info/grundlagen/herz/mehr-als-nur-eine-pumpe erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


Zum Weiterlesen

Koehler U, Hildebrandt O, Hildebrandt W, Aumüller G. Herz und Herz-Kreislauf-System in der (kultur-)historischen Betrachtung [Historical (cultural) view of the heart and cardiovascular system]. Herz . 2021;46(Suppl 1):33-40. doi:10.1007/s00059-020-04914-2

 Elhelaly, Waleed M et al.: Redox Regulation of Heart Regeneration: An Evolutionary Tradeoff. Frontiers in cell and developmental biology vol. 4 137. 15 Dec. 2016, doi:10.3389/fcell.2016.00137

 Islam MR, Lbik D, Sakib MS, et al. Epigenetic gene expression links heart failure to memory impairment. EMBO Mol Med. 2021;13(3):e11900. doi:10.15252/emmm.201911900


 

inge Thu, 13.10.2022 - 22:26

Das Zeitalter des Pangenoms ist angebrochen

Das Zeitalter des Pangenoms ist angebrochen

Fr, 21.10.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Nach der Entschlüsselung des menschlichen Genoms im Jahr 2001, wurden die hochfliegenden Erwartungen, man könne aus genetischen Veränderungen sehr bald Ursachen und Therapien für diverse Krankheiten entdecken, rasch enttäuscht. Nach der Analyse von zigtausenden unterschiedlichen Genomen stellt sich heraus, dass unser Erbgut viel stärker variiert als man bisher glaubte, und die Bedeutung einzelner Variationen unklar ist. Das Humane Pangenom-Projekt macht es sich zur Aufgabe die Variabilität des menschlichen Genoms zu kartieren und aus Sequenzanalysen von mehreren Hundert Menschen aus verschiedenen Weltregionen ein sogenanntes Referenz Genom zu erstellen, das Abweichungen in Zusammenhang mit physiologischen und pathologischen Unterschieden bringen kann. Die Genetikerin Ricki Lewis berichtet darüber.*

Die aus dem Griechischen stammende Vorsilbe "pan" bedeutet "alles, jedes, ganz und allumfassend". In der Sprache der Genetik ist das "menschliche Pangenom" mit "vollständige Referenz für die Diversität des menschlichen Genoms" zu übersetzen. Es ist als eine neue Art von Kartierung gedacht, die alle Variationen der Sequenz von 3.05 Milliarden DNA-Basenpaaren - den Bausteinen eines Genoms - darstellt, plus oder minus einiger weniger kurzer, sich wiederholender Sequenzen. Die Darstellung ist so dicht gepackt, dass sie einer Karte des New Yorker U-Bahn-Systems ähnelt.

In der Schaffung einer "Genom-Referenzdarstellung, die die gesamte menschliche Genomvariation erfassen und die Forschung über die gesamte Diversität der Populationen unterstützen kann" ist das Human Pangenome Reference Consortium federführend.

Eine solche Ressource ist natürlich längst überfällig. Jetzt, da bereits die Genome von mehr als 30 Millionen Menschen sequenziert worden sind, klingt es merkwürdig, von "dem" menschlichen Genom zu sprechen, so als wären wir alle identisch in Bezug auf jede der vier DNA-Basen - A, C, T oder G -, die jeden der 3 Milliarden Speicherplätze belegen. Wir sind keine Klone. Allerdings brauchen die meisten Biotechnologien etwa drei Jahrzehnte, um ausgereift zu sein, und da das Humangenom-Projekt Anfang der 1990er Jahre begonnen wurde, scheinen die Dinge nun genau im Zeitplan für eine umfassendere Betrachtung zu liegen.

Als ich Mitte der 1980er Jahre zum ersten Mal an Sitzungen teilnahm, auf denen die Idee der Sequenzierung des menschlichen Genoms aufkam, rechnete man damit, dass diese Aufgabe mindestens ein Jahrzehnt in Anspruch nehmen würde. Im ersten Entwurf der menschlichen Genomsequenz, die 2001 vom National Human Genome Research Institute (NHGRI) und seinen Partnern veröffentlicht wurde, stammten davon etwa 93 % von nur elf Personen, wobei 70 % vom gesamten von einem einzigen Mann kamen, der zu 37 % afrikanischer und zu 57 % europäischer Abstammung war. Das menschliche Genom, das von Celera Genomics veröffentlicht wurde, stammte Berichten zufolge von Craig Venter, dem Leiter dieses Unternehmens.

Danach begannen Genomsequenzen von Prominenten einzutrudeln, von anderen reichen Leuten, von einer Handvoll Journalisten, die Artikel und Bücher veröffentlichten, in denen sie ihr genetisches Selbst enthüllten, und von einer Reihe von "ersten Testpersonen" - Afrikanern, Han-Chinesen und mehreren Vertretern moderner Völker mit alten Wurzeln.

Es ist schon ein wenig verwunderlich, dass wir heute mit unseren Smartphones auf unsere Daten der Genomsequenzen zugreifen können.

Als das Humangenom-Projekt auslief, begannen die Forscher, die Diversität des menschlichen Genoms zu katalogisieren, indem sie im Genom einzelne Basen-Positionen identifizierten, die sich von Person zu Person unterscheiden. Dies sind sogenannte single nucleotid polymorphisms (Einzelnukleotid-Polymorphismen - SNPs). Als die Ansammlungen von SNPs auf den Chromosomen immer dichter wurden, erkannten die Forscher sehr rasch, dass es neuer Instrumente bedurfte, um die sich ausweitende Diversität unserer DNA darzustellen.

Trotz dieser Fortschritte in der Sequenzierung müssen wir aber noch viel über die genetische Diversität des Menschen lernen, und dazu sind Vergleiche erforderlich. Hier kommt das menschliche Pangenom ins Spiel.

Die Diversität unserer Genomsequenzen ist atemberaubend. Eine Studie der gesamten Genomsequenzen von 53.831 Menschen hat Unterschiede an 400 Millionen Positionen ergeben! Die meisten davon waren SNPs oder eine zusätzliche oder fehlende DNA-Base. Es kann aber sein, dass der Großteil unserer Variabilität von nur wenigen Menschen stammt. Etwa 97 Prozent der 400 Millionen unterschiedlicher Positionen stammten von weniger als einem Prozent der 53 831 Testpersonen, wobei 46 Prozent davon bei nur einer Person auftraten. Wir unterscheiden uns genetisch in vielerlei Hinsicht, und einige von uns unterscheiden sich stärker als andere, aber wir sind alle Menschen.

Einige Jahre lang haben Forscher "Referenz"-Genomsequenzen zusammen gestellt, um der Diversität in bestimmten Populationen Rechnung zu tragen. Diese digitalen Sequenzen zeigten an jeder Position die in vielen Genomen der Gruppe am häufigsten vorkommende häufigste DNA-Base an. Die Aktualisierung der Referenzgenome nahm jedoch viel Zeit in Anspruch und war eine undankbare Aufgabe, die nie abgeschlossen wurde. Um 2010, als weitere Daten von Asiaten und Afrikanern hinzu gekommen waren, blieben immer noch 5 Millionen Lücken in den Referenzsequenzen.

Da die Datenmengen schnell zu groß wurden, um die Diversität des Genoms mit einer einfachen, klaren visuellen Methode erfassen zu können, kam die Idee des menschlichen Pangenoms als "einer vollständige Referenz der Diversität des menschlichen Genoms" auf. Das Human Pangenome Project begann offiziell im Jahr 2019 und füllte innerhalb eines Jahres die verbleibenden Lücken in den Genomsequenzen. Ziel war es, die Genomsequenzen von zunächst 350 Menschen aus verschiedenen ethnischen Gruppen darzustellen, wobei "computational pangenomics"-Werkzeuge verwendet wurden, um visuelle Darstellungen, sogenannte "Genom-Graphen", zu erstellen.

In einem Genom-Graphen zeigen farblich gekennzeichnete Basen, die der DNA-Darstellung überlagert sind, wie sich die Menschen an den einzelnen Positionen unterscheiden. Wie eine geografische Karte mit Symbolen für Campingplätze, Rastplätze und interessante Orte zeigen Genom-Graphen die SNPs und auch fehlende Teile der Genomsequenz, zusätzliche Teile und invertierte Regionen an. Sie zeigen auch welche Bedeutung, welcher Zusammenhang damit verbunden ist, indem z. B. Gene, die für Proteine kodieren, von Kontrollsequenzen unterschieden werden und Positionen gekennzeichnet werden, an denen die DNA-Sequenz von verschiedenen Startpunkten aus gelesen werden kann, wodurch die Zelle die Anweisung erhält, unterschiedliche Proteine zu produzieren.

Die Daten, die in das menschliche Pangenomprojekt einfließen, stammen aus Bevölkerungs-Biobanken und verschiedenen Genomsequenzierungs-Projekten. Wenn all diese Informationen über die Länge der Chromosomen überlagert werden, beginnt der Genom-Graph tatsächlich einem U-Bahn-Plan zu ähneln.

Ich bin mit der New Yorker U-Bahn aufgewachsen. So wie die meisten Zuglinien im Zentrum der Stadt, in Manhattan, zusammenlaufen und sich nur wenige Linien in die Randbezirke erstrecken, so sind auch die proteinkodierenden Gene in Richtung des Zentromers jedes Chromosoms gruppiert und werden zu den Spitzen, den Telomeren, hin immer spärlicher.

Ich denke mit Rührung an die erste Humangenom-Tagung zurück, an der ich 1986, ich glaube in Boston, teilgenommen habe. Es ist eine lange, außergewöhnliche Reise geworden, aber wir fangen endlich an zu verstehen, wie eine Sprache mit vier Buchstaben die erstaunliche Vielfalt des menschlichen Wesens erklären kann.


* Der Artikel ist erstmals am 13.Oktober 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " The Age of the Pangenome Dawns" https://dnascience.plos.org/2022/10/13/the-age-of-the-pangenome-dawns/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


 

inge Fri, 21.10.2022 - 17:32

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Di, 04.10.2022 — Redaktion

Redaktion

Icon Physik

Der diesjährige Nobelpreis für Physik geht an den österreichischen Quantenphysiker Anton Zeilinger, den französischen Physiker Alain Aspect und den US-Amerikaner John Clauser. Sie werden für ihre bahnbrechenden Experimente mit verschränkten Quantenzuständen ausgezeichnet. Im folgenden Text erzählt Anton Zeilinger von seiner Faszination für die Quantentheorie, wie sich aus dieser ursprünglich ausschliesslich als Grundlagenforschung gedachten Fachrichtung nun Anwendungen ergeben, die "unsere kühnsten Träume übertreffen."*

Anton Zeilinger: Von meiner Faszination für die Quantenphysik zu ersten Experimenten und konzeptuellen Überlegungen  

Anton Zeilinger, 2021.(Bild: Jaqueline Godany - https://godany.com/ cc-by

Mein Interesse an der Wissenschaft wurde wahrscheinlich durch meinen Vater geweckt, der Biochemiker war. Nachdem ich also neugierig geworden war, wie die Welt funktioniert, wurde ich durch einen motivierenden Lehrer im Gymnasium auf den Weg in Richtung Mathematik und Physik gebracht. Er konnte uns das Gefühl vermitteln, dass wir die Grundlagen der Relativitätstheorie oder der Quantenmechanik verstanden hatten. Im Nachhinein betrachtet war dieses Gefühl zwar nicht wirklich gerechtfertigt, aber es hat mich entscheidend motiviert. Als ich dann 1963 begann, an der Universität Wien Physik und Mathematik zu studieren, gab es überhaupt keinen festen Lehrplan. Man war im Wesentlichen frei, die Themen nach eigenem Gusto zu wählen. Nur am Ende musste man das Rigorosum - eine wirklich strenge Prüfung - ablegen und eine Dissertation vorweisen. Das führte dazu, dass ich nicht eine einzige Stunde Quantenmechanik belegte, sondern alles aus Lehrbüchern für die Abschlussprüfung lernte. Als ich diese Lehrbücher las, war ich sofort von der immensen mathematischen Schönheit der Quantentheorie beeindruckt. Aber ich hatte das Gefühl, dass die wirklich grundlegenden Fragen nicht behandelt wurden, und das steigerte meine Neugierde nur noch mehr.

Es gab zwei Punkte, die mir auffielen und mein Interesse noch mehr weckten.

Erstens die Feststellung, dass es keinen Konsens über die Interpretation der Quantentheorie zu geben schien. Damit meine ich die Interpretation dessen, was dies für unsere Weltanschauung oder vielleicht sogar für unsere Stellung in der Welt bedeuten könnte. Zweitens gab es nur sehr wenige experimentelle Belege für die Bestätigung der Vorhersagen der Quantenmechanik für einzelne Teilchen oder einzelne Quantensysteme, wie Teilchensuperposition oder Quantenverschränkung.

Verschränkung (Bild: © Johan Jarnestad/The Royal Swedish Academy of Sciences. cc-by-nc

Auf diese Weise bin ich dazu gekommen, Vorhersagen für einzelne Systeme im Detail zu studieren, und ich schätze mich sehr glücklich, dass ich durch meine Arbeit in der Gruppe von Helmut Rauch in Wien dazu ermutigt wurde, diese Ideen weiterzuverfolgen, und dass ich mich langsam an Experimente zu den Grundlagen der Quantenmechanik herantasten konnte. Damals gab es noch recht diffuse Ansichten über die Interpretation und Bedeutung der Quantenphysik für einzelne Systeme. Ich erinnere mich noch daran - als ich über einige der Neutronenexperimente (die von Helmut Rauch initiiert worden waren) referierte, dass sogar angesehene hochrangige Fachkollegen auf uns zukamen und ihre Verwunderung zum Ausdruck brachten: "Funktioniert Superposition wirklich so, Teilchen für Teilchen?"Meine Antwort war: "Was haben Sie denn sonst erwartet?"

Damals gab es erhebliche Uneinigkeit, z. B. darüber, ob die Quantenmechanik einzelne Systeme oder nur statistische Ensembles beschreibt, welche Rolle die Umgebung spielt oder was die Quanten-Nichtlokalität wirklich bedeutet. Die Erfahrung vieler Gruppen weltweit mit einer Vielzahl von Quantenphänomenen für einzelne Systeme hat auch zu einem viel besseren Verständnis der grundlegenden Fragen der Quantenmechanik geführt. Es wird nun allgemein akzeptiert und verstanden, dass die Natur nicht lokal beschrieben werden kann, dass die Verschränkung ein grundlegender Bestandteil unserer Beschreibung der Welt ist und dass es objektive Zufälligkeit gibt und vieles mehr. Der Standpunkt, dass die Quantenphysik bei richtiger Betrachtung das Verhalten einzelner Quantensysteme beschreibt, hat sich weitgehend durchgesetzt. Wir verstehen auch die Rolle der Umgebung und der Dekohärenz viel besser, und es wurden viele neue Phänomene auf fundamentaler Ebene entdeckt. Für viele setzt sich nun die Ansicht durch, dass die Information eine sehr grundlegende Rolle für das Verständnis der Quantenmechanik spielt.

Zur großen Überraschung aller, die das Glück hatten, früh in dieses Gebiet einzudringen, haben sich Anwendungen ergeben, die unsere kühnsten Träume übertreffen. Ich persönlich halte es für sehr wahrscheinlich, dass die Quanteninformationstechnologien eines Tages die traditionellen Informationstechnologien, wenn nicht vollständig, so doch in erheblichem Maße ersetzen werden.

Typisches und interessantes Beispiel aus jüngster Zeit ist das Aufkommen von Quantenexperimenten im Weltraum. Im Jahr 2016 wurde der erste Quantensatellit von der Chinesischen Akademie der Wissenschaften gestartet. Eine konkrete Vision für die Zukunft ist ein weltweites Quanteninternet, bei dem Bodenstationen direkt mit Quantenkommunikationsverbindungen über Glasfasern und über große Entfernungen und interkontinental über Quantensatellitennetze verbunden sind.

Sicherlich hat in den Anfängen der Experimente an einzelnen Systemen zur Erprobung der Grundlagen der Quantenmechanik niemand auch nur im Entferntesten geahnt, dass heute weltweit riesige Gruppen mit insgesamt wohl Tausenden von Wissenschaftlern an möglichen Anwendungen arbeiten. Dies ist einmal mehr die Bestätigung eines Musters, das in der Geschichte der Physik oder der Wissenschaft im Allgemeinen sehr häufig zu beobachten ist: Die tiefstgreifenden und wichtigsten Anwendungen werden nicht durch die Suche nach Anwendungen gefunden, sondern durch Grundlagenforschung, die völlig neue Türen öffnet.


 * Aus dem langen Artikel von Anton Zeilinger "Light for the quantum. Entangled photons and their applications: a very personal perspective" in Physica Scripta (2017), Volume 92, Number 7, https://iopscience.iop.org/article/10.1088/1402-4896/aa736d wurden einige Absätze ausgewählt und möglichst wortgetreu übersetzt. Der Artikel steht unter einer cc-by-Lizenz © 2017 The Royal Swedish Academy of Sciences.


The Nobelprize in Physics - Announcement: https://www.nobelprize.org/prizes/physics/2022/prize-announcement/


 

inge Tue, 04.10.2022 - 18:37

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Mo, 03.10.2022 — Christina Beck Christina Beck

Icon Evolution

Der Nobelpreis für Physiologie oder Medizin 2022 geht an Svante Pääbo , den Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig. Svante Pääbo gilt als Pionier des neuen Forschungsgebietes "Paläontologie". Seine Arbeiten zur Entschlüsselung des Neandertaler-Genoms haben unser Verständnis zur Evolution des Menschen revolutioniert. In einem leicht verständlichen Artikel berichtet die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, über die angewandten Techniken und Ergebnisse von Svante Pääbos Forschung.*

Svante Pääbo © Fank Vinken / MPG

Wer sind wir? Woher kommen wir? – das sind zentrale Fragen, die uns Menschen schon seit mehr als einem Jahrhundert beschäftigen. Spätestens seit dem Jahr 1856 als Arbeiter im Neandertal, ungefähr zwölf Kilometer östlich von Düsseldorf, in einem Steinbruch eine kleine Höhle ausräumten und dabei Reste eines Skeletts entdeckten. Über die Zuordnung der Knochenfragmente wurde lange gestritten. Die Einschätzung einiger Anatomen, dass es sich hierbei um eine Frühform des modernen Menschen handle, wurde insbesondere von dem einflussreichen deutschen Pathologen Rudolf Virchow nicht geteilt. Gegen Ende des 19. Jahrhunderts jedoch hatte sich die Auffassung, dass der Neandertaler ein Vorläufer des anatomisch modernen Menschen war, durchgesetzt.

Dank der mehr als 300 Skelettfunde ist der Neandertaler die am besten untersuchte fossile Art der Gattung Homo. Wie ähnlich die Neandertaler uns waren, ob sie einen ausgestorbenen Ast im Stammbaum der Frühmenschen darstellten und ob sich einige ihrer Gene noch heute im modernen Menschen finden, all diese Fragen ließen sich aber auf Basis rein anatomischer Untersuchungen nicht beantworten. Svante Pääbo, Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, war überzeugt, dass die Neandertalerknochen noch einen größeren Schatz bereithalten.

2005 hatte ein wissenschaftliches Konsortium unter Beteiligung von Pääbos Arbeitsgruppe das Genom des Schimpansen sequenziert und nachgewiesen, dass sich nur etwas mehr als ein Prozent der Nucleotide in den DNA-Sequenzen, die der moderne Mensch mit dem Schimpansen gemeinsam hat, unterscheiden. „Die Neandertaler sollten uns natürlich noch viel näher stehen“, sagt Pääbo. „Wenn wir aus ihren Knochen die DNA extrahieren und dann analysieren könnten“, so die Überlegungen des Molekularbiologen, „dann würden wir zweifellos feststellen, dass die Neandertaler-Gene den unseren sehr ähnlich sind.“ Viel spannender aber wären die Unterschiede: „Unter den winzigen Abweichungen, die wir erwarteten, sollten auch genau jene sein, die uns von allen unseren menschlichen Vorläufern unterscheiden und die die biologische Basis dafür gewesen sind, dass der moderne Mensch eine vollkommen neue Entwicklungsrichtung eingeschlagen hat – kulturell und technologisch.“

Die Untersuchung alter DNA erweist sich jedoch gleich in zweierlei Hinsicht als schwierig: Der eigentliche Anteil alter DNA in einem Knochenfragment kann zwischen 100 bis weniger als 0.1 Prozent liegen. In vielen Fällen sind die Proben mit der DNA von Bakterien verunreinigt. Eine weitere Quelle für Verunreinigungen ist die DNA heutiger Menschen. Denn sie ist allgegenwärtig – wir hinterlassen unsere DNA mit kleinsten Hautschuppen etc. und kontaminieren so auch archäologische Funde. Bei der Untersuchung frühmenschlichen Erbguts ist diese Kontamination aufgrund der Ähnlichkeit der DNA-Sequenzen nur schwer zu entdecken.

Abbildung 1: Ohne Kontaminationen Um Verunreinigungen der Knochen mit eigener DNA zu verhindern, müssen die Forschenden umfangreiche Vorsichtsmaßnahmen treffen. © Frank Vinken / MPG

Um die Authentizität alter DNA-Sequenzen sicherzustellen, versuchen Forschende, Verunreinigungen an der Ausgrabungsstätte sowie bei ihren weiteren molekularbiologischen Untersuchungen zu verhindern (Abbildung 1) oder – wenn das nicht bzw. nicht mehr möglich ist – die Verunreinigung bei der Analyse der Sequenzdaten zu identifizieren. Dabei machen sie sich den Umstand zu Nutze, dass post mortem, also nach Eintreten des Todes, Buchstaben in der DNA ausgetauscht werden: So wird Cytosin durch Thymin ersetzt bzw. Guanin durch Adenin, wenn es sich um das Gegenstück des DNA-Stranges handelt. Außerdem steigt an beiden Enden des DNA-Moleküls der Anteil jener Cytosine, denen eine Aminogruppe abhandengekommen ist. Das Cytosin wird damit zu einem Uracil, einem Nukleotid, das normalerweise in der RNA vorkommt. Die DNA-Polymerase behandelt dieses „U“ wie ein „T“ – überproportional viele Ts in bestimmten Regionen sind daher ein ausgesprochen zuverlässiges Signal, um alte von neuer DNA zu unterscheiden.

Eine weitere Erschwernis liegt darin, dass alte DNA den chemischen Abbauprozessen schon länger ausgesetzt ist, was zu einer starken Fragmentierung führt. In den Knochenproben nimmt der Anteil von DNA-Sequenzen mit kürzeren Fragmentlängen daher zu. Mit der bestehenden Technologie zur DNA-Sequenzierung konnten diese kurzen Fragmente jedoch nicht schnell und in großer Zahl ausgelesen werden.

Ein technologischer Treiber für die Paläogenetik

Den Durchbruch brachte eine ganz neue Technologie der DNA-Sequenzierung. Das Grundprinzip des Sequenzierens ist dabei unverändert geblieben: Entlang eines abzulesenden DNA-Stückes wird eine komplementäre Sequenz hergestellt. Der Einbau erkennbarer (in den meisten Fällen mit Farbstoffen markierter) Nukleotide wird registriert und anhand der zeitlichen Abfolge der Einbauereignisse die gesuchte Sequenz ermittelt. Dieses Prinzip liegt auch der Next Generation Sequencing Technology (NGS) zugrunde – nur dass hierbei das Grundprinzip des Sequenzierens in unglaublich verdichteter, effizienter und extrem vervielfältigter Weise zur Anwendung gebracht wird. Im Rahmen von Next Generation Sequencing können so mehrere Tausend bis Millionen Sequenzierungsschritte gleichzeitig und hochgradig automatisiert ablaufen (Abbildung 2). Das ermöglicht einen enorm hohen Probendurchsatz, so dass ein komplettes menschliches Genom mit seinen 3,2 Milliarden Buchstaben, für das das Human Genome Project noch 10 Jahre und hunderte Labore weltweit brauchte, inzwischen innerhalb weniger Tage von einem einzigen Labor sequenziert werden kann!

Abbildung 2: Gesamtzahl der publizierten vollständigen frühgeschichtlichen Humangenome. © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Mittels NGS kann nun auch sehr alte, stark fragmentierte DNA mit Fragmenten, die kürzer als 60 oder 70 Basenpaare sind, sehr effektiv sequenziert werden. In Folge dessen setzte förmlich ein Boom bei der Sequenzierung alter DNA ein (Abbildung 2). Anfang 2006 präsentierten Stephan Schuster von der Pennsylvania State University und seine kanadischen Kollegen das 13 Millionen Basenpaare umfassende Kerngenom eines ausgestorbenen Wollmammuts. „Wir waren ein wenig enttäuscht, dass wir nicht als Erste die Sequenz einer alten DNA mit der neuen Sequenzierungstechnik aufgeklärt hatten“, berichtet Pääbo. Schließlich besaß seine Arbeitsgruppe schon seit Monaten die Daten aus den von ihr untersuchten Mammut- und Höhlenbärknochen. „Wir hatten aber weitere Analysen und Experimente durchgeführt, um ein möglichst vollständiges Bild zu veröffentlichen – die anderen hingegen wollten einfach nur schneller sein.“ Die Leipziger Forscherinnen und Forscher publizierten ihre Ergebnisse im September 2006 – und begannen noch im selben Jahr mit ihrem wohl riskantesten Projekt: der Sequenzierung des Neandertaler-Genoms. „Ich wusste, dass ein Erfolg nicht so einfach zu erzielen war“, erzählt Pääbo rückblickend. „Er hing vielmehr von drei Voraussetzungen ab: von vielen Sequenzierautomaten, viel mehr Geld und geeigneten Neandertalerknochen. Nichts davon hatten wir zu Beginn.“

Vier Jahre später war das scheinbar Unmögliche wahr geworden: Pääbo und sein Team konnten im Fachmagazin Science einen ersten Entwurf der Gensequenz unseres vor rund 30.000 Jahren ausgestorbenen Verwandten präsentieren. Der Entwurf basierte auf der Analyse von mehr als einer Milliarde DNA-Fragmenten aus mehreren Neandertaler-Knochen aus Kroatien, Spanien, Russland und Deutschland. Außerdem sequenzierten die Forschenden fünf menschliche Genome europäischer, asiatischer und afrikanischer Abstammung und verglichen diese mit dem Neandertaler-Genom. Der Vergleich förderte Erstaunliches zutage: In den Genomen aller außerhalb Afrikas lebender Menschen fanden sich Spuren vom Neandertaler. „Zwischen 1,5 und 2,1 Prozent der DNA im Genom der heutigen Nicht-Afrikaner stammen vom Neandertaler“, sagt Pääbo. „Asiaten tragen sogar noch etwas mehr davon in sich.“ Das waren klare Indizien für vielfachen artfremden Sex während der Eroberung Eurasiens.

Begonnen hatte das Techtelmechtel zwischen Neandertaler und Homo sapiens vor rund 50.000 bis 80.000 Jahren, als unsere Vorfahren den afrikanischen Kontinent verließen und sich in Europa und Asien ausbreiteten, wo sie auf die Neandertaler stießen. Während dieser Zeit kam es immer wieder zur erfolgreichen Fortpflanzung zwischen den eng verwandten Arten. Fügt man alle heute noch vorhandenen Schnipsel zusammen, lassen sich 40 Prozent des einstigen Erbmaterials der Neandertaler rekonstruieren. Von dieser DNA profitierten unsere Vorfahren. Während die meisten schädlichen Neandertaler-Gene durch Selektion aussortiert wurden, setzten sich nützliche in der menschlichen Population fest. Darunter auch solche, die mit der Beschaffenheit von Haut und Haaren in Verbindung stehen. Gut möglich also, dass unsere Vorfahren ihre weiße Haut von den Neandertalern erbten. Gerade in höheren Breiten war eine helle Körperoberfläche von Vorteil, weil damit die Produktion von Vitamin D aus Sonnenlicht effizienter ist. „Indem der moderne Mensch sich mit den Ureinwohnern seiner neuen Heimat mischte, konnte er sich besser an die neue Umgebung anpassen“, vermutet Pääbo.

Abbildung 3: Next Generation Sequenzing. Svante Pääbo und sein Team sequenzierten mehr als 1 Million Basenpaare Neandertaler-DNA (1) unter Verwendung eines als Pyrosequenzierung bekannten Ansatzes. Bei diesem Verfahren wird die DNA zunächst in Einzelstränge überführt (2) und dann an mit Oligonukleotiden bestückte Mikroperlen (engl. beads) gebunden. Die DNA beladenen Mikroperlen werden zusammen mit den PCR-Reagenzien in Öl emulgiert, wobei idealerweise Emulsionströpfchen erzeugt werden, die nur eine Mikroperle enthalten (3). In dieser Umgebung werden die DNA-Stränge nun vervielfältigt (emPCR) und anschließend in die Vertiefungen einer Picotiterplatte gebracht, bei der unter jeder Pore ein Lichtleiter zu einem Detektor führt (4). Die DNA-Polymerase wird nun gewissermaßen „in Aktion“ beobachtet, wie sie nacheinander einzelne Nukleotide an den neu zu synthetisierenden DNA-Strang anhängt. Der erfolgreiche Einbau eines Nukleotids wird auf der Basis eines Fluoreszenzsignals von einem Detektor erfasst (5). © Roche Diagnostics © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Spurensuche im Genom von Homo sapiens

Und welche Auswirkungen haben die geerbten Neandertalersequenzen heute? Anhand aktueller klinischer Daten lassen sich Einflüsse auf Funktionen der Haut, des Immunsystems und des Stoffwechsels erkennen. Einige Neandertaler-Gene, die wir in uns tragen, erhöhen das Risiko, an Diabetes Typ 2 oder Morbus Crohn zu erkranken. Im Kampf gegen Krankheitserreger kann der moderne Mensch allerdings von archaischen Gensequenzen auch profitieren: Sie kodieren für drei bestimmte Immunrezeptoren und verringern damit die Neigung zu Allergien.

Während der Neandertaler in bestimmten Regionen seines Genoms noch „Schimpansen-ähnliche“ Genvarianten besitzt, tragen die meisten modernen Menschen an derselben Stelle bereits abgeleitete Genvarianten. „Genau diese Bereiche unseres Genoms könnten entscheidend zur Entwicklung des modernen Menschen beigetragen haben, weil wir hier früh in unserer evolutionären Geschichte besonders vorteilhafte Mutationen erworben haben“, sagt Pääbo. Die Veränderungen im FOXP2-Gen, das mutmaßlich die Entwicklung unsere Sprechfähigkeit orchestriert, werden hingegen von Homo sapiens und Neandertaler geteilt. Möglich also, dass der Neandertaler in dieser Hinsicht über dieselben kognitiven Fähigkeiten verfügte. Insgesamt umfasst der Katalog der genetischen Unterschiede zwischen Frühmenschen und modernen Menschen 87 Proteine und eine Handvoll microRNAs (nichtcodierende RNA-Schnipsel, die eine wichtige Rolle bei der Genregulation spielen, insbesondere beim Stummschalten von Genen).

Und dabei stehen die Wissenschaftlerinnen und Wissenschaftler erst am Anfang, die funktionellen Folgen bestimmter genetischer Änderungen zu verstehen. So haben die Max-Planck-Teams zusammen mit Kollegen von den Universitäten Barcelona und Leipzig nicht nur die DNA-Sequenz einer frühmenschlichen Genvariante analysiert, sondern auch das entsprechende Protein hergestellt und seine Eigenschaften untersucht. Dabei fanden sie heraus, dass die Aktivität einer bestimmten Genvariante des Melanocortin-Rezeptors bei zwei Neandertalern deutlich reduziert war. Genvarianten mit einer ähnlich verringerten Aktivität sind auch beim modernen Menschen bekannt – mit sichtbaren Folgen: Ihr Träger hat eine rote Haarfarbe. Die Forschenden gehen daher davon aus, dass auch ein Teil der Neandertaler möglicherweise rote Haare besaß. Die Befunde der neuen Paläogenetik führen zu einer ganz neuen Sicht auf die evolutionären Prozesse, die einst den Homo sapiens hervorbrachten und ihm als letzten Vertreter seiner Gattung zum großen Auftritt auf unserem Planeten verholfen haben. Die Erkenntnisse zeigen: Die vielen Hunderttausend Jahre der Humanevolution verliefen anders, als man lange dachte. Seit es den Forschenden gelingt, die erhaltene Erbsubstanz in Knochenfunden zum Sprechen zu bringen, bröckelt die mühsam Knochen für Knochen aufgebaute Lehrmeinung. Homo sapiens steht nicht mehr als Krone der Evolution da, sondern eher als Spross diverser „Liebschaften“ in der Vorzeit.

Unsere Populationsgeschichte im Licht alter DNA

Die Vorgänger leben weiter, im heutigen Menschen, in unserem Erbgut. Im Jahre 2010 sequenzierten Svante Pääbo und sein Team DNA aus dem winzigen Fragment eines Fingerknochens, den sie in der Denisova-Höhle in Südsibirien entdeckt hatten. „Mittels Genanalysen konnten wir zeigen, dass es sich um eine bis dahin unbekannte Menschenform handelt“, erklärt Pääbo.

Abbildung 4: Modell zum Genfluss Die Abbildung zeigt die Richtung und den geschätzten Umfang der Genflüsse zwischen Neandertaler, Denisova-Mensch und modernem Menschen. Ob es einen direkten Genfluss vom Denisova-Menschen nach Asien gab, ist dabei ungewiss (gepunktete Linie). In drei von fünf Fällen konnten die Forscher eine Kreuzung zwischen vier verschiedenen Hominiden-Populationen nachweisen. Bei dem „potenziell unbekannten Frühmenschen“ könnte es sich um Homo erectus gehandelt haben. © aus: K. Prüfer et al., Nature 505, 43–49, 2. Januar 2014

Und dass dieser Denisova-Mensch, wie die Forschenden ihn genannt haben, sich mit den Vorfahren der heutigen Bewohner von Australien, Neuguinea und Ostasien gepaart hat. Genomvergleiche belegen, dass es zwischen Neandertaler, Denisova und Homo sapiens zum Austausch von Genen (Genfluss) gekommen sein muss (Abbildung 4). „Vor diesem Hintergrund müssen wir den modernen Menschen inzwischen als Teil einer hominiden Metapopulation betrachten“, sagt Pääbo. „Einzigartig sind eigentlich nur die letzten 20.000 Jahre, in denen wir als Menschen allein auf der Welt waren.“ Und der Paläogenetiker prophezeit: „In Zukunft werden wir aus minimalen Funden sicher noch viel mehr über die Bevölkerungsgeschichte erfahren.“


 *Der Artikel ist erstmals in Biomax 33 unter dem Titel: "Neandertaler mischen mit - Was DNA-Analysen über unsere Frühgeschichte verraten"  https://www.max-wissen.de/max-hefte/biomax-33-neandertaler// im Winter 2016/17 erschienen und wurde 7/2022 durchgesehen. Bis auf den Titel wurde der unter einer CC BY-NC-SA 4.0 Lizenz stehende Text unverändert wiedergegeben.


Weiterführende Links

Nobelprize in Physiology or Medicine 2022 https://www.nobelprize.org/prizes/medicine/2022/summary/

Der Neandertaler in uns | Max-Planck-Cinema: Video 7:37 min. https://www.youtube.com/watch?v=WnPXZIfEuco

Pionier der Paläogenetik: Max-Planck-Forscher Svante Pääbo im Porträt. Video 8:11 min. https://www.youtube.com/watch?v=P0pSCly-JW0&t=2s

 

Artikel im ScienceBlog

 

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Herbert Matis, 30.11.2017: Die Evolution der Darwinschen Evolution

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns


 

inge Mon, 03.10.2022 - 17:23

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Do, 29.09.2022 — Ricki Lewis

Ricki LewisIcon Medizin Retinitis pigmentosa ist die Sammelbezeichnung für eine Gruppe degenerativer Erkrankungen der Netzhaut (Retina), die durch genetische Mutationen verursacht werden und zu schwerem Sehverlust und Blindheit führen. Weltweit sind mehr eine Million Personen davon betroffen. Eine Reparatur der diversen Mutationen durch Gentherapie wird wohl erst in einiger Zeit möglich werden. Auf Grund seiner anti-oxidativen, anti-entzündlichen Eigenschaften wurde das In der Gelbwurz enthaltene Curcumin bereits bei verschiedenen Netzhauterkrankungen erprobt. Die Genetikerin Ricki Lewis erzählt hier über einen an Retinitis pigmentosa leidenden, nahezu erblindeten ehemaligen Schulkollegen, der mit der Gewürzkombination Curcumin, Piperin aus schwarzem Pfeffer und Ingwer einen Teil seiner Sehkraft wieder erlangte.*

Steve Fialkoff und ich waren keine Freunde an der James Madison High School in Brooklyn, NY in der Klasse von 1972. Während der superbeliebte Steve mit seinem riesigen blonden Afro überall zu sehen war, unsere Erlebnisse mit der Kamera festhielt und die Klasse bei Theateraufführungen anführte, war ich auf der Überholspur ins Strebertum. Ich verbrachte meine Zeit im Chemielabor mit dem tollen neuen Lehrer, einem 24-Jährigen, der meiner besten Freundin Wendy und mir zeigte, wie man Wasserpfeifen herstellt.

Es war nicht überraschend, dass Steve Filmeditor und jetzt Schriftsteller wurde. Überraschend war, dass er im Alter von 25 Jahren erfuhr, dass er Retinitis pigmentosa (RP) hatte, nachdem er in einem abgedunkelten Theater über einen Sitz gestolpert war und noch ein paar andere Stolperer hatte.

Von den mehr als vierzig Arten der RP, die jeweils durch ein anderes Gen verursacht werden, sind weltweit mehr als eine Million Menschen betroffen. Dieselbe Mutation kann sich jedoch bei verschiedenen Personen unterschiedlich manifestieren, sogar innerhalb derselben Familie. Die Zusammenhänge zwischen Genotyp - den Mutationen - und Phänotyp - den Symptomen - sind komplex.

Steve erbte das Usher-Syndrom Typ 2A von Eltern, die Träger sind. Das Nachtsehen würde allmählich verschwinden, dann Teile der Peripherie seines Gesichtsfeldes. In seinen 60ern würde er wahrscheinlich sein Augenlicht vollständig verlieren, sagte der Augenarzt, der Usher 2A seltsamerweise als "häufig und leicht" bezeichnete. Kein großer Trost.

Ein bisschen Biologie. Das USH2A-Gen, das für Steves RP verantwortlich ist, kodiert für ein Protein, Usherin, das als zellulärer Klebstoff und Gerüst fungiert. Usherin hält die Integrität der Stäbchen und Zapfen im hinteren Teil des Auges aufrecht, die das Sehen ermöglichen, sowie die Integrität der unterstützenden Zellschichten. Steve nennt das, was ich extrazelluläre Matrix und zelluläre Adhäsionsmoleküle nenne, "zellulären Mist, der Zellen erstickt".

Die Vorhersage des Augenarztes wurde wahr, als Steve 56 Jahre alt war. Als sich der Tunnel seiner Sehkraft unaufhaltsam verengte, meldete sich Steve für einen Blindenhund an, den er bekommen konnte, sobald er 95 Prozent seiner Sehkraft verloren hatte. Im August 2021 hatte er sich dafür qualifiziert.

Als kürzlich Steve mit seinem Hund spazieren ging, nahm seine Geschichte eine dramatische und unerwartete Wendung: Es wurde mehr von der Umgebung sichtbar. Wie ein Wissenschaftler versuchte Steve nachzuvollziehen, welche Umstände zur Erweiterung seines Gesichtsfelds geführt haben konnten.

Durch Überlegen und Ausprobieren fand er drei gängige Nahrungsergänzungsmittel - Curcumin, Piperin aus schwarzem Pfeffer und Ingwer -, die - zusammen eingenommen - ihm anscheinend einen Teil seiner Sehkraft zurückgaben. Abbildung

Abbildung: Gewürze als Heilmittel: Oben: Curcumin Hauptbestandteil der Gelbwurz (Kurkuma), das die gelbe Farbe des Curry bewirkt. Mitte: Piperin, Hauptalkaloid des schwarzen Pfeffers, Träger des scharfen Geschmacks. Unten: Gingerol

Ein halbes Jahrhundert nachdem wir uns auf den Gängen der James Madison High School begegnet sind, erfuhr ich die Geschichte von Steve.

Ein denkwürdiger Sonnenaufgang

Als Steve am frühen Morgen des 8. Februar 2022 sein Wohnhaus in Manhattan verließ, bog er nach Osten ab, "direkt in einen lodernden Feuerball aus Sonne, der zwischen den Gebäuden aufging. Ich schaute nach unten, schirmte meine Augen ab und sah einzelne Haare auf dem Körper meines Blindenhundes und konnte seinen ganzen Kopf sehen. Ich fing zu gehen an und schirmte meine Augen ab. Der Hund erledigte sein Geschäft, und ich drehte mich um und schaute zurück nach Westen, weg von der Sonne. Und ich konnte den ganzen Block entlang sehen, die Gebäudekanten und die Stelle, an der Bürgersteig und Bordsteinkante aufeinandertreffen. Normalerweise konnte ich nicht sehen, wo ich war, bis ich ein paar Meter entfernt war", erinnert er sich.

Aber das Sonnenlicht war keine so starke Veränderung oder so vollständig wie ein sich hebender Vorhang. Auf dem Weg nach Hause stolperte Steve über ein paar kleine eingezäunte Rasenflächen, die Bäume in Manhattans Seitenstraßen umgeben. Oben in seiner Wohnung angekommen sagte er seiner Frau und seiner Tochter, dass er "einen guten RP-Tag" habe. Und das war er auch.

In der Küche, wo Steve sich daran gewöhnt hatte, nur die Hälfte von einer der vier Herdplatten zu sehen, sah er jetzt drei. "Normalerweise muss ich meine Hand auf den Herd legen, um herauszufinden, wo ich einen Topf hinstellen soll. Mein Gesichtsfeld hatte sich über Nacht erweitert."

Was war passiert? Müsste sich die RP nicht verschlechtern? Könnte es an den Curcumin-Pillen liegen, die Steve vorbeugend gegen COVID einnahm?

Auf der Suche nach einem diätetischen Zusammenhang

Seine anfängliche Vermutung erwies sich als richtig. Curcumin ist der aktive Bestandteil von Kurkuma. Es verleiht dem pulverisierten Gewürz seine charakteristische leuchtend gelbe Färbung. Die Quelle ist die Pflanze Curcuma longa, die mit dem Ingwer verwandt ist. Steve nahm ein Ergänzungsmittel namens CurcumRx ein.

Seine Tochter googelte "Curcumin und RP" und fand bald einen Übersichtsartikel vom Mai 2021, in dem Curcumin mit verschiedenen Sehstörungen in Verbindung gebracht wurde, darunter ein langer Abschnitt über RP [1].

Aufgeregt überflog Steve den Artikel. "Ich dachte: Curcumin wirkt tatsächlich! Ich habe ein Viertel Gramm genommen, 250 Milligramm." 3,6 Gramm täglich wären für eine therapeutische Wirkung bei Menschen erforderlich, und bis zu 12 Gramm könnten vertragen werden, so die Extrapolation des Artikels aus Rattenstudien.

"Ich nahm es also weiter ein. Am 11. März erlebte ich einen weiteren Anstieg der Sehkraft." Steve hat den Artikel [1] erneut gelesen. Er erfuhr, dass Curcumin schon seit Tausenden von Jahren in der traditionellen chinesischen und ayurvedischen Medizin verwendet wird und um 1300 in den Westen gebracht wurde.

Die Anwendung des Gewürzes wurde mit seinen vielen "Antis" in Verbindung gebracht - antioxidativ, anti-inflammatorisch, antimutagen, antimikrobiell und sogar anti-Tumor. Es wurde als Mittel gegen Alzheimer, Diabetes, Krebs, rheumatische Erkrankungen, Allergien und Asthma, Arteriosklerose, Lungeninfektionen, chronische Darmentzündungen, Autoimmunerkrankungen, AIDS, Schuppenflechte und vieles mehr erprobt.

Mehr Wissenschaft: Steve hatte zunächst einen Zusammenhang zwischen der Einnahme des Gewürzes und einer besseren Sehkraft festgestellt. Falls er durch die Erhöhung der Dosis noch besser sehen konnte, so wäre das eine Korrelation. Und wenn er eine biologische Erklärung für die Wirkung finden könnte, wäre er auf dem Weg zum Nachweis der Kausalität.

Die Biologie der Netzhautschädigung

Curcumin hilft den Photorezeptorzellen (Stäbchen und Zapfen) der Netzhaut, die das Sehen ermöglichen. Diese Zellen, spezialisierte Neuronen, stehen unter starkem oxidativem Stress, da sie mit Licht bombardiert werden, ebenso wie nahe gelegene Unterstützerzellen und andere Neuronen, die visuelle Informationen an das Gehirn senden.

Unter oxidativem Stress entstehen durch chemische Reaktionen reaktive Formen von Sauerstoff, sogenannte freie Radikale mit ungepaarten Elektronen. Die freien Radikale schädigen Biomoleküle, insbesondere die empfindliche DNA. Mehrere Erkrankungen der Netzhaut entstehen durch ein Ungleichgewicht zwischen der Bildung freier Radikale und ihrer Beseitigung.

Curcumin wurde zur Bekämpfung von oxidativem Stress bei verschiedenen Netzhauterkrankungen eingesetzt, darunter Uveitis, altersbedingte Makuladegeneration, diabetische Retinopathie, zentrale seröse Chorioretinopathie, Makulaödem, retinale Ischämie-Reperfusionsschäden, proliferative Vitreoretinopathie, Tumore und verschiedene genetische Erkrankungen.

Curcumin fängt nicht nur freie Radikale ab, sondern wirkt auch auf das Pigment Rhodopsin, auch bekannt als Sehpurpur. Rhodopsin ist das am häufigsten vorkommende Protein in den Stäbchen, die die Oberflächen der äußeren Membranschichten auskleiden und das Nachtsehen ermöglichen. Bei einigen Formen von RP faltet sich das Rhodopsin bei seiner Bildung falsch, wodurch Teile der umgebenden Membran eingeklemmt werden und die Stäbchenzelle verkümmert und absterben kann. Im Tiermodell (Ratten) mit dieser Art von RP erhält Curcumin die Integrität der Stäbchen aufrecht.

Da die medizinische Wirkung hohe Curcumin-Dosen erfordert, synthetisieren Chemiker Analoga, verwandte Moleküle, die besser in den Blutkreislauf gelangen. Sie arbeiten auch an Verabreichungsmöglichkeiten mit Hilfe von Nanopartikeln, die sie aus Liposomen, Eiklar, Sand, Algen und sogar Seidenprotein herstellen. Natürlich verursachen Analoga und Nanopartikel zusätzliche Kosten.

Steve hat über einen besseren Verstärker der Curcumin-Wirkung gelesen: Piperin, eine Substanz in schwarzem Pfeffer, verzögert die Aufnahme von Curcumin in die Leber (und damit die Inaktivierung; Anm. Redn.). Damit sollte Curcumin länger im Blutkreislauf verbleiben, seine sogenannte Bioverfügbarkeit würde erhöht. Berichten zufolge erhöht der Pfefferanteil die Bioverfügbarkeit von Curcumin tatsächlich um 2000 Prozent.

Der Effekt des vietnamesischen Restaurants

Was hatte Steve gegessen, das besonders scharf gewesen war, bevor sich seine Sehkraft verbesserte? Er erinnerte sich vage an ein Ingwerhuhn in einem vietnamesischen Restaurant. "Wir hatten es dort am 4. Februar bestellt! Ich habe ein wenig recherchiert und gelesen, dass die Menschen in Indien und China dem Kurkuma Ingwer und schwarzen Pfeffer hinzufügen, damit es besser wirkt."

Steve kocht gerne. Es ist ihm aber nicht gelungen die Gewürzmischung des vietnamesischen Restaurants ganz nachzumachen und er wurde frustriert.

"Zwei Monate später sagte ich: Lass mich das verdammte Huhn noch einmal bestellen. Vielleicht ist da ja etwas Magisches drin. Also habe ich es noch einmal bestellt und meine Sehkraft hat sich verbessert." Seine Tochter fand das Rezept im Internet. "Und tatsächlich, das Restaurant marinierte Ingwerscheiben in schwarzem Pfeffer, Öl und Knoblauch."

Also erfand Steve seine eigene Variante vo mit Pfeffer und Kurkuma marinierten Ingwerstreifen und aß alle paar Tage 6 bis 8 davon mit Reis oder Nudeln. Und er erhöhte die Curcumin-Tabletten auf 500 Milligramm.

Der Kalender lieferte die restlichen Anhaltspunkte.

Rattenstudien zeigten, dass Curcumin mittels Piperin 48 Stunden brauchte, um in die Blutversorgung der Netzhaut zu gelangen. "Ich hatte das Ingwerhuhn am 4. Februar bestellt und hatte bis zum 6. Februar noch Reste übrig ... ich hatte es also drei Tage hintereinander gegessen. Am 8. Februar änderte sich meine Sehkraft scheinbar über Nacht. Das Gleiche passierte noch einmal. Am 8. März aß ich Ingwerhuhn und am 11. März veränderte sich mein Sehvermögen."

Davon weiter erzählen

Die Ingwerstreifen-Mischung scheint zu helfen. Im Juli konnte Steve bei seinen morgendlichen Spaziergängen auf den allgegenwärtigen Baustellen in Manhattan Gerüste und Masten sehen, die er vorher nicht kannte. "Ich konnte Metallstangen und Mülltonnen und Menschen sehen - das war eine große Veränderung." Jetzt versucht er, die Diät so konsequent wie möglich zu halten, um die Tage mit gutem Sehvermögen zu maximieren - manchmal ist seine Welt immer noch in Grau- und Schwarztöne gehüllt.

Im April zeigte sich bei einem Besuch in einer Klinik für Netzhauterkrankungen eine Verbesserung der Sehschärfe, also der Fähigkeit, Details von Objekten in einer bestimmten Entfernung zu erkennen. Aber Steves RP hatte sich seit der letzten Untersuchung vor sechs Jahren verschlechtert. Es gab also keine Möglichkeit zu messen, ob sich das Fortschreiten verlangsamt hatte. Als Steve seinen kulinarischen Eingriff erwähnte, sagte der Arzt: 'Das ist schön, wir sehen uns in einem Jahr wieder'.

Als Steve sich an die Foundation Fighting Blindness wandte, wurde er mit einem Wissenschaftsjournalisten in Verbindung gebracht, der ihm riet, die Ergebnisse von klinischen Doppelblindstudien abzuwarten. Das bedeutet allerdings eine lange Wartezeit, denn auf ClinicalTrials.gov sind nur sechs laufende Studien für Usher 2A RP aufgeführt - zwei um des Fortschreitens der Krankheit zu verfolgen und vier, bei denen Antisense-Oligonukleotide (Gen-Silencer) eingesetzt werden, um eine ganz bestimmte Mutation zu bekämpfen.

Klinische Studien abwarten? Wenn ein leicht erhältliches Präparat funktioniert, sollte man es ausprobieren!

Also verbreitete Steve die Nachricht auf einem Verteiler, und ein paar andere RP-Patienten probierten Curcumin-Piperin-Ingwer aus oder hatten bereits ähnliche Entdeckungen gemacht. Ein Mann weinte, als er das Gesicht seiner Frau sehen konnte. Eine Frau konnte ihre Hände auf einem Schneidebrett sehen - ein Defizit, das auch Steve das Kochen erschwert hatte, da er zwar das Messer, nicht aber seine Finger sehen konnte. "Mein Ziel ist es, genug Leute zu informieren, um den Ball ins Rollen zu bringen."

Den Phänotyp oder den Genotyp behandeln? Mein Gentherapie-Buch neu überdenken

Meine Freundin Wendy aus der Zeit des Wasserpfeifen-Baus in der High School hatte den Kontakt zu Steve aufrechterhalten und schickte mir kürzlich einen Artikel von Ingrid Ricks, die ebenfalls an RP leidet [2]. So erfuhr ich von seiner bemerkenswerten Geschichte, die er gerne weitererzählte. Seine abschließende Bemerkung ließ mich kurz innehalten. "Es gibt keine Heilung für diese Krankheit. Bei Niemandem, den ich mit RP kenne, ist eine Verbesserung eingetreten."

Die Botschaft meines 2012 erschienenen Buches The Forever Fix: Gentherapie und der Junge, der sie rettete [3], war genau das Gegenteil, allerdings für eine andere Netzhauterkrankung, die die Schicht unterhalb der Stäbchen und Zapfen betrifft.

Mein Buch erzählt die Geschichte eines Jungen, Corey, mit RPE65-Netzhautdystrophie, der als einer der ersten nach einer Gentherapie innerhalb weniger Tage sein Sehvermögen wiedererlangte. Luxturna war die allererste Gentherapie, die 2017 in den USA zugelassen wurde. Seitdem haben Hunderte von Menschen mit Coreys Form der Blindheit dank Luxturna ihr Sehvermögen wiedererlangt. Steve wusste alles darüber.

Aber die Gentherapie hat auch einige spektakuläre Rückschläge erlitten, und zwar nicht nur den traurigen Fall von Jesse Gelsinger in der Anfangszeit. In jüngster Zeit sind Kinder in klinischen Studien gestorben, wobei es schwierig ist, festzustellen, ob die Krankheit oder die Behandlung daran schuld war.

Einige Gentherapien haben einfach nicht funktioniert, oder die Dosierung für Wirksamkeit ohne Toxizität ist nach wie vor schwer bestimmbar. Die Kosten sind ein großes Problem, selbst wenn es sich um eine einmalige oder seltene Gentherapie handelt. Die allererste zugelassene Gentherapie - Glybera gegen Pankreatitis in Europa - wurde vom Markt genommen, weil niemand dafür bezahlen wollte.

So musste ich im letzten Kapitel von The Forever Fix meinen übertriebenen Optimismus bedauern. Ich hatte eine weite Zulassung und Akzeptanz von Gentherapien sowohl für häufige als auch für seltene genetische Krankheiten vorausgesagt. Das war nicht der Fall. Bislang wurden in den USA erst zwei Gentherapien zugelassen, während andere Strategien im Kommen sind.

Wenn also eine clevere Kombination von weithin verfügbaren und sicheren Präparaten die Sehkraft wiederherstellt, ist das großartig. Bei einigen Erkrankungen ist die Behandlung des Phänotyps - des Merkmals - wirksamer und sicherlich billiger und einfacher als die Behandlung des Genotyps - der DNA.

Inzwischen kann Steve sein Glück kaum fassen und testet sich immer wieder selbst. "Habe ich gestern diese Treppenstufe gesehen? Und heute? Ist die Beleuchtung heute anders? "Ich würde mich gerne so weit verbessern, dass ich die Schauspieler sehe, die meine Originalstücke auf der Bühne aufführen." Ich hoffe, dass sich seine Welt weiter aufhellen wird.


* Der Artikel ist erstmals am 8.September 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Curcumin, Black Pepper, and Ginger Treat Retinitis Pigmentosa? Steve Fialkoff’s Excellent Experiment" https://dnascience.plos.org/2022/09/08/can-curcumin-black-pepper-and-ginger-treat-retinitis-pigmentosa-steve-fialkoffs-excellent-experiment/erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Der Artikel wurde geringfügig gekürzt, die Abbildung von der Redaktion eingefügt


[1] M. Nebbioso et al., Recent Advances and Disputes About Curcumin in Retinal Diseases. Clinical Ophthalmology 2021:15 2553–2571

[2] Ingrid Ricks: Late Stage RP Sufferer Yields Ongoing Vision Gains with Curcumin, Black Pepper and Ginger. https://determinedtosee.com/?p=1951&fbclid=IwAR0t2u4zqOaH-Fj9TgOcLFRncSZxoOhl2L5zskm5ws7Do6kN7TQBxiX3_BI

[3] Ricki Lewis, The Forever Fix: Gene Therapy and the Boy Who Saved It .https://www.rickilewis.com/the_forever_fix__gene_therapy_and_the_boy_who_saved_it_114268.htm


Weiterführende Links

NDR Visite: Retinitis pigmentosa: Gentherapie rettet das Augenlicht; 14.06.2022. Video 7:37 min. https://www.ardmediathek.de/video/visite/retinitis-pigmentosa-gentherapie-rettet-das-augenlicht/ndr/Y3JpZDovL25kci5kZS81NTU0YTcxYS01YzY1LTQzOGYtODY5Zi0zODZlZmI4YmY4YzU

Artikel zum Thema "Sehen" im ScienceBlog

Walter Jacob Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 31.01.2013: Wie «unsichtbarer Hunger» die Menschheit bedroht

Ricki Lewis, 03.09.2019: Gentherapie - ein Update

Redaktion, 18.08.2022: Aus dem Kollagen der Schweinehaut biotechnisch hergestellte Hornhautimplantate können das Sehvermögen wiederherstellen


 

inge Fri, 30.09.2022 - 01:05

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Do, 15.09.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Als im Jahr 2001 die Entschlüsselung des menschlichen Genoms fertiggestellt wurde, war die Euphorie groß: Mehr als drei Milliarden Buchstaben umfasst unsere DNA, und die waren endlich bekannt. Wenn es jetzt noch gelänge, in diesem Buchstabensalat die entsprechenden Gene ausfindig zu machen, würde man die Details unseres genetischen Bauplans und damit auch die Ursachen etlicher Krankheiten kennen, so die Meinung vieler Forschender. »Im Rückblick waren unsere damaligen Annahmen über die Funktionsweise des Genoms dermaßen naiv, dass es fast schon peinlich ist«, zitierte die ZEIT im Jahr 2008 den Biochemiker Craig Venter, der mit seiner Firma Celera an der Genomentschlüsselung beteiligt war. Die Epigenetik liefert nun ein neues Verständnis, wie Ablesung und Umsetzung der Gene durch Markierungen an den Genen - wie sie durch Umwelteinflüsse und Lebensstil zustande kommen und auch weiter vererbt werden können - gesteuert werden. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber.*

Jahrzehntelang galt das Genom als unveränderlicher Bauplan, der bereits bei der Geburt festgelegt ist. Nicht umsonst wurde das Genom als „Buch des Lebens“ bezeichnet, geschrieben mit einem Alphabet aus vier Buchstaben – den Basen Adenin, Guanin, Cytosin und Thymin. Gene waren Schicksal: Sie sollten Aussehen, Persönlichkeit und Krankheitsrisiken bestimmen. Heute wissen wir, dass die in der DNA gespeicherten Informationen keine 1:1 Blaupause für den Organismus sind. Vielmehr stehen unsere Gene in Wechselwirkung mit verschiedenen Faktoren. Dazu gehören auch sogenannte epigenetische Markierungen. Sie dienen dazu, bestimmte Abschnitte der DNA – quasi wie mit einem „bookmark“ – als „lesenswert“ zu markieren, durch Verweise auf weiter entfernt liegende Abschnitte in neue Zusammenhänge zu bringen oder dem Zugriff der Übersetzungsmaschinerie durch eine Art „Passwort-Schutz“ zu entziehen.

Ein Code jenseits der DNA

Das Ganze darf man wohl als Informationsmanagement bezeichnen. Angesichts der ungeheuren Komplexität des Genoms, insbesondere von Säugetieren, eine absolute Notwendigkeit – aber auch Grundlage für Regulation: Schließlich müssen viele verschiedene Zelltypen koordiniert und aufrechterhalten werden. Und anders als die Buchstaben der DNA unterscheiden sich die epigenetischen Markierungen zwischen unterschiedlichen Arten von Zellen. Zusammengenommen ergeben sie das Epigenom – eine Art Code, der kontextabhängig ausgelesen wird und die Umsetzung der Erbinformation steuert: „Die Epigenetik ist eine zusätzliche Informationsebene, die festlegt, welche Gene potenziell aktivierbar sind“, sagt der Molekularbiologe Alexander Meissner, Direktor am Max-Planck-Institut für molekulare Genetik in Berlin. Gemeinsam mit seinem Team arbeitet er daran, die biochemischen Grundlagen dieser epigenetischen Steuerung zu entschlüsseln. Die Forschenden wollen verstehen, wie Gene an- oder ausgeschaltet werden, was ihre Aktivität verstärkt oder herunterdimmt.

Abbildung 1: Ausschnitt aus einem DNA-Molekül, bei dem an beiden Strängen ein Cytosin methyliert ist (gelbe Kugeln). Die DNA-Methylierung spielt eine wichtige Rolle bei der epigenetischen Genregulation und dient dazu, DNA-Abschnitte „stumm“ zu schalten. Neben einzelnen Basen können auch Histone methyliert sein.© links: HN; rechts: Christoph Bock/beide CC BY-NC-SA 4.0

Einer der Regelungsmechanismen setzt direkt an der DNA an: Chemische Markierungen – die Methylgruppen – werden von speziellen Enzymen an die Cytosinbasen der Erbsubstanz angehängt (Abbildung 1). Die so modifizierten DNA-Abschnitte werden daraufhin nicht mehr ausgelesen und in Proteine übersetzt – das Gen ist „stummgeschaltet“. Eine andere Möglichkeit besteht darin, das „Verpackungsmaterial“ der DNA mit chemischen Markierungen zu versehen. Die rund 3,3 Milliarden Nucleotidbasen des menschlichen Genoms ergeben aneinandergereiht einen Faden, der zwei Meter lang ist! Nur durch geschickte Verpackung ist es möglich, den DNA-Faden im Zellkern unterzubringen. Als „Spulen“ dienen dabei die Histone – spezielle Proteine, um die sich die DNA wickelt (Abbildung 2). Aus den so entstehenden Histon-DNA-Partikeln (Nucleosomen) ragen die Proteinschwänze der Histone heraus. An diesen Histonschwänzen sitzen bestimmte epigenetische Markierungen, die zahlreiche Eigenschaften des Chromatins kontrollieren. Dazu zählt etwa, ob das Chromatin locker oder dicht gepackt vorliegt. Die unterschiedlich dichte Verpackung reguliert, welche Gene exprimiert werden und damit, welche Proteine eine Zelle produziert.

Zugang für Ablese-Enzyme

Damit Enzyme die Erbinformationen lesen und abschreiben können, muss die betreffende DNA-Region für sie zugänglich sein. Zugang finden sie jedoch nur, wenn das Chromatin – etwa durch Acetylierung der Histonschwänze – in lockerer Form als sogenanntes Euchromatin vorliegt. Die zusätzlich angehängten Acetylgruppen heben die positiven Ladungen der Histonschwänze auf. So können die negativ geladenen DNA-Moleküle nicht mehr hin reichend neutralisiert werden, die Chromatinstruktur wird instabil und zugänglicher. Auch eine Phosphorylierung der Histonschwänze verändert durch zusätzliche negative Ladungen den Packungszustand des Chromatins und erleichtert das Ablesen bestimmter DNA- Regionen. Durch Reduktion der Acetylgruppen oder auch durch eine Methylierung der Histone nimmt dagegen die Packungsdichte des Chromatins zu. Damit sinkt die Wahrscheinlichkeit, dass eine DNA-Sequenz abgelesen wird und so ihre Funktion ausüben kann. Forschende bezeichnen solche Bereiche als Heterochromatin.

Ein Schritt bei der Öffnung des Chromatins ist die Bewegung der DNA, während sie in Nucleosomen eingewickelt ist. Wie alle molekularen Strukturen in unseren Zellen sind auch die Nucleosomen recht dynamisch. Sie bewegen sich, drehen sich um die eigene Achse, wickeln sich aus und dann wieder ein. Forschende am Max-Planck-Institut für molekulare Biomedizin in Münster haben mithilfe von Computersimulationen gezeigt, dass zwei Histonschwänze dafür verantwortlich sind, das Nucleosom geschlossen zu halten. Nur wenn diese sich von bestimmten Regionen der DNA wegbewegen, kann sich das Nucleosom öffnen, sodass die DNA für Enzyme zugänglich wird und abgelesen werden kann. Die typischen Bewegungen, mit der sich Nucleosomen öffnen und wieder schließen, bezeichnen Forschende als Nucleosomenatmung.

Abbildung 2: Forschende haben Nucleosomen in Bewegung untersucht. Die oben dargestellten statischen Ansichten sind um 90 Grad gedreht und zeigen die DNA (gelb) zusammen mit den unterschiedlichen Histonen H3 (dunkelblau), H4 (hellblau), H2A (rot) und H2B (hellgrün). Die Histonschwänze ragen aus dem Nucleosom heraus. Sie sind flexibel und spielen eine wichtige Rolle bei der Genexpression. © V. Cojocaru; MPI für molekulare Biomedizin Münster, Utrecht Universität, Babeș-Bolyai-Universität Cluj-Napoca / CC BY-NC-SA 4.0

Wie die Vielfalt der Zellen entsteht

Menschen besitzen mehr als 250 verschiedene Zelltypen. Dabei enthalten Hautzellen, Knochenzellen oder Nervenzellen alle dieselbe DNA-Sequenz, obwohl sie ganz unterschiedliche Funktionen erfüllen. Für die Spezialisierung sorgen epigenetische Mechanismen, die den genetischen „Basiscode“ erweitern und die Vielfalt an Expressionsmustern erhöhen: Sie schalten nicht benötigte Gene in bestimmten Zellen stumm, während sie in anderen Zellen aktiv sein können. Alexander Meissner und sein Team vom Max-Planck-Institut für molekulare Genetik in Berlin haben untersucht, wie epigenetische Mechanismen zur Bildung unterschiedlicher Gewebe und Organe im wachsenden Embryo beitragen. Dafür haben sie befruchtete Mäuse-Eizellen mit der Genschere Cas9 (siehe 1) so modifiziert, dass die Enzyme für das Anbringen epigenetischer Markierungen nicht gebildet wurden. Nach einer Entwicklungszeit von sechs bis neun Tagen untersuchten die Forschenden die sich entwickelnden Embryonen. Dabei zeigte sich, dass der Anteil der verschiedenen Zelltypen zum Teil stark verändert war. Von bestimmten Zellen wurden viel zu viele produziert, während andere komplett fehlten. Die Embryonen waren dadurch nicht überlebensfähig. „Wir verstehen jetzt besser, wie epigenetische Regulatoren dafür sorgen, dass wir so viele verschiedene Arten von Zellen im Körper haben“, fasst Meissner die Ergebnisse zusammen. Je nachdem, welche Funktion eine Zelle ausüben soll, versehen Enzyme die DNA mit unterschiedlichen epigenetischen Modifikationen. Sie sorgen dafür, dass sich Stammzellen etwa in Nerven-, Haut-, Herz- oder Muskelzellen weiterentwickeln, sodass sich im wachsenden Embryo unterschiedliche Gewebe und Organe ausbilden.

Folgenreiche Fehlprägung

Epigenetische Mechanismen stecken auch hinter einem Phänomen, das als genomische Prägung bekannt ist und bei verschiedenen Krankheiten eine Rolle spielt: Es tritt bei etwa einem Prozent unserer Gene auf und bewirkt, dass jeweils eine der beiden von den Eltern vererbten Genkopien stummgeschaltet wird. Schädliche Mutationen, die von der Mutter oder dem Vater erworben wurden, können somit nicht durch eine zweite Genkopie ausgeglichen werden. Dies kann zu Krankheiten wie dem Angelman-Syndrom oder dem Prader-Willi-Syndrom, aber auch zu Krebs und Herz-Kreislauf-Erkrankungen führen. Ließe sich das stummgeschaltete gesunde Gen wieder aktivieren, könnte man damit die Störungen des aktiven fehlerhaften Gens möglicherweise ausgleichen. Die Max-Planck-Forschenden wollen daher verstehen, welche Mechanismen für die Inaktivierung der Gene verantwortlich sind. „Erst in den vergangenen Jahren hat sich herauskristallisiert, dass die Prägung auf molekularer Ebene über verschiedene Wege erreicht wird“, sagt Alexander Meissner. Demnach kann auch bei der genomischen Prägung entweder die „Verpackung“ des Erbgutes oder die DNA selbst chemisch modifiziert sein. Um zwischen den verschiedenen Möglichkeiten zu unterscheiden, nutzten die Forschenden wiederum die Genschere Cas9. In befruchteten Mäuse-Eizellen verhinderten sie so die Bildung eines bestimmten Enzyms, das für das Anbringen epigenetischer Markierungen zuständig ist. Anschließend beobachteten sie, ob das fehlgeprägte, stumm geschaltete Gen im weiteren Entwicklungsverlauf wieder aktiv wurde. Auf diese Weise gelang es ihnen nicht nur, die Stummschaltung aufzuheben. Sie konnten auch unterscheiden, welche epigenetischen Mechanismen dahintersteckten. „In den meisten Fällen war das die DNA-Methylierung“, sagt Alexander Meissner.

Schutz vor Eindringlingen

Neben der Genregulation haben epigenetische Mechanismen auch noch eine andere lebenswichtige Funktion: Indem die Zelle bestimmte DNA-Abschnitte stilllegt, kann sie sich vor „parasitären“ Anteilen des Genoms, den Transposons, schützen. „In den meisten Genomen – auch denen von Menschen und Mäusen – verbergen sich tausende virusähnliche Sequenzen, die sich über die Jahrmillionen im Erbgut ihrer Wirte verewigt haben“, so Meissner. Diese auch als „springende Gene“ bekannten Transposons sind in der Lage, sich spontan zu vervielfältigen und an einer beliebigen Stelle der DNA einzubauen. Transposons haben sich im Genom ausgebreitet und machen etwa 40 Prozent des Erbmaterials in Mäusen und Menschen aus. „Methylierung hält diese potenziell schädlichen Erbgutabschnitte in Schach“, sagt Chuck Haggerty, Wissenschaftler in Meissners Team: „Wenn ein Transposon oder Virus mitten in ein Gen springt, könnte das dessen Funktionen beeinträchtigen.“ Die Zelle muss also unbedingt verhindern, dass sich solche Sequenzen unkontrolliert im Genom ausbreiten. Spezielle Enzyme fahnden daher gezielt danach und heften Methylgruppen als chemische Warnhinweise an. Die so markierten DNA-Abschnitte werden daraufhin von der Zelle ignoriert. Ein solches Enzym aus der Gruppe der Methyltransferasen haben die Berliner Forschenden charakterisiert: Es ist dafür zuständig, den epigenetischen Ist-Zustand aufrecht zu erhalten und kann virusartige Erbgutabschnitte auch gezielt stumm schalten.

Verschiedene Studien haben untersucht was passiert, wenn die für die Methylierung zuständigen Enzyme fehlen. In diesem Fall werden viele invasive Elemente wieder aktiviert, und die Mutationsrate der Zellen schnellt nach oben. Experimente wie diese werfen die Frage auf, ob epigenetische Änderungen möglicherweise das genetische Chaos befördern, das mit Krebserkrankungen einhergeht. Tumorzellen tragen nämlich insgesamt oft zu wenige Methylgruppen am Genom, an bestimmten Stellen jedoch wiederum zu viele. Gene für wichtige Reparaturenzyme oder Schutzmechanismen werden dadurch epigenetisch ausgeschaltet. Möglicherweise ergeben sich daraus aber auch Chancen für die Krebstherapie. Denn während Zellen ihre DNA mit hohem Aufwand vor Mutationen schützen, werden epigenetische Markierungen ständig neu gesetzt oder entfernt. Im Prinzip ließen sich daher Medikamente entwickeln, die ganze Gruppen von Genen über epigenetische Effekte wieder an- oder abschalten.

Markierung nach Maß

Alexander Meissner und sein Team wollen daher bestimmte Stellen im Genom gezielt methylieren, um herauszufinden, welchen Effekt die künstlich angebrachten Markierungen haben. Auch dabei kommt ihnen eine umgebaute Version von Cas9 zu Hilfe: Das zentrale Element der Genschere ist Cas9 – ein Enzym, das sich mithilfe von synthetisch hergestellten Führungs-RNAs (Single Guide RNA) gezielt an ausgewählte Regionen im Genom lenken lässt und dort die DNA schneiden kann. Dank der rasanten Entwicklung von Cas9 und ähnlichen Enzymen verfügen Molekularbiologinnen und -biologen heute auch über Cas9-Varianten ohne Schneidefunktion. Genauso wie die schneidende Variante sind auch sie in der Lage, bestimmte Regionen im Genom anzusteuern. Da sie sich darüber hinaus flexibel mit Methyltransferasen koppeln lassen, hoffen die Forschenden, damit künftig gezielt einzelne Basen im Genom methylieren zu können (Abbildung 3). Dafür müssen die Forschenden aber zuerst noch an den Details tüfteln: „Bisher ist die Methylierung leider noch zu unspezifisch“, sagt Alexander Meissner. Denn während der Enzymkomplex nach seinem Ziel sucht, werden hier und da bereits Methylgruppen angehängt. Der Wissenschaftler ist jedoch zuversichtlich, dass sich die Methylierung noch zielgenauer machen lässt. Die vielen neuen Möglichkeiten, die sich daraus ergeben würden, sind der größte Ansporn für ihn und sein Team: „Es hätte enormes Potenzial, wenn wir das Epigenom auf diese Weise gezielt verändern könnten.“

Abbildung 3. Gezielte Methylierung im Genom. Um Cytosinbasen im Genom gezielt zu methylieren, wird eine DNA-Methyltransferase mit einer speziellen Version von Cas9 ohne Schneidefunktion (dCas9) gekoppelt. Da die Führungs-RNA komplementär zur Zielregion ist, lässt sich die Methyltransferase so gezielt in bestimmte Regionen im Genom lenken. Dort versieht sie die Cytosinbasen mit Methylgruppen. Im Idealfall werden dabei nur bestimmte Cytosine methyliert, während weiter entfernt liegende unverändert bleiben. Mit der Methode wird erforscht, welche Methylierungen wann und wo für die Regulation bestimmter Gene verantwortlich sind. © A. Meissner, MPI für molekulare Genetik / CC BY-NC-SA 4.0

Gedächtnis für Umwelteinflüsse

Epigenetische Markierungen können angefügt, aber auch wieder entfernt werden. Dadurch ist das Epigenom im Gegensatz zur DNA-Sequenz relativ flexibel und kann auf Umwelteinflüsse reagieren. Andererseits lassen sich epigenetische Signaturen aber auch konservieren: Während der DNA-Replikation – d.h. bei der Verdopplung der Chromosomen in der teilungsbereiten Zelle – können Methylierungsmuster originalgetreu kopiert werden. Das ermöglicht es, die enthaltenen Informationen von einer Zellgeneration an die nächste weiterzugeben und damit dauerhaft zu speichern. Organismen bauen auf diese Weise ein zelluläres Gedächtnis für Umwelteinflüsse auf. Ob Stress, Ernährung, Sport oder Drogenkonsum – letztlich hinterlässt unsere gesamte Lebensweise Spuren im Epigenom. Zwillingsstudien zeigen dies besonders eindrucksvoll: Eineiige Zwillinge haben exakt die gleichen Gene, trotzdem unterscheiden sie sich in den Mustern ihrer Genaktivität und damit auch in ihren Eigenschaften. Die Unterschiede sind epigenetisch bedingt und nehmen mit dem Lebensalter zu: Während bei dreijährigen Zwillingen die Gene noch nahezu gleich „ticken“, sind die Unterschiede bei 50-jährigen fast viermal so häufig. Besonders ungleich sind jene Pärchen, die schon früh getrennte Wege gehen.

Wie der Großvater, so die Enkelin?

Ein besonders spannendes Gebiet der Molekularbiologie ist derzeit die transgenerationelle Epigenetik, die sich mit der Vererbung epigenetischer Informationen befasst: Immer mehr Studien an so unterschiedlichen Organismen wie Fruchtfliegen, Mäusen und Menschen deuten darauf hin, dass epigenetische Muster nicht nur zwischen verschiedenen Zellgenerationen innerhalb des Körpers weitergegeben werden, sondern zumindest in gewissen Situationen sogar über Generationen hinweg. Demnach können etwa die Ernährungslage während der Schwangerschaft, Traumata, Umweltgifte oder Nikotinkonsum nicht nur das Leben der Kinder bis ins hohe Alter beeinflussen, sondern sogar noch bei den Enkeln und darüber hinaus fortwirken. Inwieweit wir nicht nur unsere Gene, sondern auch epigenetische Veränderungen vererben, muss noch genauer erforscht werden. Es scheint, als könne das Leben unserer Großeltern – das Essen, das sie gegessen haben oder die Erfahrungen, die sie gemacht haben – uns womöglich noch Jahrzehnte später beeinflussen. Und das, obwohl wir selbst diese Dinge nie erfahren haben!

---------------------------------------

[1] Christina Beck,23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


 * Der Artikel unter dem Titel "Epigenetik - das Gedächtnis unserer Gene" stammt aus dem BIOMAX 23-Heft der Max-Planck-Gesellschaft https://www.max-wissen.de/max-hefte/biomax-23-epigenetik/, das im Sommer 2022 unter Mitwirkung von Dr. Elke Maier (Redaktion Max-Planck-Forschung) aktualisiert wurde. Mit Ausnahme des Titels wurde der unter einer cc-by-n-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Weiterführende Links

Max Planck-Gesellschaft: Epigenetik - Änderungen jenseits des genetischen Codes. Video 5:04 min. https://www.youtube.com/watch?v=xshPL5hU0Kg&t=291s

Max Planck-Gesellschaft Epigenetik - Verpackungskunst in der Zelle. Video 8:09 min. https://www.youtube.com/watch?v=0VQ62pD5eqQ

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog

inge Thu, 15.09.2022 - 01:03

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Do, 22.09.2022 — Peter Tessarz Peter Tessarz height=

 

Icon Molekularbiologie

Wenn wir altern, werden unsere Knochen dünner, wir erleiden häufiger Knochenbrüche und es können Krankheiten wie Osteoporose auftreten. Schuld daran sind unter anderem alternde Stammzellen im Knochenmark, die nicht mehr effektiv für Nachschub für das Knochengewebe sorgen. Peter Tessarz und sein Team am Max-Planck-Institut für Biologie des Alterns (Köln) haben jetzt herausgefunden, dass sich diese Änderungen zurückdrehen lassen, und zwar durch die Verjüngung des Epigenoms. Eine solcher Ansatz könnte in Zukunft zur Behandlung von Krankheiten wie Osteoporose beitragen*

Das Epigenom verändert sich in alternden Stammzellen

Viele Alternsforscher haben bereits seit einiger Zeit die Epigenetik als eine Ursache von verschiedenen Alterungsprozessen im Blick. Bei der Epigenetik handelt es sich um Veränderungen an der Erbinformation und der Chromosomen, die nicht die Sequenz der DNA selbst verändern, aber ihre Aktivität beeinflussen können. Dies geschieht durch die Modifizierung von DNA und DNA-bindenden Proteinen, den sogenannten Histonen. An diesen Modifizierungen sind kleine Moleküle beteiligt, die aus dem Stoffwechsel der Zelle stammen und die DNA mehr oder weniger zugänglich machen können. Dies erlaubt nachfolgend die Bindung von Transkriptionsfaktoren, die die Gene an- oder abschalten. Durch diesen Prozess sind Stoffwechsel und Epigenetik eng miteinander verbunden und viele Stoffwechselprozesse selbst, aber auch die Ernährung jedes Einzelnen können so die Genexpression beeinflussen.

Abbildung 1: Angefärbtes Kalzium (dunkelbraun) in Stammzellen im Knochenmark: Junge Stammzellen (links) produzieren mehr Material für den Knochenaufbau als alte Stammzellen (Mitte). In alten Stammzellen wiederum sammelt sich mehr Fettgewebe an. Durch Zugabe von Natriumazetat lassen sie sich aber wieder verjüngen (rechts). © Max-Planck-Institut für Biologie des Alterns/Pouikli 0

Da sich der Stoffwechsel mit zunehmendem Alter ändert, ist das Zusammenspiel zwischen Epigenetik und Stoffwechsel ein wichtiger Bestandteil des Alterns. Wir wollen und müssen diesen Aspekt des Alterns besser verstehen, um Ansätze zu entwickeln, die die Lebenszeit eines Menschen verlängern, und zwar um die Zeitspanne, in der er gesund leben kann (Abbildung 1). Eine besonders entscheidende Komponente des Stoffwechsels sind außerdem die Mitochondrien, kleine Organellen in unseren Zellen, die für die Gewinnung von Energie und die Herstellung vieler Stoffwechselprodukte sind. Eines dieser Produkte ist Acetyl-CoA, ein Molekül, das unter anderem in den Zellen benutzt wird, um Fette herzustellen und auch, wie erwähnt, um Histone, zu acetylieren – also kovalent zu modifizieren. Die DNA wird zugänglicher für Transkriptionsfaktoren, die dann Gene effizient anschalten können.

Wie hängen nun also Stoffwechsel, Epigenetik und dünne Knochen zusammen?

Um diese Frage zu klären, haben wir das Epigenom, also alle epigenetischen Veränderungen an der DNA einer Zelle, von mesenchymalen Stammzellen untersucht. Diese Stammzellen finden sich im Knochenmark und können verschiedene Zellarten wie Knorpel-, Knochen- und Fettzellen hervorbringen.

Die Rolle von Acetyl-CoA und der Mitochondrien

Wir wollten wissen, warum diese Stammzellen im Alter weniger Material für die Knochen produzieren und sich so immer mehr Fettgewebe im Knochenmark ansammelt. Deswegen haben wir das Epigenom von Stammzellen aus jungen und alten Mäusen verglichen. Im Alter ändert sich in der Tat das Epigenom sehr, vor allem wird die DNA weniger zugänglich. Diese Veränderungen betreffen häufig diejenigen Gene, die wichtig für die Herstellung von Knochen sind. Weiterhin konnten wir zeigen, dass im Alter weniger Acetylierungen vorliegen, und eine Erklärung dafür könnte sein, dass sich der Stoffwechsel derart verändert ist, dass Mitochondrien weniger Acetyl-CoA produzieren. Dieses aber ist nach unseren Untersuchungen nicht der Fall. Allerdings fanden wir heraus, dass Mitochondrien dieses Stoffwechselprodukt nur noch gering, verglichen mit jungen Mitochondrien, aus ihrem Inneren ausschleusen können. Schuld daran sind reduzierte Mengen eines Proteins (Slc25a1), das dafür verantwortlich ist, Acetyl-CoA von den Mitochondrien in das Cytoplasma zu transportieren [1].

Verjüngung des Epigenoms

Ein spannendes Ergebnis dieser Untersuchungen war, dass es ausgereicht hat, den älteren mesenchymalen Zellen über rekombinante Viren wieder mehr des Proteins Slc25a1 zu verabreichen. So wurde wieder mehr Acetyl-CoA ins Cytoplasma transportiert, die Histone wurden wieder acetyliert und es wurden wieder diejenigen Gene angeschaltet, die dafür sorgen, dass mehr Knochenzellen gebildet werden. Wir konnten sogar zeigen, dass allein schon die kurzfristige Zugabe eines anderen Vorläufers von Acetyl-CoA, nämlich Natriumacetat, zu isolierten Stammzellen ausreicht, das Epigenom zu verjüngen.

Um abschließend zu verstehen, ob die hier vorgestellten Veränderungen im Epigenom auch beim Menschen die Ursache für das im Alter erhöhte Risiko für Knochenbrüche oder Osteoporose sein könnte, untersuchten wir menschliche mesenchymale Stammzellen, die wir nach einer Hüftoperation von Patienten erhielten. Die Zellen von älteren Patienten, die auch an Osteoporose litten, zeigten tatsächlich dieselben epigenetischen Veränderungen, wie sie bereits zuvor bei den Mäusen beobachtet wurden. Dieses zeigt, dass auch im Menschen die Ursachen von dünnen Knochen im Alter wahrscheinlich im Epigenom zu suchen sind.

Neben unserer Studie wurden in den letzten Jahren auch andere Beispiele vorgestellt, die aufgezeigt haben, wie eng Stoffwechsel und Epigenom miteinander verflochten sind. Diese Verbindung ist scheinbar nicht nur ein zentraler Bestandteil des Alterns, sondern spielt auch bei anderen biologischen Prozessen eine entscheidende Rolle. Als Beispiel sei die Embryonalentwicklung zu nennen, wo Änderungen im Stoffwechsel und nachfolgend im Epigenom eng miteinander gekoppelt sind. Auch Erkrankungen, wie zum Beispiel die Entstehung von Tumoren, bei denen sich sowohl Stoffwechsel als auch das Epigenom sehr stark verändern, müssen hier erwähnt werden. In den nächsten Jahren wird es von großer Bedeutung sein, das Zusammenspiel zwischen Stoffwechsel, Epigenetik und Genexpression noch besser zu verstehen, um darauf aufbauend Therapieansätze zu entwickeln. Vielleicht wird es dann in Zukunft auch möglich sein, alte Stammzellen wieder verjüngen zu können und sie im Rahmen einer Stammzelltherapie einzusetzen.

--------------------------------------

[1] Pouikli, A.; Parekh, S.; Maleszewska, M.; Nikopoulou, C.; Baghdadi, M.; Tripodi, I.; Folz-Donahue, K.; Hinze, Y.; Mesaros, A.; Hoey, D.; Giavalisco, P.; Dowell, R.; Partridge, L.; Tessarz, P. Chromatin remodeling due to degradation of citrate carrier impairs osteogenesis of aged mesenchymal stem cells Nature Aging 1, 810–825 (2021)


*Der Forschungsbericht mit dem Titel „Verjüngungskur für alternde Stammzellen im Knochenmark" (https://www.mpg.de/18101170/age_jb_2021?c=155461) stammt aus dem Jahrbuch 2021 der Max-Planck-Gesellschaft, das im Sommer 2022 erschienen ist; mit Ausnahme des marginal veränderten Titels wurde der Bericht unverändert in den Blog übernommen. Die MPG-Pressestelle hat freundlicherweise zugestimmt, dass wir von MPG-Forschern verfasste Artikel in den ScienceBlog stellen können.


 Weiterführende Links

Max-Planck-Institut für Biologie des Alterns: https://www.mpg.de/155461/biologie-des-alterns

Peter Tessarz: Epigenetics and Ageing: Fountain of youth for ageing stem cells in bone marrow (deutsche Untertitel). Video 3:09 min. (13.September 2021) https://www.youtube.com/watch?v=FbwcbFoNInI

Max-Planck-Cinema: Epigenetik - Änderungen jenseits des genetischen Codes.

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog:

inge Thu, 22.09.2022 - 16:58

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Fr, 09.09.2022 — Redaktion

Redaktion

Icon Biologie

Zwei Arten von photosynthetischen Cyanobakterien können unter Nutzung von energiearmen fernrotem Licht in unglaublich dunkler Umgebung gedeihen. Wie eine neue Untersuchung im Fachjournal e-Life zeigt, geht dies einerseits auf Kosten der Widerstandsfähigkeit gegen Lichtschäden, andererseits auf Kosten der Energieeffizienz. Ein besseres Verständnis der Balance zwischen Effizienz und Widerstandsfähigkeit sollte zur Entwicklung von Kulturpflanzen oder Algen mit zusätzlich eingebauten Fernrot-Photosystemen dienen, die zur Produktion von Nahrungsmitteln und Biomasse aber auch für technologische Anwendungen wie der Synthese von Kraftstoffen Anwendung finden können.*

Das Leben auf der Erde, wie wir es kennen, hängt von der Photosynthese ab. Bei diesem Prozess nutzen Pflanzen, Algen und Cyanobakterien die Sonnenenergie, um Wasser und Kohlendioxid in den Sauerstoff, den wir atmen, und in die Glukose umzuwandeln, die viele biologische Prozesse antreibt.

Die Maschinerie der Photosynthese besteht aus einer aufwändigen, komplizierten Ansammlung von Proteinkomplexen, die hauptsächlich Chlorophyll-a-Moleküle und Carotinoid-Moleküle enthalten. Mehrere dieser Komplexe arbeiten synchron zusammen und vollbringen eine erstaunliche Leistung: Sie spalten Wassermoleküle (eines der stabilsten Moleküle unserer Erde) zur Gewinnung von Elektronen und Erzeugung von Sauerstoff und sie übertragen die Elektronen auf Chinonmoleküle zur Weiterführung der Photosynthese. Die Effizienz dieses ersten Schrittes der Energieumwandlung entscheidet über das Ergebnis des gesamten Prozesses.

Wenn das Photosystem zu viel Licht absorbiert, werden sogenannte reaktive Sauerstoffspezies in einem Ausmaß produziert, dass sie das Photosystem schädigen und die Zelle töten. Um abzusichern, dass das Photosystem effizient arbeitet, und um es vor Schäden zu schützen, wird etwa die Hälfte der Energie des absorbierten Lichts als Wärme abgeleitet, während der Rest der Energie in den Produkten der Photosynthese gespeichert wird.

Abbildung 1: .Die unterschiedlichen Chlorophylle weisen zwei ausgeprägte Absorptionsmaxima im blauen und im roten Spektralbereich des sichtbaren Lichts auf. Grünes Licht, das nicht absorbiert sondern gestreut wird, lässt Blätter grün erscheinen. (Bild und Legende von Redn. eingefügt.)

Viele Jahre lang ist man davon ausgegangen, dass das von Chlorophyll a absorbierte rote Licht (bei einer Wellenlänge von 680 Nanometern) das energieärmste Licht ist, das für den Antrieb der Sauerstoff erzeugenden Photosynthese verwendet werden kann und das gleichzeitig die durch hohe Lichtintensität verursachten Schäden minimiert. Frühere Forschungen haben jedoch gezeigt, dass einige Cyanobakterien, die in dunklen Umgebungen leben, in fernrotem Licht gedeihen können, das nahe an der Grenze dessen liegt, was wir sehen können (Abbildung 1): Dieses Licht hat eine niedrigere Energie als rotes Licht, weil seine Wellenlänge länger ist (720 Nanometer). Diese Cyanobakterien enthalten neben Chlorophyll a auch Chlorophyll d und Chlorophyll f, können aber dennoch die gleichen Reaktionen durchführen wie Organismen, die nur Chlorophyll a enthalten. Bislang war jedoch nicht klar, ob diese Arten einen Preis in Form von Widerstandsfähigkeit gegenüber Lichtschäden oder Effizienz der Energieumwandlung zahlen.

In der Fachzeitschrift eLife berichten nun Stefania Viola und A. William Rutherford vom Imperial College London und Kollegen, die am Imperial College, am CNR in Mailand, an der Freien Universität Berlin, an der Sorbonne und am CEA-Saclay tätig sind, über neue Erkenntnisse zur Photosynthese im Fernrotbereich [1]. Das Team hat zwei Arten von Cyanobakterien untersucht, die im Fernrot Photosynthese betreiben: Acaryochloris marina, das in dunkler Umgebung vorkommt, und Chroococcidiopsis thermalis, das unter variablen Lichtbedingungen lebt und je nach Lichtenergie zwischen normaler Photosynthese und Photosynthese im Fernrot wechseln kann. Um festzustellen, ob diese Organismen die gleiche Widerstandsfähigkeit gegenüber Lichtschäden und die gleiche Effizienz der Energieumwandlung aufweisen wie Organismen, die nur Chlorophyll a enthalten, haben Viola und Kollegen etliche Aspekte des ersten Energieumwandlungsschritts in der Photosynthese (siehe oben) untersucht. Dazu hat die Messung der erzeugten Sauerstoffmenge gehört sowie das Ausmaß an reaktiven Sauerstoffspezies, die zu Lichtschäden führen können.

Abbildung 2: . Photosynthese in rotem und fern-rotem Licht. Pflanzen, Algen und Cyanobakterien verwenden Chlorophyll a (Chl-a), um rotes Licht zu absorbieren und den Prozess der Photosynthese anzutreiben. Studien haben gezeigt, dass Chl-a unempfindlich gegenüber Lichtschäden ist und die Lichtenergie effizient nutzt. Einige Cyanobakterien (grüne Kreise im blauen Teich; nicht maßstabsgetreu) haben sich an ihre dunklere Umgebung angepasst, indem sie andere Chlorophyllmoleküle - Chlorophyll d (Chl-d) und Chlorophyll f (Chl-f) - zur Absorption von fernrotem Licht (das weniger energiereich ist als rotes Licht) verwenden. Die Verwendung dieser Moleküle hat jedoch ihren Preis: Chl-d-Organismen sind energieeffizient, aber nicht widerstandsfähig gegen Lichtschäden; Chl-f-Organismen hingegen sind nicht energieeffizient, aber widerstandsfähig gegen Lichtschäden.

Dabei hat es sich gezeigt, dass beide Arten der Cyanobakterien vergleichbare Mengen an Sauerstoff produzierten wie reine Chlorophyll-a-Cyanobakterien. Das Photosystem II von A. marina, das 34 Chlorophyll-d-Moleküle und nur ein Chlorophyll-a-Molekül enthält, war hocheffizient, hat aber auch hohe Mengen reaktiver Sauerstoffspezies produziert, wenn es starkem Licht ausgesetzt war; dadurch wurde es weniger widerstandsfähig gegen Lichtschäden. Im Gegensatz dazu produzierte C. thermalis - das vier Chlorophylle f, ein Chlorophyll d und 30 Chlorophyll a-Moleküle enthält - bei weitem nicht so viele reaktive Sauerstoffspezies, war aber auch weniger energieeffizient, wenn es in fernem Rotlicht kultiviert wurde. Abbildung 2.

Viola et al. geben eine detaillierte Beschreibung davon, wie sich diese Organismen an die lichtarmen Bedingungen in ihrer Umgebung angepasst haben und welche Kosten mit ihren Eigenschaften verbunden sind [1]. Ein besseres Verständnis der Art und Weise, wie photosynthetische Organismen energiearmes Licht nutzen, könnte den Wissenschaftlern dabei helfen, in Algen oder Pflanzen, die nur Chlorophyll a enthalten, fernrote Photosysteme einzubauen und so die Nutzung des Sonnenlichts zu verbessern und die Ernteerträge zu steigern. Außerdem könnten in Zukunft künstliche Systeme entwickelt werden, die energiearmes Licht zur Erzeugung von synthetischen Kraftstoffen aus Solarenergie nutzen.


 [1] Stefania Viola et. al.,Impact of energy limitations on function and resilience in long-wavelength Photosystem II .  https://doi.org/10.7554/eLife.79890


* Der von E. Romera stammende Artikel: "Photosynthesis: Surviving on low-energy light comes at a price" ist am 02 September 2022 erschienen in: eLife/elifesciences.org/articles/82221 https://doi.org/10.7554/eLife.82221 4 als eine leicht verständliche Zusammenfassung ("Insight") der Untersuchung von S.Viola et al. [1]. Der Artikel wurde von der Redaktion ins Deutsche übersetzt und mit Abbildung 1 plus Text ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz -


Photosynthese im ScienceBlog:

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese


 

inge Fri, 09.09.2022 - 15:50

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Do, 01.09.2022 — Caspar Dohmen

Caspar Dohmen

Icon Politik & Gesellschaft

Passt ein Ökonomie-Artikel in den ScienceBlog? Sicherlich, denn ohne neue naturwissenschaftliche Erkenntnisse und Entwicklungen werden sich die gravierenden aktuellen Probleme nicht lösen lassen. Im ersten Jahr der Pandemie 2020 ist die Weltwirtschaft wohl geschrumpft, in Deutschland um fünf Prozent. Dennoch ist die globale Wirtschaft seit Mitte des 19. Jahrhunderts exorbitant gewachsen. Hauptursachen waren die Schaffung des kapitalistischen Wirtschaftssystems, technologische Erfindungen und die Nutzung fossiler Energie. Das hat einen enormen Zuwachs an Wohlstand für viele Menschen ermöglicht. Aber die Nebenwirkungen sind schwer – das zeigen unter anderem die Klimakrise und das Artensterben. Die Zukunft der Menschheit hängt davon ab, ob sie Wachstum und den Erhalt natürlicher Lebensgrundlagen in Einklang bringen wird. Caspar Dohmen, Ökonom, freier Journalist und journalistischer Fellow am Max-Plank-Institut für Gesellschaftsforschung in Köln berichtet. *

 

Europa litt lange Zeit unter Knappheit, alleine zwischen 1315 und 1317 verhungerten fünf Millionen Menschen. Die Bevölkerung nahm dies als schicksalhaft hin und konnte sich nicht einmal vorstellen, dass sie ihre materiellen Bedingungen gravierend selbst verändern könnte. An dieser Einstellung rüttelte die Aufklärung, die das Denken von Anfang des 18. Jahrhunderts an revolutionierte. Nun verbreitete sich rationales Denken, erlebten Geistes- und Naturwissenschaften einen Aufschwung, was auch gravierende technologische und soziale Innovationen ermöglichte. Die Menschen verwandelten die stationäre, nicht wachstumsorientierte Wirtschaft in eine dynamische Wirtschaft, vor allem indem sie menschliche und tierische Arbeit in einem steigendem Ausmaß durch Kapital ersetzten. Dank der Maschinen und der Nutzung fossiler Energie stieg die Produktivität enorm an, konnte mehr erwirtschaftet und verteilt werden. Wer in Westeuropa lebt, ist deswegen im Schnitt etwa 20-mal reicher als seine Ur-Ur-Urgroßeltern. In unseren Tagen könnte man sogar die elementaren Bedürfnisse aller Lebenden befriedigen. Wenn trotzdem mehr als 800 Millionen Menschen hungern, dann deshalb, weil vielen Menschen Geld fehlt, um sich in ausreichender Menge Nahrungsmittel kaufen zu können.

 

Löhne als Motor

„Wachstum hat in kapitalistischen Ökonomien einen zentralen Stellenwert als politische Zielsetzung, als diskursives Mittel zur Legitimierung politischer Weichenstellungen und auch als „Kitt“ der die Gesellschaft zusammenhält, indem er den Kapitalismus in Gang hält und damit Wohlstand sichert“, so die Politikökonomin Arianna Tassinari. Sie befasst sich am Max-Planck-Institut für Gesellschaftsforschung in Köln mit der „Politischen Ökonomie von Wachstumsmodellen“. Der Direktor des Instituts, Lucio Baccaro, hat den Forschungsbereich ins Leben gerufen. Sein Ziel ist es, unterschiedliche Spielarten des Kapitalismus zu untersuchen, mit denen Staaten im Europa unserer Zeit Wachstum erzeugen.

„Der Motor für das Wachstum in großen europäischen Staaten war bis etwa 1990 stetes Lohnwachstum“, sagt Lucio Baccaro. Weil die Reallöhne im gleichen Maße (oder manchmal sogar schneller) als die Arbeitsproduktivität stiegen, konnten die Verbraucher im Laufe der Zeit mehr Geld für Konsum ausgeben. Das veranlasste Unternehmen zu investieren und mehr zu produzieren, was wiederum für Wachstum sorgte. Das Modell kam infolge der beiden Ölkrisen in den 1970er-Jahren unter Druck, als gleichzeitig Inflation und Arbeitslosigkeit stiegen. Zur Bekämpfung der Inflation entschieden sich Regierungen für politische und institutionelle Reformen, etwa die Einführung unabhängiger Zentralbanken, wie es sie in der Bundesrepublik bereits gab. Negativ wirkte sich auf das lohnorientierte Wachstumsmodell in Europa eine veränderte Arbeitsteilung aus. Von 1990 an begannen hiesige Unternehmen in großem Umfang Arbeit in Billiglohnländer zu verlagern, nach Asien, aber auch in die Transformationsländer in Mittel- und Osteuropa. Nun nähten dort Menschen Jeans oder fertigten Autoteile. Alleine die 30.000 größten Konzerne der Welt konnten ihre Gewinne in den Jahren von 1989 bis 2014 verfünffachen, obwohl sie ihre Umsätze nur verdoppelten. Wenn sich der Umsatz verdoppelt und der Gewinn verfünffacht, müssen die Kosten drastisch gesunken sein, ganz nach der betriebswirtschaftlichen Gleichung: Umsatz – Kosten = Gewinn. Diese Entwicklung schwächte die Gewerkschaften, was ein wesentlicher Grund dafür ist, dass der Anteil der Beschäftigten am erwirtschafteten Volkseinkommen phasenweise deutlich sank, während der Anteil der Unternehmen in Form ihrer Gewinne anstieg.

Neue Wege zum Wachstum

Das lohnorientierte Wachstumsmodell wurde nach Analysen des Max-Planck-Instituts für Gesellschaftsforschung durch mindestens vier neue Modelle abgelöst (Abbildung 1): „Großbritannien steht exemplarisch für das konsumorientierte Wachstumsmodell, welches wesentlich auf günstigen Krediten für die Bevölkerung beruht“, erläutert Lucio Baccaro. Deutschland ist ein Beispiel für das exportorientierte Wachstumsmodell, welches auf drei Elementen basiert: einem Exportsektor, der ausreichend groß ist, um als Lokomotive für die gesamte Volkswirtschaft zu fungieren, einer institutionalisierten Lohnzurückhaltung und einem festen Wechselkurssystem. Schweden wiederum steht für eine Kombination der Wachstumstreiber Konsum und Export, zumindest bis zur Finanzkrise von 2008. Länder wie Italien fanden dagegen keinen tragfähigen Ersatz für ein lohnorientiertes Wachstum. „Die beschriebenen Modelle sind prinzipiell auch auf Volkswirtschaften außerhalb Europas übertragbar“, sagt Erik Neimanns aus dem Forschungsteam von Baccaro. „Nimmt man weitere Länder in den Blick, lassen sich zudem zusätzliche Wachstumsmodelle beobachten, die z. B. auf dem Export von Rohstoffen, dem Tourismus oder hohen staatlichen und privaten Investitionen beruhen.“

Abbildung 1. Wie die Wirtschaft wächst

  • GB: Hohes Leistungsbilanzdefizit (Importe übersteigen Exporte), hohe Konsumausgaben, starke Nachfrage nach Dienstleistungen auch im mittel- und geringqualifizierten Bereich
  • IT: Exportsektor klein, Spezialisierung auf arbeitsintensive Güter, realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu hoch, schwacher Konsum
  • SE: Gleichzeitiges Wachstum im Export u. im Konsum, preisunempfindliche Exporte v.a. IT-Dienstleistungen, Lohnzuwächse in der Industrie u. im Dienstleistungssektor
  • D: Anhaltende Leistungsbilanzüberschüsse (Exporte übersteigen Importe), realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu niedrig, wachsende Ungleichheit durch Niedriglohnsektor im Dienstleistungsbereich © GCO, HNBM, istock

Noch nie haben Bürgerinnen und Bürger in Deutschland explizit bei einer Bundestagswahl über das auf Export beruhende Wirtschaftsmodell abgestimmt, genauso wenig wie die Britinnen und Briten über ein konsumorientiertes Wachstumsmodell. Allerdings stärken Regierungen regelmäßig mit Gesetzen das jeweilige Modell, in Deutschland beispielsweise durch die Hartz-Reformen im Jahr 2005. Dazu zählten unter anderem deutliche Einschnitte in die Arbeitslosenunterstützung oder die Einführung von Leiharbeit, was die Wettbewerbsfähigkeit der Exportindustrie stärkte.

Politik bestimmt den Kurs

Politikökonominnen und -ökonomen beschäftigen sich mit der Wechselwirkung von Wirtschaft und Gesellschaftssystem. Drei Vertreter, Mark Blyth, Jonas Pontusson und Lucio Baccaro, haben die Hypothese aufgestellt, dass funktionierende Wachstumsmodelle wie in Deutschland oder Großbritannien von einer klassenübergreifenden Koalition getragen werden. Die Wissenschaftler verstehen darunter einen Zusammenschluss gesellschaftlicher Akteure, der die Kluft zwischen Arbeit und Kapital überwindet und all diejenigen Gruppen einer Gesellschaft einbezieht, die von dem jeweiligen Wachstumsmodell profitieren. Einer solchen Koalition können mehr oder weniger organisierte Interessengruppen aus Schlüsselsektoren der Wirtschaft angehören, z.B. wirtschaftliche Eliten, Unternehmen und Arbeitgeberverbände, aber auch Beschäftigte oder Gewerkschaften, die von den Erfolgen in wirtschaftlich bedeutsamen Sektoren profitieren, sowie Regierungsmitglieder, die einen reibungslosen Betrieb der Volkswirtschaft gewährleisten sollen. Zu den Schlüsselsektoren zählen die drei Forscher in Deutschland den Maschinenbau und die Automobilindustrie, in Großbritannien die Finanzindustrie oder in Irland die Europatöchter der US-Technologiekonzerne. „Ein Merkmal von dominanten gesellschaftlichen Koalitionen ist, dass ihre Mitglieder einen legitimierenden Diskurs vorgeben“, sagt Baccaro. Das bedeutet, dass sie in der Lage sind, ihre Interessen als mit dem nationalen Interesse übereinstimmend darzustellen. Parteipolitik spielt in der Politik der Wachstumsmodelle eine wichtige Rolle. Da die dominante gesellschaftliche Koalition in den meisten Fällen über keine Stimmenmehrheit verfügt, muss sie eine Wahlmehrheit um jene Politik herum aufbauen, die ihren Interessen nützt. Die großen Parteien stehen im Wettstreit darum, das gegebene Wachstumsmodell und die damit verbundene vorherrschende gesellschaftliche Koalition bestmöglich zu managen. Zumindest diese Parteien bieten den Wählern nach Ansicht der Wissenschaftler auch keine grundlegende Alternative zu dem ausgewählten Wachstumsmodell, egal ob sie links oder rechts der Mitte positioniert sind.

Die Vermessung des Wohlstands

Üblicherweise wird das Wachstum anhand der Zunahme des Bruttoinlandsprodukts (BIP) gemessen. Statistiker berechnen für Länder zunächst das Bruttosozialprodukt (BSP), also den Wert aller Güter und Dienstleistungen, die in einer Volkswirtschaft binnen eines Kalenderjahres hergestellt oder bereitgestellt worden sind. Zur Berechnung des BIP werden vom BSP alle Erwerbs- und Vermögenseinkommen abgezogen, die in der zeitlichen Periode ins Ausland gingen. Addiert werden die Einkommen, die Inländer aus dem Ausland erhalten haben. Das BSP zielt somit eher auf Einkommensgrößen ab und wird in der volkswirtschaftlichen Gesamtrechnung auch als Bruttonationaleinkommen bezeichnet. Das BIP misst dagegen die wirtschaftliche Leistung eines Landes von der Produktionsseite her und ist in der Wirtschaftsstatistik und der Berichterstattung das Maß aller Dinge. Von Anfang an gab es Kritik am BIP als Maßstab gesellschaftlichen Fortschritts, weil viele Leistungen wie Hausarbeit oder ehrenamtliche Arbeit unerfasst bleiben, obwohl sie für das Wohlergehen der Individuen und den Zusammenhalt in einer Gesellschaft wichtig sind. Das BIP lässt auch keine Rückschlüsse über die Verteilung des Wohlstands zu: Es kann durchaus wachsen, obwohl gleichzeitig die Zahl der Armen zunimmt. Außerdem steigt der Indikator, wenn Umweltschäden beseitigt werden müssen. In den Nationalen Wohlfahrtsindex (NWI) fließen 20 Größen ein. Im Gegensatz zum BIP erfasst er auch die Einkommensverteilung sowie diverse wohlfahrtssteigernde Komponenten (Hausarbeit, ehrenamtliche Tätigkeiten) und wohlfahrtsmindernde Aktivitäten (Kriminalität oder Umweltschäden wie Flächenverlust). Alle Dimensionen werden monetär in Euro bewertet und entweder aufaddiert oder abgezogen. Während das BIP in Deutschland seit 1991 relativ kontinuierlich stieg, entwickelte sich der Wohlstand gemessen am NWI unterschiedlich und nahm weit weniger zu (Abbildung 2). Es existieren diverse weitere Indikatoren zur Messung des Wohlstands, etwa der von den Vereinten Nationen erhobene Index der menschlichen Entwicklung, der Better-Life-Index der OECD, das Bruttonationalglück oder die Gemeinwohl-Bilanz.

Entwicklung von NWI und BIP in Deutschland. BIP und NWI zeigen unterschiedliche Bilder der gesellschaftlichen Entwicklung: Das Wachstum des BIP wird nur durch die Finanzkrise im Jahr 2009 und die Corona-Pandemie unterbrochen. Die Entwicklung des NWI verläuft in verschiedenen Phasen (Anstiege, Rückgang, Stagnation). Der NWI hat zwischen 1991 und 2019 um knapp 12 Punkte zugenommen – weniger als ein Drittel der Steigerung, die das BIP ausweist. © FEST e.V. – Institut für Interdisziplinäre Forschung

Grüne Wirtschaft

Bislang hat es die Menschheit nicht geschafft, das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln. Nicht zuletzt deswegen wird es immer schwieriger, die Klimaerwärmung in einem begrenzten Ausmaß zu halten. Auch die Ressourcen, die der Mensch für seine Wirtschaftsweise braucht, werden zunehmend knapp. Das gilt sogar schon für ein vermeintlich im Überfluss vorhandenes Gut wie Sand, das vor allem für den Immobilien- und Straßenbau benötigt wird. Die natürlichen Lebensgrundlagen schwinden immer mehr, mit erheblichen Folgen. „Ökonomisches Denken bezieht die Natur als Produktionsfaktor nicht ein“, sagte der Umweltökonom Sir Partha Dasgupta bei der Übergabe seines Berichts über die „Ökonomie der Artenvielfalt“ an die britische Regierung 2021. Auf dem Cover sind ein Stück Waldboden und ein Fliegenpilz abgebildet. Innen finden sich erschreckende Zahlen: Während sich das Sachkapital global von Anfang der 1990er-Jahre bis Mitte der 2000er-Jahre verdoppelt hatte und das Humankapital um 13 Prozent gestiegen war, sanken die Naturwerte um 40 Prozent. Die Menschheit sei daran gescheitert, „eine nachhaltige Beziehung zur Natur aufzubauen“, schreibt der Wissenschaftler. Statt einer die Natur zerstörende Ökonomie bräuchte es eine, die die Natur aufbaut: eine regenerative Ökonomie.

Abbildung 3. Kapitalformen und Wechselwirkungen Forschende haben in den vergangenen Jahrzehnten Methoden entwickelt, um den ökonomischen Wert natürlicher Ressourcen zu erfassen und damit den Begriff des Naturkapitals geprägt. Es umfasst die biologische Vielfalt und Ökosystemleistungen (z.B. sauberes Grundwasser, Bindung von Treibhausgasen, Blütenbestäubung, Erholungsfunktion von Naturräumen). © Verändert nach: The Economics of Biodiversity, 2021, S. 39

Die längste Zeit der menschlichen Evolution haben Menschen im Einklang mit der Umwelt gelebt und gewirtschaftet, so wie heute noch manche indigene Gemeinschaften. Mittlerweile ist es aber eine Frage des Überlebens, ob und wenn ja, wie sich Ökonomie und Ökologie in Einklang bringen lassen (Abbildung 3). Noch verschlingt alleine Europas Wirtschaft jährlich 16 Tonnen Material pro Kopf. Und am Ende fallen pro Person jährlich fünf Tonnen Müll an. Mehr Wachstum bedeutete eben bislang meist auch mehr Müll. Manche sehen die Lösung in einer Kreislaufwirtschaft, in der Abfall wieder zum Rohstoff eines neuen Verwertungszyklus wird, so wie bei Mehrwegflaschen oder Altpapier. Es wäre allerdings ein Irrtum zu glauben, dass eine Kreislaufwirtschaft den Konflikt zwischen Wachstum und Nachhaltigkeit ganz auflösen könnte. Denn ein permanentes Recycling ist bei anorganischen Stoffen aufgrund physikalischer Gesetzmäßigkeiten unmöglich. Jeder Verwertungsprozess führt immer auch zu einem Verlust von Material. Recycling benötigt zudem Energie, für deren Gewinnung wieder Ressourcen eingesetzt werden. Manche Rohstoffe wie seltene Erden sind auch nur begrenzt vorhanden – entsprechend lassen sich daraus nicht beliebig viele Produkte fertigen, die in immerwährenden Kreisläufen zirkulieren. Wenn die Menschheit ihre Lebensgrundlagen erhalten will, muss sie daher nicht nur anders wirtschaften, sondern auch mit weniger natürlichen Ressourcen auskommen.


 * Der Artikel ist erstmals unter dem Title: " Anders wirtschaften - Wachstumsmodelle in der Ökonomie" https://www.max-wissen.de/max-hefte/wachstumsmodelle-oekonomie/ in GeoMax 26/Sommer 2022 der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des abgeänderten Titels wurde der Artikel unverändert in den Blog übernommen.


 

inge Thu, 01.09.2022 - 18:28

Energiewende - jetzt Wasserstoff-Pipelines bauen

Energiewende - jetzt Wasserstoff-Pipelines bauen

Do, 25.08.2022 — Robert Schlögl

Robert Schlögl

Icon Energie

Vor drei Jahren hat Robert Schlögl, Direktor am Max-Planck-Institut für Chemische Energiekonversion (Mülheim a.d.R.) in einem, nicht nur für Deutschland richtungsweisenden Eckpunktepapier "Energie. Wende. Jetzt" (s.u.) für einen beschleunigten Umbau des Energiesystems appelliert, der nun durch Ukrainekrieg und drohende Gasknappheit noch an Tempo zulegen muss. In einem Interview spricht Schlögl über die prioritär zu setzenden Maßnahmen und was die Wissenschaft dazu beitragen kann. Er plädiert dafür, zügig die Infrastruktur für die Wasserstoffökonomie aufzubauen. In der Energieversorgung nach Autarkie zu streben, hält er ebenso für falsch wie eine Laufzeitverlängerung für Atomkraftwerke.*

 

Herr Prof. Schlögl, wie bewerten Sie die Maßnahmen, die angesichts der erwarteten Gaskrise ergriffen wurden?

Als erstes muss man mal sagen, dass die Regierung ziemlich viel unternommen hat. Man kann kurzfristig, glaube ich, nicht sehr viel mehr machen. Aber anstatt zu appellieren, wir sollen die Heizung über Nacht runterdrehen, wäre es besser, den Leuten klar sagen, dass wir durch einen historischen Fehler in eine gefährliche Situation gekommen sind. Den kann man nicht in ein paar Wochen ausbessern. Eine Minute weniger duschen und nachts die Temperatur runterregeln, löst das Problem nicht.

Was ist in der Vergangenheit falsch gemacht worden?

Das ist nicht nur die Abhängigkeit von russischem Gas, wir haben in Deutschland ein Systemproblem. Wir lösen unsere Probleme gerne auf Kosten anderer. Die Regelenergie, die wir für ein stabiles Netz brauchen, beziehen wir aus Frankreich, weil es dort Atomkraftwerke gibt. Und vor zehn Jahren haben wir noch 30 Prozent unseres Erdgases aus Russland bezogen, jetzt sind es 55 Prozent. Da hat man nicht aufgepasst, weil man nur aufs Geld geschaut hat. Jetzt begreift man vielleicht langsam, dass es ein energiepolitisches Dreieck gibt. Versorgungssicherheit, Nachhaltigkeit und Preis hängen miteinander zusammen. Wenn man sich in dem Dreieck in eine Richtung bewegt, dann werden die beiden anderen Richtungen automatisch schlechter.

Was muss also getan werden, um uns über den Winter zu bringen?

Man muss die Kohlekraftwerke hochfahren, damit man alles Gas, das nicht zum Heizen gebraucht wird, im Sommer in den Speicher füllen kann. Ein Füllstand von 60 Prozent ist alarmierend, das reicht nicht. In sechs Wochen ist das Fenster zu. Bis Ende August hat man Zeit, die Speicher zu füllen, nicht bis November. Denn im November laufen alle Heizungen.

Soll man auch die Atomkraftwerke weiterlaufen lassen?

Nein, auf keinen Fall – Atomkraftwerke weiterlaufen zu lassen ist Unsinn. Da gibt es drei Argumente dagegen: Erstens haben die Unternehmen die ganzen Materialien nicht mehr, um die AKW länger laufen zu lassen, auch wenn die vorhandenen vielleicht noch ein paar Monate länger reichen. Zweitens gibt es wahrscheinlich keine Arbeitskräfte mehr, weil man allen wichtigen Leuten in den AKWs zum Jahresende gekündigt hat. Und drittens muss man den politischen Schaden bedenken, wenn man zum dritten Mal eine Rolle rückwärts macht. Nein, das geht nicht. Die AKWs können fünf Prozent unserer Stromversorgung beitragen. Da kann ich auch zwei Kohlekraftwerke anschmeißen.

Klimapolitisch ist das aber natürlich nicht sinnvoll.

Wir emittieren 1000 Millionen Tonnen CO2 im Jahr. Wenn da noch zwei Millionen dazukommen, ist das völlig egal. Da muss man die Symbolpolitik von der Realität trennen. Wenn man nukleare Energie als einen Bestandteil der Energieversorgung zur Sicherung verwenden würde, wie das in Frankreich der Fall ist, wäre das etwas anders. Wir haben in einem demokratischen Prozess beschlossen, dass wir keine AKWs wollen – auch wenn das wissenschaftlich anfechtbar ist. Aber da jetzt eine Rolle rückwärts zu machen, würde, glaube ich, den sozialen Frieden in diesem Land aufkündigen. Das ist eine Scheintoten-Debatte, die von den wirklichen Problemen ablenkt.

Welche sind das?

Wir müssen schnellstens unsere Infrastruktur auf Vordermann bringen. Alle reden von erneuerbaren Energieträgern. Aber für die Tausenden von Windrädern, die jetzt gebaut werden sollen, gibt es keine Stromleitungen. Und für den grünen Wasserstoff, den wir kaufen wollen, gibt es keine Pipelines. Zumindest beginnt jetzt der Bau der Suedlink-Leitung von Nord- nach Süddeutschland, die schon vor zwölf Jahren versprochen wurde. Und sie kostet jetzt 25 bis 30 Milliarden statt 3 bis 4 Milliarden Euro, weil man die Leitung als Kabel in die Erde legt, damit man keine Masten sieht. Aber man wird die Stromleitungen auch so genau sehen, weil die Kabel so heiß werden, dass es an der Oberfläche 70 Grad warm wird und sich dort ein Wüstenstreifen bildet. Das war ein politischer Kompromiss, den Herr Seehofer durchgesetzt hat, der sachlich einfach nicht gerechtfertigt war. Das können wir uns eigentlich nicht leisten. Die Irrationalität in diesen Planungen ist ein Problem. Mich beunruhigt aber mehr, dass wir keinen Gesamtplan haben.

Was meinen Sie damit?

Es ist auch ein fundamentaler Unsinn, die Energiewende durch das Klimaschutzgesetz in Sektoren aufzuteilen, die wie die Ministerien zugeschnitten sind. Jetzt sind für die Energiewende fünf Ministerien zuständig, und jedes Ministerium macht wegen des Klimaschutzgesetzes irgendwas. Es gibt keine systemische Betrachtung. Das ist selbst dem Bundeskanzler schon aufgefallen. So ein großes Projekt wie die Energiewende braucht eine Steuerung.

Wie macht sich bemerkbar, dass die fehlt?

Das Gesamtsystem muss optimiert werden, nicht einzelne Sektoren, und vor allen Dingen nicht ein Sektor auf Kosten aller anderen. Denn alle Energieträger und alle Anwendungen stehen miteinander in Wechselwirkung, und deswegen auch alle Infrastrukturen. Wir haben ja nicht einmal eine gemeinsame Infrastruktur. In der Situation wollen jetzt alle auf die nicht vorhandene grüne Elektrizität zugreifen. Die einen wollen elektrisch Autofahren, die anderen wollen elektrisch heizen, und die dritten wollen ihre Industrie elektrifizieren. Ein großes Problem dabei ist, dass wir dafür viel mehr grünen Strom brauchen, als es unserem heutigen Energiebedarf entspricht. Denn um die Schwankungen von Wind und Sonne auszugleichen, muss man ungefähr 50 Prozent der Energie speichern. Wind- oder Sonnenstrom in eine speicherfähige Form umzuwandeln, kostet aber viermal mehr Energie als sie direkt zu verwenden. Die Leute, die die Energiewende verantworten, sagen aber, dass wir auch künftig nur so viel Energie haben können wie jetzt.

Müssen wir also unseren Energiebedarf senken?

Die Energie ist nicht begrenzt, aber die Gesellschaft begrenzt sie. In Zukunft schreibt Ihnen vielleicht jemand vor, dass Sie nur 1000 Kilowattstunden verbrauchen dürfen. Denn wir laufen auf ein Energiesystem zu, das bewusst auf Autarkie ausgelegt ist. Deshalb lesen Sie überall, dass der Bedarf an Primärenergie halbiert werden muss. Aber das ist natürlich Blödsinn. In einer freiheitlich-demokratischen Gesellschaft darf Ihnen niemand Ihren Energieverbrauch vorschreiben. Das Energiesystem muss so gebaut sein, dass es allen Sparten die Energie zur Verfügung stellt, die sie brauchen.

Ist das der Grund, warum Sie immer wieder für einen globalen Markt der erneuerbaren Energien werben?

Ja, genau. Aber die Energiewende, die jetzt politisch vertreten wird, geht nicht von einem globalen Energiemarkt aus, sondern von Unabhängigkeit. Das Streben nach Autarkie ist aber ein grober systemischer Fehler. Unser Land ist Exportweltmeister. Wie können wir denn autark sein? Wenn wir das versuchen, bricht unser Land sofort zusammen. Wir brauchen einen globalen Markt für erneuerbare Energie, nicht Autarkie.

Aber gerade die Abhängigkeit vom russischen Gas und die Tatsache, dass man sich jetzt mit anderen zweifelhaften Staaten arrangieren muss, ist doch jetzt ein Problem.

Da ist das Streben nach Autarkie doch verständlich. Dieses Argument habe ich schon sehr oft gehört, aber das ist ja vollkommen unzutreffend, weil die Situation eine völlig andere ist. Man muss den Import von Energie diversifizieren. Und das ist mit erneuerbarer Energie viel leichter möglich als mit fossiler. Denn die fossilen Energieträger bekommt man nur daher, wo eine Quelle ist. Erneuerbare Energie in transportierbarer Form kann man besonders effizient in einem Streifen plus/minus 20 Grad um den Äquator erzeugen. Da liegen 60 Prozent der Landmasse der Erde. Schon die Hälfte der Landfläche von Saudi-Arabien würde reichen, um den Energiebedarf der gesamten Welt zu decken. Bei uns geht das nicht so effizient, weil wir außerhalb dieser günstigen Zone liegen.

Sollten wir die regenerative Stromerzeugung dann bei uns massiv ausbauen?

Wir sollten die Energiewandlung, also zum Beispiel Fotovoltaik, Windturbinen und die Wasserstofferzeugung, bei uns in sinnvollen Dimensionen ausbauen. Aber es ist ehrlich gesagt dumm, bei uns die ganze Energie zu wandeln, die wir brauchen. Wir haben jetzt schon die höchste Dichte an Energiewandlern auf der ganzen Welt und damit decken wir nur zehn Prozent des Bedarfs. Wir müssten alles also zehnmal so dicht mit Solaranlagen und Windrädern zupflastern, um den ganzen Bedarf zu decken. Aber wir wollen doch nicht in einem landesweiten Windpark leben. Und das ist auch nicht nötig. Die Sturheit der Politik in dieser Hinsicht kritisiere ich wirklich stark. Die Energie dort zu erzeugen, wo es am effizientesten ist, würde das Problem lösen.

Wie sieht man das in anderen Ländern, vor allem denen, die uns künftig die Energie liefern sollen?

Die Welt wird diesen Weg gehen, egal ob die Deutschen das wollen oder nicht. Warum setzen wir uns nicht an die Spitze dieser Bewegung, anstatt das verhindern zu wollen. Wir haben ja jetzt auch einen globalen Energiemarkt, und den wird es immer geben. Sie glauben doch nicht im Ernst, dass die heutigen Akteure sich das einfach wegnehmen lassen – natürlich nicht, auch weil Energie einen großen Machtfaktor darstellt. Es gibt ja de facto keinen Mangel an Energieträgern auf dieser Welt. Die Knappheit, die wir gerade erleben, ist nur auf Spekulation und Politik zurückzuführen. Putin verkauft jetzt seine Energieträger irgendwem anders als uns und der, der die gekauft, kauft sie dann nicht mehr in Amerika. Aber deswegen ist doch der Verbrauch nicht anders geworden, und das Angebot ist auch nicht anders geworden, sondern nur die Spekulation ist anders geworden. Daran sieht man, welche Macht dahintersteckt.

Wie kann man diese Macht begrenzen?

Wir müssen als ein Land, das immer ein Nettoimporteur von Energie bleiben wird, dafür sorgen, dass in diesem globalen Markt möglichst viele Spieler mitspielen. Diversifizierung ist also die Aufgabe.

Gibt es in der Wissenschaft schon systemische Konzepte?

Das Bundesforschungsministerium hat vor zwei Jahren das Projekt TransHyDE aufgesetzt, das ich koordiniere. Darin untersuchen wir den Transport von Wasserstoff für Deutschland. In einem großen Teilprojekt geht es dabei um die Systemanalyse. Da entwickeln ungefähr 40 Unternehmen und 250 Leute systemische Konzepte. Auch die Betreiber heutiger Pipelines haben solche Konzepte. Die wollen die Gaspipelines künftig mit Wasserstoff füllen. Das geht aber nicht, weil es nicht so viel Wasserstoff gibt, dass sich das Erdgas von einem Tag auf den anderen ersetzen lässt. Wir sind in Deutschland toll darin, schnell aus etwas auszusteigen. Dann überlegen wir erst, wo wir einsteigen. Das ist auch ein Webfehler unserer Energiewende. Man muss aber erst in etwas Neues einsteigen, und wenn das funktioniert, schaltet man das alte ab.

Das heißt, man sollte für den Wasserstoff neue Pipelines bauen?

Ja genau, wir müssen jetzt Wasserstoff-Pipelines bauen, damit wir sie in fünf Jahren haben.

Aber eine Idee ist doch, die alten Erdgaspipelines für den Wasserstoff zu verwenden.

Dann müssen Sie aber warten, bis der Wasserstoff da ist, und das dauert noch 20 Jahre. Bis dahin sind die alten Pipelines 40 Jahre alt – dann kann man sie nicht mehr verwenden. Es ist doch unsinnig zu glauben, dass man einfach den Gashahn abdrehen kann. Gas trägt etwa ein Drittel zum gesamten deutschen Energiesystem bei. Die erneuerbaren Energien liefern aber nur zehn Prozent davon. Das passt also quantitativ nicht. Man muss jetzt mal warten, bis wir 500 Terawattstunden Wasserstoff verfügbar haben. Das ist eine irrsinnig große Menge. Wir haben heute 800 Terawattstunden Erdgas, soviel Wasserstoff wird es vielleicht in 20 Jahren geben – aber für die ganze Welt. Um das russische Gas durch Wasserstoff zu ersetzen, müssten alle Fabriken auf der Welt, die Elektrolyseure herstellen, 40 Jahre lang Elektrolyseure produzieren, damit man das ersetzen kann – aber nur für Deutschland. (Abbildung)

Abbildung Die Wasserstofftechnologie: Umwandlung volatiler Erneuerbarer Energien in Wasserstoff und flüssige Kraftstoffe. (Bild stammt von der homepage des Autors https://www.cec.mpg.de/de/forschung/heterogene-reaktionen/prof-dr-robert-schloegl und wurde von der Redaktion eingefügt)

Hat der Umstieg auf Wasserstoff, für den Sie immer plädieren, dann überhaupt eine Chance?

Der Umstieg auf Wasserstoff hat keine Chance, wenn man sagt, wir wollen das in zwei Jahren machen. Aber wir wollen das in 20 Jahren schaffen, dann funktioniert es schon. Wenn man aber nicht anfängt, dauert es 20 Jahre plus X. Die meiste Zeit verliert man in einem so großen Projekt am Anfang. Wenn die Bagger rollen, dauert es halt solange es dauert. Aber das Reden darüber, ob wir die Bagger rollen lassen, das kann man beschleunigen.

Derzeit hat man den Eindruck, dass sehr viel unternommen wird. Herrscht jetzt hektischer Aktionismus?

Ja, aber das geht auch nicht anders. Stellen Sie sich mal vor, was Herr Habeck seit dem Ukrainekrieg für eine Verantwortung trägt – meine Güte. Er sieht auch die Notwendigkeit einer systemischen Betrachtung. Der weiß das alles genau, was ich jetzt gesagt habe – das weiß ich. Aber Politik ist die Kunst des Machbaren, nicht die Kunst des Notwendigen. Und da haben auch wir als Wissenschaft schon eine Verantwortung, faktische Aufklärung zu betreiben. In unserer Demokratie sind Politikwechsel nur über das Verständnis des Problems möglich, das kann man nicht anordnen.

Wie kann die Grundlagenforschung der Max-Planck-Gesellschaft zur Energiewende beitragen? Kann die Kernfusion dabei helfen?

Aktuell kann die Kernfusion uns natürlich nicht helfen, sie ist etwas fürs 22. Jahrhundert. Trotzdem muss man das natürlich verfolgen. Aber im Maschinenraum der wirklichen Technik gibt es eine Million von wissenschaftlichen Schwierigkeiten. Katalysatoren werden zum Beispiel überall gebraucht, die meisten funktionieren aber nicht richtig. Dadurch verlieren wir wahnsinnig viel Energie. Bei den Umwandlungsprozessen in chemische Energieträger, die wir für einen globalen Energiemarkt brauchen, ist noch viel zu tun. Und da tun wir in der Max-Planck-Gesellschaft auch viel. Was uns zum Beispiel fehlt, ist eine Wissenschaft der chemischen Konversion, die so funktioniert wie die Entwicklung von Computerchips. Die designt heute ein Computer – für einen Menschen ist das viel zu kompliziert. Eine chemische Reaktion kann aber bislang niemand auf der Welt als Ganzes berechnen, weil es zu kompliziert ist. Diese Komplexität mit neuen Konzepten in der theoretischen Chemie zu reduzieren, ist ein lohnendes Ziel für die Max-Planck-Gesellschaft.

Das wirkt jetzt recht kleinteilig.

Gemessen an den Herausforderungen der Energiewende ist das natürlich kleinteilig, aber in vielen Fällen haben wir die wissenschaftlichen Grundlagen der Energiewende noch gar nicht. Nur geht es hier eben nicht nach dem Leitspruch von Max Planck, dem Anwenden muss das Erkennen vorausgehen. Wir müssen jetzt erst einmal anfangen und suchen dann das Optimum. Das Fehlen des Wissens ist keine Entschuldigung, nichts zu tun. Die Gegner der Energiewende sagen oft, wenn Ihr das alles rausgefunden habt, dann machen wir Energiewende. Das ist aber ganz falsch.

Das Interview führte Peter Hergersberg (Redaktionsleiter für Chemie, Physik, Technik), Abt. Kommunikation, www.mpg.de


*Das Interview ist am 1.8.2022 unter dem Titel „Wir müssen jetzt Wasserstoff-Pipelines bauen“ auf der Webseite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/19042600/energiewende-gaskrise-schloeglund wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Text wurde unverändert übernommen; eine Abbildung von der Webseite von Robert Schlögl von der Redaktion eingefügt.


Energiewende im ScienceBlog

Eckpunktepapier von Robert Schlögl: "Energie.Wende.Jetzt"

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R.Schlögl, 22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Teil 6: R.Schlögl, 26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

------------------------------------------------------------------------------------------

Artikel von Georg Brasseur:

Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

Georg Brasseur, 10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?


 

inge Thu, 25.08.2022 - 00:05

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Fr, 14.08.2022 — Inge Schuster

Inge SchusterIcon Gehirn

Eine 2006 erschienene Untersuchung, die erstmals über einen kausalen Zusammenhang zwischen dem Auftreten des Amyloid-Komplexes Ab*56 und dem kognitiven Abbau bei der Alzheimerkrankheit berichtete, erregte enormes Interesse, da sie eine massive Untermauerung der Amyloid-Hypothese zur Entstehung der Krankheit war. Der mehr als 3000 Mal zitierte Artikel wurde so richtungsweisend für die weitere, milliardenschwere Finanzierung zu Forschung und Entwicklung neuer Alzheimer-Therapeutika. Wie sich nun herausstellte, dürften die Forscher in dieser und auch in einer Reihe darauf folgender Arbeiten ihre Aussagen mit manipulierten Abbildungen belegt haben. Darüber hat das Fachjournal Science nach ausführlichen Recherchen Ende Juli 2022 einen langen, bestürzenden Bericht gebracht [1].

116 Jahre nachdem der Arzt Alois Alzheimer vor Irrenärzten in Tübingen einen Vortrag "Über eine eigenartige Erkrankung der Hirnrinde" hielt, in dem er sogenannte Plaques im Hirn einer Demenzkranken zeigte, stellt die nach ihm benannte Erkrankung ein noch immer ungelöstes Problem für die Weltgesundheit dar. Es ist weder klar, wodurch die Krankheit ausgelöst wird, noch gibt es Therapien, die den fortschreitenden kognitiven Abbau stoppen oder gar heilen könnten. Charakteristisch für die Alzheimer-Krankheit sind Proteinablagerungen die sich in Form von Plaques zwischen den Nervenzellen (β- Amyloid-Plaques) und als Knäuel von Fibrillen des Tau-Proteins im Innern der Nervenzellen bilden. Alzheimer betrifft vor allem alte Menschen, kann aber auch schon in jüngerem Alter, d.i. unter 65 Jahren, auftreten; das zumeist langsame, sich über Jahre erstreckende Absterben von Nervenzellen ist für den überwiegenden Teil (bis zu 70 %) aller Demenzerkrankungen verantwortlich.

WHO hat Demenz zur Priorität für die Weltgesundheit erklärt

https://www.who.int/news-room/fact-sheets/detail/dementia

Laut WHO sind global derzeit rund 55 Millionen Menschen von Demenz - und dies bedeutet überwiegend von Alzheimer - betroffen, rund 10 Millionen Erkrankte kommen jährlich hinzu; mit der Zunahme der Bevölkerung und den noch schneller wachsenden älteren Gruppen wird die Zahl der Kranken im Jahr 2030 voraussichtlich auf 78 Millionen und im Jahr 2050 auf 139 Millionen (das sind dann rund 1,4 % der Weltbevölkerung) ansteigen. Demenz ist weltweit die siebenhäufigste Todesursache und einer der Hauptgründe für Behinderungen und Pflegebedürftigkeit von älteren Menschen. Die Erkrankung hat physische, psychische, soziale und wirtschaftliche Auswirkungen nicht nur für die Betroffenen, sondern auch für ihre Betreuer, Familien und die Gesellschaft insgesamt. Wurden die weltweiten gesellschaftlichen Gesamtkosten von Demenz im Jahr 2019 auf 1,3 Billionen US-Dollar geschätzt, so wird bis 2030 ein Anstieg auf 2,8 Billionen US-Dollar erwartet. Mit dem Global action plan on the public health response to dementia 2017-2025 ein umfassendes Handlungskonzept für politische Entscheidungsträger, internationale, regionale und nationale Partner und die WHO ins Leben gerufen worden.

Fehlende Therapeutika

Die einzigen zugelassenen Medikamente gegen Alzheimer können die Neurodegeneration nicht stoppen, sondern lediglich die Symptome behandeln - dies nicht sehr effizient und mit zum Teil schweren Nebenwirkungen.

Insgesamt wurden bis jetzt 7 Pharmaka zugelassen, 5 davon sind auf Neurotransmitter abzielende Wirkstoffe, die schon vor mehr als 25 Jahren auf den Markt kamen: Inhibitoren der Acetylcholinesterase (Donezepil, Galantamin, Rivastigmin und Tacrin) und ein NMDA-Rezeptor Antagonist (Memantin). Suvorexant, ein Antagonist des Orexin-Rezeptors wurde eigentlich zur Behandlung von Schlaflosigkeit zugelassen, von der häufig auch Alzheimer-Kranke betroffen sind. Basierend auf der Hypothese, dass eine Verringerung der zwischen den Nervenzellen abgelagerten Plaques ein Fortschreiten der Erkrankung aufhalten/umkehren könnte (s.u.), wurden 1984 als deren Beta-Amyloid-Peptide identifizierte Komponenten rasch zu wichtigen Zielstrukturen (Targets) der Alzheimer-Forschung und Entwicklung. Allerdings sind die Bemühungen jahrzehntelang an fehlender Wirksamkeit und/oder nicht tolerablen Nebenwirkungen gescheitert. Dass 2021 mit Aduhelm (Aducanumab) erstmals ein gegen β-Amyloid-Proteine gerichteter Antikörper, von der FDA zugelassen wurde, stellt wahrscheinlich keinen echten Durchbruch dar. Diese Zulassung ist bei führenden Experten auf heftige Ablehnung gestoßen, da Aduhelm zwar die Amyloid-Plaques reduzierte, dies aber nicht mit verbesserten kognitiven Fähigkeiten der Patienten korrelierte und dazu eine Reihe schwerer Nebenwirkungen auftraten. Die europäische Arzneimittelagentur EMA hat sich gegen eine Zulassung ausgesprochen.

Von insgesamt 331 gelisteten klinischen Alzheimer-Studien (klinische Phasen 1 - 3) gibt es 69, deren Target Beta-Amyloid ist - in den besonders großen klinischen Studien der entscheidenden Phase 3 sind es 9 von 23. Wie oben erwähnt sind viele der Amyloid-Studien bereits gescheitert, 30 wurden schon abgebrochen. (Eine detaillierte Auflistung verschiedener Targets in den einzelnen klinischen Phasen Liste findet sich in [2].)

Die Amyloid-Hypothese

geht von einer zentralen Rolle der Beta-Amyloid-Peptide in der Alzheimer-Erkrankung aus. Diese bestehen zumeist aus 38- 42 Aminosäuren langen Peptidketten, die mit Hilfe von Enzymen (Sekretasen) aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden. APP ist in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert. Im gesunden Hirn dürften APP und auch seine Spaltprodukte wichtige Funktionen in physiologischen Prozessen spielen, u.a. in der Bildung von Synapsen und in der Neuroprotektion.

APP ist ein in der Zellmembran sitzendes Rezeptor-Protein, das mit dem Großteil seiner Sequenz aus der Zelle herausragt (Abbildung 1 oben). Die Abspaltung des langen, extrazellulären Teils (blau) der Kette führt u.a. zu kleinen, etwa 40 Aminosäuren großen, Bruchstücken (gelb), den sogenannten Beta-Amyloid-Peptiden. Diese können aggregieren und - wenn sie durch das glymphatische System des Gehirns nicht in ausreichendem Maße entsorgt und/oder abgebaut werden - zu unlöslichen Plaques zusammenwachsen (Abbildung 1 oben, rechts), die in weiterer Folge Entzündungen und Schädigungen von Nervenzellen und ihren Funktionen hervorrufen.

Durch geeignete Marker (in diesem Fall PiB) können solche Plaques nicht-invasiv mittels Positron-Emission-Tomographie (PET) sichtbar gemacht werden und damit die Alzheimer-Diagnose (AD) erhärten. Abbildung 1 (unten rechts) zeigt im Hirn eines Alzheimer-Kranken hohe Anreicherungen des Markers - und damit der Amyloid-Plaques - im Frontal- und Scheitellappen, Regionen, die für kognitive Prozesse, motorische Steuerung, operative Funktionen und Sinneswahrnehmungen verantwortlich sind. Dass solche massiven Ansammlungen schwere Beeinträchtigungen der lokalen Hirnfunktionen zur Folge haben sollten, erscheint einleuchtend.

Die Unterbindung von Nervenverbindungen und das massive Absterben von Nervenzellen führen bei fortschreitender Krankheit zu einer extremen Schrumpfung von Teilen des Gehirns insbesondere der Hirnrinde (Cortex) und des Hippocampus und zu hochgradig erweiterten Ventrikeln (Abbildung 1. links unten).

Abbildung 1: Von der Bildung der Beta-Amyloid-Peptide über die massive Anhäufung von Amyloid-Plaques in essentiellen Gehirnregionen von Alzheimer-Kranken (AD, sichtbar gemacht durch Positronen Emissions-Tomographie - PET) zur Gehirnschrumpfung. Erklärung: siehe Text. (Bilder oben aus http://www.nia.nih.gov/Alzheimers/Publications/UnravelingTheMystery/Part1/Hallmarks.htm ; Bild unten rechts: Klunkwe https://commons.wikimedia.org/wiki/File:PiB_PET_Images_AD.jpg, Lizenz: cc-by-sa; Bild unten links: gemeinfrei).

Im Laufe der Jahre kam allerdings die Abfolge "Generierung von Beta-Amyloid - Bildung von Plaques - Demenz" ins Wanken, da sich herausstellte, dass die Plaque-Belastung nicht mit dem Erscheinungsbild der Krankheit korrelierte, Nervenzellen auch an Orten ohne Plaques abstarben, es anderseits nicht-demente Personen mit ausgeprägten Plaques gab und in klinischen Studien die Reduktion der Plaques keinen Einfluss auf das Krankheitsgeschehen hatte. In der Folge kam es zu einem Paradigmenwechsel: Untersuchungen deuteten nun darauf hin, dass nicht Amyloid-Plaques sondern kleinere lösliche Aggregate - Beta-Amyloid Oligomere - die eigentlichen toxischen Strukturen sein könnten.

Wäre nun vielleicht ein Amyloid-Oligomeres Auslöser der Alzheimer-Krankheit und damit endlich ein erfolgversprechendes Target für das Design wirksamer Therapeutika in Sicht?

Ein neues, toxisches Amyloid-Oligomer

Ein 2006 im Fachjournal Nature erschienener Artikel bestätigte die Hypothese vom toxischen Amyloid-Oligomer [3]. Forscher am Department of Neuroscience der Universität von Minnesota (Minneapolis) hatten an einem validierten Alzheimer-Mäusemodell (s.u.) ein neues Amyloid-Oligomeres, Ab*56, im Hirngewebe identifiziert, dessen Menge mit dem nachlassenden Gedächtnis der alternden Mäuse korrelierte (dies wurde an Hand des von den Tieren zuvor erlernten Orientierungsvermögens im sogenannten Morris Wasser-Labyrinth untersucht). Isoliert und in gereinigter Form in junge, gesunde Ratten injiziert löste Ab*56 in diesen Tieren dann Gedächtnisverlust aus. Damit schien erstmals ein kausaler Zusammenhang zwischen dem toxischen Amyloid-Oligomer und dem Gedächtnisverlust, also eine Hauptursache für die Erkrankung gefunden worden zu sein. "Unsere Daten zeigen, dass Ab*56 das Gedächtnis gesunder, junger Ratten beeinträchtigt, und stützen die Hypothese, dass Ab*56 die Hauptursache für den Gedächtnisverlust bei Tg2576-Mäusen mittleren Alters ist." schrieben die Forscher. Ihre Daten stützten sich auf eine Reihe aussagekräftiger Fotos von sogenannten Western-Blots, die Ab*56 und seinen Verlauf im Alterungsprozess des Gehirns dokumentierten. (nb: In Western Blots werden Proteinlösungen, die mittels Gelelektrophorese im elektrischen Feld nach Größe getrennt wurden, auf eine Membran übertragen (Blotting) und die einzelnen Proteinbanden mit immunologischen Methoden nachgewiesen.)Ab*56 wurde dann auch in menschlichen Gehirnen identifiziert, sein Gehalt stieg mit dem Alter an und korrelierte im frühen Stadium der Alzheimer-Krankheit mit der Plaque-Last und dem pathologischen Tau-Protein.

Die 2006 Studie löste ein enormes Echo aus - wurde seitdem zur meistzitierten Alzheimer-Arbeit (laut Google Scholar kam es zu 3276 Zitierungen) - und gab der bis dato erfolglosen, bereits stark kritisierten Amyloid-Forschung neuen Aufwind. Die amyloid-bezogene Alzheimer-Forschung erhielt enorme Unterstützung - fast die Hälfte der gesamten Alzheimer-Gelder sollen in die Amyloid-Forschung geflossen sein. Die US-National Institutes of Health (NIH) haben allein im letzten Jahr 1,6 Milliarden US Dollars - die Hälfte ihres Alzheimer Budgets - an Amyloid-bezogene Projekte vergeben - zu Lasten von Forschern, die andere Ideen entwickelten. Natürlich wechselten viele Alzheimer-Forscher auf das erfolgversprechende, finanziell besser unterstützte neue Thema.

Es gab damals wenig Grund an den Ergebnissen zu zweifeln, handelte es sich bei den Autoren offensichtlich doch um erfahrene, brillante Experten:

Sylvain Lesné,ein junger französischer Wissenschaftler, der Erstautor der Studie und Entdecker des toxischen Ab-Oligomer, hatte bereits in seiner Doktorarbeit in Frankreich über den Metabolismus des Amyloid-Precursor-Proteins gearbeitet. Unmittelbar danach war er 2002 als PostDoc zur hochrenommierten Neurobiologin Karen Ashe, Professorin am Neuroscience Department in Minneapolis gekommen. Ashe ist Koautorin der Studie [3] und auch einiger späterer Studien von Lesne. Sie gilt als Pionierin der Alzheimerforschung. Als PostDoc hatte sie im Labor von Stanley Pruisiner wesentlich zu dessen Prionen-Forschung beigetragen (für die er mit dem Nobelpreis ausgezeichnet wurde); an der University of Minnesota forscht sie nun seit 30 Jahren am Gedächtnisverlust bei der Alzheimer-Krankheit und hat u.a. ein Alzheimer-Mausmodell - eine transgene Maus entwickelt, die menschliches Beta-Amyloid produziert, welches im Gehirn des Tieres Plaques bildet - das Modell wird weltweit angewandt.

In den folgenden 16 Jahren sind eine Reihe weiterer Publikationen von Lesné und Ashe - gemeinsam und auch einzeln - erschienen, welche die Befunde von 2006 bekräftigten und darauf aufbauten. Lesné wurde Assistant Professor, erhielt ein eigenes Labor und für seine Projekte insgesamt rund 10 Millionen US-Dollar Unterstützung von den NIH.

Merkwürdigerweise wurde - trotz des enormen Interesses an dem neuen Konzept - das toxische Ab*56 Amyloid von anderen Forschergruppen kaum nachgewiesen.

Ab*56 - Fact or Fiction...............

Im vergangenen Jahr ist der Neurowissenschaftler und Alzheimer-Forscher Matthew Schrag (Vanderbilt University) bei einer Recherche auf der PubPeer Website auf Kritik an den Lesné-Artikeln gestoßen, welche die Echtheit der Abbildungen zu Identifikation und Charakterisierung von Ab*56 in Frage stellten. Mit Hilfe von Software-Tools hat Schrag den 2006-Artikel und darauf folgende Artikel untersucht und in rund 20 davon mehr als 70 fragwürdige, manipulierte Western-Blots gefunden, die duplizierte, hineinkopierte Banden und Hintergründe aufwiesen [1].

Schrag hat seine Ergebnisse den NIH und den Fachjournalen Science und Nature gemeldet. Science beauftragte daraufhin unabhängige Bildanalytiker und mehrere führende Alzheimerforscher mit der Überprüfung von Schrags Ergebnissen zu den Artikeln von Lesné. Diese stimmten mit den Schlussfolgerungen von Schrag überein. "Die Bilder scheinen durch Zusammensetzen von Teilen von Fotos aus verschiedenen Experimenten zusammengestellt worden sein", sagte eine Expertin.[1]

Es sieht also derzeit so aus, als ob zahlreiche Abbildungen, die die Existenz und Funktion des Amyloid Oligomeren beweisen sollten, massiv manipuliert worden sind. Nach einem halben Jahr intensiver Recherche hat Science am 21. Juli 2022 über diesen Fall in einem langen ausführlichen Artikel berichtet.[1]

...........und Konsequenzen

Wie groß der durch diese Studien angerichtete Schaden für die Alzheimer Forschung aber auch ganz allgemein für das Vertrauen in die Wissenschaft ist, kann noch nicht abgeschätzt werden.

Gibt es das Amyloid-Oligomere Ab*56 überhaupt? Oder sind die publizierten Bilder vielleicht "nur" geschönt und das Amyloid in den Originalen vielleicht doch, wenn auch nicht so klar, nachgewiesen? Allerdings: Warum konnten es dann andere Forscher nicht finden? Lesné ist laut Science derzeit für eine Stellungnahme nicht erreichbar.

Warum sind die manipulierten Abbildungen Karen Ashe nicht aufgefallen, die ja Koautorin und anfangs Betreuerin ihres Postdocs Lesné war? Warum hat sie als Koautorin nicht in die Originalfotos Einsicht genommen? Auch als Alleinautorin eines Übersichtsartikels im Jahr 2010 bekräftigt sie in einem langen Kapitel die Ergebnisse aus dem 2006-Artikel und übernimmt einige der dortigen Abbildungen [4].

Warum sind die Abbildungen den Gutachtern der Publikationen nicht aufgefallen? Insbesondere im Journal of Neuroscience wurden fünf verdächtige Arbeiten veröffentlicht.

Was bedeutet dies aber nun für die Alzheimer-Forschung? Wurde diese durch die Befunde von Lesné 16 Jahre lang in die falsche Richtung gelenkt?

Der Direktors des National Institutes of Aging der NIH bemüht sich in einer "Erklärung zur Demenzforschung mit Amyloid-Beta-Protein" um Schadensbegrenzung [5]:

"Unter den identifizierten Oligomeren befindet sich eines mit der Bezeichnung Aβ*56. Während diese Entdeckung anfänglich ein gewisses Interesse weckte, führte sie zu einer begrenzten Reihe von nachfolgenden Forschungen, da es an spezifischen Markern fehlte, um es im Labor nachzuweisen, und da die anfänglichen Ergebnisse nicht reproduziert werden konnten. Es ist bemerkenswert, dass das Ab*56-Oligomer eines von vielen war, die damals erforscht wurden, und dass seitdem kein Alzheimer-Biomarker oder eine experimentelle Therapie auf der Grundlage von Ab*56 entwickelt wurde. Stattdessen stehen Immuntherapien, die auf Ab-Monomere (eine einzelne "Einheit" von Ab), andere Arten von Oligomeren und die längeren Amyloidfibrillen abzielen, im Mittelpunkt von Studien über potenzielle Medikamente zur wirksamen Behandlung von Demenz."

Deutlicher äußert sich der Nobelpreisträger Thomas Südhof, der selbst über Ursachen neuronaler Erkrankungen forscht [1]: "Der unmittelbare, offensichtliche Schaden ist die Verschwendung von NIH-Mitteln und die Verschwendung von Ideen in diesem Gebiet, weil die Leute solche Ergebnisse als Ausgangspunkt für ihre eigenen Experimente verwenden."


[1]Ch. Piller, Blots on a field? 21.7.2022. Science 377(6604):358-363. 10.1126/science.add9993  

[2] Alzforum:https://www.alzforum.org/therapeutics

[3] Sylvain Lesne et al., A specific amyloid-b protein assembly in the brain impairs memory. Nature 440|16 March 2006|doi:10.1038/nature04533

[4] Karen H. Ashe, Animal models to study the biology of amyloid-beta protein misfolding in Alzheimer disease; in Protein Misfolding Diseases: Current and Emerging Principles and Therapies (Marina Ramirez-Alvarado et al., John Wiley & Sons, 2010) rb.gy/tez5zz

[5] Richard J. Hodes, M.D., Director, National Institute on Aging : NIA statement on amyloid beta protein dementia research. https://www.nia.nih.gov/news/nia-statement-amyloid-beta-protein-dementia-research


Weiterführende Links

Sylvain Lesné: homepage https://lesnelab.org/  

Karen H. Ashe: homepage https://www.memory.umn.edu/research/ashe-lab/

National Institutes of Health (NIH).  https://www.nih.gov/

Alzheimer: Eine dreidimensionale Entdeckungsreise. https://www.youtube.com/watch?v=paquj8hSdpc

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

-----------------------------------------------

Artikel über die Alzheimer-Krankheit im ScienceBlog:

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein.

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Inge Schuster, 24.06.2016; Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.

Gottfried Schatz, 03.07.2015:; Die bedrohliche Alzheimerkrankheit — Abschied vom Ich.


 

inge Sun, 14.08.2022 - 00:21

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

Fr, 04.08.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Transplantationsmedizin könnte einen riesigen Sprung nach vorn machen, wenn Spenderorgane länger Sauerstoff aufnehmen könnten und ihre Zersetzung verzögert würde. Genau das verspricht eine Technologie namens OrganEx, die ein Forscherteam von der Yale-University im Fachjournal Nature beschrieben hat [1]. Die Forscher haben bei Schweinen einen Herzstillstand erzeugt, eine Stunde später OrganEx angewandt und dann die Rückkehr der Körperfunktionen verfolgt. Die Genetikerin Ricki Lewis berichtet über diesen neuen Ansatz, der bestehende Technologien zur Verlängerung der Lebensfähigkeit von Organen bei weitem übertrifft.*

Schweine, ein populäres Modell

Schweine sind seit langem ein beliebtes Tiermodell für menschliche Krankheiten, da sie ungefähr unsere Größe haben und ihre Herzen und Blutgefäße recht ähnlich sind. So sind sie auch in medizinische Science Fiction eingegangen.

In der Twilight-Zone-Episode Eye of the Beholder (Im Auge des Betrachters) hat sich Janet Tyler mehreren Eingriffen unterzogen, um den "erbärmlichen, verdrehten Fleischklumpen", der ihr Gesicht darstellt, durch etwas Akzeptableres zu ersetzen. Am Ende, als die Verbände nach einem weiteren fehlgeschlagenen Eingriff langsam abgerollt werden, sehen wir, dass sie von Natur aus wie wir aussieht, was in ihrer Welt, in der die meisten Menschen, einschließlich der Krankenschwester und des Arztes, Schweinegesichter haben, als hässlich gilt. Janet und andere wie sie werden abgesondert, um unter sich zu leben.

Arnold Ziffel, auch bekannt als Arnold das Schwein, diente als Kinderersatz in der Fernsehserie Green Acres, die von 1965 bis 1971 lief. In einer Folge von Seinfeld aus dem Jahr 1993 glaubt Kramer, der einen Freund in einem Krankenhaus besucht, einen Schweinemenschen über den Flur rennen zu sehen, das Ergebnis eines schiefgelaufenen Experiments in einem oberen Stockwerk.

Im wirklichen Leben schrieb 1997 ein 15 Wochen altes, 118 Pfund schweres Schwein namens Sweetie Pie Medizingeschichte. Ein 19-Jähriger, der an Leberversagen litt, benötigte dringend ein Transplantat. Er überlebte 6 Stunden lang in Erwartung eines Spenderorgans, wobei sein Blut außerhalb seines Körpers durch Sweetie Pie's körperlose Leber zirkulierte. Sweetie Pie war kein gewöhnliches Schwein, nicht einmal ein so wunderbares wie Arnold. Ihre Zellen waren mit menschlichen Proteinen durchsetzt, die ihre Leber vor dem Immunsystem des Patienten abschirmten. Die Schweinegesichter der Twilight Zone waren eine Metapher, Arnold ein Kinderersatz, Pigman ein Rätsel und Sweetie Pie ein vorübergehender Leberersatz. Aber die Schweine in der neuen Studie [1] versprechen, viel mehr zu sein.

Den Tod rückgängig machen

Nach dem Hirntod oder dem Herzstillstand setzt eine charakteristische chemische Choreografie ein. Nur wenige Minuten nach dem Versiegen der Sauerstoffzufuhr bilden sich Säuren während die Zellen anschwellen an und empfindliche Membranen und Organelle verletzen. Die ausgeprägten Vorgänge des Zelltods beginnen sich zu entwickeln.

Auf Ganzkörperebene alarmiert eine Flut von Hormonen und Zytokinen die Zellen und löst Entzündungsprozesse aus. Das Nerven- und das Immunsystem sowie die Blutgerinnung schalten auf Hochtouren, während sich die Organe abschalten. Aber selbst Organe, die sich im Todeskampf befinden, haben noch einige lebensfähige Zellen, die entnommen und in Laborgläsern kultiviert werden können. Isolierte, ganze Organe, darunter Herzen, Lebern, Nieren und Lungen, können am Leben erhalten werden, wenn eine geeignete "Suppe" durch ihre Gefäße geleitet (perfundiert) wird.

Solche Beobachtungen haben dazu geführt, dass das Yale-Team 2019 die BrainEx-Technologie entwickelte. Damit wurde das Gehirn von Schweinen am Leben erhalten, das Organ, das durch Sauerstoffmangel am stärksten geschädigt werden kann.

"OrganEX ist eine Fortsetzung von BrainEx, die vom isolierten Gehirn auf den ganzen Körper übertragen wird. Ähnlich wie die vorherige Studie hat diese Studie gezeigt, dass wir bestimmte Zellfunktionen nach dem Tod wiederherstellen können, und wir sehen eine ähnliche Erholung der Zellen in anderen Organsystemen. Die Zellen sterben nicht so schnell ab, wie wir angenommen haben, was uns die Möglichkeit eröffnet, einzugreifen", sagte Zvonimir Vrselja in einem Webinar, das das Fachjournal Nature kurz vor der Veröffentlichung der Studie veranstaltete. Die Forscher lösten Herzinfarkte aus, um die in den BrainEx-Experimenten verwendeten Schweine zu töten, gefolgt von bis zu sechs Stunden Sauerstoffentzug.

Sowohl BrainEx als auch OrganEx verwenden ein "kryoprotektives Perfusat", ein Kälteelixier, das mit synthetischem Hämoglobin für den Sauerstofftransport angereichert ist. Das Gebräu enthält auch Antibiotika, Entzündungshemmer, Unterdrücker des Zelltods und verschiedene Moleküle, um die Zellen zu schützen und in der Lage zu sein, dem Einfrieren stand zu halten und die Blutgerinnung zu hemmen.

Das OrganEx-Rezept wurde so modifiziert, dass es für einen ganzen Schweinekörper passt, die wichtigste Änderung bestand aber in der Computersteuerung einer Pumpe, die das Mittel durch das Kreislaufsystem eines ganzen großen Säugetiers schickt. Der Aufbau ähnelt einer Herz-Lungen-Maschine. Eine Abbildung im Nature-Artikel zeigt die Zeichnung eines Schweins, das an verschiedene Sensoren (zur Messung von Hämoglobin, Herzschlag, Blutfluss und -Druck), Pumpen, einen Tank mit Medikamenten, darunter Heparin zur Aufrechterhaltung des Blutflusses, einen Oxygenator und ein Dialysegerät zur Aufrechterhaltung der Elektrolyte angeschlossen ist.

Ein Bioethiker war an Bord, um sicherzustellen, dass die Schweine - 10 bis 12 Wochen alte Weibchen - nicht leiden. Sie erhielten Fentanyl-Pflaster, waren in tiefer Narkose und dann wurde ihr Herz mit 9-Volt-Batterien angehalten.

Besser als ECMO

Eine Stunde nach dem Tod wurden einige Schweine an OrganEx angeschlossen, andere an ECMO (extrakorporale Membranoxygenierung), eine bestehende Technik, bei der das sauerstoffhaltige Blut eines Tieres rezirkuliert und für vielleicht 20 Minuten lang aufrechterhalten werden kann. OrganEx ersetzt das Blut - und das neue Rezept funktioniert besser.

Nach sechs Stunden hatte ECMO noch nicht alle Organe der Schweine erreicht, und viele kleinere Blutgefäße waren kollabiert. Aber die OrganEx-Schweine hatten eine vollständige Reperfusion und einen stabilen Sauerstoffverbrauch sowie keine Elektrolytstörungen und saure Körperflüssigkeiten, die durch Sauerstoffmangel entstehen. Zur Überprüfung ihrer wiederhergestellten physiologischen Funktionen bestanden die Schweine verschiedene Tests (auf Glukose, Blutgerinnung, Nierenfunktion, EEG und EKG).

Als die Forscher Teile der wichtigsten Organe - Gehirn, Herz, Lunge, Leber, Niere und Bauchspeicheldrüse - genauer untersuchten, stellten sie fest, dass sie nach OrganEx weniger geschädigt waren und sich besser erholten als nach ECMO. Die Nieren unter OrganEx zeigten sogar Anzeichen von Zellteilung.

Die Analyse der Genexpression ging noch weiter in die Tiefe und untersuchte, welche Gene in einzelnen Zellen der Nieren, der Leber und des Herzens an- oder abgeschaltet wurden. Die Ergebnisse stimmten mit denen auf Gewebe- und Organebene überein und bestätigten den Ansatz. Die wichtigsten Unterschiede zwischen OrganEx und ECMO, die sich bei allen Tests herausstellten, waren Ausmaß der Entzündung und Zelltod.

Nenad Sestan fasste die Ergebnisse zusammen. "OrganEx hat die Funktion zahlreicher Organe wiederhergestellt, Stunden nachdem sie eigentlich tot sein sollten. Das Absterben von Zellen kann aufgehalten werden, und Zellen können sogar noch eine Stunde nach dem durch Kreislaufstillstand herbeigeführten Tod neu starten."

Die nachweisbare Überlegenheit von OrganEx könnte Tore für künftige Behandlungen öffnen, so David Andrijevic. "Unsere Ergebnisse unterstreichen eine bisher unbekannte Fähigkeit eines großen Säugetierkörpers, sich nach dem Lebensende wieder zu erholen. Die Ergebnisse haben das Potenzial, die Verfügbarkeit von Organen für Transplantationen zu erhöhen oder lokale Organischämie zu behandeln", welche Gerinnungsprobleme wie Schlaganfälle und Herzinfarkte verursacht.

Wie geht es mit OrganEx weiter? Erprobung in speziellen klinischen Situationen.

OrganEx könnte den Pool an Spenderorganen erweitern. Heute kann ein hirntoter Mensch, dessen Organe noch durchblutet sind, als Spender in Frage kommen, nicht aber jemand, der zwar hirntot ist, dessen Kreislauf aber nicht mehr funktioniert. Sauerstoffmangel setzt die Kaskade von Organschäden und Absterben in Gang.

Die wertvollen Kühlboxen mit Organaufklebern, welche die Operationssäle in Fernsehsendungen ausschmücken, können nur ein wenig Zeit gewinnen. OrganEx könnte diese Zeit erheblich verlängern. Aber das bringt mich zurück in das Reich der Twilight Zone.

Was ist, wenn OrganEx zu gut funktioniert?

Könnten die Gehirnneuronen eines hirntoten Organspenders mit Herzstillstand plötzlich anfangen, Aktionspotenziale abzufeuern und sich dann durch die Bildung neuer Synapsen verbinden? Stellen Sie sich ein Autounfallopfer vor, das auf einem Tisch liegt, an Maschinen angeschlossen ist und auf die Organentnahme wartet. Und plötzlich beginnt das Gehirn zu erwachen.

Dies geschieht in einem meiner Lieblingsromane, Kazuo Ishiguros Never Let Me Go von 2005, der 2010 auch verfilmt wurde.

In einem gruseligen Internat in England werden junge Schüler vorbereitet, ihre Organe an reiche Leute "zu spenden"und bis zum jungen Erwachsenenalter damit "fertig zu werden".  Eine plappernde Lehrerin erklärt den Schülern, wie ihre Lebern, Nieren, Milzen und alle anderen Teile nach und nach entnommen werden, bis sie "fertig" sind.

Die neue Arbeit hat einen Bioethiker an Bord, der dafür sorgt, dass die Schweine schmerzlos sterben. Ich hoffe, dass er in der Nähe bleiben wird, um alle Möglichkeiten für die Folgen des gut gemeinten und vielversprechenden OrganEx zu prüfen. Weil in der Wissenschaft die Ergebnisse nicht immer so sind, wie wir sie erwarten.


[1]  Andrijevic, D., Vrselja, Z., Lysyy, T. et al. Cellular recovery after prolonged warm ischaemia of the whole body. Nature (2022). https://doi.org/10.1038/s41586-022-05016-1


 * Der Artikel ist erstmals am 4.August 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " OrganEx Revives Pigs an Hour After Death, Holding Promise for Transplants" https://dnascience.plos.org/2022/08/04/organex-revives-pigs-an-hour-after-death-holding-promise-for-transplants/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.  Das Foto mit den Schweinen wurde von der Redaktion eingefügt


 Bill Hathaway, August 3, 2022: Yale-developed technology restores cell, organ function in pigs after death. https://news.yale.edu/2022/08/03/yale-developed-technology-restores-cell-organ-function-pigs-after-death


 

inge Thu, 04.08.2022 - 23:59

Das virtuelle Fusionskraftwerk

Das virtuelle Fusionskraftwerk

Do, 28.07.2022 — Felix Warmer

Icon Physik

Felix Warmer Die Energiequelle der Sonne auf der Erde nutzbar zu machen ist das ehrgeizige Ziel der Fusionsforschung. Derzeit gibt es vor allem zwei mögliche Varianten, ein Kraftwerk zu realisieren: Tokamak und Stellarator. Felix Warmer vom Max-Planck-Institut für Plasma Physik (Greifswald), das den Stellarator Wendelstein 7-X beheimatet, beschreibt hier, wie seit Jahren eine Simulationsplattform entwickelt wird, mit der sich sowohl die physikalischen als auch technischen Anforderungen an einen Stellarator ganzheitlich simulieren lassen. Dieser digitale Zwilling soll das Zusammenwirken aller Systemkomponenten beschreiben, um ein Fusionskraftwerk schneller zu entwickeln und zur Marktreife zu bringen.*

Aus der Fusion von Wasserstoff (genauer: dessen schweren Varianten Deuterium und Tritium) Energie zu gewinnen ist ein lang gehegter Traum. Mit einem nahezu unerschöpflichen Brennstoffreservoir und dem CO2-freien Betrieb könnte diese Technik eine der Stützen einer nachhaltigen Energieversorgung werden. Mit ihrer großen elektrischen Leistung würden Fusionskraftwerke vor allem die Grundlast bedienen und so in idealer Weise die von der Witterung abhängigen Wind- und Sonnenkraftwerke ergänzen.

Im südfranzösischen Cadarache entsteht derzeit der Experimentalreaktor Iter. Er soll erstmals im großen Maßstab demonstrieren, dass diese Art der Energiegewinnung technisch möglich ist. Iter basiert auf dem Prinzip des sogenannten Tokamak. In ihm wird das rund hundert Millionen Grad heiße Plasma in einem Magnet feldkäfig eingesperrt. Dieser wird indes auf eine Weise erzeugt, dass ein Tokamak ohne Zusatzmaßnahmen nur in gepulstem Betrieb, also mit r egelmäßigen Unterbrechungen arbeiten kann.

Wegen dieser Einschränkung wird parallel dazu ein anderes Anlagenprinzip namens Stellarator erforscht. Es bietet eine attraktive Alternative, da Stellaratoren im Dauerbetrieb arbeiten können. Die größte und erfolgreichste Experimentieranlage dieses Typs ist der seit 2015 in Greifswald laufende Wendelstein 7-X.

Das Stellarator-Konzept erschien anfänglich herausfordernder, weil dabei zum Einschluss des Plasmas wesentlich komplexer geformte Magnetspulen nötig sind als in einem Tokamak. Wendelstein 7-X hat bewiesen, dass solche Spulen mit der erforderlichen Genauigkeit realisierbar sind. Diese Anlage hält den Stellarator-Weltrekord für das Fusionsprodukt aus Temperatur, Plasmadichte und Energieeinschlusszeit. Es gibt an, wie nahe man den Werten für ein selbstständig brennendes Plasma kommt.

Abbildung 1: , Das Modell eines Stellarators bildet ein Spulensystem mit realistischen Abmessungen und Betriebseigenschaften ab und berücksichtigt die technischen Randbedingungen. Der Farbcode gibt die Magnetfeldstärke in Tesla an. Die kleinen Pfeile stellen lokale elektromagnetische Kräfte an den Spulen dar, die großen Pfeile zeigen die Richtung und, qualitativ, die Stärke der summierten Kräfte für eine Spule.

Das Ziel: ein ökonomisches Kraftwerk

Die für die Planung des Stellarators verwendeten Computerprogramme wurden bereits in den 1990er-Jahren entwickelt. Sie berechnen das Magnetfeld, welches das heiße Fusionsplasma einschließt, sowie die Spulen, die das Feld erzeugen. Bislang existierte jedoch kein systematischer Rahmen, der weitere technische Anforderungen berücksichtigt, die für einen Betrieb große Bedeutung haben. Aufbauend auf den bisherigen erfolgreichen Codes haben wir in den vergangenen Jahren – weltweit erstmalig – neue Modelle entwickelt, die genau diese Randbedingungen in einer Simulationsplattform einbeziehen, um alle Komponenten eines Stellarators gewissermaßen ganzheitlich zu beschreiben. Unser Ziel ist es also, einen flexiblen digitalen Zwilling eines Fusionskraftwerks am Computer zu schaffen, mit dem man die Auswirkung neuer Techniken, physikalischer Erkenntnisse oder Unsicherheiten auf den Entwurf untersuchen und ein optimales Konzept für ein Stellarator-Fusionskraftwerk erstellen kann. Dieser digitale Zwilling optimiert dabei nicht nur die physikalischen, sondern auch die ingenieurstechnischen Aspekte einer solchen Anlage. Abbildung 1.

Die wissenschaftliche Herausforderung beim Erarbeiten eines Kraftwerkskonzepts besteht darin, aus laufenden Stellarator-Experimenten wie Wendelstein 7-X die physikalischen Erkenntnisse mit aktuellen technischen Entwicklungen zu verbinden, um daraus einen ökonomisch attraktiven Kraftwerksentwurf abzuleiten. Abbildung 2. Besonders anspruchsvoll ist es, alle technischen Komponenten miteinander in Einklang zu bringen: supraleitende Spulen, Stützstruktur, Kühlsysteme und viele weitere Systeme müssen aufeinander abgestimmt werden und genügend Platz für Vorrichtungen lassen, die eine Wartung aus der Ferne erlauben. Unsere Simulationsplattform öffnet neue Wege, um solch komplexe technische Herausforderungen virtuell darzustellen und zu bewältigen.

Abbildung 1: , 2016 und 2017 wurden in der Plasmakammer von Wendelstein 7-x unter anderem 8000 Graphitkacheln montiert. Daten, die Forschende in der Anlage seither gesammelt haben, fließen auch in das virtuelle Modell des Stellarators.

Test für unterschiedliche Reaktoren

Wendelstein 7-X hat bereits experimentell bewiesen, dass das Stellarator-Konzept funktioniert. Ein zukünftiger Reaktor kann jedoch in sehr unterschiedlichen Formen gebaut werden, wobei die optimale räumliche Gestalt erst noch gefunden werden muss. Wir haben unseren Code namens Process daher auf zwei unterschiedliche Stellarator-Konzepte angewendet. Zum einen haben wir drei reaktorgroße Stellaratoren mit unterschiedlichen Seitenverhältnissen simuliert. Zum anderen haben wir drei Spulensätze mit einer unterschiedlichen Zahl an Spulen durchgerechnet. Hierbei spielen Volumen und Oberfläche des Plasmas eine bedeutende Rolle, wenn es um weitere Berechnungen beispielsweise der Fusionsleistung, der Füllraten oder der Materialbelastung geht. Process berücksichtigt in Magnetfeldrechnungen die Materialeigenschaften von Supraleitern und technische Randbedingungen, etwa die Regeln für eine Schnellabschaltung der Spulen. Das Modell erzeugt somit ein funktionstüchtiges Spulensystem mit realistischen Abmessungen und Betriebseigenschaften. Diese Simulationen ermöglichen zum ersten Mal den Vergleich verschiedener Stellarator-Konfigurationen innerhalb des gleichen ganzheitlichen Systemcodes und tragen somit zur Stellarator-Optimierung bei.

Ein weiterer Clou von Process ist die Geschwindigkeit: Die Ergebnisse liegen bereits nach wenigen Sekunden vor. Das ermöglicht es uns, eine nahezu endlose Zahl alternativer Entwürfe parallel zu untersuchen und den großen Parameterbereich entscheidend einzugrenzen. Bei der Konstruktion der Codes haben wir auf die Rechengeschwindigkeit geachtet, wobei dies mit einem Kompromiss zwischen Supergenauigkeit und Schnelligkeit einhergeht. Haben wir mit Process einen optimalen Bereich eingegrenzt, kann diese Konfiguration mit hochauflösenden Simulationen detaillierter untersucht werden. Dies geschieht innerhalb des EU-Projekts EUROfusion. Es vereint derzeit 30 Forschungseinrichtungen in 25 EU-Mitgliedstaaten sowie der Schweiz, dem Vereinigten Königreich und der Ukraine. Koordiniert wird es vom IPP in Garching. In diesem Forschungsverbund sind Fachleute versammelt, die sich auf bestimmte Teilaspekte spezialisiert haben und diese detailliert berechnen können. Mit ihnen kooperieren wir intensiv. Diese Forschung erzeugt daher starke Synergie-Effekte und fördert länderübergreifenden Austausch und Zusammenarbeit.

Bislang sind längst nicht alle technischen Aspekte eines Stellarator-Kraftwerks abgedeckt. So arbeiten wir derzeit an Modellen, welche die mechanischen Spannungen in den Spulen und ihrer Stützstruktur hinreichend genau vorhersagen können. Solche Spannungen entstehen vor allem durch die starken elektromagnetischen Kräfte zwischen den Spulen. Letztlich müssen wir alle physikalischen und technischen Aspekte in unserem digitalen Zwilling zusammenzuführen. Wir sind davon überzeugt, dass unsere Strategie dazu beitragen kann, die Entwicklung eines Stellarator-Kraftwerks voranzutreiben.


 * Der Artikel ist unter dem Titel "Das virtuelle Fusionskraftwerk" in der Sammlung Highlights aus dem Jahrbuch der Max-Planck-Gesellschaft 2021 https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf im Mai 2022 erschienen und wird hier unverändert wiedergegeben . Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt.


Kernfusion im ScienceBlog:

Roland Wengenmayr, 13.05.2022: Die Sonne im Tank - Fusionsforschung


 

inge Thu, 28.07.2022 - 18:01

Was Quantencomputer in den nächsten Jahren leisten können

Was Quantencomputer in den nächsten Jahren leisten können

Do, 07.07.2022 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Sie sollen Probleme lösen, an denen heute sogar die besten Computer scheitern. Mit dieser Erwartung investieren Regierungen, aber auch private Geldgeber massiv in die Entwicklung von Quantencomputern. Es wird vielleicht noch Jahrzehnte dauern, bis es einen universell programmierbaren Quantencomputer gibt, vor allem weil Rechnungen mit ihm sehr fehleranfällig sind und Quanteninformation sehr empfindlich ist. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über Arbeiten zur Fehlerkorrektur und Validierung von Quantenrechnungen am Max-Planck-Institut für Quantenoptik, über physikalische Systeme zur Hardware von Quantencomputern und dabei u.a. über die vom Institut für Quantenoptik und Quanteninformation (IQOQI; OEAW) und der Universität Innsbruck entwickelten Ionenfallentechnologie *

Eigentlich sollte Ignacio Cirac Grund zu Enthusiasmus haben. Der Direktor am Max-Planck-Institut für Quantenoptik in Garching bei München ist ein Pionier der Entwicklung von Quantencomputern. Solche Rechner sollen mithilfe der Quantenphysik manche Aufgaben etwa in der Logistik oder bei der Entwicklung neuer Medikamente und Werkstoffe wesentlich schneller bewältigen als heutige Computer. In dieser Hoffnung überbieten sich staatliche Institutionen geradezu bei der Förderung der Quantentechnologie, vor allem des Quantencomputers: Die deutsche Bundesregierung hat von 2021 bis 2025 zwei Milliarden Euro für das Gebiet zur Verfügung gestellt, die US-Regierung gibt ebenfalls für vier Jahre rund eine Milliarde Dollar, und die EU-Kommission hat in einem über zehn Jahre laufenden Flaggschiffprogramm etwa genauso viel ausgelobt. Doch China übertrifft alle anderen mit gleich zehn Milliarden Euro für ein Institut für Quanteninformationswissenschaft. Dazu kommt: neben zahlreichen Start-ups beteiligen sich auch große Unternehmen wie Google und IBM am Rennen zu den ersten Quantenrechnern – und sie begleiten jeden Fortschritt mit einigem medialen Tamtam. Hunderte Millionen Euro investieren die Firmen und ihre Kapitalgeber in die Entwicklung von Quantencomputern.

Das Forschungsfeld von Ignacio Cirac boomt also augenscheinlich. Doch das führt bei dem Physiker nicht nur zu Begeisterung, sondern auch zu Beunruhigung. Wie viele seiner Kollegen, die sich auf dem Gebiet der Quanteninformation gut auskennen, fürchtet er, dieser Hype um Quanteninformations-technologien könnte bei Misserfolgen bald ins Gegenteil umschlagen. „Wir werden jetzt nicht mehr nur durch die Forschung angetrieben, sondern auch durch Investoren“, sagt Cirac. Die aber könnten zu ungeduldig sein. Angesichts der enormen technischen Herausforderungen erwartet Cirac nämlich, dass es mindestens noch zehn Jahre, vielleicht sogar zwanzig bis dreißig Jahre dauern könnte, bis es wirklich anwendungsreife universelle Quantencomputer geben wird. „So lange wird aber kein Hype andauern“, betont er, „und am Ende werden wir Wissenschaftler als die Schuldigen ausgemacht, wenn der Quantencomputer noch nicht so weit ist.“ Die große Zukunftsvision sind universelle, das heißt frei programmierbare Quantencomputer. Sie sind das Gegenstück zu den digitalen Computern: Analog zu den digitalen Bits rechnen sie mit Quantenbits, kurz Qubits. Ihre Rechenmacht, wenn es um bestimmte Aufgaben geht, beziehen sie aus den Regeln der Quantenwelt: Anders als ein digitales Bit kann ein Qubit nicht allein die Zustände 0 und 1 annehmen, sondern sich auch in einer Überlagerung beider Zustände befinden. Darüber hinaus können mehrere Qubits miteinander überlagert werden. Diese Verschränkung bildet das Rechenwerk eines Quantencomputers. Abbildung 1.

Abbildung 1. Vieldeutiges Bit: Anders als ein klassisches Bit kann ein Quantenbit auch Überlagerungen der Zustände 0 und 1 annehmen, die sich mit den Koordinaten x, y und z auf einer Kugel darstellen lassen und bei einer Messung mit einer gewissen Wahrscheinlichkeit auftreten. Da Quantencomputer so verschiedene Lösungen parallel testen können, dürften sie manche Aufgaben schneller bewältigen als klassische Rechner.

Ein universeller Quantencomputer könnte vielfältige Anwendungen finden. „Ein typisches Beispiel ist das Problem des Handlungsreisenden“, sagt Cirac. Der Handlungsreisende soll eine gewisse Anzahl von Städten besuchen und will dafür die kürzeste Strecke errechnen. „Wie wächst nun mit der Anzahl der Städte die dafür auf einem digitalen Computer benötigte Rechenzeit?“, fragt der Physiker und antwortet gleich selbst: „Sie wächst exponentiell!“ Das sei typisch für derartige kombinatorische Probleme, und die lauern vielfältig darauf, zum Beispiel in der Technik, Rechenzeiten auf herkömmlichen Computern explodieren zu lassen. Und nicht nur das: Auch der für das Rechnen benötigte Speicherplatz kann lawinenartig anwachsen.

Die Sache mit der exponentiellen Explosion kennen wir alle seit Beginn der Coronapandemie. Die Legende von der Erfindung des Schachspiels kann sie veranschaulichen. Der von dem neuen Spiel begeisterte König will dem Erfinder eine Belohnung zukommen lassen, die dieser sich aussuchen darf. Der im Gegensatz zum König mathematisch versierte Erfinder überlegt und wünscht sich dann Reis, nach folgender Regel: für das erste Feld des Schachbretts ein Reiskorn, für das zweite zwei Körner und dann für jedes nächste Feld immer die doppelte Anzahl. Mathematisch ergibt dies bei 64 Spielfeldern die Zahl 264 – 1, die in dieser Form als Potenz harmlos aussieht, aber gigantisch groß ist. Der König müsste dem Erfinder des Schachspiels so viel Reis geben, dass die Menge umgerechnet jener von rund zweitausend heutigen Weltjahresproduktionen entspräche.

Eine solche exponentielle Explosion erschwert auch die Lösung von Aufgaben aus der Physik und Chemie, die Quantencomputer schon recht bald bearbeiten könnten. Zum Beispiel wenn es darum geht, gezielt neue medizinische Wirkstoffe oder neue Werkstoffe zu entwickeln – etwa praxistaugliche Materialien, die Strom ohne Widerstand leiten. Denn wer die Eigenschaften von chemischen Reaktionen, von Molekülen und Materialien möglichst exakt berechnen will, muss unweigerlich Quanteneigenschaften berücksichtigen, genauer gesagt: das komplexe Zusammenspiel von Elektronen. Das Verhalten eines solchen Quantenvielteilchensystems kann selbst ein heutiger Supercomputer nicht berechnen. Daher hantieren Programme etwa für die Materialentwicklung mit stark vereinfachten Näherungsmodellen. Entsprechend unterentwickelt ist deren Vorhersagekraft. Quantencomputer können im Prinzip ein viel präziseres Materialdesign ermöglichen. Die Grundidee geht auf den amerikanischen Physik-Nobelpreisträger Richard Feynman zurück. Sie lautet: Will man ein Quantensystem exakt berechnen, so nehme man ein angepasstes zweites Quantensystem, welches sich als adäquates Ersatzteam eignet. Doch anders als das schwer zugängliche Untersuchungsobjekt, etwa das Elektronenkollektiv in einem Supraleiter, muss dieses zweite Quantensystem wie ein Rechenwerk gut von außen steuerbar sein. Genau dadurch zeichnet sich ein Quantencomputer aus, und zwar in der Rolle eines Quantensimulators.

Simulatoren für die physikalische Forschung

Vergleicht man das mit der Geschichte der klassischen Computer, dann sind Quantensimulatoren das Pendant zu Analogrechnern. Das waren hochspezialisierte Computer, die zum Beispiel die aerodynamischen Eigenschaften eines zu entwickelnden Flugzeugs simulierten. Anders als digitale Computer, welche Information portionsweise als Bits verarbeiten, bildeten Analogcomputer ein bestimmtes System kontinuierlich nach, etwa mechanisch oder elektronisch. Analogcomputer hatten ihre große Zeit, als digitale Computer noch nicht so leistungsfähig waren. Heute, in der Frühphase der Quantencomputer, ist es ähnlich. Quantensimulatoren werden bereits zunehmend interessant, um zumindest Fragen der physikalischen Grundlagenforschung anzupacken. Daran forscht zum Beispiel die Gruppe von Immanuel Bloch, ebenfalls Direktor am Max-Planck-Institut für Quantenoptik, mit der Ciracs Team auch zusammenarbeitet.

Von dem universell programmierbaren Quantencomputer trennt einen Quantensimulator, der heute oder zumindest in naher Zukunft verfügbar ist, etwa so viel wie einen alten Analogrechner vom heutigen PC. Ciracs Team verfolgt daher eine doppelte Strategie. Ein Teil der von den Garchingern entwickelten Algorithmen wird erst in fernerer Zukunft auf leistungsfähigen, fehlerkorrigierten universellen Quantencomputern laufen können. Der andere Teil soll schon möglichst bald auf den bereits verfügbaren Quantenrechnern mit relativ wenigen Qubits einsetzbar sein und besonders in der Quantensimulation erste Vorteile demonstrieren. „Wir wollen zeigen, dass man schon jetzt auf Quantencomputern etwas Nützliches machen kann, das auf klassischen Computern nicht mehr geht“, sagt Cirac, „zum Beispiel die Eigenschaften von einigen neuen Materialien vorherzusagen.“ Dazu kooperiert er auch mit Google Research, der Forschungsabteilung von Google.

Für die Hardware von Quantencomputern sind verschiedene physikalische Systeme im Wettrennen. Immanuel Blochs Gruppe etwa setzt auf ultrakalte Atome als Qubits, die in einem räumlichen Gitter aus Laserstrahlen gefangen sind und über Laserlicht angesteuert werden. Google hingegen entwickelt Chips, die winzige supraleitende Schaltkreise als Quantenbits nutzen. Mit einem solchen Quantenprozessor namens Sycamore, der 53 funktionierende Qubits enthielt, konnte die Google-Forschung 2019 erstmals demonstrieren, dass ein Quantencomputer in der Berechnung einer Aufgabe den leistungsfähigsten konventionellen Supercomputer schlagen kann. „Allerdings war das eine rein akademische Aufgabe ohne sinnvolle Anwendung“, kommentiert Cirac diesen gefeierten Durchbruch. Und Markus Hoffmann von Google Research in München vergleicht es mit dem ersten Motorflug-Hüpfer der Gebrüder Wright: „Mit diesem Flug sind wir auf einer ersten Insel gelandet, die klassisch nicht erreichbar ist – aber diese ist noch unfruchtbar.“ Er betont auch, dass Google Research das technische Entwicklungsniveau von Quantencomputern realistisch einschätzt. Zugleich gibt er sich optimistisch. So erwartet Google, dass die nächsten Meilensteine hundert supraleitende Qubits sind, danach tausend und schließlich – etwa in einer Dekade – eine Million.

Die Grenzen von Quantencomputern

Schon mit hundert Qubits ließe sich in der Materialentwicklung etwas anfangen. Will man nämlich die Eigenschaften eines mikroskopisch kleinen Supraleiterstückchens exakt berechnen, die von hundert stark miteinander wechselwirkenden Elektronen bestimmt werden, landet man bei einem Problem mit 2100 Unbekannten. Das ist weit mehr, als das Universum Sterne hat, und überfordert absehbar alle herkömmlichen Großcomputer. Ein Quantencomputer würde hingegen nur hundert verschränkte Qubits benötigen, um die Aufgabe zu lösen. Aber wie macht er das?

Mari Carmen Bañuls, leitende Forscherin in Ciracs Abteilung, versucht, die Prozedur zu erklären: „Man schreibt seine Instruktionen in die Quantenbits hinein und präpariert sie so in einem bestimmten Quantenzustand.“ Die zu berechnende Aufgabe, die einen bestimmten Quantenalgorithmus nutzt, steckt dabei in der Art, wie die Quantenbits anfänglich verschränkt sind. „Dann lässt man das System sich eine gewisse Zeit entwickeln“, erklärt die Physikerin, „und macht dann eine Messung, um das Ergebnis zu bekommen.“ Das ist in gewisser Weise mit dem Kochen in einem Schnellkochtopf vergleichbar: Man gibt die Zutaten hinein, verschließt den Topf und startet den Kochvorgang. Nach einer vom Rezept festgelegten Zeit schaut man nach, ob der Eintopf gelungen ist. Während des Kochens hat man nur den Druckanzeiger als Information über die Vorgänge im Topf – aber immerhin.

In der Quantenwelt ist nicht einmal eine solche Anzeige erlaubt, solange die verschränkten Qubits vor sich hin werkeln. Denn hier kommt eine weitere Eigenheit ins Spiel: Quanteninformation ist ein extremes Sensibelchen. Selbst ein minimaler Eingriff entspricht einer Messung, welche die Verschränkung sofort kollabieren lässt. Also darf man erst nach Ablauf der im Quantenrezept festgelegten Zeit nachschauen, sprich: eine Messung machen, und bekommt dann das erwünschte Resultat – vielleicht. Denn es gibt noch eine Besonderheit der Quantenmechanik. Sie beschreibt nur Wahrscheinlichkeiten, mit denen sich bestimmte Quantenzustände einstellen.

Ein Quantencomputer würde also nicht 1 + 1 = 2 liefern, sondern das Resultat 2 nur mit einer gewissen, allerdings exakt berechenbaren Wahrscheinlichkeit ausgeben. Auch das ist ein Hinweis darauf, dass der Einsatz von Quantencomputern nur für spezielle Aufgaben sinnvoll sein wird, für die solch eine Unsicherheit tolerabel ist oder es keine Alternative gibt. Welche Aufgaben das sein könnten, das erforscht Ciracs Team ebenfalls. Denn hier ist trotz kühner Zukunftsvisionen noch sehr vieles offen: „Wir untersuchen auch, was Quantencomputer nicht können“, betont Cirac. Dies soll verhindern, dass wertvolle Ressourcen auf nicht erreichbare Ziele verschwendet werden.

Auch ein universell programmierbarer Quantencomputer kann also nicht beliebige Probleme lösen. Und um die Hoffnungen überhaupt zu erfüllen, die auf ihn gesetzt werden, reichen selbst die von Google in rund zehn Jahren angepeilten eine Million Qubits nicht. Das liegt nicht zuletzt am Unterschied zwischen physikalischen und logischen Qubits, wie Google-Forscher Markus Hoffmann erklärt. Ein physikalisches Quantenbit ist eben zum Beispiel ein in einem Lichtgitter schwebendes Atom oder ein mikroskopischer supraleitender Kreisstrom. Doch weil diese physikalischen Bits so anfällig gegenüber Störungen aus der Umwelt sind, gibt es den Plan, mehrere physikalische Qubits zu einem logischen Qubit zusammenzuschalten, um darin die Quanteninformation wesentlich stabiler zu speichern. Bei der supraleitenden Technik, wie Google sie erforscht, würde ein logisches Qubit aus tausend synchronisierten physikalischen Qubits bestehen.

Bei einem universellen Quantencomputer werden viele zwischen den und rund um die logischen Qubits verteilte Hilfsquantenbits hinzukommen. Sie sollen als zusätzliche Sensoren Störungen messen. All das ist der Herausforderung geschuldet, dass die eigentlich rechnenden logischen Qubitswährend ihrer Arbeit nicht auf Fehler geprüft werden dürfen, was ein herkömmlicher Computer täte. Eine Prüfung wäre ja eine verbotene Messung. Aber auf Basis der Informationen von den Hilfsqubits und der Ergebnisse der logischen Qubits kann der Algorithmus eine sinnvolle Fehlerkorrektur machen.

Solche Konzepte für einen universellen, fehlerkorrigierten Quantencomputer haben Schätzungen zufolge einen hohen Preis. „Das läuft auf vielleicht hundert Millionen physikalische Qubits hinaus“, sagt Cirac: „Ein solcher Quantencomputer würde mit seinen Vakuum- und Kühlvorrichtungen unser ganzes Institut füllen!“ Mit der heutigen Technik sind diese Anforderungen also „crazy“, wie Cirac betont, und genau deshalb macht ihm der gegenwärtige Hype Sorgen. Aus seiner Sicht sind auch noch grundlegende technische Herausforderungen nicht gemeistert.

Neue Ideen aus ersten Anwendungen

Erstaunlich gelassen ist hingegen Thomas Monz von der Universität Innsbruck. Er gehört zu einem Team um Rainer Blatt, das eine andere Technik vorantreibt. Die Forschenden nutzen elektrisch geladene Calciumatome, die – wie Perlen aufgereiht – in einer elektromagnetischen Falle, der sogenannten Paul-Falle, schweben. Angesteuert werden sie mit Laserstrahlen. Der Vorteil dieser Calciumionen besteht darin, dass sie wegen ihrer elektrischen Abstoßung sehr stark miteinander wechselwirken. Dies lässt sich für eine sehr kräftige Verschränkung nutzen. Bereits 24 Qubits konnten in diesem Ionen-Quantencomputer verschränkt werden. Abbildung 2.

„Das klingt nach wenig, aber diese Verschränkung ist sehr stabil“, sagt Monz. Er ist auch Geschäftsführer des Startups Alpine Quantum Technologies (AQT), das bereits Ionen-Quantencomputer kommerziell verkauft. Seine Gruppe an der Universität Innsbruck, unterstützt durch AQT, hat in Zusammenarbeit mit dem Forschungszentrum Jülich kürzlich erstmals eine erfolgreiche Quantenfehlerkorrektur demonstriert. „Dazu haben wir je sieben physikalische Qubits zu logischen Qubits zusammengeschaltet“, sagt Monz. Die Idee ist einfach: Nach einer gewissen Rechenzeit weichen gewöhnlich Zustände einiger physikalischer Qubits, die ein logisches Qubit formen, wegen Fehlern voneinander ab; dann zeigt die Mehrheit der Qubits, die im Zustand übereinstimmen, wahrscheinlich das korrekte Ergebnis an. „Bei der Quantenfehlerkorrektur geht es ja einfach um Redundanz“, sagt Monz.

Abbildung 2. Modell eines Quantensystems: Gekreuzte Laserstrahlen formen ein Gitter, das einem Eierkarton ähnelt. In dessen Kuhlen lassen sich Atome fangen, die Quantenphänomene simulieren können. Solche Systeme sind aber auch Kandidaten für universelle Quantencomputer. Grafik : Christoph Hohma nn (MCQST Cluster)

Um mit der Fehleranfälligkeit von Quantenrechnungen besser umgehen zu können, haben Cirac und sein Team ein Projekt gestartet: „Wir arbeiten an der Verifikation von Rechenergebnissen“, sagt er: „Ich denke, das ist eine wichtige Fragestellung.“ Denn es soll sichergestellt sein, dass Quantencomputer verlässliche Ergebnisse produzieren. Solch ein Debugging muss auch die etablierte Computertechnik immer wieder vornehmen. Trotz aller Einschränkungen, trotz der Hindernisse, die Quantencomputer noch nehmen müssen, ehe sie für breitere Anwendungen nutzbar sind, ist Cirac überzeugt: Gibt es sie erst einmal, werden sie zu unerwarteten Ideen führen. Der inspirierende Effekt der fortschreitenden Entwicklung motiviert ihn auch, schnell zu ersten, kleineren Anwendungen zu kommen. Er ist sicher: „Falls wir in fünfzehn Jahren wieder ein Interview führen, werden die wichtigsten Anwendungen der Quantenphysik nicht die sein, über die wir heute gesprochen haben!“


 * Der Artikel ist erstmals unter dem Title: "Quantenrechner auf dem Sprung" im Wissenschaftsmagazin 2/2022 der Max-Planck-Gesellschaft https://www.mpg.de/18900638/MPF_2022_2.pdf erschienen. Die MPG-Pressestelle und der Autor haben freundlicherweise der Verwendung von Wissenschaftsmagazin-Beiträgen im ScienceBlog zugestimmt. Mit Ausnahme des veränderten Titels und einer fehlenden Abbildung wurde der Artikel unverändert in den Blog übernommen.


Weiterführende Links:

Max-Planck-Instituts für Quantenoptik (Garching)

Prof. Dr. Ignacio Cirac, Direktor MPQ, Abt. Theorie. https://www.mpq.mpg.de/6497359/theory-homepage

Prof. Dr. Immanuel Bloch, Direktor MPG, Abteilung Quanten-Vielteilchensysteme (LMU, MPQ). https://www.quantum-munich.de/

Ignacio Cirac: Quantum computers: what, when and how (Vortrag 2020): Video 51:15 min. https://www.youtube.com/watch?v=2lp8aeyi4Dc

Institut für Quantenoptik und Quanteninformation (IQOQI) Innsbruck

Synergien nutzen: IQOQI und Universität Innsbruck (Rainer Blatt): Video 3:36 min. https://www.youtube.com/watch?v=3RslpA8i8fM&t=213s

Rechnen mit QuBits (IQOQI, Rainer Blatt): Video 14;59 min. https://www.youtube.com/watch?v=xRdlbjnLK6Q

Quanteninformation: Von der Idee zur Realität (IQOQI, Peter Zoller): Video 4:26 min. https://www.youtube.com/watch?v=c-pGT3ODcEg

Projekt Optoquant: Österreichische Forschung ebnet Weg für Quantencomputer: Video 4:48 min. https://www.youtube.com/watch?v=CkAtSQNfn-4&t=278s

Alpine Quantum Technologies (AQT):https://www.aqt.eu/

Google Research

Hello quantum world! Google publishes landmark quantum supremacy claim (23.10.2019): https://www.nature.com/articles/d41586-019-03213-z

Quantum supremacy: A three minute guide. Video 3:12 min. https://www.youtube.com/watch?v=vTYp5Kd9nMA&t=12s


 

inge Thu, 07.07.2022 - 00:27

Comments

Markus (not verified)

Tue, 20.12.2022 - 10:31

Kleiner Fehler im Text: Die Summe ist nicht 1+2^63 sondern 2^64-1, oder?

Markus (not verified)

Tue, 20.12.2022 - 10:39

P.S. Im Originaltext, der vielleicht inzwischen korrigiert wurde, habe ich auch meine Lösung, nämlich 2^64-1 gefunden...

Wie sich Schwärme von Immunzellen selbst organisieren

Wie sich Schwärme von Immunzellen selbst organisieren

Fr, 30.06.2022 - — Tim Lämmermann

Tim LämmermannIcon Medizin In einem früheren Artikel hat der Immunologe Tim Lämmermann (Forschungsgruppenleiter am Max-Planck Institut für Immunbiologie und Epigenetik) über neutrophile Granulozyten berichtet [1]. Diese Fresszellen der angeborenen Immunantwort und Ersthelfer unseres Immunsystems patrouillieren durch Blutgefäße und wandern bei Anzeichen einer Entzündung oder Infektion schlagartig ins Gewebe ein, um dort Krankheitserreger zu eliminieren. Im Gewebe angekommen, schließen sie sich zu beeindruckenden Zellschwärmen zusammen und greifen Erreger gemeinsam an. Nun zeigt Lämmermann, dass Neutrophile ein molekulares Start-Stopp-System entwickelt haben, um ihre Schwarmaktivität selbst zu kontrollieren und Bakterien in Geweben effektiv und ohne Nebenwirkungen zu beseitigen.*

Immunologische Erstabwehr von Infektionserregern

Unsere Körper sind durch Barrieren wie die Haut gut vor eindringenden Krankheitserregern geschützt. Durch Verletzungen, wie etwa bei einem Riss in der Haut, können jedoch Krankheitserreger durch die Wunde in den Körper eindringen und schwere Infektionen verursachen. In solchen Fällen übernimmt das angeborene Immunsystem die erste Verteidigungslinie mit einem effektiven Arsenal verschiedener zellulärer Waffen. Als einer der ersten Zelltypen vor Ort werden neutrophile Granulozyten, auch kurz Neutrophile genannt, innerhalb weniger Stunden aus dem Blutkreislauf in das verletzte Gewebe rekrutiert, um möglichst schnell mikrobielle Eindringlinge aufzunehmen und zu zerstören.

Schwärme von Fresszellen als angeborener Immunschutz

Neutrophile sind unscheinbar wirkende, runde Immunzellen mit einem Durchmesser von ca. 0,015 Millimetern, die im menschlichen Blut etwa 50-70% der weißen Blutkörperchen ausmachen. Nur an den Orten einer lokalen Entzündung oder Infektion treten sie aus den Blutgefäßen heraus, werden aktiviert und gehen dann im dortigen Gewebe auf die Jagd nach Erregern. Auf diese Weise patrouillieren diese Zellen fast alle Bereiche unseres Körpers.

Mittels molekularer Sensoren auf ihrer Zelloberfläche sind Neutrophile besonders darauf spezialisiert, die Alarmsignale von Zellen zu erkennen, die durch Verletzungen oder eindringende Mikroben geschädigt wurden. Sobald einzelne Neutrophile solche Signale erkennen, rufen sie mittels chemischer Botenstoffe weitere Neutrophile zu Hilfe. Im Zuge unserer Forschung ist es uns gelungen, die Schlüsselrolle des Lipids Leukotrien B4, kurz LTB4, für genau diese Kommunikation zwischen den Immunzellen aufzudecken (Abbildung 1).

Dieses Lipid wird von aktivierten Neutrophilen ausgeschüttet, um anderen Neutrophilen die Richtung vorzugeben, der sie folgen sollen. Durch diese interzelluläre Kommunikation bilden Neutrophile imposante Zellschwärme, die zum Teil mehrere Hundert Zellen umfassen können und wie ein Zellkollektiv gemeinsam und fein abgestimmt im Gewebe agieren.

Abbildung 1: Neutrophile (grün) bilden Zellschwärme und sammeln sich an Gewebestellen, wo sie beschädigte Zellen oder eindringende Mikroben eindämmen und bekämpfen. Die mehrfarbigen Bahnen zeigen die Bewegungspfade von Neutrophilen an. Zwischen dem linken und rechten Bild liegen 30 Minuten. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann .

Neben ihrer besonderen Effektivität beim Jagen von Bakterien sind Neutrophile auch noch hervorragend ausgerüstet, um diese zu töten und aus dem Gewebe zu entfernen. Hierzu besitzen sie in ihrem Zellinneren mehrere antibakterielle Substanzen, die Krankheitserreger töten können. Gelangen diese Substanzen jedoch aus der Zelle in ihre Umgebung, dann können sie für die umliegenden Gewebestrukturen aus Eiweißen und Zuckern schädlich sein. Ein Überschießen der nützlichen Entzündungsreaktion kann auf diese Weise zu massiven Gewebeschäden führen und zur Gefahr für den Körper werden. Ein solches Ungleichgewicht liegt häufig bei starken Entzündungsreaktionen vor und wird aktuell auch als eine der Ursachen für Lungenschäden bei schweren Verläufen von Covid-19 Erkrankungen diskutiert.

Eine molekulare Bremse, um den Schwarm zu stoppen

Während in den letzten Jahren immer mehr Erkenntnisse zu den auslösenden Mechanismen von Neutrophilen-Schwärmen gewonnen wurden, blieben diejenigen Prozesse bislang unbekannt, die diesen Teil der Immunreaktion wieder beenden. Am Max-Planck-Institut für Immunbiologie und Epigenetik haben wir uns deshalb der Frage gewidmet, wie das Schwarmverhalten von Neutrophilen und deren unkontrollierte Anhäufung im Gewebe die damit verbundene schädliche Entzündungsreaktion verhindert wird. Abbildung 2.

Abbildung 2: Neutrophile geben Signalstoffe ab, die immer mehr Zellen anziehen (links). Übersteigt die Konzentration der Signale eine bestimmte Schwelle, kommt die Wanderung der Fresszellen zum Stillstand (rechts). Der so entstehende Schwarm kann eingedrungene Krankheitserreger (graue Kreise) abschirmen und bekämpfen. .

Unsere Studien zeigen, dass Neutrophile ihre Schwarmaktivität selbst begrenzen und somit eine optimale Balance zwischen Such- und Zerstörungsphasen bei der Beseitigung von Erregern ermöglichen. Diese Erkenntnisse sind überraschend, denn bisherige Annahmen gingen stets von externen Signalen aus der Gewebeumgebung aus, die die Aktivität der Neutrophilen während der Endphase einer Entzündung dämpfen oder beenden. Durch den Einsatz spezieller Mikroskope für die Echtzeit-Visualisierung der Immunzelldynamik in lebendem Mausgewebe konnten wir jedoch zeigen, dass schwärmende Neutrophile mit der Zeit gegenüber ihren eigenen Signalen wie dem Leukotrien LTB4 unempfindlich werden, mit denen sie den Schwarm ursprünglich initiiert haben.

Um dies zu bewerkstelligen, besitzen Neutrophile eine molekulare Bremse, mit der sie ihre Bewegung stoppen, sobald sie hohe Konzentrationen der sich anhäufenden Schwarmlockstoffe in den Neutrophilen-Clustern wahrnehmen.

Jagdstrategien der Fresszellen

Das die Bremswirkung vermittelnde Protein trägt den Namen „G-Protein gekoppelte Rezeptor Kinase 2 (GRK2)“. Es sorgt dafür, dass bei hohen Konzentrationen der sich anhäufenden Schwarmlockstoffe die Zellen nicht mehr auf diese Signale reagieren und somit stehen bleiben. Angesichts der Entdeckung des Start-Stopp-Systems in Neutrophilen lag es nahe, zeitgleich geläufige Hypothesen zu Bewegungsmustern und Jagdstrategien von Fresszellen zu überprüfen. In Experimenten mit Neutrophilen, denen der Start-Stopp-Mechanismus fehlte, beobachteten wir nämlich, dass sich diese Zellen ungebremst im Gewebe bewegten und dadurch in großen Gewebebereichen nach Bakterien Ausschau halten konnten. Die Neutrophilen selbst hatten jedoch keinen Vorteil davon, sich besonders schnell im Gewebe bewegen zu können und ungebremst umherzueilen. Im Gegenteil: Neutrophile agieren viel effektiver, wenn sie als Schwarm eine infizierte Zelle umzingeln und dann dort verharren. Auf diese Weise bilden sie nämlich eine zelluläre Barriere, welche die Vermehrung und die weitere Verbreitung von Bakterien lokal eindämmt.

Fazit

Unsere Ergebnisse haben einen wichtigen Aspekt der Biologie von Neutrophilen entschlüsselt, der besonders für die Immunabwehr gegen Bakterien von Bedeutung ist. Unsere unerwarteten Erkenntnisse zu den Jagdstrategien der Immunzellen können wichtige Impulse für neue therapeutische Ansätze darstellen. Darüber hinaus könnten die hier beschriebenen Mechanismen zum Schwarmverhalten der Neutrophilen auch die Forschungen zum kollektivem Verhalten von Zellverbänden bis hin zum kollektiven Verhalten einiger Insektenarten vorantreiben.

 [1] Tim Lämmermann, 08.07.2016: Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen


* Der Artikel ist unter dem Titel "Wie sich Schwärme von Immunzellen selbst organisieren " im Jahrbuch der Max-Planck Gesellschaft 2021 h https://www.mpg.de/18167365/ie-freiburg_jb_2021?c=153825 und leicht modifiziert unter dem Titel "Schwärmende Fresszellen" in der Sammlung Highlights aus dem Jahrbuch 2021https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf  im Mai 2022erschienen. Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt. Der Artikel erscheint hier ohne Literaturzitate; diese können im Original nachgesehen werden.


 

inge Thu, 30.06.2022 - 01:15

11 Jahre ScienceBlog.at

11 Jahre ScienceBlog.at

Do, 29.06.2022— Redaktion

Redaktion

 

Wir feiern Geburtstag!

 

 

inge Wed, 29.06.2022 - 18:12

Getrübtes Badevergnügen - Zerkarien-Dermatitis

Getrübtes Badevergnügen - Zerkarien-Dermatitis

So 26.06.2022  — Inge Schuster

Inge Schuster Icon Medizin Zerkarien-Dermatitis, auch Badedermatitis genannt, wird vor allem im Sommer durch freischwimmende Larven von Saugwürmern verursacht und tritt weltweit sowohl im Süßwasser als auch im Meerwasser auf. Als Parasiten von Vögeln, die im und am Wasser leben, durchleben gewisse Saugwürmer (Schistosomen) einen komplexen Zyklus mit mehreren Larvenstadien und Lungenschnecken als Zwischenwirten. Angelockt von ähnlichen Lipidkomponenten der Haut befallen Zerkarien nicht nur ihren Wirt - zumeist Enten - sondern auch Menschen. Letztere erweisen sich allerdings als Fehlwirte; die Erreger werden noch in der Haut durch rasch einsetzende entzündliche Immunreaktionen zerstört, bevor sie in das venöse System gelangen und sich weiter entwickeln können. An den Eindringstellen in der Haut entsteht - je nach Sensibilität der betreffenden Person - ein Hautauschlag mit geröteten Quaddeln und Bläschen, die tagelang sehr stark jucken können.

Viele von uns, die unter der Hitze des diesjährigen Mai stöhnten, haben in Seen, Bächen und Flüssen die ersehnte Abkühlung gefunden - in Badegewässern, die in Europa (laut Europäischer Umweltagentur) zum weitaus überwiegenden Teil exzellente Wasserqualität aufweisen. (Österreich nimmt mit 97,7 % den Spitzenplatz ein; https://www.umweltbundesamt.at/news220603). Aber auch, wenn das Wasser "kristallklar" erscheint, kann ein Befall mit Zerkarien vorliegen, kleinen Saugwürmerlarven, die mit dem bloßen Auge nicht erkennbar sind und auf die in den Analysen zur Wasserqualität nicht geprüft wird. Diese Larven können sich auch in die Haut von Menschen bohren - dieser ist zwar ein Fehlwirt - und einen massiven entzündlichen Hautausschlag (Erythem) mit sehr stark juckenden Quaddeln und Pusteln - die sogenannte Badedermatitis oder Zerkarien-Dermatitis - auslösen.

Aktuelle Meldungen weisen darauf hin, dass es sich dabei um ein erhebliches gesundheitliches Problem handelt, das für die Freizeitindustrie an betroffenen Badegewässern auch ökonomische Folgen hat. Abbildung 1 zeigt einige Schlagzeilen aus Deutschland und auch aus den USA.

Abbildung 1: Einige Beispiele von deutschen und amerikanischen Medien, die vor Zerkarienbefall in Badegewässern warnen.

Zerkarien-Dermatitis - ein lang bekanntes, weltweites Phänomen

Dass der Aufenthalt im Wasser zu Hautausschlägen führen kann, wurde bei Reisbauern in Japan, also arbeitsbedingt, bereits vor 175 Jahren festgestellt und vor rund 100 Jahren als unerwünschter Nebeneffekt bei Badenden in Deutschland berichtet. Kurz darauf (1927) entdeckte der amerikanische Parasitologe W.W. Cort die eigentlichen Verursacher dieser Erytheme, als er Schnecken am Ufer eines Sees in Michigan sammelte und an den Händen lang anhaltende, stark juckende Hautausschläge entwickelte. Die Untersuchung der Schnecken ergab, dass diese massenhaft winzige, stark bewegliche Saugwürmerlarven - Zerkarien - absonderten, die für die Hauterscheinungen verantwortlich gemacht werden konnten.

In der Folge wurden Ausbrüche dieser Zerkarien-Dermatitis in vielen Ländern Europas und in Nordamerika beschrieben. In Österreich wurde vor mehr als 50 Jahren über Fälle von Zerkarien-Dermatitis am Neusiedlersee berichtet, später dann über weitere Vorkommen an vielen Badegewässern und in allen Bundesländern [1].

Zerkarien-Dermatitis tritt offensichtlich überall dort auf, wo Wasservögel (vor allem Stockenten und Gänsesäger) als Wirtstiere der Saugwürmer und geeignete Schnecken als Zwischenwirte in einem Ökosystem zur Verfügung stehen (zum Lebenszyklus der Parasiten: s.u.). Dies trifft vermutlich für viele Gewässer auf der Nordhalbkugel zu:

  • Stockenten und Gänsesäger sind weit über die ganze Nordhalbkugel verbreitet und kommen fast überall vor, wo sie in und am Wasser leben können; teils sind sie dort ganzjährig angesiedelt, teils migrieren sie, haben Brutplätze im Norden und Überwinterungsplätze in südlicheren Gebieten. (Wo beispielsweise Stockenten siedeln, brüten und überwintern ist in Abbildung 2. dargestellt.) Dass migrierende infizierte Vögel die globale Verbreitung der Parasiten treiben, ist evident.

 

Abbildung 2: Weltweite Verbreitung der Stockenten. Ganzjährige Siedlungsgebiete: dunkelgrün, Brutgebiete: hellgrün, Überwinterungsgebiete: blau, Einführungsgebiete: braun, Streifzüge: pink. (Bild: AnasPlatyrhynchosIUCN2019 2.png. https://commons.wikimedia.org/wiki/File:AnasPlatyrhynchosIUCN2019_2.png. Lizenz cc-by-sa).
  • Verschiedene Arten von Lungenschnecken, die als Zwischenwirte dienen, werden im selben Ökosystem wie die Wasservögel angetroffen. Zwei wesentliche Vertreter, die Spitzschlammschnecke und die Ohrschlammschnecke, sind in vielen Teichen, Seen und Flüssen auf der gesamten Nordhalbkugel beheimatet.

 

Wirte und Zwischenwirte sind also im selben Ökosystem aufzufinden - die Zerkarien-Dermatitis hat die Menschheit wahrscheinlich von Anfang an begleitet.

Zum Entwicklungszyklus der Saugwürmer

Die Erreger der Zerkarien-Dermatitis sind Larven von Saugwürmern (Trematoden) aus der Familie der Schistosomatiden. In dieser großen Familie (die einige humanpathogene, Bilharziose-auslösende Arten enthält) wurden (bis jetzt) 85 Spezies als Parasiten charakterisiert, deren Wirte Vögel sind. In unseren Breiten sind es häufig verschiedene Arten der Gattung Trichobilharzia.

Der Entwicklungszyklus dieser Vogel-Schistosomen beginnt mit der Infektion eines Vogels (z.B. einer Stockente) durch freischwimmende Gabelschwanzlarven (Zerkarien). Diese saugen sich üblicherweise an der Haut der Füße des schwimmenden Vogels fest, werfen ihren Schwanzteil ab, durchbohren die Haut und dringen in das Gefäßsystem des Wirts vor. Dort reifen sie zu männlichen und weiblichen Parasiten heran und paaren sich. Die Ablage von befruchteten Eiern erfolgt je nach Art der Schistosomen dann in den Venen des Darmtrakts - von wo sie in das Darmlumen gelangen und mit dem Kot ins Wasser ausgeschieden werden - oder in der Nasenschleimhaut. Abbildung 3.

Abbildung 3: Charakteristischer Lebenszyklus eines Vogel-Schistosomen (hierTrichobilharzia stagnicolae). Ausführliche Beschreibung im Text. (Bild modifiziert nach E.S.Loker et al.,2022, 11 [2], Lizenz cc-by). Inserts: Unten links: Mirazidium 1 Stunde nach Eindringen in eine Schlammschnecke, a: Keimzellen, b: keine Infiltration von Haemozyten ("Immunzellen") des Wirts. Skala: 0,02 mm. (Bild: V.Skala et al., [3], Lizenz cc-by.) Unten Mitte: Ausstoß von Zerkarien aus einer infizierten Schnecke. Screen-shot aus: Snail releasing its schistosome parasites. Video 3:19 min. https://www.youtube.com/watch?v=c_p6cCj7OWU&t=14s. Rechts: Zerkarie von Trichobilharzia Skala: 0,1 mm. (Bild: N.Helmer et al., 2021,[4], Lizenz cc-by)

Innerhalb weniger Minuten entstehen aus den Eiern freischwimmende bewimperte Larvenformen, sogenannte Mirazidien, die in ihrer nur sehr kurzen Lebensspanne (sie können keine Nahrung aufnehmen) auf passende Schnecken stoßen müssen, um die Infektion weiter zu tragen. Mirazidien reagieren auf Lichtreize und auf von Schnecken abgesonderte chemische Signale (Glykoproteine), die ihnen die für sie spezifische Schnecke anzeigen. Treffen sie auf eine solche Schnecke, so bohren sie sich in deren Körper (Abbildung 3, Insert unten links) und verwandeln sich innerhalb von 2 - 3 Monaten in sogenannte Sporozysten, das sind Brutschläuche, in denen durch ungeschlechtliche Vermehrung (Knospung) die nächste Larvenform entsteht ("Redien") und aus dieser entwickeln sich schlussendlich die knapp 1mm großen Zerkarien (Abbildung 3, Insert rechts). Diese können in der Schnecke im Schlamm auch überwintern.

Mit steigenden Wassertemperaturen im Frühjahr/Sommer beginnen infizierte Schnecken Unmengen an Zerkarien auszustoßen (Abbildung 3, Insert unten Mitte). Untersuchungen an der Spitzschlammschnecke nennen einen mittleren täglichen Ausstoß von 2 600 Zerkarien/Schnecke und über eine Million Zerkarien über die Lebensdauer der Schnecke. Bezogen auf Gewicht sondern die Schnecken damit mehr Biomasse ab, als sie selbst besitzen [5]. Wie die Mirazidien leben Zerkarien von ihren Energiespeichern (Glykogen), da sie keine Nährstoffe aufnehmen können. In den 1 -1,5 Tagen ihrer Lebenszeit suchen sie aktiv nach ihrem Endwirt, zumeist Enten. Dabei werden sie negativ geotaktisch (d.i. sie schwimmen an die Oberfläche) und über pigmentierte Augen-Flecke von Lichtreizen getriggert und von chemischen Komponenten der Vogelhaut - Cholesterin, Ceramiden - angelockt. Mit dem Ansaugen an die Vogelhaut und durch Fettsäuren (Linolsäure, Linolensäure) stimulierte Penetration in die Haut schließt sich der Zyklus. Dies gelingt allerdings nur einem verschwindenden Bruchteil der Zerkarien, die erfolglosen Zerkarien enden als abgestorbene Biomasse und/oder als Beute anderer Organismen - sie sind also erhebliche Bestandteile des Ökosystems.

Bevor noch das Wasser für uns zum Schwimmen ausreichend warm geworden ist, können aus dem Vorjahr stammende Zerkarien, die in den Schnecken im Schlamm überwintert haben, Jungvögel ebenso wie die ältere Population und Vögel auf dem Durchzug infizieren und damit einen neuen Schistosomen Zyklus einleiten.

Der Mensch als Fehlwirt

Vogelhaut und Menschenhaut weisen eine ähnliche Zusammensetzung aus Lipidkomponenten auf. Dies führt dazu, dass Zerkarien auf Menschen, die im Wasser waten, schwimmen oder Arbeiten verrichten in gleicher Weise wie auf Vögel reagieren. Sie saugen sich an unserer Haut fest und beginnen Sekunden später in diese einzudringen. Im Schnitt ist dieser Prozess in 4 Minuten (1:23 min bis 13:37 min) abgeschlossen. Dann verhindern rasch einsetzende allergische Reaktionen offensichtlich ein weiteres Vordringen in den Organismus und die Entwicklung zu adulten Schistosomen, verursachen aber Entzündungsreaktionen in der Haut.

Vorerst kommt es zur Histamin-Freisetzung durch Mastzellen, gefolgt von Entzündungsreaktionen ausgelöst durch Cytokine von einwandernden Granulozyten und Makrophagen und einer T-Zell-Antwort. Je nach Sensibilität des Zerkarienopfers entsteht an den Penetrationsstellen der Haut ein Ausschlag mit geröteten, sehr stark juckenden Quaddeln und Bläschen, die u.U. auch von tagelang anhaltendem Fieber begleitet werden können [6]. Nach mehreren Tagen sind die eingedrungenen Zerkarien abgestorben und zersetzt. Die allergische Reaktion auf diese ist selbstlimitierend; nach 2 Wochen sind die Symptome zumeist abgeklungen. Ist man gegen Zerkarien bereits sensibilisiert, so bedeutet eine neuerliche Infektion - auch Jahre später - eine gesteigerte Entzündungsreaktion.

Wie kann man Zerkarien-Dermatitis behandeln/verhindern?

Als lästig, aber ungefährlich betrachtet gehört Zerkarien-Dermatitis zu den bislang wenig-beachteten Hauterkrankungen - als zu wenig interessant für Medizin, Pharma und biochemische Forschung. Es gibt kaum epidemiologische Untersuchungen zur Zahl der Fälle und auch keine klinischen Studien zur Behandlung. Und dies obwohl manche Studien berichten, dass  30 - 40 % der Menschen auf Zerkarien sensibel reagieren. 

So gibt es, wenn überhaupt, ein Standard-Procedere:  Zur Linderung des tagelangen, häufig fast unerträglichen Juckreizes können Antihistaminika oder Kortikosteroide eingesetzt werden. Ist durch Kratzen eine Sekundärinfektion entstanden, so wird diese topisch mit Antiseptika oder Antibiotika behandelt.

Ebenso wenig bekannt wie die Inzidenz der Zerkarien-Dermatitis ist vielerorts auch der Verseuchungsgrad von Wirtstieren und Zwischenwirten und damit von Badegewässern:

  • Bei Wasservögeln wurden sehr variable Infektionsraten von einigen % bis zu mehr als 60 % berichtet [7].
  • Für Schnecken, die man in Europa an unterschiedlichen Stellen von Flüssen, Teichen und Seen gesammelt hat, gibt es  sehr unterschiedliche Angaben zu Infektionsraten - zwischen 0,1 und mehr als 20 % (20 % mit Trichobilharzia verseuchte Schnecken wurden beispielsweise in der niederösterreichisch/burgenländischen Region zwischen Orth/Donau und Zicksee nachgewiesen: L.Gaub et al., 2020, Arianta 8, 13 -19).

Natürlich steigt die Gefahr infiziert zu werden mit der Infektionsrate der Schnecken; allerding skann bei dem hohen Ausstoß von Zerkarien (täglich mehrere tausend Spezies/Schnecke) auch eine einzelne Schnecke ausreichen, um in einem limitierten Bereich mehrere Personen zu infizieren. Schnecken und damit Zerkarien sind vor allem im seichten Wasser im Uferbereich anzutreffen; Kinder. die hier spielen, können besonders gefährdet sein.

Zur Bekämpfung der Zerkarien schreibt das Wisconsin Department of Natural Sciences [8]:

"Es gibt keine wirksame Methode, um die Zerkarien-Dermatitis am eigenen Strand zu beseitigen. Alle Versuche, bei der entweder die Zerkarien oder ihre Schneckenwirte abgetötet werden, sind unwirksam, da die Zerkarien in der Lage sind, über große Entfernungen von unbehandelten Bereichen her zu schwimmen/zu treiben. Es macht keinen Unterschied, ob Ihr Strandbereich sandig, felsig oder bewachsen ist. Die Wirtsschnecken leben an allen Standorten......"

"In den letzten Jahren gab es Versuche, die Wirtsvögel mit Arzneimitteln zu behandeln. Die Theorie ist, die Vögel von den erwachsenen Parasiten zu befreien, bevor sie die Schneckenpopulation mit Mirazidien infizieren können... Bislang wird das Verfahren in Wisconsin als nicht praktikabel für die gesamte Seefläche angesehen."

"Moderne Pestizidgesetze verbieten Behandlungen, wie sie in der Vergangenheit versucht wurden (d.i. Anwendung von Kupfersulfat, Anm. Redn.). Behandlungen zur Abtötung von Schnecken sind sehr aggressiv und töten viele Pflanzen und Tiere, die nicht zu den Zielgruppen gehören, und können auch zu kontaminierten Sedimenten führen. ..."

Wozu wird also geraten?

"Es ist am besten, die Zerkarien-Dermatitis genauso zu betrachten wie Mücken und Bremsen: Man kann wirklich nichts tun, um sie zu beseitigen, und es ist am besten, wenn man lernt, wie man die Exposition reduziert." [8]

Bedeutet dies also so viele verdächtige Badegewässer von vornherein zu meiden? (Dazu gehört leider auch mein Schwimmteich, in dem ich - vor Jahren bereits sensibilisiert - mir vor einem Monat, nach 10 Minuten im Wasser, eine fast 3 Wochen dauernde Dermatitis zugezogen habe.)


[1] H.Auer & H.Aspöck: „Vogelbilharzien" als Erreger einer Hautkrankheit: die Zerkarien-Dermatitis. Denisia 6, Nr. 184 (2002), 321-331

[2] E.S.Loker et al., Scratching the Itch: Updated Perspectives on the Schistosomes Responsible for Swimmer’s Itch around theWorld Pathogens 2022, 11, 587. https://doi.org/10.3390/pathogens11050587

[3] V.Skala et al., Influence of Trichobilharzia regenti (Digenea: Schistosomatidae) on the Defence Activity of Radix lagotis (Lymnaeidae) Haemocytes. PLoS ONE 2014, 9(11): e111696. https://doi.org/10.1371/journal.pone.0111696

[4] N.Helmer et al., First Record of Trichobilharzia physellae (Talbot, 1936) in Europe, a Possible Causative Agent of Cercarial Dermatitis. Pathogens 2021, 10(11), 1473; https://doi.org/10.3390/pathogens10111473

[5] M.Soldanova et al., The Early Worm Catches the Bird? Productivity and Patterns of Trichobilharzia szidati Cercarial Emission from Lymnaea stagnalis. PLoS ONE 2016, 11(2): e0149678. https://doi.org/10.1371/journal.pone.0149678.

[6] P. Kourilová et al, Cercarial Dermatitis caused by Bird Schistosomes Comprises Both Immediate and Late Phase Cutaneous Hypersensitivity Reactions. J Immunol 2004; 172:3766-3774; http://www.jimmunol.org/content/172/6/3766

[7]  E.K. lashaki et al., Association between human cercarial dermatitis (HCD) and the occurrence of Trichibilarizia in duck and snail in main wetlands from Mazandaran Province, northern Iran. 2021. Parasite Epidemiology and Control. https://doi.org/10.1016/j.parepi.2021.e00211

[8] Wisconsin Department of Natural Resources:  https://dnr.wi.gov/lakes/swimmersitch/


 

inge Sun, 26.06.2022 - 18:42

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Do, 16.06.2022 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Die chronisch traumatische Enzephalopathie (CTE) war lange Zeit ein Waisenkind unter den Erkrankungen des Gehirns. 2017 lieferte die Neuropathologin Ann McKee von der Boston University of Medicine den Beweis, dass Kopfverletzungen, etwa wiederholte Schläge auf den Kopf, mit CTE in Zusammenhang stehen. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm schreibt im folgenden Artikel über diese bis jetzt größte Studie an 110 Gehirnen, die zeigt, wie groß dieses Problem wirklich ist.*

Tatort-Fans wissen Bescheid: Wenn in Münster der Fall mal wieder ins Stocken gerät, und selbst Kommissar Frank Thiel nicht mehr weiterweiß, schlägt die Stunde des Pathologen. Ein ums andere Mal findet Prof. Dr. Dr. Karl-Friedrich Boerne bei der Leichenschau den entscheidenden Hinweis zur Aufklärung des Verbrechens. Aber wäre Boerne nicht so unbescheiden, dann müsste selbst er den Hut ziehen vor der Arbeit, die Prof. Ann McKee von der Boston University of Medicine ganz real geleistet hat. Vor nunmehr fünf Jahren veröffentlichte die Neuropathologin und Expertin für neurodegenerative Erkrankungen im Fachblatt JAMA , eine Studie, die eine ganze Nation erschüttert hat – und deren Schlussfolgerungen bis heute nachhallen.

„110 Hirne“ titelte die New York Times noch am Tag der Veröffentlichung. Hinterlegt war der Text mit den Porträts Dutzender verstorbener American Football-Spieler und mit gefärbten Hirnschnitten, auf denen selbst Laien die Schäden erkennen konnten. Oft wirkte die Großhirnrinde verdünnt, die flüssigkeitsgefüllten Hohlräume (Ventrikel) im Inneren der Schädel waren vergrößert. Der jüngste Spieler war mit 23 Jahren gestorben, der älteste mit 89. Obwohl sie auf unterschiedlichen Positionen gespielt hatten, fand McKee eine glasklare Gemeinsamkeit: Mit einer einzigen Ausnahme waren von den 111 American Football-Spielern, die in der höchsten und härtesten Liga gespielt hatten, alle mit CTE gestorben. CTE steht für chronische traumatische Enzephalopathie und ist – wie die New York Times es formulierte – jene degenerative Hirnerkrankung, die mit wiederholten Schlägen auf den Kopf in Verbindung steht.

Die CTE – ein Waisenkind der Neurologie?

Wie eng dieser Zusammenhang ist, war bis dato unklar. Angesichts zahlreicher anderer und viel häufigerer degenerativer Hirnerkrankungen wie Alzheimer oder Parkinson gab es nur wenig Interesse für die CTE. Selbst in einem 800 Seiten dicken Standardlehrbuch des Fachgebietes fand sie noch vor 15 Jahren keine Erwähnung. Seitdem hatten sich bei einer ganzen Reihe von Kontaktsportarten zwar die Zeichen gemehrt, dass sie ein Risiko für langfristige geistige Beeinträchtigungen mit sich bringen. Allein: Wie groß dieses Risiko wirklich ist, und ob man dagegen ernsthafte Maßnahmen ergreifen müsse, war höchst umstritten. Abbildung 1.

Abbildung 1. Wiederholte Schläge auf den Kopf und Gehirnerschütterungen

Den Durchbruch brachte McKees Arbeit. Sie gilt heute nicht nur als anerkannter wissenschaftlicher Beweis für den Zusammenhang zwischen Kopfverletzungen und CTE, sondern auch als Meilenstein und Endpunkt einer viel zu langen Phase, in der Funktionäre, Manager, aber auch die Spieler selbst das Problem verdrängten.

Charakteristisch für die CTE ist der langsame Zerfall von Hirnzellen. Die Auslöser sind in der Regel Verletzungen des Kopfes wie Gehirnerschütterungen, aber auch Explosionen, wie sie Soldaten im Gefecht erleben können. Die CTE gehört im weiteren Sinne zur Krankheitsgruppe der Demenzen, bei denen eine beeinträchtigte Funktion des Gehirns dazu führt, dass die Patienten Probleme mit dem Gedächtnis, dem Denken und dem Lernen bekommen.

Zwei Namen für dieselbe Krankheit?

Tatsächlich hatte ein weiterer Pathologe – Harrison Martland – bereits 1928 festgestellt, dass viele Boxer offenbar langfristig Gehstörungen erleiden und zu zittern beginnen, dass es mit dem Gedächtnis bergab ging, und dass die alten Kämpfer psychische Probleme entwickelten. Er nannte das Phänomen Dementia pugilistica nach dem lateinischen Wort für Boxer, Pugil. Heute geht man davon aus, dass es sich um frühe Beschreibungen der CTE handelt.

Zu den Anzeichen der Krankheit gehören Stimmungsstörungen wie Depressionen, Reizbarkeit oder Hoffnungslosigkeit. Das Verhalten kann impulsiv und/oder aggressiv sein. Weiterhin können Gedächtnisstörungen oder andere Anzeichen einer Demenz auftreten. Die Patienten entwickeln zudem häufig Bewegungsstörungen, die denen von Parkinson-Kranken ähneln.

Die Ärzte unterschieden zwei verschiedene klinische Verläufe: Die erste Variante beginnt bereits im jungen Erwachsenenalter mit Stimmungs- und Verhaltensproblemen, während die geistigen Fähigkeiten erst später nachlassen. Bei der zweiten Variante, die sich erst relativ spät im Leben entwickelt, ist es genau umgekehrt: Erst lässt die Denkfähigkeit nach, dann folgen die Stimmungsschwankungen und Verhaltensprobleme.

Offensichtlich entwickelt aber längst nicht jeder, der einmal auf den Kopf geschlagen wurde oder eine Gehirnerschütterung erlitten hat, auch eine CTE. Nach aktuellen Schätzungen sind es bei den Sportlern beispielsweise „nur“ etwa drei Prozent jener, die mehrere – auch kleine – Gehirnerschütterungen hatten.

Dies wirft die Frage auf, ob weitere äußere Risikofaktoren dazukommen müssen, oder ob Menschen unterschiedlich empfindlich auf die gleichen Verletzungen reagieren. Auch hier lieferte die Studie Ann McKees entscheidende Hinweise. Sie hatte nämlich neben den 111 Hirnen von Profispielern aus der US nationalen Football League auch 91 weitere untersuchen können, die allesamt von ihren Besitzern noch zu Lebzeiten oder posthum von Verwandten einer Gewebesammlung für die Hirnforschung vermacht worden waren. 16 dieser Hirne stammten von Schülern, 53 hatten in einer College-Mannschaft gespielt, 22 in einer halb-professionellen beziehungsweise der kanadischen Liga.

Kopfballspieler und menschliche Rammböcke

In der Gesamtbilanz war CTE bei 177 von 202 der untersuchten Sportler diagnostiziert worden, ein Anteil von 87 Prozent. In den verschiedenen Gruppen waren die Schäden durch CTE aber unterschiedlich groß. In den unteren Spielklassen waren mehrere Männer von CTE verschont geblieben oder hatten vergleichsweise milde Spuren der Krankheit. Je mehr Spielpraxis und je höher die Liga, desto häufiger aber waren schwere Schäden durch die CTE. Bei den Profis war sie bei 99 Prozent der untersuchten Sportler die Todesursache. Abbildung 2. Andere Studien hatten übereinstimmend gezeigt, dass langfristige Hirnschäden bei jenen Sportlern besonders häufig sind, die aufgrund ihrer Position viele Kopfbälle spielen oder deren Aufgabe es ist – wie im American Football – als „Rammbock“ (Lineman) gegnerische Angriffe zu stoppen.

Abbildung 2. CTE zeigt einen progressiven Verlauf, Vergleich eines normalen Hirns mit einem Hirn im fortgeschrittenen CTE-Stadium. (Bild von Redn. eingefügt; Quelle: Boston University Center for the Study of Traumatic Encephalopathy, https://www-cache.pbs.org/wgbh/pages/frontline/art/progs/concussions-cte/h.png. Lizenz: cc-b-sa)

Die Forscher um Ann McKee betonen, dass ihrer Untersuchung keine repräsentative Stichprobe zugrunde liegen. Vielmehr handelt es sich um Menschen, bei denen bereits zuvor ein Verdacht auf Hirnschäden bestand. Entsprechend vorsichtig formulieren die Wissenschaftler auch ihre Schlussfolgerung: „Ein hoher Anteil verstorbener American-Football-Spieler, die ihre Hirne der Forschung zur Verfügung gestellt haben, zeigten in der neuropathologischen Untersuchung Hinweise auf CTE, was nahelegt, dass die Krankheit mit dem früheren Footballspiel zusammenhängt.“

Andere sehen die Spitze eines Eisbergs. Und warnen: Wenn manche Spieler nach Jahren Anzeichen für eine CTE entwickeln, ist es bereits zu spät, um den Verlauf zu stoppen. Gerade erst wurde eine Studie mit mehr als 150.000 Kindern und Jugendlichen veröffentlicht, die in Kanada eine Gehirnerschütterung erlitten hatten. Beim Vergleich mit 300.000 weiteren Kindern, die „nur“ Knochenbrüche erlitten hatten, stellte sich heraus, dass die erste Gruppe in der siebenjährigen Nachbeobachtungszeit ein um 40 Prozent höheres Risiko für psychische Probleme aller Art hatte. Einweisungen in psychiatrische Kliniken waren um 50 Prozent häufiger gewesen. Auch die Selbstmordrate schien erhöht, obwohl sich dies aufgrund kleiner Fallzahlen nicht eindeutig belegen ließ.

Derartige Studien haben dann auch zu Forderungen geführt, die vom verpflichtenden Kopfschutz im Jugendsport bis hin zum vollständigen Verbot mancher Kontaktsportarten führen. Doch jeder weiß, dass hier auch sehr viel Geld auf dem Spiel steht. Weder der Trainer noch der Spieler will in der entscheidenden Phase des Endspiels einer Weltmeisterschaft auswechseln, „nur“ weil man sich nach einem Zusammenprall kurzfristig benommen fühlt. Präzisere Schutzmaßnahmen könnten sich ergeben, wenn der genaue Verlauf der Krankheit besser bekannt wäre. Wenn es eindeutige Warnzeichen gäbe, so die Hoffnung, könnte man die Spieler rechtzeitig vom Platz nehmen, und müsste dennoch nicht vollständig auf die Sportspektakel verzichten.

Löcher und Proteinhäufchen

Tatsächlich wird die CTE auch vor diesem Hintergrund in Tierversuchen erforscht. So beobachteten Forscher um Prof. David Wassarman von der Universität Wisconsin an der Fruchtfliege Drosophila melanogaster schon früh, was häufige Schläge auf den Kopf bewirken können: In Dünnschnitten des Gehirns der „misshandelten“ Fliegen fanden sich sowohl große wie auch kleinste Löcher. „Es sieht aus wie Schweizer Käse“, so Wassarman. Die molekularen Mechanismen, die dabei im Fliegenhirn ablaufen, seien sehr wahrscheinlich auch für das Verständnis der CTE beim Menschen relevant. „Die Nervenzellen sind fast identisch mit denen des Menschen, und es spielen sich darin die gleichen Reaktionen ab.“ Außerdem könnten auch Genanalysen Hinweise liefern. Immerhin, so Wassarman, fänden sich drei Viertel aller Erbgutveränderungen, die bei Krankheiten des Menschen auftreten, in ähnlicher Form auch bei Drosophila.

Den direkten Weg ging der Neuropathologe und ehemalige Leichenbeschauer Bennet Omalu. Er gilt als Pionier für Fallstudien an American Football-Spielern. Sein berühmtester Fall war Mike Webster (Spitzname „Iron Mike“), ehemaliger Center-Spieler der Pittsburgh Steelers, der nach seiner Karriere bis zum Tod im Jahr 2002 mit Sprachstörungen, Stimmungsschwankungen und Selbstmordgedanken zu kämpfen hatte. Obwohl das Gehirn bei der Obduktion oberflächlich normal aussah, führte Omalu auf eigene Kosten weitere Feinanalysen des Gewebes durch. Dabei fand er – wie später auch bei einem weiteren Spieler – große Mengen abnormaler Ablagerungen des Proteins Tau . Obwohl beide Spieler nicht älter als 50 Jahre wurden, wären die Tau-Konzentration so hoch gewesen, wie bei einem 90-jährigen mit fortgeschrittener Alzheimer-Krankheit, so Omalu. Diese spezifische Veränderung gilt heute als Schlüsselmerkmal beider Krankheiten, wogegen Ablagerung des „Alzheimer-Proteins“ ( Beta-Amyloid ) bei der CTE nur selten zu finden sind.

Das vorläufige Bild der CTE ist, dass die Schläge auf den Kopf zu einer Art Keimbildung führen. Während sich immer mehr Zellmüll ansammelt, schreitet die Schädigung der Nerven voran. In bedeutend größerem Detail sind solche langjährigen Verfallsprozesse auch für die Alzheimer-Krankheit dokumentiert. Die schlechte Nachricht lautet: Trotz dieser Entdeckung ist es bis heute nicht gelungen, den Zerfall im Gehirn aufzuhalten. „Wir wissen einfach nicht, welche Menge an Schlägen auf den Kopf es braucht, um die degenerative Kaskade in Gang zu setzten“, beschreibt der Neuropathologe Daniel Perl von der Uniformed Services University of the Health Sciences das Dilemma. Alles, was die Mannschaftsärzte tun können, ist die geistige Leistung ihrer Spieler möglichst früh mit Psychotests zu vermessen und nach einer Gehirnerschütterung zu prüfen, ob sie sich verschlechtert hat. Unterschwellige Schäden, aus denen sich eine CTE entwickeln könnte, werden dabei aber womöglich übersehen.

So bleibt die Bilanz trotz einiger Fortschritte unbefriedigend. Immerhin, fasst McKee klar und deutlich zusammen: „Wir müssen nicht länger darüber reden, ob es im American Football ein Problem gibt. Es gibt ein Problem.“


*Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 15.06.2022 zum Thema "Gehirntrauma" unter dem Titel "110 Hirne" erschienen, https://www.dasgehirn.info/krankheiten/gehirntrauma/110-hirne Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch zwei Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

Ann McKee on CTE: Video 17:35 min. https://www.youtube.com/watch?v=lVo-XLMwEfM  Wer mit Fußball (soccer) oder American Football zu tun hat, sollte sich das vermutlich ansehen. (Lizenz cc-by-nc)

Mez J, Daneshvar DH et al. Clinicopathological Evaluation of Chronic Traumatic Encephalopathy in Players of American Football. JAMA. 2017;318(4):360-370 https://doi.org/10.1001/jama.2017.8334 .

Ledoux AA, Webster RJ et al. Risk of Mental Health Problems in Children and Youths Following Concussion. JAMA Netw Open. 2022;5(3):e221235. https://doi.org/10.1001/jamanetworkopen.2022.1235

inge Thu, 16.06.2022 - 17:37

Kann ein Kaugummi vor COVID-19 schützen?

Kann ein Kaugummi vor COVID-19 schützen?

Fr, 09.06.2022 — Ricki Lewis

Ricki LewisIcon Medizin Mund und Rachenbereich sind Einfallstor und großes Reservoir von SARS-CoV-2. Bereits dort werden Zellen infiziert, das Virus kann sich rasend schnell vermehren und - wenn das Immunsystem erst verzögert reagiert - seinen unheilvollen Weg in Lunge und andere Organe antreten . Um die Infektion an ihrem Ursprung zu stoppen haben Forscher um Henry Daniell einen Kaugummi entwickelt, der den für das Andocken an Wirtszellen und Eindringen des Coronavirus essentiellen Rezeptor ACE2 enthält. In Labortests bewirkte dieser Kaugummi eine dramatische Reduktion von Viruslast und Infektiosität im Speichel. Vor wenigen Tagen erfolgte die FDA-Genehmigung für die klinische Erprobung des ACE2-Kaugummi in der Phase I/II .Die Genetikerin Ricki Lewis berichtet über diese neue Strategie, die auch bei anderen oral übertragenen Infektionen Anwendung finden könnte.*

Als ich in den 1960er Jahren aufwuchs, war Kaugummikauen überaus populär. Es gab Teekaugummi mit Teegeschmack und einen köstlichen Lakritzkaugummi mit einem Namen, der wahrscheinlich nicht mehr politisch korrekt ist. Trident-Kaugummi bot eine zuckerfreie Alternative, während Dentyne die Illusion von Gesundheit vermittelte. Der Apotheker Franklin V. Canning aus New York City hatte den Kaugummi 1899 erfunden, laut Verpackung "um den Atem zu versüßen und die Zähne weiß zu halten". Dentyne kombiniert geschickt "Dental" und "Hygiene".

Ich hätte es nie für möglich gehalten, dass Kaugummi eines Tages vor einem tödlichen Pandemievirus, SARS-CoV-2, schützen würde.

Zielorte sind Mund, Nase und Rachenraum

In seiner Funktion als Wirkstoffträger hat der Kaugummi eine Vorgeschichte.

Als Kind habe ich bei Halsschmerzen Aspergum (einen Aspirin enthaltenden Kaugummi; Anm.Redn.) gekaut, der heute von Retrobrands USA vertrieben wird. Aspirin ist allerdings ein kleines, einfaches Molekül.

"In jüngerer Zeit sind Koffein- und Nikotinkaugummis weit verbreitet. Allerdings konnte niemand Proteine mit Hilfe von Kaugummi verabreichen, weil die Kaugummibasis eine sehr hohe Temperatur benötigt, um richtig gewalzt zu werden", sagt Henry Daniell von der University of Pennsylvania School of Dental Medicine. Hohe Temperaturen würden aber die äußerst wichtige dreidimensionale Form eines Proteins, das ja eines voluminöses Molekül ist, aufbrechen. "Die höhere Temperaturstabilität von in Pflanzenzellen hergestellten Proteinen hat uns aber geholfen, diese schwierige Hürde zu nehmen", fügt Dr. Daniell hinzu.

Der von seinem Team entwickelte, vor COVID schützende Kaugummi gibt Proteine ab, die von Salatpflanzen in Hydrokultur produziert werden. Darüber berichtet das Fachjournal Molecular Therapy [1].

Der COVID-Kaugummi gibt ACE2 (Angiotensin Converting Enzyme 2) ab, ein Protein, das auf der Oberfläche von vielen unserer Zelltypen vorkommt und eine Vielzahl von Funktionen steuert. ACE2 ist der hauptsächliche Rezeptor für SARS-CoV-2: Das Virus bindet mit seinen Spikes an ACE2 und dringt in die Zellen ein. Sodann übernimmt das Virus die Kontrolle über die Zellen und schüttet seine eigenen Proteine aus, die als Toolkit zur Herstellung weiterer Viren dienen. SARS-CoV-2 vermehrt sich in den Zellen des gesamten Nasen-Rachen-Raums wie wild und wandert, wenn sich die Immunreaktion verzögert, in die Lunge. Wie der Kaugummi das Virus abffangen und damit die Infektion der Wirtszellen verhindern kann, ist in Abbildung 1 dargestellt.

Abbildung 1: Ein Überschuss an ACE2 im Rachenraum fängt das Corona-Virus ab. A: Der Kaugummi enthält in Pflanzen produziertes humanes ACE2, das mit CTB (Chlolera-non Toxin B subunit) fusioniert wurde - CTB-ACE2- und Bindungsstellen für RBD und GM1des Spikeproteins (B) bietet. SARS-CoV-2 bindet an lösliches ACE2 und an CTB-ACE2, das unlösliche Pentamere bildet. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1] , Figure 2 und steht unter einer cc-by-nc-nd-Lizenz)

Rationale Maßnahmen wie im öffentlichen Bereich Maskentragen und Abstandhalten halten Viren fern, das Fluten des Mundes mit ACE2-Rezeptoren, die als Köder dienen, bietet einen starken zusätzlichen Schutz. Genau das macht der Kaugummi.

Der Kaugummi kann beispielsweise im Restaurant beim Warten auf Speisen und Getränke nützlich sein; unvermittelt können ja überall virusbeladene Tröpfchen ausgespuckt werden und werden es auch. Außer Coronaviren verbreiten Tröpfchen eine ganze Reihe anderer Krankheitserreger, darunter auch Masern, HPV, Epstein-Barr-Viren und Herpesviren. Um in unsere Zellen einzudringen, binden die verschiedenen Virustypen an unterschiedliche Rezeptormoleküle.

Ein ganz klein wenig Spucke reicht aus, um an COVID zu erkranken. Ein Milliliter Speichel, etwa ein Fünftel eines Teelöffels, kann 7 Millionen Kopien des RNA-Genoms von SARS-CoV-2 enthalten. Ein Tröpfchen mit einem Volumen von nur einem Tausendstel Milliliter ist immer noch groß genug, um das Virus zu übertragen. Die Studie "The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission" liefert dazu die Messwerte [2].

Offensichtlich verhält sich SARS-CoV-2 in keiner Weise so, wie wir es erwarten. Unabhängig davon, ob eine infizierte Person Symptome hat oder nicht, kann die Viruslast im Speichel hoch sein - und viele Menschen sind tatsächlich symptomlos. Ich bin mir ziemlich sicher, dass ich eine hohe Viruslast in meinem Nasen-Rachen-Raum hatte, denn mein Teststreifen war innerhalb von Sekunden positiv; auch nachdem COVID ein Monat vorbei ist, kippe ich manchmal noch immer tonnenweise Gewürze auf meine Speisen, die ich nicht schmecken kann. Das Virus vermehrt sich in Speicheldrüsen und Mundschleimhäuten.

Ein Kaugummi-Antiinfektivum blockiert Rezeptoren

Beim "Chewing Gum-Topical-Delivery-Approach" wird ein Pflanzenpulver aus Salatzellen eingesetzt, welches das Protein ACE2 enthält, den Rezeptor an den SARS-CoV-2 bindet und der das Einfallstor in unsere Zellen darstellt.

ACE2-Rezeptoren übersäen normalerweise Zellen in Nase, Mund, Lunge, Herz, Blutgefäßen, Nieren, Leber und Magen-Darm-Trakt. Ist zu wenig ACE2 vorhanden, weil das Virus die Rezeptoren blockiert, führt dies zu Entzündungen, Zelltod und Organversagen, insbesondere im Herzen und in der Lunge.

Mehrere Forschergruppen arbeiten an den ACE2-Proteinen, die als Fallen für das Virus fungieren sollen. Anum Glasgow und Kollegen an der University of San Fransisco, CA beschreiben die Entwicklung einer solchen "Rezeptorfalle", die SARS-CoV-2-Spikes bindet und so von unseren Zellen fernhält. Dank Computertechnik binden die manipulierten Rezeptoren den Hotspot des viralen Spikeproteins (die rezeptorbindende Domäne) 170-mal stärker als das ursprüngliche ACE2. Und die manipulierten ACE2-Rezeptoren halten das gesamte Virus fern.

Rezeptorfallen wurden von der FDA hat noch nicht als antivirale Wirkstoffe zugelassen, mehrere Kandidaten, die ACE2 in Form eines Nasensprays verabreichen, sind aber in der Entwicklung. Dies reicht vermutlich nicht aus.

Die in Molecular Therapy beschriebene Untersuchung [1] zielt auf die Speicheldrüsen ab, die auch von mehreren anderen Viren befallen werden - Zika, Herpes simplex, Hepatitis C, Cytomegalovirus und Epstein-Barr. Und da sich SARS-CoV-2 von Subvariante zu Subvariante weiterentwickelt hat, konzentriert sich mehr davon in den Speicheldrüsen - die Viruslast bei Menschen mit der Delta-Variante ist 1.260 Mal höher als bei Menschen mit früheren Versionen des Virus, wobei ein Großteil davon in den Speicheldrüsen schwimmt.

Dr. Daniell beschreibt den Hintergrund der Erfindung und wie diese funktioniert

"Unsere Universität hat den SARS-CoV-2-mRNA-Impfstoff entwickelt, und mehrere andere Gruppen haben wichtige Beiträge geleistet, doch die meisten Entwicklungsländer sind noch nicht geimpft. Sogar gespendete Impfstoffe konnten in Afrika wegen unzureichender Kühlkettennetze nicht ausgeliefert werden. So habe ich mich entschlossen, Wege zur Bekämpfung von Infektionskrankheiten zu finden, die ohne Kühlkette auskommen. In Pflanzenzellen hergestellte Proteine sind viele Jahre lang stabil, wenn sie bei Raumtemperatur gelagert werden. Da die orale Übertragung von SARS-CoV-2 um 3 bis 5 Größenordnungen höher ist als die nasale Übertragung - vier gesprochene Worte 'Aah' setzen mehr Viren im Aerosol frei als eine Stunde maskenfreies Atmen - und die Infektion im Rachen beginnt, sollte Kaugummi ideal sein, um Selbstinfektion und Übertragung zu verringern. Deshalb haben wir einen Kaugummi angewandt, der mit einem in Pflanzenzellen hergestellten Fallenprotein für das Virus beladen war, um SARS-CoV-2 im Speichel zu beseitigen."

Warum nicht mit einer Anti-COVID-Mundspülung gurgeln? Weil, wie jeder weiß, der schon einmal eine Stange Juicy Fruit oder ein Stück Bazooka gekaut hat, Kaugummi länger im Mund bleibt.

COVID-Kaugummi könnte auch während zahnärztlicher Eingriffe bei infizierten Patienten verwendet werden. "Dieses allgemeine Konzept könnte erweitert werden, um die Infektion oder Übertragung der meisten oralen Viren zu minimieren", schreiben die Forscher.

Testen, testen

Die Forscher haben getestet, inwieweit der Kaugummi Viren in Speichelproben von der Zunge und vom Zahnfleisch infizierter Krankenhauspatienten zu neutralisieren vermag, Orte wo die Rezeptoren besonders dicht vorliegen. Sie haben dazu den "Microbubble SARS-CoV-2 Antigen Assay" verwendet, einen Test zum Nachweis der viralen Nukleokapsidproteine, die das RNA-Genom abschirmen. Die Erhöhung des ACE2-Gehalts korrelierte mit einem Rückgang der Viruslast um bis zu 95 Prozent. Der Placebo-Kaugummi zeigte keinerlei Wirkung. Abbildung 2.

Abbildung 2: Der ACE2-Kaugummi reduziert die Viruslast in Speichelproben von Spitalspatienten dramatisch. Der Kaugummi enthielt 25 mg BCT-ACE2 bei Patient 1 und 2 und 50 mg BCT-ACE2 bei Patient 3. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1], Figure 3 und steht unter einer cc-by-nc-nd-Lizenz.)

Der Anti-COVID-Kaugummi ist - wie die Forscher schlussendlich  sagen -  "neuartig und erschwinglich und bietet Patienten in Ländern, in denen Impfstoffe nicht verfügbar oder zu teuer sind, Zeit zum Aufbau einer Immunität". Der Kaugummi kann die Menschen zu Hause und am Arbeitsplatz schützen und beim Essengehen  in die Wange geschoben oder auf höfliche Weise weggelegt werden. Und in den kommenden Monaten könnte der Kaugummi möglicherweise eine erneute Infektion verhindern - etwas, das unweigerlich passieren wird.

"Am 2. Juni haben wir die die Genehmigung der FDA für die klinische Untersuchung von ACE2-Kaugummi in Phase I/II erhalten! Die klinische Studie läuft über drei Tage an COVID-19-positiven Patienten, die zwölf Kaugummis erhalten. Mit den steigenden COVID-19-Fällen in Philadelphia sind wir nun in der Lage die klinischen Studien zu Ende zu bringen und die Herstellung und Markteinführung des Produkts zügig voranzutreiben", sagt Dr. Daniell.

Mit Hilfe von Rezeptorfallen für Viren im Kaugummi hat das Team bereits erfolgreich die Kontrolle virulenter Grippestämme untersucht und testet derzeit die Kontrolle von HPV bei Patienten mit oralem Carcinom und von Herpes bei Patienten mit Fieberbläschen, die, wie Daniell anmerkt, auf dem Universitätscampus häufig übertragen werden."Dies könnte also die nächste neue Plattformtechnologie zur Bekämpfung oraler Infektionen sein", sagt er. Der Marketingplan liegt auf der Hand.

Ich sehe der Werbung entgegen, die den antiviralen Kaugummis beiliegen wird und Bilder von Coronaviren, Pockenviren, Chikungunya und Coxsackie, Influenza und Hepatitis, Ebola und Zika und vielem mehr enthalten wird.


 [1] Henry Daniell et al., Debulking SARS-CoV-2 in saliva using angiotensin converting enzyme 2 in chewing gum to decrease oral virus transmission and infection. Molecular Therapy 30/5 May 2022. https://doi.org/10.1016/j.ymthe.2021.11.008.

[2] Valentyn Stadnytsky et al., The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission. PNAS May 13, 2020, 117 (22) 11875-11877 . https:// https://doi.org/10.1073/pnas.2006874117.


 * Der Artikel ist erstmals am 2.Juni 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Chewing Gum Protect Against COVID?"

 https://dnascience.plos.org/2022/06/02/can-chewing-gum-protect-against-covid/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildungen 1 und 3 plus Legenden wurden von der Redaktion aus der zitierten Originalarbeit [1] eingefügt.


 

inge Thu, 09.06.2022 - 19:01

Comments

Dr. Henry Daniell ist Professor and Direktor of Translational Research an der University of Pennsylvania.

Daniell  hat Pionierarbeit auf dem Gebiet der Chloroplasten-Gentechnik geleistet, die eine neue Plattform zur Herstellung und oralen Verabreichung kostengünstiger Impfstoffe und biopharmazeutischer Produkte darstellt, welche in Pflanzenzellen bioverkapselt sind. Nature Biotechnology  zählt diese Technologie zu den zehn besten Erfindungen des letzten Jahrzehnts.

Daniell wird von Biomed Central zu den 100 wichtigsten Autoren der Welt gezählt. Er hat >250 wissenschaftliche Arbeiten veröffentlicht (h-Faktor 209) und ist Inhaber von > 100 weltweiten Patenten.  Henry Daniell ist Träger zahlreicher Auszeichnungen.

Sein Konzept erklärt er in:

Delivering Medicine Through Lettuce, World Altering Medical Advancements  (2014), Video 3:59 min. https://www.youtube.com/watch?v=6z7qwwtHQTY

Interview mit H. Daniell über COVID-Gum:

Pennsylvania researchers developing gum that could reduce COVID transmission (12.2021). Video 6:27 min. https://www.youtube.com/watch?v=k4f8jqIugS4

Hochhäuser werden zu Energiespeichern

Hochhäuser werden zu Energiespeichern

Do, 02.06.2022 — IIASA

IIASA Logo

Icon Energie

Mit den rasch sinkenden Kosten für die Erzeugung erneuerbarer Energien wie Wind- und Solarenergie entsteht ein wachsender Bedarf an Technologien zur Energiespeicherung, um sicherzustellen, dass Stromangebot und -nachfrage in Balance sind. Ein internationales Team um Julian Hunt vom International Institute of Applied Systems Analysis (IIASA) hat ein innovatives, auf der Schwerkraft basierendes Energiespeicherkonzept - Lift Energy Storage Technology (LEST) - entwickelt, mit dem in städtischen Gebieten zur Verbesserung der Netzqualität Hochhäuser in Batterien verwandelt werden können. In solchen Gebäuden sollen Aufzüge und leer stehende Wohnungen und Flure genutzt werden, um zur Energiespeicherung Container mit Materialien hoher Dichte von den unteren Etagen in die oberen Wohnungen zu transportieren und zur Stromerzeugung Container von den oberen Wohnungen in die unteren Etagen herab zu führen.*

Die weltweite Kapazität zur Erzeugung von Strom aus SolarPaneelen, Windturbinen und anderen erneuerbaren Technologien hat in den letzten Jahren stetig zugenommen und man erwartet, dass bis zum Jahr 2026 die weltweite Kapazität zur Erzeugung von Strom aus erneuerbaren Energien um mehr als 60 % gegenüber dem Stand von 2020 steigen wird. Dies entspricht der derzeitigen globalen Gesamtkapazität der Stromerzeugung aus fossilen Brennstoffen und Kernenergie zusammen genommen. Nach Angaben der Internationalen Energieagentur werden die erneuerbaren Energien bis 2026 fast 95 % des Anstiegs der weltweiten Stromerzeugungskapazität ausmachen, wobei die Photovoltaik mehr als die Hälfte dazu beitragen wird. Allerdings erfordert der Übergang zu einer CO2-armen oder -freien Gesellschaft innovative Lösungen und eine andere Art der Energiespeicherung und des Energieverbrauchs als die traditionellen Energiesysteme.

Das Lift Energy Storage Technology (LEST)- Konzept

Die Forscher des IIASA schlagen in ihrer in der Zeitschrift Energy veröffentlichten Studie eine originelle, auf der Schwerkraft basierende Speicherlösung vor, die Aufzüge und leer stehende Wohnungen in hohen Gebäuden zur Energiespeicherung nutzt [1]. Die Autoren nennen diese neue Idee Lift Energy Storage Technology (LEST). Die Speicherung von Energie erfolgt durch das Hochfahren von Behältern mit nassem Sand oder anderen Materialien mit hoher Dichte, die mittels autonom gesteuerten Fahrzeugen in einen Aufzug hinein und wieder heraus transportiert werden. Abbildung 1.

Abbildung 1. Hochhäuser als Energiespeicher - Das Konzept der Lift-Energy-Storage-Technology: Energiespeicherung durch Hochfahren von Lasten in leer stehende Räume oberer Stockwerke, Energierückgewinnung durch Bremsenergie beim Hinunterfahren der Lasten. a): Die Komponenten des Systems. b): Lasten im unteren Gebäudeabschnitt. c) "Voller" Energiespeicher. d): Aufladen der "Batterie". e): Stromerzeugung beim Hinunterfahren. f: Aufzug dient dem Personenverkehr und der Speicherung und Regeneration von Energie . (Bild aus Julian Hunt et al., 2022 [1]; Lizenz: cc-by)

LEST ist eine interessante Option: Aufzüge sind in den Hochhäusern ja bereits installiert. In anderen Worten: es besteht kein Bedarf für zusätzliche Investitionen oder Räume , es wird vielmehr das Vorhandene auf andere Weise verwendet, um einen zusätzlichen Nutzen für das Stromnetz und den Gebäudeeigentümer zu schaffen.

Wie es zu dem LEST-Konzept gekommen ist, erklärt Julian Hunt von der IIASA-Forschungsgruppe für nachhaltige Dienstleistungssysteme und Erstautor der Studie erklärt dazu: "Ich war schon immer von Themen fasziniert, die mit potentieller Energie zu tun haben, d. h. mit der Erzeugung von Energie durch Änderung der Höhenlage, wie es beispielsweise Wasserkraft, Pumpspeicherung, Auftrieb und Schwerkraftspeicherung sind. Das Konzept der Schwerkraftspeicherung hat in letzter Zeit auch in der wissenschaftlichen Gemeinschaft und bei Startups große Aufmerksamkeit erregt. Auf die Idee von LEST bin ich gekommen, als ich nach meinem Einzug in eine Wohnung im 14. Stock viel Zeit damit verbracht hatte mit dem Aufzug auf und ab zu fahren".

Wie viel Energie gespeichert werden kann**,

beschreibt die Gleichung:

E = m x h x g x e

E ist die potentielle Energie (J), m die Masse( kg) der beladenen Container, h der mittlere Höhenunterschied (m) zwischen oberen und unteren Lagerplätzen, g die Gravitationskonstante (m/s2) und e die Effizienz des Aufzugs (üblicherweise mit 80 % kalkuliert). Für ein Gebäude mit einer Lagerfläche für 5 000 Container (jeweils mit 1000 kg nassem Sand) und einer Höhendifferenz von 50 m ergibt dies eine Speicherkapazität von 545 kWh (entspricht der Batterie eines Elektro-LKWs). Mit zunehmendem Höhenunterschied und steigender Masse der Container erhöht sich die Speicherkapazität des Systems.

Die Kosten für die Energiespeicherung sind (abgesehen von etwaigen Mietkosten) im Wesentlichen auf die Beschaffung der Container plus Füllmaterial und die autonom fahrenden Vehikel beschränkt. So würde die Speicherung in einem System mit 5000 Containern und 100 m Höhendifferenz auf 62 $/kWh kommen, bei 300 m Höhendifferenz auf 21 $/kWh - bedeutend billiger als konventionelle Batterien. Wie viel Energie (W) beim Hinunterfahren regeneriert wird, hängt von der Transportgeschwindigkeit ab.

Vorteile von LEST ....

Um eine Lösung durch Schwerkraftspeicheung realisierbar zu machen, sind nach Ansicht der Autoren die Kosten für die Energieaufnahme und - Rückgewinnung (Energiekapazität) die größte Herausforderung, Der wichtigste Vorteil von LEST ist, dass diese Energiekapazität bereits in Aufzügen mit regenerativen Bremssystemen eingerichtet ist. Weltweit sind mehr als 18 Millionen Aufzüge in Betrieb; viele von ihnen stehen aber einen beträchtlichen Teil der Zeit still. Die Idee von LEST ist, Aufzüge in der Zeit, in der sie nicht der Beförderung von Personen dienen, zur Speicherung oder Erzeugung von Strom zu nutzen.

Die Möglichkeit, Energie dort zu speichern, wo der meiste Strom verbraucht wird, wie es in Städten der Fall ist, bedeutet großen Nutzen für das Energienetz; LEST kann erschwingliche und dezentrale Hilfsdienste bereitstellen, die wiederum die Qualität der Stromversorgung in einem städtischen Umfeld verbessern könnten.

Behnam Zakeri, Koautor der Studie und Forscher in der IIASA-Forschungsgruppe für integrierte Bewertung und Klimawandel betont dies: "Umweltfreundliche und flexible Speichertechnologien wie LEST werden in einer Zukunft, in der ein großer Teil des Stroms aus erneuerbaren Energien stammt, für die Gesellschaft immer wertvoller werden. Daher müssen die politischen Entscheidungsträger und die Stromnetz-Regulierungsbehörden Strategien entwickeln, um Anreize für die Endverbraucher, in diesem Fall die Hochhäuser, zu schaffen, ihre dezentralen Speicherressourcen - beispielsweise LEST - mit dem zentralen Netz zu teilen. Die koordinierte Nutzung solcher dezentraler Ressourcen verringert den Bedarf an Investitionen in große zentrale Speichersysteme".

.... und noch zu lösende Fragen

Wie bei jedem neuen System gibt es noch einige Details, die weiter ausgearbeitet werden müssen, bevor das System zum Einsatz kommen kann. Dazu gehört es nutzbare Räume zu finden, in denen die Gewichtscontainer gelagert werden können - in den in den obersten Etagen, wenn das System voll aufgeladen ist und unten im Gebäude, wenn das System entladen ist. Hier könnten leer stehende Wohnungen, Büroräume und Gänge in den oberen Bereichen und Eingangshallen und Garagen in den unteren Etagen praktikable Optionen sein.

Eine weitere Überlegung betrifft die Deckentragfähigkeit bestehender Gebäude, in denen das System installiert wird, d. h. die Gesamtlast in Kilogramm pro Quadratmeter, die die Decke tragen kann, ohne zusammenzubrechen.

Zum globalen Potential von LEST**

Abbildung 2. Zahl, Höhe und globale Verteilung von Hochhäusern. (Bild von der Redaktion eingefügt aus: J.Hunt et al., Figs 11,12 [1]. Lizenz: cc-by)

Auf Basis der über 22 000 in Datenbanken gelisteten, weltweit existierenden Hochhäuser (mit Höhen über 50 m) haben die Forscher eine grobe Abschätzung des globalen Potentials von LEST vorgenommen. (Abbildung 2 fasst die Zahl, Höhe und regionale Verteilung der Hochhäuser zusammen.) Bei einer mittleren Gebäudehöhe von 120 m und vorausgesetzt, dass in den obersten Etagen Platz und Tragfähigkeit für 5 000 Container vorhanden ist, schätzen die Forscher ein globales Potential von 30 GWh, bei 50 000 Containern käme das Potential auf 300 GWh.


 [1] Hunt, J.D., Nascimento, A., Zakeri, B., Jurasz, J., Dąbek, P.B., Franco Barbosa, P.S., Brandão, R., José de Castro, N., Filho, W.L., Riahi, K. (2022). Lift Energy Storage Technology: A solution for decentralized urban energy storage, Energy DOI: 110.1016/j.energy.2022.124102


 *Der Artikel " Turning high-rise buildings into batteries" https://iiasa.ac.at/news/may-2022/turning-high-rise-buildings-into-batteries  ist am 30. Mai 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch Untertitel und zwei mit ** markierte Absätze mit Texten und Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Anmerkung der Redaktion:

Mit einem internationalen Team hat der noch recht jungen IIASA-Forscher Julian David Hunt (PhD in Engineering Science, University Oxford) vor wenigen Wochen zwei weitere hoch-innovative Konzepte zur Energiespeicherung publiziert, die wir im ScienceBlog vorgestellt haben:

IIASA, 30.03.2022: Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen


 

inge Thu, 02.06.2022 - 01:06

Comments

Günter Baca (not verified)

Sun, 12.06.2022 - 11:26

Das ist eine sehr schöne Phantasie. Die Realität ist weniger euphorisierend. Denn um die Träger der "Potentiellen Energie" (in diesem Beispiel nasse Sandsäcke) an den Speicherplatz zu verbringen benötigt man zuerst einmal Energie für die Fahrt nach oben.
Dabei ist der Einfluss der Systemeffizienz auf Energieverbrauch und Regeneration bedeutsam. Denn es gibt etwa folgende elektrische und mechanische Verluste.
Aufwärtsfahrt: Schacht-Verlust 5% Motor-Verlust 20% Steuerungs-Verlust 5%
Regenerationsfahrt: Schacht-Verlust 5% = 5 Motor-Verlust 20% = 20 Steuerungs- Verlust 5%
Tatsächlich können nur etwa 52% der eingesetzten Energie, die benötigt wird um die Sandsäcke hochzutransportieren, zurückgewonnen werden. 48% entfallen auf Systemverluste.
Es wird in jedem Fall weniger Strom gewonnen, als investiert.
Die Rekuperation kann aber auch ohne Sandsäcke erzielt werden, wenn leere Kabinen nach oben fahren.
Natürlich bleibt der Systemverlust davon unberührt.
Ein weiterer Punkt ist die äusserst kurze Zeitspanne, in der Strom "gewonnen" werden kann. Eine durchschnittliche Fahrtdauer liegt in herkömmlichen Gebäuden unter einer Minute. Von den rund 18 Millionen Aufzügen fährt nur ein kleiner Teil in Hochhäusern.
Etwa 50% der Aufzugspopulation ist älter als 25 Jahre. Regenerative Antriebe sind noch entsprechend selten und die elektrische Effizienz der Anlagen ist sicher nicht fit für diese Nutzung.
Zusätzlich ist der Strombedarf zu bedenken, der für die Steuerung und den Betrieb der "Roboter" benötigt wird. Die müssen vermutlich rund um die Uhr bereit stehen.
Die Bereitstellung des Lagerraums sowohl im oberen als auch unteren Bereich des Gebäudes wirft zusätzliche Fragen auf. Erstens die kommerzielle: Raum ist teuer und in Highrisegebäuden ganz besonders, je höher im Gebäude der Raum angeordnet ist. Zweitens, die Statik.
Ich würde mich freuen hier mehr zu erfahren, wie diese Punkte gelöst werden können.
Eine Dialogbox, welche einen Permalink zum Kommentar anzeigt

- auch zur Systemeffizienz, den Vorteilen und den offenen Fragen - gibt die unter [1] zitierte Arbeit von Hunt et al., in Energy, Energy DOI: 10.1016/j.energy.2022.124102

Die von Ihnen aufgeworfenen Fragen sieht Hunt natürlich auch: "This paper assumes that the lift installed already has regenerative braking capabilities and the cost for renting the space to store the containers in the upper and lower storage sites is zero. Thus, the only cost requirements are the containers, the material selected to increase the mass of the containers, and the autonomous trailers".         

Im Übrigen wird das Konzept der Schwerkraftspeicherung von einigen Firmen bereits umgesetzt:

 

 

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Do, 26.05.2022 — Redaktion

Redaktion

Icon Molekularbiologie

Es liegt nun die erste Studie vor, in der bei vielen Tierarten die Zahl der während der Lebenszeit erworbenen Mutationen verglichen wurde. Insgesamt 16 Säugetierarten - von der Maus bis zur Giraffe - zeigten trotz großer Unterschiede in Körpergröße und Lebensdauer eine ähnlich hohe Zahl von im Laufe des Lebens erworbenen Mutationen. Diese von Forschern des Wellcome Sanger Institute durchgeführte Studie lässt jahrzehntelange Fragen zur Rolle solcher genetischer Veränderungen im Alterungsprozess und in der Krebsentstehung in einem neuen Licht erscheinen.*

Forscher vom Wellcome Sanger Institute haben herausgefunden, dass verschiedene Tierarten trotz enormer Unterschiede in Lebensspanne und Größe ihr natürliches Leben mit einer ähnlichen Anzahl genetischer Veränderungen beenden. In der kürzlich in Nature veröffentlichten Studie [1] wurden Genome von 16 Säugetierarten - von der Maus bis zur Giraffe - analysiert. Die Autoren belegten darin: je länger die Lebenserwartung einer Spezies ist, desto langsamer ist die Mutationsrate; dies stützt die schon seit langem bestehende Theorie, dass somatische Mutationen eine Rolle bei der Alterung spielen.

Genetische Veränderungen, sogenannte somatische Mutationen, treten über die gesamte Lebenszeit in allen Zellen eines Organismus auf. Dies ist ein natürlicher Prozess; beim Menschen häufen Zellen etwa 20 bis 50 Mutationen pro Jahr an. Die meisten dieser Mutationen sind harmlos, aber einige von ihnen können eine Zelle zur Krebszelle entarten lassen oder auch die normale Funktion der Zelle beeinträchtigen.

Seit den 1950er Jahren haben einige Wissenschaftler darüber spekuliert, dass diese Mutationen eine Rolle im Alterungsprozess spielen könnten. Auf Grund der Schwierigkeit somatische Mutationen in einzelnen Zellen oder kleinen Klonen zu bestimmen, war es allerdings bislang ein Problem diese Möglichkeit zu untersuchen. Technologische Fortschritte der letzten Jahren erlauben nun endlich genetische Veränderungen in normalem Gewebe zu verfolgen; dies lässt hoffen damit die Frage nun zu beantworten.

Eine weitere, seit langem bestehende Frage betrifft das sogenannte Peto-Paradoxon: Da sich Krebserkrankungen aus einzelnen Zellen entwickeln, müssten Spezies mit größeren Körpern (und damit mehr Zellen) theoretisch ein viel höheres Krebsrisiko haben. Tatsächlich ist aber die Krebshäufigkeit bei Tieren unabhängig von deren Körpergröße. Man nimmt an, dass Tierarten mit großen Körpern bessere Mechanismen zur Krebsprävention entwickelt haben. Ob einer dieser Mechanismen darauf beruht, dass sich weniger genetische Veränderungen in ihrem Gewebe anhäufen, wurde bislang nicht untersucht.

Die Wellcome Sanger Studie

Abbildung 1. Histologische Bilder von Dickdarmproben mehrerer Tierspezies wobei jeweils ein Krypte strichliert umrandet ist. Der durch den schwarzen Strich angezeigte Maßstab ist 0,25 mm. (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

In der neuen Studie haben Forscher des Wellcome Sanger Institute diese Theorien untersucht; sie haben neue Methoden angewandt, um die somatische Mutation bei 16 Säugetierarten zu messen, die ein breites Spektrum an Lebenserwartung und Körpergröße abdecken. (Im Detail waren dies: Schwarz-weißer Stummelaffe, Katze, Kuh, Hund, Frettchen, Giraffe, Schweinswal, Pferd, Mensch, Löwe, Maus, Nacktmull, Kaninchen, Ratte, Ringelschwanzlemur und Tiger.) Erwähnt werden soll hier auch der langlebige, sehr krebsresistente Nacktmull.

Die Gewebeproben - Krypten aus dem Dickdarmbereich (Kolon) - wurden von mehreren Organisationen, u.a. der Zoological Society of London zur Verfügung gestellt. Krypten sind anatomische Strukturen im Epithel des Dickdarms (und auch des Dünndarms). Da alle Zellen einer Krypte sich von einer einzigen Stammzelle herleiten, sind sie ideal für die Untersuchung von Mutationsmustern und Mutationsraten geeignet. Wie diese Krypten aussehen, ist in Abbildung 1 für mehrere Spezies gezeigt.

Mit zunehmendem Alter einer Spezies steigen die Mutationen linear an

Abbildung 2. Mutationen in den Krypten-Zellen steigen linear mit dem Lebensalter an. Am Lebensende weisen die einzelnen Spezies eine ähnliche Anzahl von Mutationen in ihren Genomen auf. Beispiele von 4 Säugetierspezies.(Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

Um die Mutationsraten in einzelnen Darmstammzellen zu messen, wurden Gesamtgenom-Sequenzen aus 208 solcher Darmkrypten von insgesamt 48 Individuen analysiert. Die Analyse der Mutationsmuster (Mutationssignaturen - charakteristische Muster an Mutationen) lieferte Informationen über die ablaufenden Prozesse. Die Forscher fanden heraus, dass sich somatische Mutationen im Laufe der Zeit linear anhäufen (Abbildung 2.) und dass diese bei allen Spezies, einschließlich des Menschen - trotz sehr unterschiedlicher Ernährungsweisen und Lebensabläufen- durch ähnliche Mechanismen verursacht werden.

Mit steigender Lebenserwartung sinken die Mutationsraten

Einen Hinweis auf eine mögliche Rolle somatischer Mutationen im Alterungsprozess lieferte die Entdeckung der Forscher, dass die Rate somatischer Mutationen mit zunehmender Lebenserwartung der Spezies abnahm. Abbildung 3.

"Es war überraschend, ein ähnliches Muster genetischer Veränderungen bei so unterschiedlichen Tieren wie einer Maus und einem Tiger zu finden. Der interessanteste Aspekt der Studie ist jedoch die Feststellung, dass die Lebensspanne umgekehrt proportional zur somatischen Mutationsrate ist. Dies deutet darauf hin, dass somatische Mutationen eine Rolle bei der Alterung spielen, obgleich auch andere Erklärungen denkbar sind. In den nächsten Jahren wird es spannend werden, diese Studien auf noch diversere Arten, wie Insekten oder Pflanzen, auszuweiten." sagt der Erstautor der Studie Dr Alex Cagan vom Wellcome Sanger Institute

Abbildung 3. Somatische Mutationen in den Krypten des Dickdarms von 16 Spezies, die sich in ihrer Größe bis um das 39 000-Fache, in ihrer Lebensdauer bis um das 30-Fache und in ihrer jährlichen Mutationsrate um bis das 17-Fache unterscheiden. Die zum Lebensende angehäuften Mutationen differieren aber nur um das 3-Fache! (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

 

 

 

 

Die Suche nach einer Antwort auf Petos Paradoxon geht jedoch weiter. Nach Berücksichtigung der Lebensspanne fanden die Autoren keinen signifikanten Zusammenhang zwischen der somatischen Mutationsrate und der Körpermasse, was darauf hindeutet, dass andere Faktoren an der Fähigkeit größerer Tiere beteiligt sein müssen, ihr Krebsrisiko im Verhältnis zu ihrer Größe zu verringern.

"Die Tatsache, dass die Unterschiede in der somatischen Mutationsrate offenbar durch Unterschiede in der Lebensspanne und nicht durch die Körpergröße erklärt werden können, deutet darauf hin, dass die Anpassung der Mutationsrate zwar nach einer eleganten Methode zur Kontrolle des Auftretens von Krebs bei verschiedenen Arten klingt, die Evolution diesen Weg aber nicht wirklich gewählt hat. Es ist durchaus möglich, dass die Evolution jedes Mal, wenn sich eine Art größer entwickelt als ihre Vorfahren - wie bei Giraffen, Elefanten und Walen - eine andere Lösung für dieses Problem findet. Um das herauszufinden, müssen wir diese Arten noch genauer untersuchen", sagt Dr. Adrian Baez-Ortega, Koautor der Studie [1] (Wellcome Sanger Institute)

 

 

 

 

Trotz der großen Unterschiede in Bezug auf Lebensdauer und Körpermasse zwischen den 16 untersuchten Arten war die Anzahl der somatischen Mutationen, die im Laufe des Lebens der einzelnen Tiere erworben wurden, relativ ähnlich. Eine Giraffe ist im Durchschnitt 40 000-mal größer als eine Maus, und ein Mensch lebt 30-mal länger, aber der Unterschied in der Anzahl der somatischen Mutationen pro Zelle am Ende der Lebensspanne zwischen den drei Arten betrug nur etwa den Faktor drei (Abbildung 3).

Die genauen Ursachen des Alterns sind nach wie vor eine ungelöste Frage und ein Bereich, in dem aktiv geforscht wird. Das Altern wird wahrscheinlich durch die Anhäufung verschiedener Arten von Schäden an unseren Zellen und Geweben im Laufe des Lebens verursacht, unter anderem durch somatische Mutationen, Proteinaggregation und epigenetische Veränderungen. Ein Vergleich der Raten dieser Prozesse bei verschiedenen Arten mit sehr unterschiedlicher Lebensdauer kann Aufschluss über ihre Rolle bei der Alterung geben.

"Die Alterung ist ein komplexer Prozess, der auf vielfältige Formen molekularer Schädigungen in unseren Zellen und Geweben zurückzuführen ist. Seit den 1950er Jahren wird vermutet, dass somatische Mutationen zur Alterung beitragen, doch deren Erforschung blieb schwierig. Mit den jüngsten Fortschritten in der DNA-Sequenzierungstechnologie können wir nun endlich die Rolle untersuchen, die somatische Mutationen beim Altern und bei verschiedenen Krankheiten spielen. Dass diese verschiedenen Säugetiere ihr Leben mit einer ähnlichen Anzahl von Mutationen in ihren Zellen beenden, ist eine aufregende und faszinierende Entdeckung", sagt Dr. Inigo Martincorena . korrespondierender Autor( [1] Wellcome Sanger Institute..

 

 

 

 

 


*Der vorliegende Artikel basiert auf einem News Article des Wellcome Trust Sanger Institute vom 13.April 2022: Mutations across animal kingdom shed new light on ageing.  https://www.sanger.ac.uk/news_item/mutations-across-animal-kingdom-shed-new-light-on-ageing/. Dieser Artikel wurde weitestgehend wörtlich übersetzt und durch 3 Abbildungen aus der zugrundeliegenden Publikation ergänzt:

[1] Alex Cagan, Adrian Baez-Ortega et al. (2022). Somatic mutation rates scale with lifespan across mammals. Nature. DOI: https://doi.org/10.1038/s41586-022-04618-z

Die Inhalte der Website des Sanger Instituts und auch [1] stehen unter einer cc-by 3.0 Lizenz.


 

inge Fri, 27.05.2022 - 00:07

Elektrisierende Ideen für leistungsfähigere Akkus

Elektrisierende Ideen für leistungsfähigere Akkus

Do, 19.05.2022 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Als Alessandro Volta um 1800 die Voltasche Säule erfand, ahnte er sicher nicht, dass ihn diese Ur-Batterie unsterblich berühmt machen würde. Heute ist das Volt die physikalische Einheit für die elektrische Spannung, und wir leben längst in einer elektrifizierten Kultur. Aufladbare Akkumulatoren und Einwegbatterien haben elektrische Energie praktisch überall verfügbar gemacht, das Smartphone ist unser ständiger Begleiter. Und die Elektromobilität nimmt nach der Schiene nun auch auf der Straße Fahrt auf, vom E-Roller bis zum Elektroauto. Sogar elektrisches Fliegen ist im Kommen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr gibt einen Überblick über Aufbau und Funktion von Lithium-Batterien und Ergebnisse aus dem Max-Planck-Institut für Festköperforschung (Stuttgart) zur Optimierung solcher Batterien.*

Noch aber haben Elektroautos zwei gewichtige Nachteile im Vergleich zu Fahrzeugen mit Verbrennungsmotor: Laden dauert deutlich länger als Tanken, und eine entsprechende Reichweite erzwingt eine große, schwere „Batterie“. Das wiederum verschlechtert wegen des Ressourcenverbrauchs die Ökobilanz größerer Elektroautos. Zwar sind auch diese in ihrer Lebenszeit klimafreundlicher als die „Verbrenner“, wenn die elektrische Energie aus erneuerbaren Quellen kommt. Aber leistungsfähigere Akkumulatoren, wie die wieder aufladbaren Batterien korrekt heißen, wären ein großer Gewinn für das Klima.

Das ist das Forschungsziel der Chemikerin Jelena Popovic-Neuber am Max-Planck-Institut für Festköperforschung in Stuttgart. An den „Akkus“ gibt es noch viel zu optimieren. Selbst die besten Auto-Akkus mit Lithium-Ionen-Technologie können derzeit nur rund 0,12 Kilowattstunden (kWh) an Energie pro Kilogramm speichern. Ein Kilogramm Benzin oder Diesel enthält dagegen rund 12 kWh an nutzbarer chemischer Energie, also hundert Mal so viel Energie. Dafür allerdings sind elektrische Antriebe viel effizienter als Verbrennungsmotoren. Deshalb müssen Elektroautos deutlich weniger elektrische Energie an Bord mitführen, um auf vergleichbare Fahrleistungen zu kommen. Also muss die Forschung die spezifische Energiedichte der Akkus gar nicht auf das Niveau von fossilem Treibstoff steigern.

Akkumulatoren, Einweg-Batterien sowie Brennstoffzellen, die ebenfalls in Stuttgart erforscht werden, zählen zu den elektrochemischen Zellen. Deren Elektrochemie ist ein Forschungsthema der Abteilung von Joachim Maier, Direktor am Max-Planck-Institut für Festkörperforschung in Stuttgart. Maier interessiert sich schon sehr lange für das Verhalten von zum Beispiel Lithium-Ionen in solchen Zellen und gründete ein Forschungsgebiet, das Nano-Ionik heißt. Jelena Popovic-Neuber leitet bei ihm ein Team, das neue Ideen für effizientere Akkus auf Basis von Lithium und anderen Alkali- sowie Erdalkalimetallen entwickelt. Es ist Grundlagenforschung mit direkter Verbindung zur technischen Anwendung. Sogar einige Patente halten die Stuttgarter.

Lithium ist das dritte Element im Periodensystem. Man kann das silbrige Metall allerdings nicht einfach in die Hand nehmen. Es muss unter Paraffinöl oder in trockenem Argon-Schutzgas aufbewahrt werden, denn es reagiert schon mit Spuren von Wasser und Sauerstoff. Darin ist es seinem schwereren Vetter Natrium ähnlich. Auch Natrium eignet sich für Batterietechnologien, das Stuttgarter Team arbeitet damit ebenfalls. Es hat den Vorteil, dass es auf der Erde viel häufiger als Lithium vorkommt und leichter ohne negative ökologische und soziale Folgen gewonnen werden kann. „In China kommen 2023 erste Natrium-Akkus für Autos auf den Markt“, erzählt Jelena Popovic-Neuber.

Im Periodensystem der Elemente steht Lithium noch oberhalb von Natrium auf der „Linksobenaußen“-Position, unterhalb von Wasserstoff. Es ist generell ein chemischer Extremist. Für Hochleistungsakkus ist es aus zwei Gründen attraktiv: Erstens ist das Atom winzig und damit ein Leichtgewicht. Das steigert die speicherbare Menge an elektrischer Ladung pro Kilogramm Akku und damit Energie. Zweitens verhält sich Lithium innerhalb der elektrochemischen Spannungsreihe – dem Laufsteg der elektrochemischen Elemente – besonders „elektropositiv“. Es ist somit ein williger Elektronenspender. Aber warum ist das für Akkus gut?

Dazu muss man wissen, dass die zweite Stellschraube zur Optimierung der Speicherkapazität die elektrische Spannung zwischen dem Plus- und dem Minuspol ist. Je höher diese Zellspannung ist, desto mehr elektrische Energie passt im Prinzip in den Akku. Und hier kommt die Spannungsreihe ins Spiel: Würde man eine Lithium-Elektrode an eine Standard-Wasserstoffelektrode anschließen, die die Null-Volt-Linie markiert, läge das Lithium bei minus 3,04 Volt. Das ist Rekord in der Spannungsreihe. Wenn man nun leistungsfähige Akkus entwickeln will, paart man den Elektronenspender Lithium mit einem möglichst gierigen Elektronenempfänger am anderen Pol der Zelle. Dann sind Zellspannungen über 5 V erreichbar! Zum Vergleich: Handelsübliche Lithium-Ionen-Akkuzellen liegen derzeit bei 3,6 bis 3,8 V, Alkali-Einwegbatterien bei nur 1,5 V.

Einfach und schnell speichern

Die theoretisch höchstmögliche Zellspannung liegt bei fast 6 V. Dazu müsste man Lithium mit seinem extremsten Gegenspieler verkuppeln: Fluor, das elektronegativste Element. Nach dieser Überlegung würde also der stärkste aller Akkus eine Elektrode besitzen, in die Fluorgas geleitet wird. Die andere Elektrode wäre ein Klotz aus Lithiummetall, denn so wäre das Lithium am dichtesten zusammengepackt. Ein solcher Lithium-Fluor-Akku käme theoretisch auf eine spezifische Energiedichte von fast 10 kWh/kg. Er wäre mit Diesel und Benzin konkurrenzfähig. Allerdings ist Fluor so reaktiv, korrosiv und giftig, dass niemand ernsthaft einen solchen Akku bauen wollte.

Wiederaufladbare Akkus werden über einen Elektronenstrom geladen. Beim Entladen liefern sie einen entgegengesetzten Elektronenstrom, der Arbeit leistet. Dabei benötigen Laden und Entladen jeweils eine gewisse Zeit. Das liegt daran, dass Akkus die elektrische Energie zum Speichern erst in chemische Energie umwandeln müssen. Beim Entladen machen sie das wieder rückgängig.

Beim Laden werden die Elektronen mit einer zweiten Sorte elektrischer Ladungsträger zusammengebracht: positiv geladene Ionen, zum Beispiel Lithium-Kationen, denen im Vergleich zu den Lithium-Atomen jeweils ein Elektron fehlt. In Akkus sind diese positiven Ladungsträger beweglich. Die Ionen fließen im Zellinneren zwischen beiden Elektroden, wobei zwischen Laden und Entladen ihre Fließrichtung wechselt. Für die Ionen-Rennbahn sorgt ein flüssiger oder fester Elektrolyt. Der Elektrolyt muss einerseits die positiven Ionen möglichst gut leiten, andererseits die negativen Elektronen wie ein Isolator blockieren. Sonst würden die Elektronen kurzerhand durch das Zellinnere flitzen, anstatt im äußeren Stromkreis mühsam zu arbeiten. So ein interner Kurzschluss kann bei leistungsfähigen Akkus richtig gefährlich werden.

Mehr Platz für Energie

Abbildung 1: Funktionsprinzip einer Lithium-Ionen-Akkuzelle: Beim Laden „pumpt“ das Ladegerät im äußeren Stromkreis Elektronen (blaue Kugeln und Pfeile) von der in der Abbildung linken in die rechte Elektrode – und damit auch elektrische Energie. Im Inneren der Zelle wandern die Lithium-Ionen (rote Kugeln und Pfeile) von der linken Elektrode hinüber und lagern sich zwischen den Graphitschichten (schwarz) der rechten Elektrode ein. Beim Entladen kehren sich die Vorgänge um. Die Hin- und Herbewegung der Lithium-Ionen beim Laden und Entladen heißt Schaukelstuhl-Effekt. Die für die Ionen durchlässige Separatormembran (blau gestrichelte Linie) verhindert einen direkten Kontakt der Elektroden, also einen Kurzschluss.© R. Wengenmayr / CC BY-NC-SA 4.0

Jede Batterie- und Akkusorte hat ihre ganz eigene, oft komplizierte Elektrochemie. Beim Lithium-Ionen-Akku ist zumindest das chemische Grundprinzip einfach zu verstehen. Beim Laden des Akkus pumpt das Ladegerät Elektronen von der Lithiumverbindung-Elektrode in die Graphit-Elektrode, während gleichzeitig im Inneren der Batterie Lithium-Ionen durch den Elektrolyt zur Graphit-Elektrode fließen. Beim Entladen werden Elektronen an den Leiterdraht abgegeben, die über den äußeren Stromkreis zur Lithiumverbindung-Elektrode wandern. Im Inneren des Akkus wandern gleichzeitig Lithium-Ionen von der Graphit-Elektrode durch den Elektrolyt zur Lithiumverbindung-Elektrode (Abbildung 1).

Eine Elektrode besteht bei den etablierten Lithium-Ionen-Akkus aus Graphit. Es kann Lithium-Ionen wie ein Schwamm aufnehmen und trägt so maßgeblich zur hohen Speicherkapazität bei. Graphit ist aus mehreren Ebenen mit wabenförmigen Kohlenstoff-Sechserringen aufgebaut. Die kleinen Lithium-Ionen können in diese Ebenen wie in ein Parkhaus hineinfahren und dort chemisch einparken. Dabei bilden sie mit den ankommenden Elektronen in den Zwischenräumen zwischen den Kohlenstoff-Ebenen eine sogenannte Interkalationsverbindung (Abbildung 1, links).

Die andere Elektrode besteht in der Regel aus einer geeigneten Lithiumverbindung, die ebenfalls wie ein Schwamm für Lithium-Ionen wirkt. Bei kommerziell verbreiteten Zellen ist das oft noch Lithium-Cobaltoxid. Doch große Hersteller wie Tesla stellen zunehmend auf Lithium-Eisenphosphat um (Abbildung 2) und ersetzen so das umweltschädliche und seltene Cobalt. Das meiste Cobalt wird im Kongo abgebaut, oft unter menschenunwürdigen Bedingungen und großen Umweltschäden.

Abbildung 2: Aufbau einer Lithium-Ionen-Akkuzelle mit einer umweltfreundlichen Lithium-Eisenphosphat-Elektrode. In ihr laufen beim Laden und Entladen Redoxreaktionen ab, deren komplexe Mechanismen im Detail noch diskutiert werden. Einflussfaktoren sind zum Beispiel die Partikelgröße von LiFePO4 in der Verbundelektrode oder das verwendete Lösungsmittel. © R. Wengenmayr / CC BY-NC-SA 4.0

Neuartige Materialkombinationen für Elektroden und Elektrolyt sollen die Lithium basierten Akkus verbessern. Höhere Zellspannungen werfen dabei neue Probleme auf. Mehr als etwa 3,5 V hält nämlich kein Elektrolyt aus, ohne sich zu zerlegen. Zum Glück bilden sich beim allerersten Laden der Zelle Passivierungsschichten um die Elektroden. Diese schützen einerseits das Elektrodenmaterial vor dem chemisch aggressiven Elektrolyt. Andererseits reduzieren sie die elektrische Spannung, der der Elektrolyt direkt ausgesetzt ist. Der Clou: Trotzdem verbessert die hohe Zellspannung die Speicherfähigkeit. Um zu verstehen, wie das im Prinzip funktioniert, hilft der Vergleich mit den größten Speichern für elektrische Energie: Pumpspeicher-Wasserkraftwerke (Abbildung 3).

Abbildung 3: Energie über Potenzialgefälle speichern. Sowohl beim Lithium-Ionen-Akku (links) als auch einem Pumpspeicher-Wasserkraftwerk gibt es ein sogenanntes Potenzialgefälle (breite rote Linien): Beim Akku ist es die elektrische Spannung, beim Wasserkraftwerk die Energiedifferenz des Wassers im oberen und unteren Becken. Beim Akku sorgen die Passivierungsschichten um die Elektroden für einen „Spannungsabfall“ (kurze rote Linienstücke, die steiler verlaufen), der den Elektrolyt schützt. Analog schützen beim Kraftwerk zwei Reduzierventile oben und unten das Fallrohr vor zu heftig strömendem Wasser.© R. Wengenmayr / CC BY-NC-SA 4.0

Entklumpter Elektrolyt

Der Elektrolyt besteht aus Lithiumsalzen in einem organischen Lösemittel. Wasser scheidet nicht nur wegen des Lithiums aus, es zersetzt sich überdies ab einer Spannung von 1,2 V. Die komplexe Flüssigkeit enthält einfach positiv geladene Lithium-Ionen und eine entsprechende Anzahl negativer Ladungsträger, zum Beispiel Hexafluorphosphat-Anionen (PF6–). Zwischen ihnen herrschen starke elektrische Anziehungskräfte, weshalb beide Ionen-Sorten sich gerne zusammenlagern. So bleibt der Elektrolyt elektrisch neutral, was verhindert, dass er sich zersetzt und technische Probleme verursacht. Leider werden die Lithium-Ionen im Klammergriff der Anionen ziemlich unbeweglich. Das behindert den Ladungstransport in der Zelle und vernichtet einen Teil ihrer gespeicherten Energie. Jedes positiv geladene Ion ist zudem von einer Hülle negativ geladener Anionen umgeben, und solche Gebilde können sich aneinander lagern, was die Lithium-Ionen in ihrer Bewegung durch den Elektrolyt behindert (Abbildung 4, links).

Man kann sich das wie die Fans zweier gegnerischer Fußballmannschaften vorstellen, die wild durcheinander zu zwei verschiedenen Aufgängen im Stadion streben. Sie ziehen sich auch noch gegenseitig an, was natürlich zu Reibereien führt. Kurzum: Der Strom ins Stadion droht zu stocken, weshalb der Veranstalter Ordner einsetzt. Diese halten die Fans einer Mannschaft fest, um die gegnerischen Fans schnell in ihren Block zu schleusen. Genau diese Idee hatten die Stuttgarter. Sie mischten extrem feine, nur zehn bis hundert Nanometer (Milliardstel Meter) winzige Partikel in den Elektrolyten. Diese sind zum Beispiel aus Siliziumdioxid, also Nanosand! Die Sandkörnchen wirken als Ordner: Da ihre Oberfläche elektrisch positiv geladen ist, binden sie einen Teil der Anionen an sich. Das befreit zusätzliche Lithium-Ionen. Die größere Menge an (fast) ungehindert fließenden Lithium-Ionen senkt den elektrischen Widerstand des Elektrolyten deutlich. Das verringert den Energieverlust im Akku und beschleunigt das Laden und Entladen.

Auf den Trick mit dem Nanosand kam Joachim Maier vor einigen Jahren. Allerdings hat der feine Sand in dem flüssigen Elektrolyten auch Nachteile, zum Beispiel kann er sich unten im Akku absetzen. „So ein System lässt sich nur schwer mit reproduzierbaren Eigenschaften herstellen“, erklärt Jelena Popovic-Neuber. Das ist aber Voraussetzung für die industrielle Anwendung. Es gibt jedoch eine Lösung, an der ihr Team forscht. Aus den Oxiden von Silizium und Aluminium, SiO2 und Al2O3, lässt sich mit einem speziellen chemischen Verfahren eine Art mineralischer „Hartschaum“ herstellen. Dieses Material ist durchzogen von mikro- bis nanoskopisch kleinen Poren und Kapillaren. „Das legen wir über Nacht in die Elektrolytlösung ein, damit es sich vollsaugt“, erklärt die Forscherin. Danach funktioniert dieser Festelektrolyt im Prinzip wie der Nanosand – jetzt aber wie Sand, dessen Körner im Raum fixiert sind und damit nicht mehr der Schwerkraft folgen können (Abbildung 4, rechts). Das bringt die nötige Stabilität ins Spiel.

Abbildung 4: Links: Im flüssigen Elektrolyten einer normalen Akkuzelle sind die Lithium-Ionen (rot) zwischen negativ geladenen Anionen (blau) des Elektrolyts nahezu gefangen (grün: Lösemittelteilchen). Das behindert ihre Bewegung. Rechts: Die Mikro- und Nanokanäle im Festelektrolyten (grau) aus SiO2 oder Al2O3 binden die Anionen an ihren elektrisch positiv geladenen Oberflächen. Das setzt mehr Lithium-Ionen für den Ladungstransport zwischen den Elektroden frei. Der Akku arbeitet effizienter.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Rätsel der Grenzflächen

So ein Festelektrolyt hat auch noch einen weiteren Vorteil, der zu Popovic-Neubers zweitem Forschungsgebiet führt. Das befindet sich in der schon erwähnten Passivierungsschicht auf den Oberflächen des Elektrodenmaterials. Die Forscherin will nämlich zurück zu den Wurzeln der Lithium-Akkus, und diese hatten ursprünglich metallische Lithiumelektroden. Der Vorteil besteht darin, dass das Lithium im Metall wesentlich dichter gepackt und außerdem extrem leicht ist. Also können solche Akkus theoretisch mehr Energie pro Kilogramm Gewicht speichern. Allerdings gab es bei den ersten Generationen in den 1980er-Jahren Unfälle, bei denen metallische Lithium-Akkus explodiert und in Brand geraten sind. Wegen dieser Gefahr verschwanden solche Akkus wieder vom Markt. Als sichere Alternative wurden Lithium-Ionen-Akkus mit Graphit-Elektroden entwickelt.

Das Problem der metallischen Elektroden liegt grundsätzlich darin, dass die Ionen einerseits Ladungsträger, andererseits Material sind. Sobald ein Lithium-Ion ein Elektron einfangen kann, wird es zu einem Metallatom. Die Gefahr: Metallisches Lithium kann sich an Stellen im Akku abscheiden, wo es stört oder gefährlich wird. So können zum Beispiel feine Metall-„Filamente“ wie Tropfsteine wachsen, bis sie eine elektrische Brücke zwischen den Elektroden herstellen. Die Folge ist ein Kurzschluss, der den Akku zerstört.

Wie solche unerwünschten Metallstrukturen entstehen, ist ziemlich kompliziert und deshalb bis heute nicht im Detail verstanden. Ihr Gegenspieler ist eine schützende Passivierungsschicht, die auf der Oberfläche einer metallischen Lithiumelektrode durch chemische Reaktion mit der Elektrolytlösung wächst. Sie ist sehr komplex aus vielen mikroskopischen Körnchen aufgebaut, die chemisch unterschiedlich zusammengesetzt sind. Daher ist es schwierig, ganz genau herauszufinden, wie eine unerwünschte Metallstruktur diese Schicht durchdringt.

Die Passivierungsschicht ist wie schon erwähnt wichtig, um die Elektrode ausreichend vom Elektrolyten zu trennen. Auf der anderen Seite muss diese Schicht durchlässig für die Lithium-Ionen sein. Sie darf auch im Lauf der Lade- und Entladezyklen nicht zu schnell weiterwachsen, weil das den Akku altern lässt. Das unerwünschte Schichtwachstum lässt sich zum Beispiel durch Einsatz eines sehr dünnen Festelektrolyten verhindern. Weil dieser mechanisch stabil ist, kann der „Sandwich“ Elektrode-Elektrolyt-Elektrode im Akkupack zusammengepresst werden. Das bremst einen unerwünschten Zuwachs der Passivierungsschicht.

Im Labor zeigt Jelena Popovic-Neuber zwei große Plexiglaskästen. Einer der beiden Kästen ist für Experimente mit Lithium, der andere für Natrium. Vorne gibt es jeweils zwei Öffnungen, durch die man in armlange, schwarze Handschuhe schlüpfen und so im Kasten hantieren kann. Die Kästen sind mit dem trockenen Edelgas Argon geflutet, um die Alkalimetalle vor dem Kontakt mit Luft zu schützen. Die Forscherin zeigt ein Stück Natrium, aus der mit einem Locheisen runde Stücke für Elektroden gestanzt werden. Daneben liegt eine zusammengeschraubte Testzelle. Spezielle elektrische Messungen, sogenannte Impedanzmessungen, verraten dem Team, wie die Grenzschicht auf den Elektroden chemisch und physikalisch aufgebaut ist.

Aber nicht nur für Alkalimetalle, auch für Erdalkalimetalle interessiert sich Jelena Popovic-Neuber. Magnesium- und Calcium-Ionen erlauben zwar nicht so hohe elektrische Spannungen wie Lithium, dafür kann jedes Ion eine zweifache positive Ladung tragen. „So kann man eine höhere Energiedichte erreichen“, sagt sie. Für bessere Akkus sind also viele Lösungen denkbar. Für Forschung und Entwicklung sind das elektrisierende Zukunftsaussichten.


 * Der Artikel ist erstmals unter dem Title: " Eine volle Ladung Energie – elektrisierende Ideen für leistungsfähigere Akkus" https://www.max-wissen.de/max-hefte/techmax-13-akkumulatoren/ in TECHMAX 13 (aktualisiert Frühjahr 2022) der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des verkürzten Titels wurde der Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Matthias Kühne et al., 2016: Lithium ultraschnell zwischen zwei Graphenlagen. https://www.mpg.de/10977209/mpi-fkf_jb_20161?c=10583665&force_lang=de

Agora Verkehrswende (2019), Klimabilanz von Elektroautos. Einflussfaktoren und Verbesserungspotenzial, 2019: https://www.agora-verkehrswende.de/fileadmin/Projekte/2018/Klimabilanz_von_Elektroautos/Agora-Verkehrswende_22_Klimabilanz-von-Elektroautos_WEB.pdf

Alexander Freund , 2020: Natrium statt Lithium: Die Akkus der Zukunft. https://www.dw.com/de/natrium-statt-lithium-die-akkus-der-zukunft/a-54512116

Joachim Maier, 2011: Die Ausnützung von Größeneffekten für die elektrochemische Energieumwandlung. https://www.mpg.de/4647190/Elektrochemische_Energieumwandlung?c=11659628 und: Pioniere zwischen den Polen. https://www.mpg.de/1327542/lithiumbatterien


Artikel im ScienceBlog

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Inge Schuster, 05.03.2021: Trojaner in der Tiefgarage - wenn das E-Auto brennt

Georg Brasseur,10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.20: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität

Erich Rummich, 02.08.2012: Elektromobilität - Elektrostraßenfahrzeuge


 

inge Thu, 19.05.2022 - 13:14

Wie globale Armut vom Weltraum aus erkannt wird

Wie globale Armut vom Weltraum aus erkannt wird

Do, 12.05.2022 — IIASA

IIASA Logo

Icon Energie

Trotz der Erfolge bei der weltweiten Armutsbekämpfung in den letzten zwei Jahrzehnten leben noch immer fast eine Milliarde Menschen ohne Zugang zu verlässlicher und erschwinglicher Elektrizität; dies wirkt sich wiederum negativ auf Gesundheit und Wohlergehen aus und beeinträchtigt eine nachhaltige Entwicklung. Wenn Hilfe und Infrastruktur diese Menschen erreichen sollen, ist es von entscheidender Bedeutung zu wissen, wo sie sich befinden. Eine neue, vom International Institute of applied System Analysis (IIASA) geleitete Studie schlägt eine neuartige Methode zur Schätzung des globalen wirtschaftlichen Wohlstands anhand von nächtlichen Satellitenbildern vor.*

Nächtliche Satellitenbilder

Seit fast 30 Jahren verwenden Forscher Satellitenbilder der Erde bei Nacht, um menschliche Aktivitäten zu untersuchen. Es hat sich gezeigt, dass diese Bilder - gemeinhin als "nighttime radiance" (nächtliche Lichtemission) oder "nighttime lights" (nächtliche Beleuchtung) bezeichnet - helfen können, Aspekte wie Wirtschaftswachstum, Armut und Ungleichheit zu erfassen, insbesondere dort, wo Messdaten fehlen. In Entwicklungsländern weisen nachts unbeleuchtete Gebiete in der Regel auf eine limitierte Entwicklung hin, während hell erleuchtete Gebiete auf besser entwickelte Gebiete wie Hauptstädte hinweisen, in denen reichlich Infrastruktur vorhanden ist.

Bislang haben sich Wissenschaftler eher für die Daten aus den beleuchteten Gebieten interessiert, während die unbeleuchteten Gebiete in der Regel unberücksichtigt blieben. In einer Studie, die eben in Nature Communications veröffentlicht wurde, haben sich Forscher des IIASA und Kollegen aus mehreren anderen Einrichtungen jedoch speziell auf die Daten der unbeleuchteten Gebiete konzentriert, um das globale wirtschaftliche Wohlergehen abzuschätzen [1]. Abbildung 1.

Nächtlich beleuchtete Siedlungsgebiete und Wohlstand

Abbildung 1. Nighttime lights über der Nordhalbkugel.

"Während sich frühere Arbeiten eher auf den Zusammenhang zwischen beleuchteten Gebieten und wirtschaftlicher Entwicklung konzentrierten, haben wir herausgefunden, dass es auch andersherum funktioniert, und dass unbeleuchtete Gebiete ein guter Indikator für Armut sind. Indem wir diese unbeleuchteten Gebiete identifizieren, können wir gezielt Maßnahmen zur Armutsbekämpfung ergreifen und uns auf Orte konzentrieren, um dort den Zugang zur Energie zu verbessern", erklärt Studienautor und IIASA Strategic Initiatives Program Director, Steffen Fritz.

Die Forscher haben dazu einen harmonisierten georäumlichen Wohlstandsindex für Haushalte in verschiedenen Ländern Afrikas, Asiens und Amerikas verwendet, der im Rahmen des Demographic and Health Surveys (DHS)-Programms errechnet wurde und die einzelnen Haushalte auf einer kontinuierlichen Skala des relativen Wohlstands von ärmer bis reicher einordnet. Anschließend haben sie diese Daten mit Daten aus Satellitenbildern der weltweiten nächtlichen Beleuchtung in diesen Ländern kombiniert und heraus gefunden, dass 19 % der gesamten Siedlungsfläche des Planeten keine nachweisbare künstliche Strahlung aufweisen. Der größte Teil der unbeleuchteten Siedlungsflächen befand sich in Afrika (39 %) und Asien (23 %). Betrachtet man nur die unbeleuchtete ländliche Infrastruktur, so steigen diese Zahlen für Afrika auf 65 % und für Asien auf 40 %. In fast allen Ländern zeigen die Ergebnisse einen eindeutigen Zusammenhang zwischen einem steigenden Anteil unbeleuchteter Gemeinden in einem Land und einem sinkenden wirtschaftlichen Wohlstand. Abbildung 2.

Abbildung 2. Klassifizierung der weltweiten unbeleuchteten Siedlungsflächen. a) Prozentsatz des unbeleuchteten Siedlungsgebietes in den einzelnen Ländern (ländliche und urbane gebiete zusammengenommen). Ranking afrikanischer Staaten mit mehr als 50 Millionen Einwohnern nach dem Prozentsatz an unbeleuchteten städtischen (b) und ländlichen (c) Siedlungsflächen. (Bild: leicht modifizierte Fig. 1 aus McCallum et al.,2022 [1]. Lizenz: cc-by.Bild von Redn. eingefügt-)

"Basierend auf dem Prozentsatz unbeleuchteter Siedlungen, die wir in nächtlichen Satellitenbildern feststellten, waren wir in der Lage, eine Klassifizierung des Wohlstands von rund 2,4 Millionen Haushalten in 49 Ländern in Afrika, Asien und Nord- und Südamerika mit einer Genauigkeit von insgesamt 87 % vorherzusagen und zu kartieren. Überraschenderweise gab es auch in den Industrieländern, insbesondere in Europa, relativ viele unbeleuchtete Siedlungen. Für dieses Ergebnis kann es mehrere Gründe geben, u. a. die Tatsache, dass die Satellitenbilder nach Mitternacht aufgenommen wurden: Es könnte aber auch auf eine gewissenhafte Energie- und Kosteneinsparungspolitik von Hausbesitzern, Regierungen und Industrie in Europa zurückzuführen sein", so Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability, der die Studie leitete.

Elektrifizierung zur Steigerung des Wohlstands

Die Forscher merken an, dass Regierungsbehörden in der Regel der Ausweitung des Stromzugangs eher in städtischen als in ländlichen Gebieten Priorität einräumen. Die Elektrifizierung des ländlichen Raums ist jedoch ein vielversprechender Ansatz zur Steigerung des Wohlstands und kann auch erhebliche positive Auswirkungen auf Einkommen, Ausgaben, Gesundheit und Bildung der Haushalte haben. Die Ziele für nachhaltige Entwicklung der Vereinten Nationen (SDGs) beinhalten ausdrücklich den Zugang zu erschwinglicher, zuverlässiger, nachhaltiger und moderner Energie für alle. Während es Bemühungen gibt, dieses Ziel zu erreichen, und in den letzten zwei Jahrzehnten erhebliche Fortschritte erzielt wurden, so gibt es Anzeichen dafür, dass Regierungen und Industrie Schwierigkeiten haben werden, mit dem erwarteten Bevölkerungswachstum Schritt zu halten.

Vor allem in den afrikanischen Ländern südlich der Sahara werden den Prognosen zufolge bis 2030 immer noch über 300 Millionen Menschen in extremer Armut leben. Die Auswirkungen der COVID-19-Pandemie werden um 2030 herum wahrscheinlich weitere 88 bis 115 Millionen Menschen in die extreme Armut treiben und damit die Ziele der Vereinten Nationen zur Verringerung der Armut um etwa drei Jahre zurückwerfen. Studien wie die vorliegende können jedoch dazu beitragen die Entwicklungsländer bei der Elektrifizierung zu verfolgen und die Industrieländer bei der Verringerung ihres Lichtenergieverbrauchs.

"Wenn die Methode, die wir in unserer Studie verwendet haben, fortlaufend angewandt wird, könnte sie Möglichkeiten bieten, das Wohlergehen und den Fortschritt in Richtung der SDGs zu verfolgen. Im Hinblick auf die Politik kann sie dazu beitragen, die Energiepolitik auf der ganzen Welt besser zu informieren, und sie kann auch bei der Gestaltung der Entwicklungshilfepolitik hilfreich sein, indem sie sicherstellt, dass wir die abgelegenen ländlichen Gebiete erreichen, die wahrscheinlich energiearm sind. Darüber hinaus könnte sie nützlich sein, um Anzeichen für ein nachhaltiges und ökologisches Beleuchtungsmanagement in den Industrieländern zu erkennen", schließt Shonali Pachauri, Leiterin der Forschungsgruppe Transformative institutionelle und soziale Lösungen.


  [1] McCallum, I., Kyba, C.C.M., Laso Bayas, J.C., Moltchanova, E., Cooper, M., Crespo Cuaresma, J., Pachauri, S., See, L., Danylo, O., Moorthy, I., Lesiv, M., Baugh, K., Elvidge, C.D., Hofer, M., Fritz, S. (2022). Estimating global economic well-being with unlit settlements. Nature Communications DOI: 10.1038/s41467-022-30099-9


* Der Artikel " Identifying global poverty from space"https://iiasa.ac.at/news/may-2022/identifying-global-poverty-from-space ist am 5.Mai 2022 auf der IIASA Website erschienen. Er wurde von der Redaktion möglichst wortgetreu übersetzt und durch eine Abbildung aus der zitierten Originalarbeit [1] und drei Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Thu, 12.05.2022 - 00:42

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

So 01.05.2022  — Inge Schuster

Inge Schuster Icon Biologie Die Nutzung der nachhaltigen Ressource "Pilze" kann einen wesentlichen Beitrag zur globalen Ökonomie, insbesondere zur zukünftigen Welternährung liefern. Voraussetzung dafür ist die Möglichkeit ein weites Spektrum an Pilzarten zu züchten, um Massenproduktionen auf minimalen Kulturflächen zu erzielen. Für Spitzmorcheln, deren exzellenter Geschmack und rares Vorkommen sie zu den wertvollsten aber - nach den Trüffeln - auch teuersten essbaren Pilzen haben werden lassen, ist dies nun offensichtlich gelungen. Nach 40 Jahren Forschung haben es die Brüder Jacob and Karsten Kirk, Biologen an der University of Copenhagen Denmark, geschafft Spitzmorcheln über das ganze Jahr in Innenräumen zu ziehen und hohe Erträge (10 kg/m2 Kulturfläche) erstklassiger Pilze zu ernten

Seit meiner frühen Jugend haben mich Pilze fasziniert."Schwammerlsuchen" und neue Spezies aus der unglaublichen Vielfalt des - neben Pflanzen und Tieren - dritten großen Reichs eukaryotischer Lebewesen Kennenlernen (und vielleicht auch Zubereiten) haben von jeher zu meinen Lieblingshobbies gehört. Später wurde das Spektrum durch humanpathogene Pilze erweitert - ein langfristiges Thema meiner beruflichen Tätigkeit im Wiener Sandoz-Forschungsinstitut, aus dem mit "Lamisil", ein Blockbuster unter den antifungalen Medikamenten herausgekommen ist.

Schwammerlsuchen hat für mich bereits früh im Jahr begonnen. Mit Ausnahme der Wintermonate haben Pilze ja das ganze Jahr Saison; diese erstreckt sich von den Morcheln im Frühjahr bis zu den Austernseitlingen und Schopftintlingen im Spätherbst. So bin ich meisten schon in den ersten Märztagen losgezogen, um nach der frühesten Morchel-Verwandten, der Böhmischen Verpel (Verpa bohemica) zu suchen. Diese kleinen, unter dichtem abgestorbenem Laub kaum erkennbaren Pilze sind bereits nach 2 - 3 Wochen wieder verschwunden, abgelöst u.a. von den ebenfalls nur kurze Zeit auffindbaren Spitzmorcheln (Morchella elata). Abbildung 1. Auch weitere Morchelverwandte wie die Käppchenmorchel (Morchella semilibera) und die größeren Speisemorcheln (Morchella esculenta) haben eine nur kurze Saison.

Das stundenlange konzentrierte Absuchen des Waldbodens war nicht immer mit einer reichen Morchelernte - d.i. mit einer Ausbeute von mehr 0,25 kg Pilzen - belohnt. In anderen Worten es war ein recht mühsames Unterfangen, andererseits aber Erholung und Hobby.

Abbildung 1: Morcheln tauchen nur über kurze Zeit auf und sind - im abgestorbenen Laub versteckt - auch auf Grund ihrer "Tarnfarbe" nur schwer zu finden (oben: rote Pfeile). Unten: Getrocknete Köpfe von Spitzmorcheln. Fundstellen werden geheim gehalten und nur an engste Angehörige weitergegeben. (Bilder: Funde im Gebiet des Bisambergs, Wien; I.S).

Allgemeines zu den Morcheln…

Man schätzt, dass es im Reich der Pilze an die 2 Millionen unterschiedliche Arten gibt, wovon allerdings nur 5 % beschrieben sind. Morcheln gehören zu einer der großen Abteilungen, den sogenannten Schlauchpilzen (Ascomycetes); phylogenetische Studien haben bis jetzt an die 80 unterschiedlichen Morchelarten identifiziert (http://www.indexfungorum.org/).

Morcheln sind in den gemäßigten Zonen der nördlichen Hemisphäre - von Europa über Nordamerika bis Asien - zu finden. Sie lieben helle, sonnige Standorte, die feucht und windgeschützt sein sollen und erscheinen - wie bereits erwähnt -, wenn sich die ersten Blätterknospen der Bäume und Sträucher öffnen; ist es um diese Jahreszeit allerdings noch zu kalt oder zu trocken, können Morcheln in einem solchen Jahr auch völlig ausbleiben. Morcheln wachsen auf Böschungen, Wegrändern, Waldwiesen und in Flussauen - häufig vergesellschaftet mit Eschen, Ulmen und auch Fichten - aber auch in Parks und in Gärten und sie sind standorttreu. Kennt man Fundstellen (überliefert aus Familie und engstem Freundekreis), dann kann man dort jahrelang Pilze ernten - ein Vorteil, wenn diese in einem warmen Frühjahr von schnellwachsendem Gras und anderen Pflanzen bereits völlig verdeckt sind. Im Gegensatz zu diesen wildwachsenden Morcheln findet man diese sogar auf Rindenmulch; die Freude ist allerdings kurz. Nach einer Saison ist offensichtlich das Substrat verbraucht und die Pilze kommen nie wieder.

…und zur Spitzmorchel

Der Fruchtkörper setzt sich aus Hut und Stiel zusammen, die miteinander verbunden sind und einen Hohlkörper bilden. Abbildung 2. Der dunkle, in verschiedenen Braun- bis Schwarztönen gefärbte Hut ist wabenförmig mit ausgeprägten Längsrippen strukturiert und zwischen 3 bis zu 10 cm hoch. Die Gruben der Waben sind von schlauchartigen Strukturen, den sogenannten Asci (davon leitet sich der Name der Ascomyceten ab), ausgekleidet, welche jeweils 8 Sporen enthalten, die der Vermehrung und Ausbreitung dienen und bei ungünstigen Umweltbedingungen lange überdauern können. Die Längsrippen trennen die Gruben voneinander und sind steril.

Abbildung 2: Eine alte Darstellung der Spitzmorchel von Giacomo Bresadola (1822). Im aufgeschnittenen Pilz ist die Hohlkörperstruktur zu erkennen (rechts). Jeweils 8 Sporen befinden sich in Schläuchen , sogenannten Asci (Skizze links), die in den Gruben der Waben liegen, die begrenzenden Rippen sind steril. (Bild Wikimedia commons, gemeinfrei)

Das Besondere an den eher unscheinbaren Morcheln ist ihr exquisiter Geschmack. Bereits seit der Antike werden Morcheln als Delikatesse geschätzt. Angeblich liebte der römische Kaiser Claudius Morchelgerichte, seine Frau Agrippina vergiftete ihn mit einem solchen, dem sie Knollenbätterpilze beigefügt hatte. Die Verwechslung der Morchel mit der verwandten, giftigen Lorchel, soll zum Tod von Buddha geführt haben.

Mit den verwandten Trüffeln zählt man Morcheln zu den besten Speisepilzen (meiner Ansicht gehört auch noch der seltene Kaiserling Amanita caesarea dazu); dementsprechend sind sie nicht nur aus der Gourmetküche nicht wegzudenken. Es sind Spezialitäten, die auf Grund ihres raren Vorkommens sehr hohe Preise erzielen: der Marktwert für frische Spitzmorcheln liegt in unseren Breiten aktuell um die 150 €/kg, für getrocknete Pilze, die beim Trocknen ein noch intensiveres Aroma entwickeln, werden bis zu 700 €/kg verlangt. Märkte und Küchen werden bei uns hauptsächlich von Pilzsammlern beliefert, in den letzten Jahren nehmen aber bereits Importe getrockneter Pilze aus China zu (s.u.).

Dass man sich beim Morchelsammeln aber keine goldene Nase verdienen kann, zeigt eine rezente Untersuchung aus Michigan: 163 befragte Sammler gaben an im Durchschnitt 16 Tage auf Morcheljagd zu sein; von denjenigen, welche die Pilze auch verkaufen, werden jährlich im Schnitt rund 13 kg frische Spitzmorcheln/Speisemorcheln (zu 70 US $) auf den Markt gebracht [1].

Züchtung von Spitzmorcheln

Versuche diese Pilze zu züchten gibt es bereits seit mehr als hundert Jahren, bis vor kurzem waren diese aber wenig erfolgreich. Im letzten Jahrzehnt ist es nun in China gelungen mehrere Arten von Spitzmorcheln im Freiland zu kultivieren. Wie bei den natürlich vorkommenden Morcheln ist die Erntezeit auf einige Wochen im Frühjahr beschränkt. Von 2011 bis 2020 stieg die Anbaufläche von 200 ha auf 10 000 ha und der Ertrag von weniger als 750 kg/ha auf 15 000 kg/ha und der Jahresertrag auf 15 000 t frische Pilze. [2]. Abbildung 3 zeigt ein besonders ertragreiches Feld.

Der Ernteertrag wirkt auf den ersten Blick sehr beeindruckend. Eine Untersuchung zum Morchelanbau von 2019 bis 2020 ergab jedoch, dass die Hälfte der Felder keine Früchte trugen oder nur schwaches Wachstum aufwiesen und mehr als 70 % der Produzenten keine stabilen Gewinne erzielen konnten [1]. Die Misserfolge können dabei auf viele Faktoren zurückzuführen sein: von ungeeigneter Bodenbeschaffenheit, ungünstigen Bodenmikroben, instabiler Qualität der Morchelstämme, bis hin zu Krankheitserregern und schlechten Umweltbedingungen (z. B. Temperatur, Feuchtigkeit [2].

Abbildung 3: Freilandkultur von Spitzmorcheln. Boden mit besonders hohem Ertrag.(Bild aus Yu F.M. et al., (2022) [1]. Lizenz:cc-by)

Bereits 1982 hatten Forscher der Michigan State University und San Francisco State University ein Verfahren zur Züchtung der Morchella rufobrunnea, einer verwandten gelben Morchel, unter kontrollierten Bedingungen in Innenräumen entwickelt, das sie später patentierten und in einer Produktionsstätte in Alabama zur Anwendung brachten. In den ersten Jahren soll die Ernte wöchentlich an die 700 kg Morcheln erbracht haben. Eine Infektion der Anlage und die Weltwirtschaftskrise 2008 brachten die Produktion zum Erliegen.

Es erscheint merkwürdig, dass seit vielen Jahren außer den Erfindern niemand in der Lage ist, Morcheln nach den Beschreibungen des Patents herzustellen.

Das dänische Morchelprojekt

In den späten 1970er Jahren haben die Brüder Jacob und Karsten Kirk, damals noch Biologie-Studenten an der Universität Kopenhagen, begonnen Pilze zu züchten und experimentierten vorerst mit leicht kultivierbaren Typen wie den Champignons und Austernseitlingen. Ihr Interesse wandte sich aber bald den Spitzmorcheln zu, die sie für eine zwar herausfordernde aber zugleich lohnendere Spezies hielten. Das angestrebte Ziel war eine Massenproduktion dieser Pilze unter kontrollierten Bedingungen in Innenräumen über das ganze Jahr. Nach fast 40 Jahren Entwicklungsarbeit scheinen sie nun dieses Ziel erreicht zu haben [3].

Spitzmorcheln stellen einen großen Artenkomplex von nahe verwandten Spezies dar, die unterschiedliche Wachstumsbedingungen aufweisen können. Auf Reisen in mehrere europäische Länder haben die Kirk-Brüder jedes Frühjahr Spitzmorcheln gesammelt und in Zusammenarbeit mit der Universität Kopenhagen daraus Mycelien isoliert, diese auf speziellem Nähragar aufgetragen und unter sterilen Bedingungen sogenannte Sklerotien hergestellt, das sind aggregierte, nährstoffreiche, winterharten, braune knotenartige Strukturen - eine bei Pilzen auftretende Dauerform - , die unter anderem den Nährstoffhintergrund für die Fruchtkörperbildung im Frühjahr bilden. Die (u.a. in flüssigem Stickstoff gelagerten) Sklerotien bildeten dann die Grundlage für Kultivierungsversuche, die in mindestens 20 m2 großen, angemieteten Klimakammern erfolgten. Über Jahre wurde an der Entwicklung einer optimalen Morchelerde getüftelt, die nun in Paletten mit witterungsbeständigen Kunststoff-Boxen eingebracht wird. Auch die Entwicklung eines optimalen Programms für Beleuchtung, Temperatur und Feuchtigkeit erstreckte sich über mehrere Jahre.

Insgesamt ist es nun gelungen aus 73 von 80 ganz unterschiedlichen genetischen Varianten der Spitzmorcheln Fruchtkörper zu ziehen, die allerdings in Wachstumsraten, Größe und Aussehehen sehr unterschiedlich waren. Zwei der Varianten erwiesen sich als besonders produktiv: bei einem Ernteertrag von rund 4,2 kg /m2 innerhalb von 22 Wochen ergibt vor allem Variante 195 prachtvolle, exzellent schmeckende überdurchschnittlich große Pilze von über 25 g, die allein stehen und leicht zu ernten sind. (Bezogen auf einen Jahresertrag von rund 10 kg/m2 ist das eine etwa 7 mal größere Ausbeute als in den saisonalen chinesischen Freilandanbauten erzielt wurde; s.o.) Insgesamt wurden so mehr als 150 kg Morcheln geerntet. Ein kurzes Video zeigt Methode und Pilze [4].

Outlook

Die Kultivierungsmethode der Kirk-Brüder kann als Meilenstein in der Pilzzucht betrachtet werden. Sie vereint beste Wachstumsbedingungen, optimale genetische Varianten, Böden und Nährstoffe. Die Kultivierung erfolgt ohne Pestizide und erfordert auch keine besonderen Schutzmaßnahmen beim Arbeiten in den Klimakammern. Morcheln können damit über das ganze Jahr hindurch geentet werden und voraussichtlich zu niedrigen Preisen, die denen von Champignons und anderen etablierten Pilzen entsprechen.

Die Methode ist nun soweit entwickelt, dass eine großtechnische Produktion ins Auge gefasst werden kann. Zweifellos werden die Erfolge mit den Spitzmorcheln auch auf viele andere Pilzarten übertragbar sein: Ohne Verbrauch wertvoller Agrarflächen kann so auf minimalem Raum eine Massenproduktion von Pilzen aufgebaut werden, die nicht nur einen Beitrag zur zukünftigen Welternährung liefern sondern auch als Ressource für viele großtechnische Verfahren dienen können.


[1] Malone, T. et al. Economic Assessment of Morel (Morchella spp.) Foraging in Michigan, USA. Econ Bot (2022). https://doi.org/10.1007/s12231-022-09548-5

[2] Yu, F.-M. et al., Morel Production Associated with Soil Nitrogen-Fixing and Nitrifying Microorganisms. J.Fungi 2022, 8, 299. https://doi.org/10.3390/jof8030299

[3] Jacob Kirk &Karsten Kirk: Controlled Indoor Cultivation of Black Morel (Morchella sp.) All-year-round.  https://thedanishmorelproject.com/

[4] The Danish Morel Project: Controlled Indoor Cultivation of Morel Mushrooms All-year-round. Video 1:15 min.  https://www.youtube.com/watch?v=A3E78Q20RlE

inge Sun, 01.05.2022 - 18:42

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Do, 21.04.2022 — Christina Beck & Roland Wengenmayr Christina BeckRoland WengenmayrIcon Biologie

Eine Herausforderung des 21. Jahrhunderts ist die Eindämmung des Klimawandels. Und das heißt, dass es uns gelingen muss, den Anteil von Treibhausgasen in der Atmosphäre zu reduzieren. Kohlenstoffdioxid aus der Luft mithilfe von Sonnenenergie nutzbar machen – diesen Prozess beherrschen Pflanzen bereits seit Jahrmillionen. Eröffnet die künstliche Photosynthese einen Weg, um aus Kohlenstoffdioxid mithilfe von Licht nachhaltig Rohstoffe zu produzieren? Ein Team um Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg, arbeitet daran, diesen Prozess so zu „tunen“, dass er mehr Kohlenstoff binden kann. Mit ihrem synthetisch-biologischen Ansatz wollen die Max-Planck-Forschenden biologische Prozesse jedoch nicht nur schrittweise verbessern, sondern auch ganz neue Lösungen umsetzen, die in dieser Form in der Natur nicht zu finden sind – eine Idee mit vielversprechendem Potenzial.*

Jedes Jahr holen Photosynthese treibende Organismen rund 400 Milliarden Tonnen Kohlenstoffdioxid (CO2) aus der Luft. Im natürlichen Kohlenstoffkreislauf entsprach das genau der Menge an CO2, die durch geologische und biologische Prozesse wieder freigesetzt wurde – bis mit Beginn des Industriezeitalters (etwa um 1750) der Mensch anfing, zunehmend fossile Brennstoffe wie Kohle, Erdöl und Erdgas, in denen der Kohlenstoff aus Jahrtausenden bis Jahrmillionen unterirdisch gespeichert war, zu verbrennen. Dadurch bringen wir den Kohlenstoffkreislauf zunehmend aus dem Gleichgewicht: Aktuell emittieren wir jährlich 38 Gigatonnen CO2 zusätzlich, also knapp ein Zehntel des natürlichen Kreislaufs. Ein Verfahren, welches das überschüssige Kohlenstoffdioxid wieder aus der Atmosphäre entfernt und gleichzeitig noch sinnvoll nutzt, wäre also hochwillkommen. Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie treibt aber nicht primär der Kampf gegen den Klimawandel an. Zunächst einmal will er verstehen, wie sich Kohlenstoffdioxid in organische Moleküle umwandeln lässt. „Wenn wir das Treibhausgas mit biologischen Methoden als Kohlenstoffquelle erschließen und dabei aus der Atmosphäre entfernen könnten, wäre das natürlich ein toller Nebeneffekt“, sagt der Max-Planck-Forscher.

Zentral für das Leben

Evolutionär betrachtet ist die Photosynthese ein ausgesprochen erfolgreicher biochemischer Prozess und sehr gut in der Lage, die Anforderungen der biologischen Funktionen zu erfüllen: Einfach zusammengefasst, wandelt sie das CO2 aus der Luft mithilfe von Sonnenenergie und Wasserstoff in Kohlenhydrate um. Um Wasserstoff zu gewinnen, müssen Pflanzen dabei Wassermoleküle spalten. Den überschüssigen Sauerstoff gibt die Pflanze an die Umwelt ab. Ein Teil der Kohlenhydrate liefert die nötige Energie zum Leben, der andere Teil wird zum Grundbaustein für die Produktion großer Biomoleküle. Mit diesen wächst die Biomasse an – die Pflanze speichert so den Kohlenstoff aus der Atmosphäre.

Der Prozess hat aber auch seine Grenzen. So beträgt die Effizienz der Umwandlung von eingestrahltem Sonnenlicht in Biomasse bei der biologischen Photosynthese (ohne den Eigenverbrauch der Pflanze) gerade mal ein Prozent. Das ist nichts im Vergleich zu gängigen Fotovoltaikanlagen, die rund 20 Prozent der eingesammelten Sonnenenergie in elektrische Energie umwandeln. Ein Flaschenhals für die Effizienz ist die Transpiration der Pflanzen. Über die Spaltöffnungen der Blätter, die sogenannten Stomata, nehmen Pflanzen nicht nur das CO2 aus der Luft auf, sondern verdunsten dabei gleichzeitig auch Wasser. Die Verdunstung verbraucht jedoch wesentlich mehr Wasser als die Photosynthese-Reaktion. Indem die Pflanze den Verlust an Wasser begrenzt, schränkt sie auch den Gasaustausch und die Photosyntheseleistung ein.

Begrenzte Leistung

Als einen weiteren limitierenden Faktor hat Axel Kleidon, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie, die Thermodynamik ausgemacht. Als Erdsystemforscher untersucht er wichtige chemische, geologische und physikalische Prozesse und Stoffkreisläufe auf der Erde. Das erfordert einen Blick auf das Große und Ganze: „Der CO2-Transport an die Blätter erfolgt durch die große Umwälzanlage der Thermik, indem erwärmte, befeuchtete und CO2-ärmere Luft vom Boden aufsteigt und kühlere, trockenere und CO2-reichere Luft absinkt“, erklärt Kleidon. Der Motor dafür ist die Erwärmung der Erdoberfläche durch die Sonnenstrahlung. Dadurch entsteht ein Temperaturunterschied, der eine atmosphärische Wärmekraftmaschine antreibt. „Diese Maschine leistet so viel wie möglich, sie begrenzt aber auch die Verdunstung und damit den Nachschub an CO2 für die Photosynthese“, so der Physiker. Denn der Wärmefluss, der die Maschine antreibt, baut auch den Temperaturunterschied wieder ab und reduziert so ihren Wirkungsgrad. Die biologische Photosynthese ist also immer nur so effektiv, wie der thermodynamisch geleistete Nachschub. „Natürliche Ökosysteme und auch die Landwirtschaft operieren schon nah an ihrer Leistungsgrenze, substanzielle Steigerungen sind hier kaum zu erwarten“, betont Kleidon daher.

Die Biologie lässt sich nicht weiter optimieren, wenn die Physik ihr Grenzen setzt. Aber die heute gut erforschten fotosynthetischen Prozesse in Pflanzen, Algen und Bakterien können als Vorbild dienen für die Entwicklung einer künstlichen Photosynthese. Der künstliche Nachbau der Photosynthese gilt dabei als eine Art „Apollo-Projekt“ unserer Zeit: Damit ließen sich Kohlenstoffverbindungen nachhaltig mithilfe von Licht aus Kohlenstoffdioxid herstellen. Sonnenlicht wäre dafür die ultimative Ressource, denn die Sonne sendet ungefähr 15 000-mal mehr Energie zur Erde als die Menschheit verbraucht. Die technische Umsetzung der beiden Teilprozesse der Photosynthese, der Primär– und der Sekundärreaktion, befindet sich dabei in unterschiedlichen Entwicklungsstadien. Für die Primärreaktion wurden fotovoltaische Lösungen realisiert, die hinsichtlich der Photonenausbeute dem natürlichen Prozess entsprechen. Für die technische Umsetzung der Sekundärreaktion konnte bisher keine mit dem natürlichen System konkurrierende katalytische Lösung gefunden werden. Doch genau das ändert sich gerade – dank der Forschungsarbeiten von Tobias Erb.

Die Umwandlung von atmosphärischem CO2 in energetisch höherwertige Kohlenstoffverbindungen erfolgt in Pflanzen über den nach seinem Entdecker benannten Calvin-Zyklus. Der US-amerikanische Biochemiker Melvin Calvin verfolgte mit seiner Arbeitsgruppe an der University of California in Berkeley Ende der 1940er Jahre, wie aus radioaktiv markiertem Kohlenstoffdioxid in einem Kreisprozess Kohlenhydrate hergestellt wurden. 1961 erhielt er für diese Arbeiten den Nobelpreis für Chemie. Für den Ablauf der chemischen Reaktionen, die im Stroma der Chloroplasten stattfinden, werden als Voraussetzung lediglich ATP als Energiequelle und NADPH/H+ als Reduktionsmittel benötigt. Das zentrale Enzym, das die Bindung von CO2 katalysiert, heißt Ribulose-1,5-bisphosphatcarboxylase/-oxygenase, kurz Rubisco (Abbildung 1). Es ist eines der häufigsten Proteine der Natur. „Nimmt man das Proteom, also alle Proteine zusammengefasst in einem Blatt, so besteht das zu fünfzig Prozent aus Rubisco“, erklärt Tobias Erb.

Abbildung 1: Das CO2-bindende Enzym des Calvin-Zyklus heißt Rubisco. Es ist sehr komplex gebaut und besteht aus 16 Untereinheiten. Auf jeden Menschen kommen etwa fünf Kilogramm Rubisco. Aus dem Kohlenstoffdioxid, das im Volumen eines gewöhnlichen Wohnzimmers vorhanden ist, kann die Pflanze mithilfe des Enzyms eine Prise Zucker produzieren.© Grafik: A. Bracher / © MPI für Biochemie

Dabei ist Rubisco keine optimale Lösung, wenn es um die Effizienz der Kohlenstofffixierung geht. Denn trotz seiner wichtigen Rolle arbeitet Rubisco relativ langsam: Ein Molekül kann nur etwa fünf bis zehn CO2-Moleküle in der Sekunde umsetzen. Und es ist sehr ineffizient, da es nicht nur CO2 bindet, sondern auch Sauerstoff. Als Rubisco vor rund drei Milliarden Jahren entstand, war das noch kein Problem – da gab es nämlich noch keinen Sauerstoff in der Atmosphäre. Als sich dieser jedoch mehr und mehr anreicherte, konnte sich das Enzym dieser Veränderung nicht anpassen. Zwanzig Prozent der Reaktionen laufen unerwünscht mit dem Sauerstoff ab. Die Pflanzenzelle kann mit dem daraus entstehenden toxischen Produkt nichts anfangen. Sie muss es in einem aufwändigen Prozess, der sogenannten Photorespiration, umwandeln, wobei wiederum CO2 freigesetzt wird. Dieser Prozess verpulvert bis zu einem Drittel der durch die Photosynthese eingefangenen Energie – was die Pflanzen sich aber angesichts der unbegrenzten Verfügbarkeit von Sonnenenergie leisten können.

Stoffwechsel 2.0

Tobias Erb setzt derweil auf eine effizientere Alternative zu Rubisco, die er vor einigen Jahren mit seinem Team im Bodenbakterium Kitasatospora setae entdeckt hat. Das betreibt zwar keine Photosynthese, musste aber lernen, seinen Bedarf an Kohlenstoff in einer kohlenstoffarmen Umwelt zu decken. Dazu entwickelte dieses Bakterium eine höchst wirksame Klasse von Enzymen mit dem Namen Enoyl-CoA Carboxylase/Reduktase, kurz ECR. Sie können das Kohlenstoffdioxid etwa zwanzigmal schneller verarbeiten als das pflanzliche Rubisco – nicht zuletzt deshalb, weil dabei auch kaum Fehler auftreten.

Dieser Fund brachte Erb auf die Idee, eine künstliche, hocheffiziente Alternative zum Calvin-Zyklus quasi neu zu erfinden und dabei Hochleistungsenzyme wie ECR zu nutzen. Die Herausforderung bestand darin, dass an dem Prozess noch ein gutes Dutzend anderer Enzyme beteiligt sind, die fein aufeinander abgestimmt sein müssen. Entfernt man auch nur eines davon, dann bricht der biochemische Prozess zusammen. „Das Enzym ist eigentlich nur so etwas wie ein neues Computerprogramm“, erklärt Erb. „Damit es aber funktioniert, mussten wir – um im Bild zu bleiben – ein komplettes neues Betriebssystem aufbauen.“ Dazu suchte das Team Enzyme zusammen, die jeweils ihre Aufgabe im „Betriebssystem“ möglichst optimal erledigen (Abbildung 2). Sie fanden sich in so unterschiedlichen Organismen wie Purpurbakterien, Gänserauke und sogar der menschlichen Leber. Einige Enzyme mussten auch chemisch umgebaut werden.

Abbildung 2: Entwurf und die Realisierung künstlicher Stoffwechselwege zur effizienteren CO2-Reduktion mithilfe der synthetischen Biologie: Der CETCH-Zyklus besteht aus 17 verschiedenen Enzymen, die aus insgesamt neun verschiedenen Organismen (farblich gekennzeichnet) stammen. Drei dieser Enzyme wurden mit Computerunterstützung maßgeschneidert, um eine entsprechende Reaktion zu katalysieren. © acatech/Leopoldina/Akademienunion auf Grundlage von T. Erb

Das Ergebnis nennt sich „CETCH-Zyklus“. Es ist der erste künstliche Stoffwechselweg zur biologischen CO2-Fixierung. Mit 15 bis 17 Einzelschritten ist er vergleichbar komplex wie sein natürliches Vorbild, arbeitet aber wesentlich effizienter und zudem fehlerfrei: Theoretische Berechnungen zeigen, dass der CETCH-Zyklus lediglich 24 bis 28 Lichtquanten pro fixiertem, also gebundenem CO2-Molekül benötigt. Verglichen mit der natürlichen Sekundärreaktion in Pflanzen (ca. 34 Lichtquanten pro CO2-Molekül) braucht der künstliche Stoffwechselweg damit bis zu 20 Prozent weniger Lichtenergie. Im Reagenzglas sei der Designer-Stoffwechselweg bereits funktionsfähig, so der Max-Planck-Forscher. Zu den aufgereinigten Proteinen, die beteiligt seien, müsse man noch ATP als Energielieferant hinzugeben, und der CETCH-Zyklus laufe los.

Photosynthese im Reagenzglas

Praktisch musste das Marburger Team dies erst einmal in einem künstlichen Photosynthesesystem beweisen. Doch wie konstruiert man eine künstliche photosynthetisch aktive Zelle? „Als allererstes benötigten wir ein Energiemodul, das es uns erlaubt, chemische Reaktionen nachhaltig zu betreiben. Bei der Fotosynthese liefern Chloroplasten-Membranen die Energie für die Kohlenstoffdioxid-Fixierung. Ihre Fähigkeiten wollten wir nutzen“, erklärt Erb. Der aus der Spinatpflanze isolierte Photosynthese-Apparat zeigte sich robust genug, um auch im Reagenzglas die Energie aus dem Licht, die Elektronen und den Wasserstoff bereitzustellen. Für die Sekundärreaktion setzten die Forschenden den von ihnen selbst entwickelten CETCH-Zyklus ein (Abbildung 3).

Der heutige Chloroplast (oben links) hat sich in 3,5 Milliarden Jahren zu einer effizienten molekularen Maschine entwickelt. Der künstliche Chloroplast (oben rechts) wurde in weniger als 7 Jahren entworfen und realisiert (grün: Thylakoidmembranen). Abb. D: links © Science History Images / Alamy Stock; rechts © T. Erb, MPI für terrestrische Mikrobiologie / CC-BY-NC-SA 4.0

Nach mehreren Optimierungsrunden gelang dem Team tatsächlich die lichtgesteuerte Fixierung des Treibhausgases Kohlenstoffdioxid in vitro. „Mit der Plattform können wir neuartige Lösungen umsetzen, die die Natur während der Evolution nicht beschritten hat“, sagt Erb. Nach seiner Einschätzung bergen die Ergebnisse großes Zukunftspotenzial. So konnten die Forschenden zeigen, dass der künstliche Chloroplast mithilfe der neuartigen Enzyme und Reaktionen Kohlenstoffdioxid 100-mal schneller bindet als bisherige synthetisch-biologische Ansätze. „Langfristig könnten lebensechte Systeme in praktisch allen technologischen Bereichen Anwendung finden, einschließlich Materialwissenschaften, Biotechnologie und Medizin“, hofft der Max-Planck-Forscher.

Noch sind die künstlichen Chloroplasten nur feine Wassertröpfchen von knapp 100 Mikrometern Durchmesser, die in einer Ölemulsion schwimmen (Abbildung 4). Sie sind nur zwei Stunden lang stabil. Trotzdem können sie erstaunlicherweise selbstständig aus dem gebundenen Kohlenstoff messbare Mengen der Verbindung Glykolat herstellen. Daraus lassen sich bereits eine Vorstufe des Antibiotikums Erythromycin oder ein Duftstoff auf Terpen-Basis herstellen, wie Erbs Team zeigen konnte.

Abbildung 4. Diese Tröpfchen haben 90 Mikrometer Durchmesser und sind ein Beispiel für halb künstliche Chloroplasten aus Marburg. Sie enthalten bereits Thylakoidmembranen aus echten Chloroplasten, in denen die Primärreaktion der Fotosynthese abläuft. © T. Erb, MPI für terrestrische Mikrobiologie / CC BY-NC-SA 4.0

Grüne Fabriken

Alternativ zum rein künstlichen Fotosynthesesystem forscht das Team auch daran, die Enzyme für den CETCH-Zyklus gentechnisch in lebende Zellen einzubauen. „In E. coli-Bakterien ist uns das bereits zu neunzig Prozent gelungen“, berichtet Tobias Erb. Der nächste Schritt ist der gentechnische Einbau des CETCH-Zyklus in den Stoffwechsel einzelliger Algen – eine viel größere Herausforderung, da sie weitaus weniger erforscht sind als E. coli und deutlich komplexere Zellstrukturen besitzen. Außerdem ist die Entwicklung synthetischer Algenstämme durch ihre niedrigere Wachstumsrate langwieriger. Gelingt der Einbau, so wären große „Algenfabriken“ denkbar, die CO2 besonders effektiv in Biomasse umwandeln können. Das wäre dann tatsächlich ein Schritt hin zur Bewältigung einer der größten Herausforderungen unserer Zeit: die Reduktion der ständig steigenden Konzentration von atmosphärischem Kohlenstoffdioxid.


 *Der Artikel ist erstmals unter dem Titel: "Grünes Tuning - auf dem Weg zur künstlichen Fotosynthese" https://www.max-wissen.de/max-hefte/kuenstliche-fotosynthese in BIOMAX 37, Frühjahr 2022 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Tobias Erb, Max-Planck-Institut für terrestrische Mikrobiologie:  https://www.mpi-marburg.mpg.de/erb

MPG: Synthetic Chloroplast Production using a Microfluidic platform (Untertitel) Video 2,3 min. https://www.youtube.com/watch?v=NLf4LJ5Z4a4

Tobias Erb on Designing a More Efficient System for Harnessing Carbon Dioxide. Video 3,59 min. https://www.youtube.com/watch?v=CPFscyYRS10

Künstliche Photosynthese Forschungsstand, wissenschaftlich-technische Herausforderungen und Perspektiven:  https://www.acatech.de/publikation/kuenstliche-photosynthese-forschungsstand-wissenschaftlich-technische-herausforderungen-und-perspektiven/download-pdf/?lang=de

Rund um die Photosynthese - Artikel im ScienceBlog

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese

inge Thu, 21.04.2022 - 00:16

Comments

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

Sa 16.04.2022  — Inge Schuster

Inge Schuster Icon Medizin Als vor nun bereits mehr als zwei Jahren die ersten COVID-19 Fälle auftraten, wurden diese primär als schwere, einen hohen Todeszoll fordernde Erkrankung der Atemwege klassifiziert. Mittlerweise gibt es weltweit mehr als eine halbe Milliarde bestätigte SARS-CoV-2 Infizierte (und knapp 6,2 Millionen daran Verstorbene) und es ist offensichtlich, dass das Virus auch in anderen Organen Schäden anrichten und Langzeitfolgen - long Covid - nach sich ziehen kann. Darunter fallen neurologische Beschwerden, deren Pathogenese noch wenig verstanden ist. Modelluntersuchungen an infizierten Affen, die milde bis moderate Atemwegserkrankungen entwickeln, aber vergleichbare neuropathologische Befunde in Hirngeweben wie an COVID-19 verstorbene Patienten aufweisen, geben erste Einblicke in die Virus-ausgelösten Entzündungsprozesse, die in vielen Hirnregionen auftreten und Schädigung und Absterben von Nervenzellen bewirken können.

Mehr als 30 % der hospitalisierten Patienten aber auch Personen mit milden Krankheitssymptomen und sogar asymptomatische Infizierte können ein weites Spektrum an neurologischen Beschwerden entwickeln, die häufig als unspezifisch, vielleicht sogar als eingebildet angesehen werden. Neben - zum Teil dauerhaften - Störungen des Geruchs- und Geschmacksinns sind dies u.a. kognitive Probleme, Konzentrationsstörungen ("Gehirnnebel"), dauernde Erschöpfung, Schlafstörungen und persistierende Kopfschmerzen. Am Ende des Spektrums stehen zweifelsfreie Diagnosen von Schlaganfällen, Gehirn- und Gehirnhautentzündungen (Enzephalitis, Meningitis) und dem Guillain-Barré Syndrom (Zerstörung der Myelinummantelung von peripheren Nerven durch überschießende Immunreaktion); mehrere Studien berichten auch über Parkinsonerkrankungen, die zwei bis fünf Wochen nach der Infektion auftraten.

Als Reaktion auf das Virus, kann die Immunantwort - selbst wenn das Virus nicht mehr nachweisbar ist - zu weiteren Entzündungsprozessen im Gehirn führen und Schädigungen von Gefäßen, Zellen und Funktionen, insbesondere der neuronalen Signalübertragung verursachen. Dies geht aus Untersuchungen hervor, die an Hirngeweben von an COVID-19 verstorbenen Patienten ausgeführt wurden: einerseits konnte das Virus und seine Genprodukte in Hirnarealen nachgewiesen werden, andererseits wurden - auch wenn das Virus dort nicht (mehr) detektierbar war - Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten (dazu im ScienceBlog: [1, 2]). Die Pathogenese der neurologischen Symptome blieb allerdings weiterhin unklar.

Neue Befunde

In den letzten Tagen sind einige Studien erschienen, die das Verstehen der neuropathologischen Konsequenzen von COVID-19 erheblich verbessert haben. Untersuchungen zu ultrastrukturellen Veränderungen des Riechtrakts können erstmals die Schwächung des Riechsystems bis hin zum persistierenden vollständigen Geruchsverlust erklären [3]. An relevanten Modellen - nicht-menschlichen Primaten - konnte der Infektionsprozess verfolgt und damit erstmals eine umfassende Beschreibung der durch SARS-CoV-2 Infektion ausgelösten Neuropathologie möglich werden [4, 5]. In den Gehirnen von SARS-CoV-2 infizierten nicht-menschlichen Primaten wurden zudem Aggregate von alpha-Synuclein gefunden, einem Charakteristikum der Parkinsonerkrankung [5]. Dazu passend haben in vitro-Untersuchungen ergeben, dass das Nukleocapsid-Protein des Virus (das in Hirnarealen von Patienten nachgewiesen wurde [1]) mit dem für die neuronale Funktion wichtigen alpha-Synuclein interagiert und die Bildung zelltoxischer Faserbündel auslöst [6].

Wesentliche Ergebnisse dieser Studien werden im Folgenden skizziert.

Neuropathologische Veränderungen im Riechsystem

Neben den Beeinträchtigungen der Atemwege gehören Riech -und Geschmacksstörungen zu den häufigsten Symptomen von COVID-19. Bis zu 70 % der Infizierten leiden unter solchen, bis zum totalen Riechverlust gehenden Störungen. Dies ist auch bei jungen, zuvor gesunden Menschen der Fall, wie die kürzlich erschienene erste Human Challenge Studie zeigte: ein minimales Virus-Inokulum hatte dort ausgereicht, um eine milde Infektion der Atemwege hervorzurufen, allerdings waren zwei Drittel der Infizierten von Riechstörungen bis hin zu Riechverlust betroffen, die zum Teil auch nach 9 Monaten noch andauerten. [7]

Eine neue, aus verschiedenen US-amerikanischen Institutionen stammende Multicenter-Studie hat nun erstmals ultrastrukturelle Veränderungen des Riechkolbens und des Riechtrakts festgestellt, welche die Schwächung des Riechsystems bis hin zum vollständigen Geruchsverlust erklären können. [3]. Zur Erläuterung: Im Riechkolben, der an der Basis des Gehirns liegt, werden Nervensignale aus der Nasenschleimhaut zusammen mit Informationen über spezifische Gerüche an weiterführenden Neuronen im Gehirn übertragen (Abbildung 1).

Abbildung 1: Das menschliche Riechsystem (Olfacory System), vereinfachtes Schema. Duftstoffe, die in die Nasenschleimhaut (Regio olfactoria) der oberen Nasenhöhle gelangen, binden an Rezeptoren von bipolaren Riechneuronen, deren zentrales Axon durch die knöcherne Siebplatte hindurch in Form von Riechfäden in den Riechkolben gelangt. Diese von glialen Membranen (Gliazellen) umhüllten, dichten sphäroiden Nervengeflechte (sogenannte Glomeruli olfactorii) sind über Synapsen mit den Mitralzellen verbunden, Neuronen, die über ihre Axone Signale an Hirnareale zur Verarbeitung zu unbewussten und bewussten Geruchswahrnehmungen weiterleiten. (Bild modifiziert aus Andrewmeyerson, https://commons.wikimedia.org/wiki/File:Olfactory_System_Large_Unlabeled.jpg. Lizenz: CC-BY-SA-3.0

Um herauszufinden wie die Infektion auf zelluläre Prozesse des Riechens einwirkt, haben die Forscher Gewebe des Riechkolbens und des Riechtrakts von an COVID-19 Verstorbenen und von einer dazu passenden Kohorte an anderen Ursachen Verstorbener ("Kontrollgruppe") isoliert und mit (elektronen)mikroskopischen, histochemischen und molekularbiologischen Methoden analysiert [3]. In den Geweben wurde auf vorhandenes Virus geprüft und Strukturen und Charakteristika der Zellen, der Blutgefäße und die Zahl intakter Axone (welche die Signale der Neuronen weiterleiten) untersucht. Im Vergleich zu den Kontrollen, stellten die Forscher bei den COVID-Patienten schwere pathologische Veränderungen an den Axonen bis hin zum Verlust von Axonen fest und sogenannte Mikrovaskulopathie, d.i. Verletzungen kleinster Blutgefäße. Diese Veränderungen waren besonders ausgeprägt bei Patienten, die über Geruchsbeeinträchtigungen geklagt hatten, standen jedoch in keinem Zusammenhang mit dem Schweregrad der Atemwegserkrankung, dem Zeitverlauf der Infektion oder der Detektierbarkeit von Virus im Riechgewebe. Tatsächlich konnte in den Riechkolben der meisten COVID-19 Patienten kein Virus nachgewiesen werden.

Die Analysen weisen darauf hin, dass nicht das Virus direkt sondern Entzündungsreaktionen als Folge der Infektion zur Schädigung von Nervenzellen und Reduktion bis hin zur Zerstörung ihrer Axone führt. Sinkt die Zahl funktionsfähiger Axone, können Signale nur abgeschwächt bis gar nicht mehr an das Hirn weitergeleitet werden und dies kann - abhängig von der Fähigkeit neue Neuronen zu generieren (Neurogenese) - leider ein permanenter Zustand sein.

Neuropathologische Auswirkungen von SARS-CoV-2 auf nicht-menschliche Primaten

Tiermodelle, welche die neuropathologischen Befunde in Hirngeweben von an COVID-19 verstorbenen Patienten widerspiegeln, können einen essentiellen Beitrag zur Aufklärung der Neuropathogenese dieser Infektion leisten. Tracy Fisher und ihr Team am Tulane National Primate Research Center (Tulane University, New Orleans) haben langjährige Erfahrung mit Modellen unserer nächsten Verwandten, den Makaken (Rhesusaffen und grünen Meerkatzen), insbesondere mit Untersuchungen an deren Gehirnen. (Im übrigen: Makaken werden seit langem als aussagekräftige Modelle genutzt, um einerseits einen Einblick in die Pathogenese von Infektionskrankheiten zu gewinnen und anderseits, um Strategien zur deren Prävention und Behandlung  zu testen.) Seit dem Beginn der Corona-Pandemie haben die Forscher zudem die Gehirne von an COVID-19 Verstorbenen untersucht. Die Ergebnisse an den Affen stimmen mit Autopsiestudien von an COVID-19 verstorbenen Menschen überein, die Tiere dürften also geeignete Modelle für die Vorgänge im Menschen darstellen. Untersuchungen von Tracy Fischer haben so zum Verständnis des Infektionsgeschehens beigetragen, insbesondere wie eine Infektion mit dem Virus zu langfristigen Entzündungen und Schäden an zahlreichen Organen führen kann.

Abbildung 2: Die Infektion von Makaken mit SARS-CoV-2 führt zwar nicht zu schweren Atemwegserkrankungen, löst aber ausgeprägte morphologische Änderungen bis hin zum Zelltod von Neuronen aus . Dargestellt sind Hämatoxylin/Eosin gefärbte histologische Schnitte des Cerebellums von grünen Meerkatzen (Zellkerne: blau; oben: Körnerschicht). Im Bild links: eine gesunde Schichte von Purkinje-Zellen im Cerebellum eines nicht infizierten Kontrolltiers (RM6), Mitte und rechts: Pfeile weisen auf irreversibel verdichtete (pyknotische) und aufgelöste (karyolytische) Zellkerne und Ausbuchtungen der Zellmembran (cellular blebs) in infizierten Tieren (AGM3 und AGM4). (Bild modifiziert aus [4], Lizenz cc-by].

In der aktuellen Studie [4] wird nun gezeigt, dass eine Infektion mit SARS-CoV-2 (WA1/2020) im Gehirn von Makaken zu massiven Entzündungen des Nervengewebes, zu Mikroblutungen und reduzierter Sauerstoffzufuhr (Hirnhypoxie) führt, dass Neuronen degenerieren und absterben. Abbildung 2 zeigt als Beispiel die Schädigung von Purkinje-Zellen (multipolaren Neuronen mit stark verästeltem Dendriten in der Kleinhirnrinde (Cortex cerebelli)). Lecks in Blutgefäßen und durch Sauerstoffmangel hervorgerufene Schädigungen des Gehirngewebes dürften somit eine häufige Komplikation einer SARS-CoV-2-Infektion sein.

Die Tiermodelle erweisen sich dabei als besonders bedeutsam, weil die neuronalen Symptome bei infizierten Tieren beobachtet werden, die keine schweren Atemwegserkrankungen entwickeln: diese Modelle könnten somit einen Einblick in die bis dato "Black Box" von long-Covid erlauben.

SARS-CoV-2 Infektion von Makaken, Gehirnentzündung und Aggregation von alpha-Synuclein

Ein Team aus holländischen/belgischen Wissenschaftern hat ebenfalls Makaken (Rhesus- und Cynomolgus-Makaken) als Modell verwendet, um die neurologischen Auswirkungen einer Infektion mit SARS-CoV-2 (Beta Variante) zu untersuchen [5). Im Zentrum stand die Frage wieweit solche Auswirkungen fünf bis sechs Wochen nach leichten bis mittelschweren Infektionen auftreten können.

Abbildung 3: Überblick über die Auswirkungen einer leichten SARS-CoV-2-Infektion auf das Zentralnervensystem von Makaken. 15 Hirnregionen wurden untersucht. Infiltration aktivierter T-Zellen und Mikkrogliazellen wurde in praktisch allen Hirnregionen der infizierten Tiere in geringfügigem Ausmaß (hellblau) und moderatem Ausmaß (dunkelblau) detektiert. alpha-Synuclein Aggregate traten in den orangefarbenen Regionen auf. Virus (gelb) wurde in mehreren Regionen nur in einem Tier (C3) nachgewiesen. (Bild modifiziert aus [5], Lizenz cc-by].

Die Studie wurde an post-mortem entnommenen Gewebe aus 15 unterschiedlichen Gehirnregionen ausgeführt. Diese wurden auf Detektierbarkeit von Virus (Antigen und RNA) und Immunreaktion - Infiltration von aktivierten T-Zellen und Mikroglia-Zellen (das sind die primären Immunzellen des Gehirns, entsprechend den peripheren Makrophagen) - untersucht.

Virus wurde nur in einem Makaken (C3) in 7 Gehirnregionen nachgewiesen, Entzündungsreaktionen - Infiltrationen von Immunzellen - traten dagegen in allen infizierten Tieren, nicht aber in Kontrolltieren und mit Ausnahme des Markhirns (medulla oblongata) in allen untersuchten Hirnregionen auf, auch wenn dort weder virales Antigen oder RNA nachweisbar waren. Abbildung 3.

Eine ganz wesentliche neue Erkenntnis war, dass in den Gehirnen aller infizierter Rhesus Affen und eines Cynomolgus Affen, nicht aber in den Kontrollen, Aggregate von alpha-Synuclein entstanden waren [5]. Es sind dies runde Einschlüsse im Zytoplasma von Nervenzellen - sogenannte Lewis bodies -die als Charakteristikum der Parkinson-Erkrankung gelten und für das Absterben von Dopamin-produzierenden Neuronen verantwortlich gemacht werden. Interessanterweise kommt es bei Parkinson häufig zu einem Riechverlust noch bevor sich motorische Defekte zeigen. Ein Überblick über die Auswirkungen einer leichten SARS-CoV-2 Infektion auf das Zentralnervensystem ist in Abbildung 3 gegeben.

Wie kommt es zur alpha-Synuclein Aggregation?

Abbildung 4: Das Nukleocapsid-Protein (N-Protein) von SARS-CoV-2 interagiert mit mehreren Kopien von alpha-Synuclein und löst deren Aggregation zu zelltoxischen Faserbündeln aus. (Bild aus [7], Lizenz: cc-by-nc-nd) .

Wie eingangs erwähnt gibt es eine Reihe von Fallstudien, in denen bei relativ jungen Personen einige Wochen nach COVID-19 eine Parkinsonerkrankung ausgebrochen ist. Auf der Suche nach einem möglichen molekularen Zusammenhang zwischen den beiden Erkrankungen haben Forscher entdeckt, dass mehrere Kopien des neuronalen α-Synuclein zumindest in vitro an das Nukleocapsid-Protein (aber nicht an andere Proteine) von SARS-CoV-2 binden und die Bildung von zelltoxischen Aggregaten auslösen [7]. Wurden beide Proteine zusammen in ein Zellmodell von Parkinson injiziert, so führte dies zu einem beschleunigten Absterben der Zelle. Wie man sich diese Aggregation vorstellen kann, ist in Abbildung 4 dargestellt.

Fazit

SARS-CoV-2 Infektionen dürfen nicht auf die leichte Schulter genommen werden!

Nach einem milden Krankheitsverlauf und sogar in asymptomatischen Fällen können neurologische Langzeitfolgen - long-COVID - auftreten und es besteht die Gefahr, dass diese durch erhebliche Schädigungen im Gehirngewebe verursacht werden können. Dies lassen Untersuchungen an nicht-menschlichen Primaten (Makaken) befürchten - aussagekräftigen Modellen, die einen Einblick in die Pathogenese von Infektionskrankheiten erlauben und Möglichkeiten bieten deren Prävention und Behandlung  zu testen. Diese mit dem ursprünglichen SARS-CoV-2 Virus oder mit der beta-Variante infizierten Tiere haben zwar nur milde Atemwegserkrankungen entwickelt, wiesen aber in vielen Hirnregionen massive neuropathologische Veränderungen auf, die vergleichbar waren mit den Schädigungen der an COVID-19 verstorbenen Patienten: Entzündungsprozesse in weiten Hirnregionenm die zum Absterben von Nervenzellen führen, Lecks in Blutgefäßen und Blutgerinnsel können eine Erklärung für Langzeitfolgen bis hin zu Schlaganfällen, Hirn(haut)entzündungen und auch beobachteten Parkinson-Fällen bieten.


[1] Inge Schuster, 07.01.2022: Was ist long-Covid?

[2] Francis S.Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

[3] Ho C, Salimian M, Hegert J, et al. Postmortem Assessment of Olfactory Tissue Degeneration and Microvasculopathy in Patients With COVID-19. JAMA Neurol. Published online April 11, 2022. doi:10.1001/jamaneurol.2022.0154

[4] Ibolya Rutkai et al., Neuropathology and virus in brain of SARS-CoV-2 infected non-human primates. Nature Commun.(01.04. 2022) https://doi.org/10.1038/s41467-022-29440-z

[5] Ingrid HCHM Philippens et al., Brain Inflammation and Intracellular alpha-Synuclein Aggregates in Macaques after SARS-CoV-2 Infection. Viruses (08.04.2022) 14, 776. https://doi.org/10.3390/v14040776

[6] Slav A. Semerdzhiev et al., Interactions between SARS-CoV-2 N-Protein and α-Synuclein Accelerate Amyloid Formation. ACS Chemical Neuroscience, (03.12.2021); 10.1021/acschemneuro.1c00666

[7] Inge Schuster, 12.02.2022: Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie


Artikel über COVID-19 im ScienceBlog

Seit Beginn der Pandemie sind dazu bis jetzt 44 Artikel im Blog erschienen.

Die Links zu diesen Artikeln sind in chronologischer Reihenfolge in Themenschwerpunkt Viren gelistet.


 

inge Sat, 16.04.2022 - 18:56

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Do, 7.04.2022 — IIASA

IIASA Logo

Icon Klima

Nach den ersten beiden Teilen des neuen Sachstandsberichts ( 6.Assessment Report, AR6), die sich mit den"Naturwissenschaftlichen Grundlagen" (Arbeitsgruppe 1: 9. August 2021) und mit "Folgen, Anpassung und Verwundbarkeit " (Arbeitsgruppe 2: 28. Feber 2022) des Klimawandels befassten, hat der Weltklimarat ((Intergovernmental Panel of Climate Change - IPCC) nun den dritten Teil (Arbeitsgruppe 3: 4. April 2022) herausgegeben, der die "Minderung des Klimawandels" zum Thema hat [1]. Der aus 17 Kapiteln bestehende, insgesamt 2913 Seiten lange Bericht untersucht, woher die globalen Emissionen stammen und erklärt die Entwicklungen zur Reduktion der Emissionen und zur Minderung der Erderwärmung. Es ist der erste IPCC-Report, der eine eingehende Untersuchung dazu abgibt, wie Verhalten, Entscheidungen und Konsum von uns Menschen zur Eindämmung des Klimawandels beitragen können. An dem Bericht haben 278 Experten federführend mitgewirkt, weitere Autoren haben zu spezifischen Fragen Beiträge geleistet. Drei Forscher vom International Institute of Systems Analysis (IIASA, Laxenburg) haben als Hauptautoren und Koordinatoren der Arbeitsgruppe mitgearbeitet.*

Abbildung 1. Aus anthropogenen Quellen stammende Treibhausgasemissionen in den letzten drei Jahrzehnten. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf)

Im Zeitraum 2010 - 2019 befanden sich die durchschnittlichen globalen Treibhausgasemissionen auf dem höchsten Stand in der Menschheitsgeschichte, die Geschwindigkeit des Anstiegs hat sich aber (gegenüber dem vorhergehenden Jahrzehnt; Redn.) verlangsamt (Abbildung 1). Ohne sofortige und tiefgreifende Emissionsminderungen in allen Sektoren ist die Begrenzung der globalen Erwärmung auf 1,5 °C unerreichbar. Allerdings gibt es laut Aussagen der Wissenschafter Im jüngsten Sachstandbericht des Weltklimarates (IPCC) zunehmende Evidenz, dass Klimaschutzmaßnahmen erfolgreich sind. (Das Ziel der Null Emissionen wurde von mindestens 826 Städten und 103 Regionen angenommen. Einige Länder haben eine kontinuierliche Abnahme der Emissionen erreicht, die mit einer Erderwärmung um 2 °C kompatibel ist. Anm. Redn. aus [2] eingefügt.)

Seit 2010 haben sich die Kosten für Solar- und Windenergie sowie für Batterien fortlaufend um bis zu 85 % gesenkt. Durch immer mehr Richtlinien und Gesetze wurde die Energieeffizienz verbessert, die Abholzungsraten verringert und der Einsatz erneuerbarer Energien beschleunigt. Abbildung 2.

Abbildung 2. Kosten für erneuerbare Energie sind z.T. niedriger als für fossile Brennstoffe (oben) und ihr Anteil an elektrischen System steigt stark (unten). (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Wir stehen an einem Scheideweg. Die Entscheidungen, die wir jetzt treffen, können eine lebenswerte Zukunft sichern. Wir haben die Werkzeuge und das Know-how, die erforderlich sind, um die Erwärmung zu begrenzen“, sagte IPCC-Vorsitzender Hoesung Lee. „Die Klimaschutzmaßnahmen, die in vielen Ländern ergriffen werden, geben mir Mut. Es gibt Richtlinien, Vorschriften und Marktinstrumente, die sich als wirksam erweisen. Wenn diese verstärkt und breiter und gerechter angewendet werden, können sie tiefgreifende Emissionsminderungen unterstützen und Innovationen anregen.“

Der Bericht der Arbeitsgruppe III bietet eine aktualisierte globale Bewertung der Fortschritte und Zusagen zur Eindämmung des Klimawandels und untersucht die Quellen der globalen Emissionen. Er erläutert Entwicklungen bei den Bemühungen zur Emissionsreduzierung und -minderung und bewertet die Auswirkungen nationaler Klimaschutzverpflichtungen in Hinblick auf langfristige Emissionsziele.

In allen Sektoren gibt es Optionen die Emissionen bis 2030 mindestens zu halbieren

Laut den Autoren wird die Begrenzung der globalen Erwärmung große Veränderungen im Energiesektor erfordern. Abbildung 3. Dies wird eine erhebliche Reduzierung im Verbrauch fossiler Brennstoffe bedeuten, eine weitreichende Elektrifizierung, eine verbesserte Energieeffizienz und die Verwendung alternativer Brennstoffe (etwa wie Wasserstoff). Mit den richtigen Regeln, Infrastrukturen und verfügbaren Technologien zur Änderung unseres Lebensstils und Verhaltens, können die Treibhausgasemissionen bis 2050 um 40–70 % gesenkt werden. Dass solche Änderungen des Lebensstils die Gesundheit und das Wohlbefinden verbessern können, ist evident.

Abbildung 3. Vom Energie- bis zum Transportsektor: In allen Sektoren gibt es Möglichkeiten die Emissionen bis 2030 auf die Hälfte zu reduzieren. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Städte und andere urbane Gebiete bieten ebenfalls erhebliche Möglichkeiten zur Reduzierung von Emissionen. Dies kann durch einen geringeren Energieverbrauch (z. B. durch die Schaffung kompakter, in Gehdistanz angelegter Städte), die Elektrifizierung des Verkehrs kombiniert mit emissionsarmen Energiequellen und eine verbesserte Kohlenstoffaufnahme und -speicherung unter Nutzung der Natur erreicht werden. Es gibt Optionen für etablierte, schnell wachsende und neue Städte.

Die Reduzierung von Emissionen in der Industrie wird die effizientere Nutzung von Materialien, die Wiederverwendung und das Recycling von Produkten und die Minimierung von Abfall beinhalten. Für Grundstoffe, einschließlich Stahl, Baumaterialien und Chemikalien, befinden sich treibhausgasarme oder treibhausgasfreie Produktionsverfahren in Phasen, die von Pilot- bis zu nahezu kommerziellen Stadien reichen. Dieser Sektor ist für etwa ein Viertel der weltweiten Emissionen verantwortlich. Das Erreichen von Netto-Null wird eine Herausforderung sein und neue Produktionsprozesse, emissionsarmen und emissionsfreien Strom, Wasserstoff und gegebenenfalls die Abscheidung und Speicherung von Kohlenstoff erfordern.

Land- und Forstwirtschaft sowie andere Landnutzungen können in großem Maßstab Emissionen reduzieren und Kohlendioxid in großem Maßstab entfernen und speichern. Land kann jedoch verzögerte Emissionsminderungen in anderen Sektoren nicht kompensieren. Reaktionsoptionen können der Biodiversität zugute kommen, uns bei der Anpassung an den Klimawandel unterstützen und Lebensgrundlagen, Nahrungsmittel, Wasser und Holzvorräte sichern.

Eine wichtige neue Komponente des Berichts der Arbeitsgruppe III ist ein neues Kapitel zu den sozialen Aspekten der Emissionsminderung, das die „Nachfrageseite“ untersucht, mit anderen Worten, was treibt die Konsumation und die Treibhausgasemissionen an. Signifikante Veränderungen in den Bereichen Verkehr, Industrie, Gebäude und Landnutzung werden es den Menschen erleichtern, einen kohlenstoffarmen Lebensstil zu führen, und gleichzeitig das Wohlbefinden verbessern. Bis 2050 hat eine Kombination aus wirksamen Strategien, verbesserter Infrastruktur und Technologien, die zu Verhaltensänderungen führen, das Potenzial, die Treibhausgasemissionen um 40 bis 70 % zu reduzieren.

"Die Vorgangsweise im kommenden Jahrzehnt ist entscheidend dafür das 1,5-Grad-Ziel in Reichweite zu halten. Gleichzeitig ist es wichtig zu erkennen, dass – selbst wenn es uns nicht gelingt, die globale Erwärmung auf 1,5 °C zu begrenzen, – es wichtig ist, die Klimaschutzmaßnahmen weiter voranzutreiben. Weniger Klimawandel ist aus Sicht des Risikomanagements eindeutig besser“, sagt Volker Krey, Leiter der IIASA Integrated Assessment and Climate Change Research Group und einer der Hauptautoren des Berichts.

Investitionslücken schließen, Ungleichheiten überbrücken und die Ziele für nachhaltige Entwicklung erreichen

Abseits von den Technologien zeigt der Bericht, dass die Finanzströme zwar um einen Faktor drei- bis sechsmal niedriger sind als das Niveau, das bis 2030 erforderlich ist, um die Erwärmung auf unter 2 °C zu begrenzen, es jedoch genügend globales Kapital und Liquidität gibt, um Investitionslücken zu schließen. Dies hängt jedoch von klaren Signalen der Regierungen und der internationalen Gemeinschaft ab, einschließlich einer stärkeren Angleichung von Finanzen und Politik im öffentlichen Sektor.

„Die Abschätzung hebt die großen Unterschiede im Beitrag verschiedener Regionen, Nationen und Haushalte zu den globalen Treibhausgasemissionen hervor. Beispielsweise haben die am wenigsten entwickelten Länder (LDCs) und die kleinen Inselentwicklungsstaaten (SIDS) in der Vergangenheit nicht wesentlich zu den globalen Treibhausgasemissionen beigetragen, und sie tun dies auch jetzt nicht“, bemerkt die Hauptautorin des Kapitels, Shonali Pachauri, die die Forschungsgruppe für Transformative institutionelle und soziale Lösungen am IIASA leitet. „Für die Bevölkerung in emissionsarmen Ländern, die keinen Zugang zu modernen Energiediensten und einem angemessenen Lebensstandard haben, hat die Bereitstellung eines universellen Zugangs zu diesen Diensten keine wesentlichen Auswirkungen auf das globale Emissionswachstum.“

Beschleunigte und gerechte Klimaschutzmaßnahmen zur Minderung und Anpassung an die Auswirkungen des Klimawandels sind für eine nachhaltige Entwicklung von entscheidender Bedeutung. Einige Optionen können Kohlenstoff absorbieren und speichern und gleichzeitig den Gemeinden helfen, die mit dem Klimawandel verbundenen Auswirkungen zu begrenzen. Beispielsweise können in Städten Netze von Parks und Freiflächen, Feuchtgebiete und städtische Landwirtschaft das Hochwasserrisiko verringern und Hitzeinseleffekte reduzieren.

Minderung in der Industrie kann Umweltauswirkungen verringern und Beschäftigungs- und Geschäftsmöglichkeiten erhöhen. Die Elektrifizierung mit erneuerbaren Energien und Verlagerungen im öffentlichen Verkehr können Gesundheit, Beschäftigung und Gerechtigkeit verbessern.

Die nächsten Jahre sind kritisch

Die von Arbeitsgruppe III bewerteten Szenarien zeigen, dass eine Begrenzung der Erwärmung auf etwa 1,5 °C voraussetzt, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höhepunkt erreichen und bis 2030 um 43 % reduziert werden müssen. Abbildung 4. Gleichzeitig müsste auch Methan um etwa ein Drittel reduziert werden. Selbst wenn dies getan wird, ist es fast unvermeidlich, dass wir diese Temperaturschwelle vorübergehend überschreiten, aber bis zum Ende des Jahrhunderts wieder unterschreiten könnten.

Abbildung 4. Globale Treibhausgasemissionen: Modellierte Pathways (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf) . Zu den Klimamodellen siehe unten: Artikelserie im ScienceBlog.

Die globale Temperatur wird sich stabilisieren, wenn die Kohlendioxidemissionen netto Null erreichen. Für eine Begrenzung auf 1,5 °C bedeutet dies, dass wir Anfang der 2050er Jahre weltweit Netto-Null-Kohlendioxidemissionen erreichen; für 2 °C ist dies in den frühen 2070er Jahren der Fall. Die Bewertung zeigt, dass die Begrenzung der Erwärmung auf etwa 2 °C immer noch erfordert, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höchststand erreichen und bis 2030 um ein Viertel reduziert werden.

„Der Bericht zeigt, wie wichtig die nächsten Jahre bis 2030 dafür sind, ob wir die Erwärmungsziele des Pariser Abkommens erreichen können. Wir haben die notwendigen Optionen und Investitionen aufgezeigt. Der Ball liegt jetzt bei der Politik, um die Umsetzung zu beschleunigen“, schließt Keywan Riahi, koordinierender Hauptautor und IIASA-Programmdirektor für Energie, Klima und Umwelt.


 [1] Working Group III Report to the Sixth Assessment Report of the IPCC: Climate Change 2022. Mitigation of Climate Change https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_FinalDraft_FullReport.pdf

[2] Sixth Assessment Report of the IPCC: Press Conference 4.4.2022, Slide Show https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf


 * Die Presseaussendung "New IPCC Report: we can halve emissions by 2030." https://iiasa.ac.at/news/apr-2022/new-ipcc-report-we-can-halve-emissions-by-2030  ist am 6. April 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 4 Abbildungen aus den IPCC-Report/Press Conference slides [2] ergänzt. (Alle Abbildungen stehen unter einer cc-by-nc-nd-Lizenz, sind daher in der Originalversion (englische Beschriftung) wiedergegeben.) IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Weitere Details zum IPCC-Sixth Assessment Report: https://report.ipcc.ch/ar6wg3/

Video on Sixth Assessment Report of the IPCC CLIMATE CHANGE 2022: Mitigation of Climate Change. Video 2:14:36.https://www.youtube.com/watch?v=STFoSxqFQXU

Artikel im Scienceblog

Artikelserie über Computermodelle, dem zentralen Element der Klimaforschung :


 

inge Thu, 07.04.2022 - 18:05

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Do, 30.03.2022 — IIASA

IIASA Logo

Icon Energie

Die Wasserstoffwirtschaft ist eine Energiealternative , die viel Aufmerksamkeit erhält. Für die Entwicklung einer solchen Wirtschaft gibt es jedoch einige zentrale Herausforderungen, wie beispielsweise die hohen Investitionskosten für Produktion, Verdichtung, Speicherung und Transport des Wasserstoffs. Der IIASA-Forscher Julian Hunt und seine Kollegen haben die Tiefsee ins Auge gefasst, um ein innovatives Konzept zu erstellen, das diese Probleme lösen könnte.* 

Das Hydrogen Deep Ocean Link (HYDOL) Konzept

Zur Produktion von grünem Wasserstoff sind teure Elektrolyseanlagen erforderlich. Diese sollten nach Möglichkeit in Betrieb bleiben, um die Produktionskosten zu senken. Erneuerbare Energiequellen wie Wind und Sonne sind jedoch intermittierend und liefern keine konstante Energiemenge. Dieses Problem könnte durch den Bau eines Elektrolyseschiffs gelöst werden, das den Jahreszeiten entsprechend zu Orten mit im Überschuss erzeugter erneuerbarer Energie fahren kann. So kann das Schiff im Sommer beispielsweise in Japan Wasserstoff mit überschüssigem Solarstrom erzeugen und dann nach Süden fahren, um mit überschüssigem Solarstrom im Sommer in Australien Wasserstoff zu produzieren.

Was die Verdichtung, Speicherung und den Transport von Wasserstoff betrifft, so steht in dem von uns explorierten Grundkonzept [1] die Tatsache im Mittelpunkt, dass verdichteter Wasserstoff in Tiefseetanks gefüllt werden kann, wobei das gleiche Volumen an Meerwasser aus den Tanks entfernt wird. Dadurch wird der Druck in den Tanks auf dem gleichen Niveau wie in der Umgebung des Tanks gehalten. So kann der unter hohem Druck stehende Wasserstoff mit billigen Kunststofftanks (aus Polyethylen hoher Dichte) in der Tiefsee gespeichert werden, wodurch die Kosten für die Langzeitspeicherung erheblich gesenkt werden. Damit die Wasserstofftanks nicht zur Oberfläche treiben, wird Sand hinzugefügt, um ihr Gewicht zu erhöhen. Ein weiterer wichtiger Aspekt, der diese Lösung ermöglicht, ist, dass Wasserstoff auch bei sehr hohen Drücken in Wasser unlöslich ist. Wäre Wasserstoff in Wasser löslich, so würde sich ja ein großer Teil des Wasserstoffs in den Tanks lösen und im Ozean verloren gehen.

Abbildung 1. Hydrogen Deep Ocean Link (HYDOL). a: Gesamtkonzept mit den verschiedenen Einrichtungen.b: Vorschlag für das Design einer Pipeline. (cc-by, Hunt et al., [1])

Der isotherme (d.i. bei konstanter Temperatur arbeitende; Anm. Redn.) Kompressor, mit dem der Wasserstoff verdichtet und in die Tiefsee transportiert wird, hat einen Wirkungsgrad der Verdichtung von rund 80 %; im Prozess des Komprimierens lässt das leichte Übergewicht des Sandes die Wasserstofftanks in der Tiefsee langsam auf den Meeresboden sinken, während Wasser in die Rohre gelangt (siehe Abbildung 1a).

Die tiefen Tanks für die Langzeitspeicherung von Wasserstoff (in Abbildung 1a unten dargestellt) sind am Meeresboden fixiert und können bei niedrigen Kosten große Mengen an Wasserstoff speichern. Das ebenfalls in der Abbildung gezeigte Tiefsee-Wasserstoff-U-Boot ist im Grunde ein Wasserstoff-Langzeitspeichertank, der mit einem Propeller angetrieben wird. Der Hauptzweck des Tiefsee-Wasserstoff-U-Bootes besteht darin, den Sand in den Container zu tragen. Das Tiefsee-Wasserstoff-U-Boot mit Sand ist jedoch immer noch leichter als ein Lkw mit auf 500 bar verdichtetem Wasserstoff an Land.

Die tiefe Wasserstoffpipeline ist dazu ausgelegt, Wasserstoff von einem Punkt zum anderen zu liefern, wobei der Wasserstofffluss mit dem Neigungswinkel der Pipeline variiert. Abbildung 2. Aufgrund der hohen Kosten von Hochdruckleitungen an Land ist es günstiger Wasserstoff in tiefen Pipelines zu transportieren als in Pipelines an Land.

Abbildung 2. Hydrogen Deep Ocean Link (HYDOL).Links: Querschnitt durch eine Wasserstoff-Pipeline. Rechts: Vorschlag für Tiefsee-Wasserstoff Pipelines. (cc-by, Hunt et al., [1])

Eine Abschätzung der Kosten

Für die isotherme Verdichtung von Wasserstoff von 100 bar auf 500 bar belaufen sich nach unserer Berechnung die Investitionskosten auf 15.000 US-Dollar pro Kubikmeter und Tag. Für eine langfristige Energiespeicherung bei 500 bar sind nach unseren Schätzungen rund 0,02 USD pro kWh einzuplanen, während die Kosten für eine Tiefsee-Wasserstoffpipeline bei 400 bar und einer Länge von 5.000 km auf 60 Millionen USD pro Gigawatt kommen. Die Kosten für das Tiefsee-Wasserstoff-U-Boot bei 400 bar und 500 km werden auf 40 Millionen Dollar pro Gigawatt geschätzt.

Diese Kosten sind sechsmal billiger als die übliche Wasserstoffverdichtung (mit Kompressionsturbinen), 50-mal billiger als die normale Wasserstoff-Langzeitspeicherung (Oberflächen-Druckbehälter) und dreimal billiger als der normale Ferntransport (mit verflüssigtem Wasserstoff). Dabei ist zu beachten, dass das Verflüssigen von Wasserstoff die Gesamtenergiespeichereffizienz des Systems erheblich verringert.

Fazit

Der Hydrogen Deep Ocean Link kann Wasserstoff bei niedrigen Kosten sowohl innerhalb als auch zwischen Kontinenten transportieren, was zu einem globalen nachhaltigen Energienetz führt.


[1] Hunt, J., Nascimento, A., Zakeri, B., & Barbosa, P.S.F. (2022). Hydrogen Deep Ocean Link: a global sustainable interconnected energy grid. Energy 249 e123660. 10.1016/j.energy.2022.123660. [pure.iiasa.ac.at/17854]


 *Der Artikel " Hydrogen Deep Ocean Link: A global sustainable interconnected energy grid " https://iiasa.ac.at/blog/mar-2022/hydrogen-deep-ocean-link-global-sustainable-interconnected-energy-grid ist am 28.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt. Es wird darauf hingewiesen, dass der Artikel ausschließlich die Ansichten des Autors J. Hunt widerspiegelt.


Weiterführende Links

In der vergangenen Woche ist im ScienceBlog ein weiteres innovatives Konzept des IIASA-Forschers Julian Hunt und seiner Kollegen erschienen, das auf der Basis von Elektro-Lkw eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte:

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Wasserstoff im ScienceBlog:


 

inge Thu, 31.03.2022 - 01:16

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Do, 24.03.2022 — IIASA

IIASA Logo

Icon Energie

Bergregionen besitzen ein großes Potenzial für Wasserkraft, das mit herkömmlichen Technologien nicht ausreichend effizient genutzt werden kann. Ein internationales Team um den IIASA-Forscher Julian Hunt hat auf der Basis von Elektro-Lkw eine innovative Wasserkrafttechnologie entwickelt, die eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte. Dazu soll in großen Höhen Wasser aus Gebirgsbächen in Vorratsbehälter gefüllt, den steilen Berg hinunter transportiert, die potentielle Energie des Wassers mit den Rekuperationsbremsen der Elektro-Lkw in Strom umgewandelt und in der Batterie des Lkw gespeichert werden.*

Beim Übergang zu einer nachhaltigeren Zukunft wird die Wasserkraft als erneuerbare Energiequelle wahrscheinlich an Bedeutung gewinnen. Trotz ihres Potenzials erfolgten Innovationen in der Wasserkrafttechnologie im letzten Jahrhundert langsam. Herkömmliche Verfahren setzen heute auf zwei miteinander verbundene Stauseen mit unterschiedlichen Wasserständen, in denen die potentielle Energie des Wassers in Strom umgewandelt wird. Abbildung 1, links.

Elektro-Lkw-Wasserkraft…

In steilen Gebirgsgegenden ist das Potenzial zur Stromerzeugung aus einem kleinen Wasserlauf hoch, jedoch bleibt das Wasserkraftpotenzial dieser Regionen ungenutzt, da es Speicherbecken benötigt, die ökologische und soziale Auswirkungen haben. Der IIASA-Forscher Julian Hunt und ein internationales Forscherteam haben eine neue Technologie namens Electric Truck Hydropower (ETH, Elektro-Lkw-Wasserkraft) entwickelt, die zu einer Schlüsselmethode für die Stromerzeugung in steilen Bergregionen werden könnte. Die Ergebnisse der Studie wurden im Fachjournal Energy veröffentlicht [1].

Abbildung 1. Wasserkraft in steilen Bergregionen. Links: Konventionelle Wasserkraft im steilen Gebirge. Wasser- und Pumpspeicherkraftwerk Kaprun in Österreich. Die Anlage besteht aus hohen Staumauern und Stollen zur Vergrößerung des Einzugsgebietes der Anlage und zur Verbindung mit der Salzach und dem Zeller See. Rechts oben: Schematische Beschreibung des ETH-Systems, bei dem der leere LKW den Berg hinauffährt, um die mit Wasser gefüllten Behälter an der Ladestelle abzuholen, und der LKW mit dem vollen Behälter den Berg hinunterfährt, um Strom zu erzeugen. Das Wasser wird dann an der Einleitungsstelle entladen. Rechts unten: Luftbild des ETH-Systems im Vergleich zu einem bestehenden Wasserkraftprojekt, das die Flexibilität von ETH-Systemen unterstreicht. (Bild: Fig.1 und 2 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by)

Elektro-Lkw-Wasserkraft würde die vorhandene Straßeninfrastruktur nutzen, um Wasser in Containern den Berg hinunter zu transportieren, die rekuperativen Bremsen des Elektro-Lkw zu betätigen, um die potenzielle Energie des Wassers in Strom umzuwandeln und die Batterie des Lkw aufzuladen. Die erzeugte Energie könnte dann in das Netz eingespeist oder vom Lkw selbst zum Transport anderer Güter verwendet werden. Elektro-Lkw-Wasserkraft könnte auch in Kombination mit Solar- und Windressourcen Strom erzeugen oder Energiespeicherdienste für das Netz bereitstellen. Abbildung 1, rechts.

„Die ideale Systemkonfiguration ist in Bergregionen mit steilen Straßen, wo die gleichen Elektro-Lkw zur Erzeugung von Strom aus Wasserkraft an verschiedenen Orten eingesetzt werden können. Das erhöht die Chancen, dass Wasser zur Verfügung steht“, sagt Hunt.

…mit anderen erneuerbaren Technologien konkurrenzfähig…

Die vorgeschlagene Technologie ist eine innovative, saubere Stromquelle, die mit Solar-, Wind- und konventioneller Wasserkraft konkurrenzfähig ist. Kostenschätzungen zeigen, dass die Gestehungskosten für Elektro-Lkw-Wasserkraft 30 - 100 US-Dollar pro MWh betragen, was erheblich billiger ist als herkömmliche Wasserkraft mit 50 - 200 US-Dollar pro MWh. Abbildung 2.

Abbildung 2. Globales Potential für Elektro-Lkw-Wasserkraft (ETH). Oben: Maximales ETH-Potenzial in den einzelnen Regionen. Unten: Kosten von ETH versus Potential der mittels ETH produzierten Energie Produktion. (Bild: Ausschnitte aus Fig.4 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by.)

…und mit geringeren Auswirkungen auf die Umwelt

Auch die Auswirkungen von Elektro-LKW-Wasserkraft auf die Umwelt sind deutlich geringer als die von konventioneller Wasserkraft.

„Diese Technologie erfordert keine Staumauern, Stauseen oder Stollen und stört nicht die natürliche Strömung des Flusses und die Fischwanderung. Das System benötigt nur bereits vorhandene Straßen, Lade- und Entladestationen ähnlich kleinen Parkplätzen, eine an das Stromnetz angeschlossene Batterieanlage und die Lkw“, erklärt Hunt.

In Hinblick auf die globale Reichweite dieser Technologie kam das Forscherteam zu der Abschätzung, dass Electric Truck Hydropower 1,2 PWh Strom pro Jahr erzeugen könnte, was etwa 4 % des weltweiten Energieverbrauchs im Jahr 2019 entspricht. Mit dieser  Technologie könnte das bisher ungenutzte Potenzial für Wasserkraft auf steilen Bergketten genutzt werden. Die Regionen mit dem größten Potenzial sind der Himalaya und die Anden. Abbildung 2, oben.

„Aufgrund seiner hohen Flexibilität ist es eine interessante Alternative zur Stromerzeugung. Befindet sich ein Land beispielsweise in einer Energiekrise, kann es mehrere Elektro-Lkw kaufen, um Wasserkraft zu erzeugen. Sobald die Krise vorbei ist, können die Lastwagen für den Frachttransport eingesetzt werden“, schließt Hunt.


[1] Hunt, J., Jurasz, J., Zakeri, B., Nascimento, A., Cross, S., Schwengber ten Caten, C., de Jesus Pacheco, D., Pongpairoj, P., Leal Filho, W., Tomé, F., Senne, R., van Ruijven, B. (2022). Electric Truck Hydropower, a Flexible Solution to Hydropower in Mountainous Regions. Energy Journal DOI:  10.1016/j.energy.2022.123495


*Die Presseaussendung "Electric Truck Hydropower, a flexible solution to hydropower in mountainous regions" https://iiasa.ac.at/news/mar-2022/electric-truck-hydropower-flexible-solution-to-hydropower-in-mountainous-regions ist am 7.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel und zwei Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Energie gehört zu den Hauptthemen im ScienceBlog. Rund 10 % aller Artikel befassen sich mit diversen Aspekten der Energie, wobei deren Spektrum vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende reicht. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt Energie aufgelistet.

inge Wed, 23.03.2022 - 18:50

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Fr, 18.03.2022 — Redaktion

Redaktion

Icon Klima

In dem kürzlich erschienenen Bericht „Frontiers 2022: Emerging Issues of Environmental Concern“ hat die Umweltorganisation der Vereinten Nationen (UNEP) vor drei drohenden und bisher unterschätzten Umweltgefahren gewarnt, darunter vor den durch den Klimawandel verursachten phänologischen Veränderungen, die zu Störungen der Ökosysteme führen [1]. Das schon seit Jahrhunderten etablierte Gebiet der Phänologie befasst sich mit den im Jahresablauf periodisch wiederkehrenden Wachstums- und Entwicklungserscheinungen von Organismen. Pflanzen und Tiere nutzen oft die Temperatur als Zeitgeber, um in das nächste Stadium eines saisonalen Zyklus einzutreten. Das Timing dieser Phasen ist entscheidend, um beispielsweise Pflanzenblüte und bestäubende Insekten oder eintreffende Zugvögel und deren Nahrungsangebot zu synchronisieren. Der Klimawandel beschleunigt sich nun schneller, als sich viele Pflanzen- und Tierarten anpassen können. Dies führt zu einem Auseinanderdriften (Mismatch) von synchronen pflanzen- und tierphänologischen Phasen. Die Wiederherstellung von Lebensräumen, der Bau von Wildtierkorridoren zur Verbesserung der Habitatkonnektivität, die Verschiebung der Grenzen von Schutzgebieten und die Erhaltung der Biodiversität in produktiven Landschaften können als Sofortmaßnahmen hilfreich sein. Allerdings: ohne starke Anstrengungen zur Reduzierung von Treibhausgas-Emissionen, werden diese Schutzmaßnahmen den Zusammenbruch wesentlicher Ökosystemleistungen nur verzögern.*

Timing bedeutet Alles für die Harmonie des Ökosystems

In der Natur ist das Timing entscheidend. Vogelküken müssen geschlüpft werden, wenn für sie Nahrung vorhanden ist, Bestäuber müssen aktiv sein, wenn ihre Wirtspflanzen blühen, und Schneehasen müssen ihre Farbe von Weiß zu Braun ändern, wenn der Schnee verschwindet. Die Phänologie untersucht das Timing von wiederauftretenden Phasen im Lebenszyklus, welche von Umwelteinflüssen angetrieben werden, und wie interagierende Arten auf Änderungen im Timing innerhalb eines Ökosystems reagieren. Pflanzen und Tiere nutzen häufig Temperatur, Tageslänge, den Beginn der Regenfälle oder andere physikalische Veränderungen als Zeitgeber für die nächste Phase in ihrem jahreszeitlichen Kreislauf. Setzt der Frühling früher ein, reagieren viele Vögel mit einem früheren Brüten, passend zur schneller aufkommenden Nahrung für ihre Nestlinge, wenn es warm wird. Da die Temperatur einen so starken Einfluss als Auslöser hat, gehören die phänologischen Veränderungen der letzten Jahrzehnte zu den sichtbarsten Folgen des globalen Klimawandels, zumindest in den gemäßigten und polaren Regionen der Erde. Abbildung 1.

Abbildung 1. Die Kirschblüte als Symbol des wiedererwachenden Lebens wird in Japan mit rauschenden Festen gefeiert. Beobachtungsreihen existieren seit 705 a.D.; von 1830 an hat sich die Kirschblüte schrittweise zu früheren Zeitpunkten hin verlagert, parallel zu den meteorologischen Daten der steigenden Temperaturen. Trendlinie: 50-Jahre-Mittelwerte. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Die Temperatur ist nicht die einzige Umgebungsvariable, welche die Phänologie beeinflusst. Eine weitere kritische Variable ist in höheren Breiten die jahreszeitlich variierende Tageslänge (Photoperiode). Während die Tageslänge selbst nicht vom Klimawandel beeinflusst wird, kann das Ausmaß des Temperatureffekts auf die Phänologie davon abhängen: in einigen Systemen können hohe Temperaturen das nächste Stadium während langer Tage, nicht aber während kürzerer Tage auslösen. In höheren Breitengraden brauchen einige Pflanzen und Insekten auch einen Zeitraum niedriger Temperatur, einen sogenannten Kältereiz, um richtig zu reagieren, sobald es wärmer wird. Einige Arten sind auf Brände angewiesen, um Lebenszyklusstadien zu initiieren, wie beispielsweise die Freisetzung von Samen aus den Zapfen und die Samenkeimung, die durch Feuer stimuliert werden. Ein Beispiel aus der Wasserwelt ist der Einfluss von Regen auf die Abflüsse, die - zusammen mit Faktoren wie Wassertemperatur und Tageslänge - wiederum Timing und Dauer der Fischwanderung beeinflussen.

Die Phänologie in tropischen Regionen ist aufgrund geringerer Schwankungen von Temperatur und Tageslänge schwieriger zu erkennen, als in Regionen mit deutlichen jährlichen saisonalen Zyklen. Tropische Arten zeigen unterschiedliche phänologische Strategien, so können sich Individuen innerhalb einer Population nicht synchronisieren und Zyklen kürzer als 12 Monate dauern. Verschiedene Faktoren, darunter Regen, Dürre, vorhandene Feuchtigkeit und reichlich Sonneneinstrahlung können die nächste Lebenszyklusphase in tropischen Regionen auslösen.

Ein wesentliches Problem von den, auf den Klimawandel zurückzuführenden, phänologischen Veränderungen besteht darin, dass in einem bestimmten Ökosystem sich nicht alle voneinander abhängigen Arten in die gleiche Richtung oder mit dem gleichen Tempo verändern. Der Grund dafür ist, dass jeder Organismus auf verschiedene treibende Faktoren der Umwelt reagiert oder unterschiedliche Grade von Sensitivität gegenüber einem einzelnen Umweltfaktor aufweist. Innerhalb der Nahrungsketten können Pflanzen ihre Entwicklung schneller ändern als Tiere, die diese als Futter nutzen - dies führt zu phänologischen Fehlanpassungen (Mismatches). Detaillierte Studien zu verschiedenen Phasen des Lebenszyklus bei einer Vielzahl von Pflanzen- und Tierarten haben signifikante phänologische Mismatches entdeckt. Solche Fehlanpassungen zwischen Räuber und Nahrungsquelle innerhalb eines Nahrungsnetzes beeinflussen Wachstum, Fortpflanzungs- und Überlebensraten der Individuen und haben schlussendlich Auswirkungen auf ganze Populationen und Ökosysteme.

Störungen in der Harmonie des Ökosystems

Durch Klimawandel verursachte phänologische Veränderungen wurden in unterschiedlichen Stadien festgestellt: u.a. in Reproduktion, Blüte, Blattaustrieb, Beginn der Larvenentwicklung, Mauser, Winterschlaf und Migration. Daten dazu kommen aus vergleichenden Studien zu phänologischen Veränderungen in großen Gruppen von Arten – Pflanzen, Insekten, Fische, Amphibien, Vögeln und Säugetieren -, die in Langzeitreihen in beiden Hemisphären aufgezeichnet wurden. In mehreren Regionen haben Forscher zudem eine zunehmende Wahrscheinlichkeit für phänologische Mismatches verfolgt, unter anderem wurden 10.000 Datensätze zu Pflanzen und Tieren im gesamten Vereinigten Königreich, zu terrestrischen Spezies in den Alpen, mehr als 1.200 Zeitreihen phänologischer Trends in der südlichen Hemisphäre und von marinen Spezies in verschiedenen Ozeanen verwendet. Abbildung 2

Abbildung 2. Veränderungen erkennen, Trends verfolgen. Jüngste Abschätzungen um wie viele Tage pro Dekade sich die Lebensstadien von Tieren und Pflanzen verschoben haben. A: Terrestrische Spezies, B: Marine Spezies. Kreise: quantifizierte Rate der beobachteten phänologischen Reaktion einer bestimmten Spezies, wenn sie ein Lebenszyklusstadium um eine Anzahl von Tagen pro Jahrzehnt nach früher oder später verschiebt. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Studien an Vögeln liefern zahlreiche Beweise für Fehlanpassungen, die eine erfolgreiche Vermehrung beeinträchtigen. Arten wie Trauerschnäpper (Ficedula hypoleuca) und Kohlmeisen (Parus major) müssen ihre Küken schlüpfen lassen, wenn ihr normales Nahrungsangebot an Raupen am reichlichsten ist. Diese Zeit des maximalen Nahrungsangebots ist kurz und dauert nur wenige Wochen. Das richtige Timing ist also entscheidend. Andere Vögel, wie die gemeinen Trottellummen (Uria aalge), müssen ihre Fortpflanzung genau auf die Küstenwanderung ihrer Hauptbeute, kleinen Futterfischen, abstimmen.

Innerhalb des Jahreszyklus ist es notwendig, dass sich verschiedene Lebensphasen synchronisieren. Für wandernde Arten umfassen die Jahreszyklen Phasen des Umzugs in die Brutgebiete, der Fortpflanzung, der Mauser und der Rückkehr in die Überwinterungsgebiete. Einige Stadien des Lebenszyklus, wie die Reproduktion, sind überaus temperaturempfindlich. Mit steigenden Temperaturen verschiebt sich die reproduktive Phänologie, während andere Stadien, wie die Mauser, empfindlicher auf Lichtverhältnisse reagieren, sodass sie nicht synchron auftreten.

Die phänologischen Reaktionen unterscheiden sich überall in marinen Ökosystemen und in saisonalen Zyklen, was zu Mismatches zwischen Arten und Gruppen im Nahrungsnetz führt. Wie Untersuchungen zeigen, erfolgen phänologische Reaktionen auf den Klimawandel in marinen Umgebungen schneller als an Land. Die verschiedenen Meeresspezies, vom Plankton bis hin zu höheren Räubern, verändern ihre Phänologie mit unterschiedlicher Geschwindigkeit; dies bedeutet, dass der Klimawandel auch zu Mismatches in gesamten ozeanischen Gemeinschaften führen kann.

Unterschiede in den Geschwindigkeiten mit denen die Phänologie auf die Erwärmung in terrestrischen Systemen, Süßwasser- und Meeresökosystemen reagiert, könnten sich letztendlich auf Arten auswirken, die von verschiedenen Ökosystemen abhängig sind, um phänologische Übergänge in die nächste Lebenszyklusphase mitzunehmen. Beispiele hierfür sind Fische, die zwischen Meeres- und Süßwasserökosystemen wandern, und viele Insekten, Amphibien und Vögel, deren Lebenszyklusstadien sowohl von terrestrischen als auch von aquatischen Ökosystemen abhängen. Nicht übereinstimmende phänologische Verschiebungen könnten weit verbreitete Störungen des Nahrungsnetzes und ökologische Folgen verursachen.

Während phänologische Reaktionen auf den Klimawandel gut dokumentiert sind, verlangen weitere Fragen zu den Zusammenhängen mit Populationen und zu den Folgen für Ökosysteme größere Aufmerksamkeit. In der Arktis hat sich nach der Schneeschmelze die Vegetation, auf die Karibus (Rangifer tarandus)-Mütter und -Kälber angewiesen sind, auf Grund der höheren Temperaturen schneller entwickelt. Jetzt werden Karibu-Kälber zu spät geboren, was zu einem75-prozentigen Rückgang der Nachkommen führt. Auch bei Rehen (Capreolus capreolus) verringert das zunehmende Auseinanderlaufen von Geburtsdatum und Nahrungsverfügbarkeit die Überlebenschancen der Kälber.

Asynchrone phänologische Veränderungen bei einem breiten Spektrums interagierender Arten haben das Potenzial, das Funktionieren ganzer Ökosysteme und die Bereitstellung von Ökosystemleistungen, von denen menschliche Systeme abhängen, zu stören. Verschiebungen in der Phänologie kommerziell wichtiger Meeresarten und ihrer Beute haben erhebliche Folgen für alle Aspekte der Fischerei. Die phänologischen Reaktionen von Nutzpflanzen auf jahreszeitliche Schwankungen werden angesichts des Klimawandels eine Herausforderung für die Nahrungsmittelproduktion darstellen. Zum Beispiel führen Obstbäume, die früh blühen und dann in der Spätsaison Frost erleiden, zu großen wirtschaftlichen Verlusten für Obstplantagen. Phänologische Veränderungen erschweren weltweit bereits jetzt eine klimafreundliche landwirtschaftliche Anpassung für wichtige Nutzpflanzen.

Unglaubliche Reisen: Die Herausforderung der Migration zum falschen Zeitpunkt

Migration ist eine Verhaltensanpassung an die Saisonalität. Periodische Wanderungen von Tieren zwischen Lebensräumen ermöglichen es ihnen, die Ressourcen an mehreren Orten zu verschiedenen Jahreszeiten zu optimieren. Migration ist auch erforderlich, wenn saisonale Luft- oder Wassertemperaturen für die Zucht oder Aufzucht von Nachkommen ungünstig werden. Die meisten wandernden Arten stammen daher aus Regionen in hohen Breiten, in denen die Jahreszeiten und die verfügbaren Ressourcen am ausgeprägtesten sind. Verschiedene Arten von Insekten, Krebstieren, Reptilien, Fischen und Säugetieren wandern, und viele legen bemerkenswerte Entfernungen zurück. Einige Migranten unter den Vögeln nisten in der hohen Arktis und entfliehen ihrem Winter in niedrigere Breiten; Wale wandern zwischen Äquator und polaren Nahrungsgründen; und wandernde pflanzenfressende Säugetiere folgen saisonalen Veränderungen in der Vegetation über Kontinente hinweg.

Über Langstrecken migrierende Spezies sind besonders anfällig für phänologische Veränderungen durch Effekte der Klimaerwärmung, die über die Regionen hinweg nicht einheitlich sind. Lokale klimatische Zeitgeber, die normalerweise eine Migration auslösen, können nicht mehr genau vorhersagen wie die Bedingungen am Zielort und auch an den Zwischenstopps entlang der Route sind. Die Herausforderung ist noch größer für migrierende Arten, die in Polarregionen zurückkehren, wo Voranschreiten und Ausmaß des Klimawandels am größten sind. Folglich haben viele wandernde Arten Schwierigkeiten anzukommen, wenn hochwertige Nahrung noch reichlich vorhanden ist, das Wetter für bestimmte Lebenszyklusstadien geeignet ist, Raubtier- oder Konkurrenzdruck geringer ist, oder es weniger Parasiten und Krankheitserreger gibt. Eine frühere Frühlings-Phänologie in hohen Breiten hat zu einem zunehmenden Grad an ökologischer Fehlanpassung für wandernde Arten geführt, mit möglichen demografischen Folgen.

Arten haben bewiesen, dass sie fähig sind ihr Migrationsverhalten zu ändern, vom Anpassen des Zeitpunkts bis hin zur Änderung von Routen und Orten. Ihre Anpassungsfähigkeit als Reaktion auf den Klimawandel wird aber bereits durch andere anhaltende Bedrohungen beeinträchtigt. Ökologischer Abbau, Zersplitterung und Verlust von Nahrungs-, Brut- und Rasthabitaten, Jagd, Umweltverschmutzung und andere Gefahren bedrohen wandernde Arten auf langen Reisen mit steigendem Druck, sich an schnelle Umweltveränderungen anzupassen.

Maßnahmen zur Maximierung des Anpassungspotenzials und zur Stärkung der Resilienz von Artenpopulationen erfordern eine Reduzierung konventioneller Bedrohungen und eine Änderung bestehender Naturschutzrichtlinien und -strategien angesichts des Klimawandels. Ein umfangreiches Netzwerk verschiedener kritischer Standorte und geschützter Lebensräume könnte das Anpassungspotenzial wandernder Arten maximieren. Es ist auch unerlässlich, die Konnektivität von Land- und Meereslebensräumen, die für die Ausbreitung jetzt und in Zukunft entscheidend sind, sicherzustellen und zu verbessern. Eine zunehmende Konnektivität von Lebensräumen wird dazu beitragen, die adaptive genetische Variation und die Überlebensfähigkeit zu erhalten, die für den Fortbestand der Arten erforderlich sind.

Entwicklung zu neuen Synchronitäten

Um beobachtete Fehlanpassungen dem Klimawandel zuzuschreiben bedarf es einer Langzeit-Forschung zur Phänologie interagierender Arten innerhalb eines Ökosystems. Langzeitstudien sind unerlässlich, aber die größte Herausforderung ist der Nachweis der Kausalität. Der Klimawandel kann Temperaturen und Niederschläge beeinflussen, aber andere Faktoren können gleichzeitig die Reaktionen der Arten beeinflussen, wie z. B. Änderungen der Landnutzung, Übernutzung von Ressourcen, invasive Arten und andere ökologische Stressoren. Die Unsicherheit in Bezug auf die Kausalität kann teilweise durch Minimierung von Variablen angegangen werden: Beobachtung von Reaktionen entweder an verschiedenen Orten - indem Populationen in Gebieten mit starker Erwärmung mit solchen mit geringer Erwärmung verglichen werden - oder in verschiedenen Zeiträumen - indem Populationen in Jahren mit schnell steigenden Temperaturen mit solchen in Jahren mit langsamerer Erwärmung verglichen werden. Solche Ansätze ermöglichen es die spezifische Wirkung des Temperaturanstiegs auf die Phänologie der Spezies besser abzuschätzen, auch wenn sie Probleme mit anderen Temperatur-sensitiven Umweltfaktoren nicht lösen. In vielen Regionen ändern sich beispielsweise die Niederschlagsmuster unter variierenden klimatischen Bedingungen dramatisch, wobei Zeitpunkt, Häufigkeit und Intensität der Regenzeiten verändert werden. Mit zunehmender Datenfülle erkennen die Forscher, dass Kombinationen phänologischer Mechanismen – beispielsweise Temperatur, Photoperiode und Niederschlag – zusammenkommen müssen, um als phänologisches Signal zu wirken.

Eine starke phänologische Veränderung einer Population infolge von Umweltveränderungen ist ein Hinweis darauf, dass ein großer Teil der Individuen in der Lage ist, das Timing in die gleiche Richtung zu ändern - bekannt als phänologische Plastizität. Empirische Hinweise legen nahe, dass diese Plastizität der wesentliche Ursprung für die beobachteten Klima-bezogenen phänologischen Verschiebungen ist. Die Plastizität von Individuen oder Populationen kann möglicherweise aber nicht mit den schnellen Umweltveränderungen, die wir erleben, Schritt halten. Arten benötigen auch genetische Veränderungen, um sich erfolgreich anzupassen; dies ist bei Arten mit kurzer Generationszeit, wie Insekten, wahrscheinlicher,als bei Bäumen, die sich über Jahrzehnte regenerieren. Es gibt eine Handvoll Beispiele - hauptsächlich bei Insekten und einigen Vögeln -, bei denen genetische Veränderungen als Reaktion auf den Klimawandel als Mikroevolution erkannt werden können. Gesamt gesehen erfolgen genetische Veränderungen viel langsamer als der Klimawandel.

Die phänologische Mikroevolution - der Prozess der natürlichen Selektion, bei dem genetische Veränderungen die Phänologie von Arten verändern, um diese besser an das veränderte Klima anzupassen - hat höchstwahrscheinlich eine wichtige Rolle bei der Anpassung von Arten und Ökosystemen an vergangene Erwärmungsperioden gespielt. Da die Erwärmung jetzt jedoch viel rascher erfolgt – vielleicht um den Faktor 100 – wird wahrscheinlich sogar die Mikroevolution sich als zu langsam für die derzeitige Geschwindigkeit des Klimawandels herausstellen.

In der Praxis könnten Maßnahmen zu Erhaltung und Management von Ökosystemen ergriffen werden, um günstige Bedingungen für eine Mikroevolution zu fördern. Eine Maßnahme besteht darin, die genetische Vielfalt von Populationen zu unterstützen und zu pflegen, da dies die entscheidende Voraussetzung für Mikroevolution und natürliche Selektion ist. Habitatkorridore zur Erhöhung der ökologischen Konnektivität würden die Besiedlung durch Pflanzen und die Mobilität von Tierarten mit neuem genetischem Material innerhalb eines bestimmten Ökosystems ermöglichen, die genetische Vielfalt fördern und die Chancen einer erfolgreichen Anpassung erhöhen.

Brücken zu neuen Harmonien

Phänologische Veränderungen können nur aus Langzeitaufzeichnungen ermittelt werden. Die Datenerhebung wird von wissenschaftlichen Einrichtungen, Universitäten, Regierungen und NGOs durchgeführt. Initiativen wie das African Phenology Network, das Australia's TERN-Projekt, Indiens SeasonWatch, der UK Nature’s Calendar und das USA National Phenology Network inkludieren Beobachtungen von Bürgern zur Verfolgung von Pflanzen, Insekten, Vögeln und Säugetieren. Diese umfassenden Datensätze ermöglichen es den Wissenschaftlern Arten und Standorte herauszusuchen, die am meisten gefährdet sind. Sie liefern auch Daten für den Weltklimarat (IPCC) zur Abschätzung der für Ökosysteme tolerierbaren Erwärmungsraten und untermauern die Ziele von Regierungen, die globale Erwärmung auf die im Pariser Abkommen festgelegten Grenzen zu reduzieren.

Seit Jahrhunderten haben in der ganzen Welt Landwirte, Gärtner und Naturliebhaber ihr Wissen über phänologische Phasen genutzt. Regionale und lokale Netzwerke ermöglichen es den Mitgliedern Wissen und Ratschläge zu verschiedenen Umgebungen und Ökosystemen auszutauschen. Mit modernen Kommunikationsmitteln ist die Identifizierung und Verfolgung der Entwicklung von Pflanzen und Tieren in vielen Ländern zu einem weit verbreiteten Zeitvertreib geworden. Citizen Science-Beiträge zum phänologischen Wissen reichen von der Notierung von Blütedaten in den Gärten bis hin zu Beobachtungen wandernder Herden zur Verifizierung von Luft- und Satellitenbildern Abbildung 3.

Abbildung 3. Phänologische Beobachtungen und Citizen Science. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Phänologische Veränderungen und Mismatches, die dem Klimawandel zugeschrieben werden, haben die landwirtschaftlichen Ökosystemleistungen seit Jahrzehnten belastet. Um die Probleme längerer Vegetationsperioden, durch Hitze oder Dürre verkürzter Wachstumsphasen und anderer Auswirkungen des Klimawandels zu mildern, haben Landwirte klimaresistentere Sorten ausgewählt. Die Einführung neuer Techniken, das Ausprobieren neuen Saatguts, die gemeinsame Nutzung von Saatgutbanken und die Nutzung von Beratungsdiensten sind alles Aspekte einer klimafreundlichen Landwirtschaft, die von der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen, vielen NGOs und nationalen und sub-nationalen Stellen gefördert wird.

In eingeschränktem Maß wurde untersucht, wie sich phänologische Veränderungen und Mismatches auf das Management natürlicher Ressourcen und den Erhalt der biologischen Vielfalt auswirken, wobei es für die Manager oft nicht klar ist, wie sie die Daten in die Praxis einbauen sollen. Phänologische Daten könnten Klimamaßnahmen anzeigen, die Implementierung der Überwachung optimieren und die Abschätzung der Vulnerabilität durch den Klimawandel unterstützen. Dies ist besonders in weniger gut untersuchten Gebieten wichtig, wie z. B. an vielen Orten der südlichen Hemisphäre. Manager müssen berücksichtigen, wie sich phänologische Veränderungen auf ihre aktuellen Strategien auswirken. Beispielsweise machen Fischereimanager in der Regel jährlich eine Erhebung der Fischpopulationen und bestimmen Zeitpunkte, an denen die Populationen in einem Gebiet am häufigsten vorgekommen sind. Phänologische Veränderungen könnten dazu führen, dass Erhebungen zur falschen Jahreszeit durchgeführt werden, was Populationsschätzungen und erlaubte Fangquoten verfälschen würde.

Aktuelle Übersichtsartikel zu mehreren spezifischen Fallstudien haben Beispiele für Phänologie, phänologische Veränderungen und phänologische Mismatches in erweiterter Form dargestellt. Mit der höheren Anzahl an Spezies, Ökosystemen und Regionen und diversen phänologischen Mechanismen, kann über Ansätze informiert werden, die zur Unterstützung menschlicher Gemeinschaften und Ökosysteme bei der Anpassung an die Bedingungen des Klimawandels erforderlich sind.

Größere Anstrengungen zur Unterstützung der Intaktheit der biologischen Vielfalt werden die Widerstandsfähigkeit und Anpassungsfähigkeit aller Ökosysteme stärken. Sanierung von Lebensräumen, Bau von Lebensraumkorridoren zur Verbesserung der ökologischen Konnektivität und genetischen Vielfalt, Anpassung der Grenzen von Schutzgebieten an die veränderten Verbreitungsgebiete der Arten und Erhaltung der biologischen Vielfalt in produktiven Landschaften sind alles notwendige sofortige Eingriffe des Managements.

Fazit

Der anthropogene Klimawandel führt zu phänologischen Verschiebungen sowohl in terrestrischen als auch in aquatischen Ökosystemen. Diese Veränderungen können zu Mismatches führen, mit schwerwiegenden Folgen für einzelne Individuen, Populationen, Gemeinschaften und ganze Ökosysteme. Der Klimawandel beschleunigt sich zu schnell, als dass sich viele Arten durch ihre natürlichen phänologischen Fähigkeiten anpassen könnten. Die Erhaltung der Integrität einer funktionierenden biologischen Vielfalt, die Beendigung der Zerstörung von Lebensräumen und die Wiederherstellung von Ökosystemen werden die natürlichen Systeme stärken, von denen wir abhängig sind. Ohne fortgesetzte Bemühungen zur drastischen Reduzierung der Treibhausgasemissionen werden diese Schutzmaßnahmen jedoch den Verlust dieser wesentlichen Ökosystemleistungen nur verzögern. Damit sich Arten und Ökosysteme den beschleunigten Rhythmen anpassen können, den der Klimawandel vorgibt, werden Zeit und Möglichkeit neue Harmonien zu erreichen nötig sein.


[1] Marcel E. Visser: "Phenology - Climate change is shifting the rhythm of nature" in: UN-Environment Programme. Frontiers 2022 Report. Emerging Issues of Environmental Concern. https://www.unep.org/resources/frontiers-2022-noise-blazes-and-mismatches  


*Der Artikel "Phenology - Climate change is shifting the rhythm of nature“ verfasst von Marcel E. Visser (Institut of Ecology, Wageningen; Netherlands) stammt aus dem unter [1] angeführten UNEP-Report „Frontiers 2022: Noise, Blazes and Mismatches“ (17. Feber 2022). Der Text des unter einer cc-by Lizenz stehenden Artikels wurde in etwas verkürzter Form von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch 3 Bilder aus dem Original ergänzt.


 UN-Environment Programme: https://www.unep.org/

UNEP's Frontiers Reports: Emerging environmental issues that we should be paying attention to. The 2022 Report: Video 2:06 min.  https://www.youtube.com/watch?v=PPniKJyH_rg&t=14s


 

inge Fri, 18.03.2022 - 17:48

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

Fr, 11.03.2022 — Ricki Lewis

Ricki LewisIcon Medizin Bei Infektionen mit SARS-CoV-2 können sich innerhalb eines Wirts Varianten des Virus an unterschiedlichen Stellen des Organismus entwickeln, die veränderte Präferenzen für Zelltypen aufweisen und sich vor dem Angriff des Immunsystems tarnen. Wie diese Tarnung erfolgen kann, zeigen neue Untersuchungen an synthetisch hergestellten Virionen: wenn bestimmte Fettsäuren, wie sie bei einer Entzündungsreaktion freigesetzt werden, in einer hochkonservierten Tasche des Spikeproteins binden, so verändert dieses seine Form und wird für das Immunsystem weniger sichtbar. Die Genetikerin Ricki Lewis berichtet darüber.*

Als ob es nicht schon genügt hätte, dass Wellen neuartiger SARS-CoV-2 Varianten - Varianten unter Beobachtung (Variants of Interest VOI) und besorgniserregende Varianten (Variants of Concern, VOC) - den Planeten überschwemmen, und dass wir Virus-Versionen finden, die in einem komplexen Muster von Integration und De-Integration in Arten eindringen und aus Arten austreten! Nun entdecken wir, dass das Ganze noch gefährlicher ist. Von einer Forschergruppe am Max Planck Bristol Center of Minimal Biology sind zwei neue Artikel in Nature Communications erschienen, die beschreiben, wie sich das Virus in verschiedenen Teilen desselben Wirts genetisch unterscheiden kann [1,2].

Was kann dies bedeuten

Auch, wenn Impfstoffe und Therapien das Virus in den Atemwegen besiegen, könnte der Erreger anderswo weiter persistieren. Und an neuen Plätzen könnten sich – möglicherweise – Viren unserer Immunantwort besser entziehen, sich besser replizieren und höher infektiös sein.

Bedenkt man, dass der Schutz durch Impfung oder Genesung von COVID-19 nachlässt, sind das keine guten Nachrichten.

Es war uns bereits bekannt, dass das Virus im Körper einer Person mit geschwächtem Immunsystem neue Mutationen erzeugen kann. Und es mutiert schnell in den Ungeimpften. Aber die aktuelle Forschung zeigt, dass bei ein und demselben Individuum neue Varianten in verschiedenen Körpernischen entstehen.

Virus-Varianten, die in ein und demselben Individuum entsehen

„Unsere Ergebnisse haben gezeigt, dass man mehrere verschiedene Virusvarianten im Körper haben kann. Einige dieser Varianten können Nieren- oder Milzzellen als Nische nutzen, um dort geborgen zu sein, während der Körper damit beschäftigt ist, sich gegen den dominanten Virustyp zu verteidigen. Dies könnte es den infizierten Patienten schwer machen, SARS-CoV-2 vollständig loszuwerden“, sagt Kapil Gupta, der Erstautor des einen Artikels [1].

Eine hochkonservierte, essentielle Tasche im Spikeprotein

Der Vorgang beim Eindringen eines Virus in eine Wirtszelle konzentriert sich auf eine Region – eine Tasche – in dem Teil des viralen Spike-Proteins, welches das Immunsystem erkennt. Eine Änderung der dreidimensionalen Form der Tasche wirkt auf das Virus wie die Tarnvorrichtung der Romulaner aus Star Trek, die deren Kriegsschiffe unsichtbar macht, wenn sich ein Raumschiff der Föderation nähert.

Die Forscher haben die Tasche in Viren untersucht, die von einem einzelnen englischen Patienten stammten und eine Deletionsmutation im Spike-Protein aufwiesen, in welcher 8 der 1273 Aminosäuren fehlten. Dabei handelt es sich um eine Deletion in Nachbarschaft zur sogenannten Furin-Spaltstelle, einer kritischen Stelle, an der das Spikeprotein (von einem Enzym der Wirtszelle, Anm. Redn.) in seine zwei Untereinheiten gespalten wird, worauf eine Untereinheit die menschliche Zelle akquiriert und die andere das Virus in die Zelle hineinzieht.

Aber statt dass der fehlende Teil das Virus nun inaktiv macht, haben die Forscher heraus gefunden, dass sich der Erreger in einer Weise verformt, dass er noch in menschliche Zellen eindringen kann.

Das ist ein Weg, wie sich das Virus ständig neu erfindet - auf unterschiedliche Weise in verschiedenen Ritzen und Schlupfwinkeln des unglücklichen Wirtsorganimus'.

Die BriSdelta-Variante

Die Version des Virus aus dem englischen Patienten – BriSdelta genannt – repliziert sich stark in Kulturen von Affennierenzellen und von menschlichen Dickdarmkrebszellen, aber nicht in menschlichen Lungenkrebs-Epithelzellen. Abbildung 1. Das könnte bedeuten, dass sich die Präferenz des Wildtyps für Oberflächen der Atemwege anders wohin verlagert, wenn das Virus beschädigt ist.

Abbildung 1: Verglichen mit dem SARS-CoV-2 Wildtyp (blau) ist die BriSDelta-Variante (rot) stärker infektiös in Affennierenzellen (Vero E6) und Dickdarmkrebszellen (Caco-2, dagegen schwächer infektös in Lungenepithelzellen (Calu-3). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die neue Version des Virus kann sich besser replizieren und ist stärker infektiös als frühere Varianten.

„In der heterogenen Umgebung des menschlichen Körpers können solche Deletionsvarianten in geeigneten Zelltypen entstehen, welche als potenzielle Nischen zur Weiterentwicklung oder Spezialisierung von SARS-CoV-2 fungieren“, schreiben die Forscher.

Das ist beängstigend.

Synthetische Minimal-Virionen

Die Forscher haben dann untersucht, wie dies geschieht, indem sie künstliche Versionen des Virus verwendeten, die mit Techniken der synthetischen Biologie zusammengebaut wurden. Abbildung 2.

Abbildung 2: Menschliche Epithelzellen (grün mit blauen Kernen) werden mit synthetischen Sars-CoV-2-Viren (magenta) inkubiert, um den Beginn der Infektion und die Immunabwehr zu untersuchen. (Halo Therpeutics). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die zweite Veröffentlichung beschreibt diese „synthetischen Minimalvirionen“, auch bekannt als MiniVs, des Wildtyps SARS-CoV-2 und Kombinationen der Mutationen aus der Parade der Varianten [2].

Dabei haben sie herausgefunden, dass Fettsäuren, wie sie während eines Entzündungsprozesses freigesetzt werden (das ist die initiale Reaktion des angeborenen Immunsystems auf eine Infektion), an die neue Mutante binden und dabei ein subtiles Zusammenfalten der Form des Spikeproteins bewirken, die dieses vor dem Ansturm von Antikörpern aus der spezifischeren Reaktion des adaptiven Immunantwort tarnt. Abbildung 3.

Abbildung 3: Das Spike-Protein ändert bei der Bindung einer Fettsäure seine Form - damit kann es nicht mehr an den ACE-2-Rezeptor der Wirtszelle andocken und es wird für das Immunsystem weniger sichtbar. Abbildung aus O. Staufer et al., [2] von Redn. eingefügt. Lizenz cc-by

Die Forscher haben ein Unternehmen, Halo Therapeutics, gegründet, um antivirale Pan-Coronavirus-Mittel zu entwickeln, basierend auf dem Tanz von Spikeprotein-Tasche mit den ACE-2-Rezeptoren auf menschlichen Zellen  – egal wo diese sich im Körpebefinden.

Fazit

Wenn wir also unsere Masken abnehmen und fröhlich zu einem Anschein von Normalität zurückkehren, dürfen wir nicht vergessen, dass SARS-CoV-2 immer noch überall da draußen lauert und sich ständig verändert.

Wir müssen für das nächste Mal bereit sein!

 

 


 [1] Kapil Gupta et al., Structural insights in cell-type specific evolution of intra-host diversity by SARS-CoV-2. Nature Comm. (2022) 13:222 https://doi.org/10.1038/s41467-021-27881-6
[2] Oskar Staufer et al., Synthetic virions reveal fatty acid-coupled adaptive immunogenicity of SARS-CoV-2 spike glycoprotein. Nature Comm. (2022) 13:868  https://doi.org/10.1038/s41467-022-28446-x 


* Der Artikel ist erstmals am 3.März 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "SARS-CoV-2 Pops Up, Mutated, Beyond the Respiratory Tract"

https://dnascience.plos.org/2022/03/03/sars-cov-2-pops-up-mutated-beyond-the-respiratory-tract/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Einige Überschriften und Abbildungen 1 und 3 plus Legenden wurden von der Redaktion eingefügt.

inge Fri, 11.03.2022 - 01:29

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Fr,04.03.2022 — Redaktion

RedaktionIcon Friede Ein Tsunami des Protests geht quer durch Russland und schwillt weiter an: Über 1,18 Millionen Russen - Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und, und, und... - haben bereits Petitionen gegen den Krieg mit der Ukraine unterschrieben und stündlich werden es um rund 900 mehr. Aufrufe, die wie nahezu alle Staaten der Welt den Krieg als ungerechtfertigt, schändlich und kriminell sehen, sind derzeit noch öffentlich einzusehen. Kann das neue Gesetz, das die Verbreitung angeblicher „Falschinformationen“ und Diskreditierung russischer Armeeangehöriger verbietet, den Protest der Russen zum Schweigen bringen?

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1: Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg).

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Ausblick

Eben melden unsere Medien, dass Moskau in Sachen Meinungsfreiheit im eigenen Land die Daumenschrauben weiter anzieht (https://orf.at/stories/3251037/ ). Das Parlament hat ein Gesetz auf den Weg gebracht, das die Verbreitung von „Falschinformationen“ über die Streitkräfte und deren Diskreditierung unter strenge Strafen stellt. Des weiteren wurde der Zugang zu social media wie Facebook und Twitter blockiert.

Kann dieses neue Gesetz den Protest der Russen zum Schweigen bringen?

inge Sat, 05.03.2022 - 01:04

Comments

Wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

* UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.*

-------------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

-------------------------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.

-------------------------------------------------

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Mo, 28.02.2022 — Redaktion

RedaktionIcon Friede In einem an die weltweite Öffentlichkeit gerichteten "offenem Brief" auf der Webseite https://trv-science.ru protestieren russische Wissenschaftler und Wissenschaftsjournalisten gegen die Invasion Russlands in der Ukraine: "Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen". Bei den meisten, der auf der Webseite ersichtlichen ersten rund 100 Unterzeichner handelt es sich um Top-Wissenschaftler des Landes (viele sind Physiker, Chemiker, Mathematiker, Biologen), die der Russischen Akademie der Wissenschaften angehören. Inzwischen haben bereits 7400 (Stand 4.3.2022; 12:50) Wissenschaftler und Journalisten den Brief unterzeichnet. Kann der Kreml einen Protest so vieler Spitzenwissenschaftler ignorieren? *

Ein offener Brief russischer Wissenschaftler und Wissenschaftsjournalisten gegen den Krieg mit der Ukraine

Wir russischen Wissenschaftler und Wissenschaftsjournalisten protestieren mit Nachdruck gegen die von den Streitkräften unseres Landes begonnene militärische Offensive auf dem Territorium der Ukraine. Dieser fatale Schritt führt zu enormen Verlusten an Menschenleben und untergräbt die Grundlagen des etablierten Systems der internationalen Sicherheit. Die Verantwortung für die Entfesselung eines neuen Krieges in Europa liegt ausschließlich bei Russland.

Abbildung 1: Der offene Brief der russischen Wissenschaftler und Wissenschaftsjournalisten im Faksimile. (Abgerufen am 28.2.2022)

Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Versuche, die Situation im Donbass als Vorwand für eine Militäroperation zu nutzen, sind nicht glaubwürdig. Es ist klar, dass die Ukraine keine Bedrohung für die Sicherheit unseres Landes darstellt. Der Krieg gegen sie ist unfair und offen gesagt sinnlos.

Die Ukraine war und ist ein uns nahestehendes Land. Viele von uns haben Verwandte, Freunde und wissenschaftliche Kollegen, die in der Ukraine leben. Unsere Väter, Großväter und Urgroßväter haben gemeinsam gegen den Nationalsozialismus gekämpft. Für die geopolitischen Ambitionen der Führung der Russischen Föderation einen Krieg zu entfesseln, angetrieben von dubiosen geschichtsphilosophischen Fantasien, ist ein zynischer Verrat an ihrem Andenken.

Wir respektieren die ukrainische Staatlichkeit, die auf tatsächlich funktionierenden demokratischen Institutionen ruht. Wir verstehen die Einstellung unserer Nachbarn zu Europa. Wir sind davon überzeugt, dass alle Probleme in den Beziehungen zwischen unseren Ländern friedlich gelöst werden können.

Mit der Entfesselung des Krieges hat sich Russland selbst zur internationalen Isolation verurteilt, zur Position eines Paria-Landes. Das bedeutet, dass wir Wissenschaftler unsere Arbeit nicht mehr in üblicher Weise erledigen können, denn wissenschaftliche Forschung ist ohne intensive Zusammenarbeit mit Kollegen aus anderen Ländern undenkbar. Die Isolierung Russlands von der Welt bedeutet einen weiteren kulturellen und technologischen Abbau unseres Landes bei völligem Fehlen von positiven Perspektiven. Der Krieg mit der Ukraine ist ein Schritt ins Nirgendwo.

Es ist bitter für uns festzustellen, dass unser Land zusammen mit anderen Republiken der ehemaligen UdSSR, die einen entscheidenden Beitrag zum Sieg über den Nationalsozialismus geleistet haben, nun zum Anstifter eines neuen Krieges auf dem europäischen Kontinent geworden ist.

Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen.

Wir fordern die Achtung der Souveränität und territorialen Integrität des ukrainischen Staates.

Wir fordern Frieden für unsere Länder.


* Der "offene Brief" der russischen Wissenschaftler ist am 24. Feber 2022 auf der Webseite https://trv-science.ru/2022/02/we-are-against-war/ erschienen. Der russische Text wurde mit Hilfe von google-Übersetzer und Wörterbüchern ins Deutsche übertragen.


Anmerkung der Redaktion

Herausgeber der Webseite "Troitzki-Variant-science"  https://trv-science.ru/ ist der Astrophysiker Boris Stern, Institute of Nuclear Research der Russischen Akademie der Wissenschaften.

trv-science ist auch auf facebook in russisch - deutsche Übersetzungen sind aber durchaus akzeptabel. Hier finden sich weitere Aufrufe zu Protesten gegen den Krieg mit der Ukraine https://www.facebook.com/trvscience/:

inge Mon, 28.02.2022 - 13:28

Comments

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Do, 17.02.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Auf adulten Stammzellen ruhen die Hoffnungen der regenerativen Medizin. Es sind dies Stammzellen, die auf ein bestimmtes Gewebe spezialisiert sind und für dessen Erneuerung, Reparatur und den Umbau sorgen. Durch geeignete Kulturbedingungen lassen sie sich in pluripotente Stammzellen reprogrammieren, die sich - wie embryonale Stammzellen - zu beliebigen Zelltypen weiterentwickeln können und mögliche "Ersatzteillager" für alte, defekte Gewebe darstellen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, führt uns auf eine Zeitreise, die von den ersten Erkenntnissen in der Genetik über die Kontrolle von Entwicklungsprozessen bis hin zur Entdeckung von Stammzellen, ihrer Reprogrammierung in beliebige Zelltypen und die Erzeugung organähnlicher Strukturen (Organoiden) führt.*

Eine Zeitreise, die im Jahr 1864 beginnt, zeigt, wie der Erkenntnisfortschritt in der Genetik funktioniert: Im Klostergarten des Augustinerstifts in Alt-Brünn führt der Mönch Johann Gregor Mendel Kreuzungsversuche u.a. mit Erbsen durch. Dabei stößt er auf Gesetzmäßigkeiten, nach denen bestimmte Merkmale von Generation zu Generation weitergegeben werden. Mendel schickt seine Arbeit an einen namhaften Biologen, der diese – wohl auch aus Abneigung gegen die Mathematik – mit ablehnendem Kommentar zurücksendet. 1865 wird der Aufsatz dann doch noch vom Brünner Naturforschenden Verein veröffentlicht, ohne jedoch größere Aufmerksamkeit zu erlangen. Erst ein Zufall bringt Mendels Arbeit im Jahr 1900 an die wissenschaftliche Öffentlichkeit.

Seither plagen sich ganze Schülergenerationen mit den Mendelschen Regeln – und der dazugehörigen Mathematik. Die Chromosomen, die an der Vererbung beteiligten Grundstrukturen, sind in den achtziger Jahren des 19. Jahrhunderts von Walter Fleming entdeckt und untersucht worden. Doch niemand ahnt zu diesem Zeitpunkt, dass sie mit der Vererbung zu tun haben könnten. Auch die Desoxyribonukleinsäure (DNA) in Zellkernen ist durch die Entdeckung von Friedrich Miescher bereits seit 1869 bekannt. Aber erst die wissenschaftlichen Fortschritte im 20. Jahrhundert lassen die Zusammenhänge sichtbar werden: das Zeitalter der Gene beginnt.

1907 startet Thomas Hunt Morgan Züchtungsversuche an der Taufliege Drosophila. Morgan gelingt es zu zeigen, dass Gene, die sich entlang der Chromosomen aneinanderreihen, die Träger der Vererbung sind. Die Natur dieser „Gene“ ist zu diesem Zeitpunkt jedoch noch vollkommen unklar. Es dauert fast vierzig Jahre, bis der US-Amerikaner Oswald Avery nachweisen kann, dass die Weitergabe erblicher Information von einem Bakterien-Stamm auf einen anderen auf der Übertragung von DNA beruht. 1953 entwickeln James Watson und Francis Crick das Doppelhelix-Modell der DNA, bei dem sich zwei DNA-Fadenmoleküle schrauben förmig umeinanderwinden mit den Basenpaaren in der Mitte. Dieses Modell ist der Schlüssel zum Verständnis des genetischen Codes und bedeutet den Durchbruch für die genetische Forschung. Zusammen mit Maurice Wilkins erhalten die beiden Wissenschaftler dafür 1962 den Nobelpreis für Medizin.

Es hat also fast hundert Jahre gedauert, um die verschiedenen Puzzleteile zusammenzufügen. Wir wissen jetzt, dass die DNA die Basen Adenin, Thymin, Guanin und Cytosin enthält. Die Reihenfolge der Basen bedingt in verschlüsselter Form die Zusammensetzung der Proteine: Jeweils drei Basen der DNA bestimmen eine Aminosäure im Protein. Insgesamt kennt man zwanzig verschiedene Aminosäuren, die sich im menschlichen Körper zu Tausenden von Proteinen zusammenbauen lassen.

Die Suche nach dem Fehler

Proteine stellen die eigentlichen Bau- und Wirkstoffe der Zellen dar – sie bedingen am Ende die Eigenschaften, die das Leben ausmachen. Gene machen ihren Einfluss geltend, indem sie kontrollieren, welche Proteine zu welchem Zeitpunkt und an welchem Ort hergestellt werden. Sie steuern damit Zellverhalten und Entwicklung, das heißt, wie Zellen auf geordnete Weise verschieden werden.

Wie das genau funktioniert, wollen Ende der 1970er Jahre Christiane Nüsslein-Volhard und Eric Wieschaus am Europäischen Laboratorium für Molekularbiologie (EMBL) in Heidelberg herausfinden. Systematisch suchen sie nach mutierten Genen, die auf die embryonale Entwicklung der Taufliege Drosophila einwirken. In umfangreichen Screenings erforschen sie die Nachkommenschaft Tausender einzelner Fliegen (Abbildung 1) unter dem Mikroskop, eine Sisyphus-Arbeit.

Abbildung 1: Der Schlüssel zum Verstehen. Eine der interessantesten Quellen zum Verständnis des menschlichen Genoms bietet der Vergleich mit dem Genom von Modellorganismen wie der Taufliege. Die Funktionen vieler Gene sind bei Drosophila nämlich aufgrund von Experimenten bekannt. © Pavel Masek

Sie finden Fliegen, die an beiden Körperenden einen Kopf aufweisen, denen Brust- und Hinterleibssegmente fehlen oder die anstelle der Fühler ein Beinpaar auf dem Kopf tragen. Die Defekte lassen sich in drei Kategorien einteilen: sie beeinflussen entweder die Polarität, also die Ausrichtung des Embryos, seine Segmentierung oder die Positionierung von Strukturen innerhalb eines Segments. Die dreiteilige Klassifikation der Gene könnte, so die Hypothese, die schrittweise Verfeinerung des Körperbauplans in der frühen Embryogenese widerspiegeln. Bei ihren Arbeiten können sich die beiden Entwicklungsbiologen nur auf die beschreibende Analyse von Phänotypen stützen. Erst die molekularbiologischen Methoden der Genklonierung in den späten 1980er Jahren ermöglichen die Charakterisierung vieler Entwicklungsmutanten auf Molekülebene und erbringen schließlich den eindeutigen Beweis für die Richtigkeit der Hypothese. Ihre Ergebnisse markieren einen Wendepunkt in der Embryologie und werden deshalb 1995 mit dem Nobelpreis für Medizin ausgezeichnet.

Alles unter Kontrolle

Inzwischen sind etwa 150 entwicklungsregulierende Gene beschrieben worden, die die grobe Morphologie von Drosophila beeinflussen. Viele der Gene kodieren für sogenannte Transkriptionsfaktoren. Sie besitzen die Fähigkeit, im Zellkern an die DNA zu binden und so Gene an- oder abzuschalten. Auf diese Weise steuern Transkriptionsfaktoren die Produktion von Proteinen in der Zelle, die diese für die Wahrnehmung ihrer spezifischen Aufgaben benötigt. Nun ist nicht anzunehmen, dass die kleine Taufliege ein Patent für diesen Mechanismus der Entwicklungskontrolle besitzt. Forschende haben deshalb auch im Erbgut anderer Organismen nach Entwicklungskontrollgenen gefahndet: Im Genom von Wirbeltieren stoßen sie auf Sequenzbereiche, deren Sequenzen deckungsgleich mit den Entwicklungsgenen von Drosophila sind. Aus dieser strukturellen Homologie lässt sich aber nicht unmittelbar auch auf eine funktionelle Homologie schließen; denn entwicklungsgeschichtlich gesehen ist Drosophila ein Oldtimer. Die homologen Sequenzen könnten, obgleich noch strukturell bewahrt, ihre ursprüngliche Bedeutung längst verloren haben.

In einem Schlüsselexperiment können Peter Gruss und sein Team am Max-Planck-Institut für biophysikalische Chemie in Göttingen zeigen, dass Entwicklungskontrollgene von Drosophila auch bei der Maus funktionieren. Die molekularen Steuerungsmechanismen sind also über mehr als 600 Millionen Jahre der Evolution erhalten geblieben. Die Untersuchung von Genen mit Homologie zu Drosophila-Genen wird in den neunziger Jahren des 20. Jahrhunderts einer der erfolgreichsten Ansätze, um auch die Kontrolle der Entwicklung bei Wirbeltieren auf genetischem Niveau zu verstehen. Eine Voraussetzung für diese wegweisenden Experimente war die erfolgreiche Gewinnung und Kultivierung embryonaler Stammzellen bei der Maus.

Toti-, Pluri- und Multi-Talente

Was sind Stammzellen?

Abhängig von der Säugetierart können bis zum 8-Zellstadium (nach drei Zellteilungen) die aus einer befruchteten Eizelle hervorgegangenen Tochterzellen, jede für sich alleine einen kompletten Organismus aufbauen. Sie sind totipotent. Zu späteren Stadien geht diese Fähigkeit jedoch allmählich verloren. Im sogenannten Blastozysten-Stadium besteht die innere Zellmasse, der Embryonalknoten, aus pluripotenten Stammzellen. Diese sind zwar nicht mehr totipotent, ihr Differenzierungspotenzial ist jedoch nach wie vor sehr groß. Aus diesen Vielkönnern entstehen im Verlauf der weiteren Embryonalentwicklung nämlich alle im Organismus benötigten Zelltypen. Aus dem Embryonalknoten lassen sich embryonale Stammzellen gewinnen. So werden pluripotente Stammzellen genannt, die als Zelllinie im Labor wachsen. Wie die pluripotenten Stammzellen in der Blastozyste können diese auch in der Kulturschale durch Zugabe bestimmter Wachstumsfaktoren alle Zelltypen des Körpers bilden.

Darüber hinaus finden sich in vielen Geweben des ausgewachsenen Organismus adulte Stammzellen. Sie sorgen für den gewebespezifischen Ersatz von ausgefallenen Zellen. So wird beispielsweise die Haut alle 28 Tage einmal „runderneuert“ – was nach einem Sonnenbrand durchaus hilfreich ist. Im Blut werden innerhalb von 24 Stunden mehrere Milliarden Zellen durch neue ersetzt und auch Muskelgewebe wird, beispielsweise nach Muskelabbau infolge eines Beinbruchs, regeneriert. Das Entwicklungspotenzial dieser Stammzellen gilt aber als eingeschränkt und man bezeichnet sie daher, je nachdem wie stark ihr Potential eingeschränkt ist, als multi- bzw. unipotent.

Streit um Stammzellen

1998 gelingt es dem US-Amerikaner James Thomson und seinem Team erstmals, auch aus menschlichen Embryonen pluripotente Stammzellen zu isolieren und durch Zugabe bestimmter Substanzen zum Nährmedium ihre weitere Ausdifferenzierung in Laborkultur zu verhindern. Über viele Jahre hinweg können so humane embryonale Stammzellen (hES) kultiviert werden und dabei ihre Pluripotenz erhalten, also ihre Fähigkeit, sich in eine Vielzahl von Zelltypen weiterzuentwickeln. Diese Ergebnisse nähren die Hoffnung, dass es gelingen könnte, beschädigte Gewebe mit Hilfe von Stammzellen zu ersetzen und somit Krankheiten wie Schlaganfall, Parkinson, Alzheimer, Osteoporose, Herzinfarkt oder Diabetes zu behandeln.

An einer Ausweitung der Forschung mit menschlichen embryonalen Stammzellen entzündet sich Ende der 1990er Jahre jedoch eine heftige Debatte. Ethisch umstritten ist vor allem die Herstellung der Zelllinien: Menschliche embryonale Stammzellen werden aus überzähligen Embryonen gewonnen, die im Rahmen von künstlichen Befruchtungen entstanden sind. In Deutschland ist die Gewinnung embryonaler Stammzellen aus menschlichen Embryonen verboten. Das 2001 beschlossene Stammzellgesetz erlaubt jedoch die Einfuhr und Verwendung solcher Stammzellen zu genehmigungspflichtigen Forschungszwecken. Mit der im Frühjahr 2008 beschlossenen Gesetzesnovelle wurde der Stichtag bezüglich der Herstellung humaner embryonaler Stammzelllinien verschoben. Seitdem dürfen nur solche Linien importiert werden, die vor dem 1. Mai 2007 gewonnen wurden.

A(du)lte Zellen reprogrammiert

Doch Wissenschaft steht nicht still und schickt sich an, auch als unverrückbar geglaubte Dogmen zu stürzen und so ganz neue Optionen zu eröffnen: 2006 gelingt es dem Japaner Shinya Yamanaka und seinem Team an der Universität Kyoto, Hautzellen einer Maus so umzuprogrammieren, dass sie sich wie embryonale Stammzellen verhalten. Ein Jahr später schaffen sie dieses Kunststück auch mit menschlichen Zellen – und kippen damit endgültig das uralte Dogma der Biologie, wonach spezialisierte Zellen nicht wieder in eine ursprüngliche Zelle umgewandelt werden können. Um die begehrten Multitalente zu erzeugen, haben die Japaner mithilfe viraler Genfähren vier Transkriptionsfaktoren mit den kryptischen Kürzeln Oct4, Sox2, Klf4 und cMyc in die Zellen eingeschleust – also jene entwicklungsregulierenden Gene, denen die Forscher schon länger auf der Spur sind. Die so entstandenen Zellen werden als induzierte pluripotente Stammzellen, kurz iPS bezeichnet (Abbildung 2). Weltweit gilt dies als detektivische Meisterleistung. Schließlich wusste bis dahin niemand, ob und wenn ja, mit welchen Faktoren sich eine Zelle überhaupt reprogrammieren lässt. 24 Kandidaten in allen erdenklichen Kombinationen testeten die Japaner, bis sie die richtige Kombination von vier Faktoren – salopp auch als Yamanaka-Cocktail bezeichnet – gefunden hatten, mit der genau jene Gene angeschaltet und abgelesen werden, die zur Pluripotenz führen. Für diesen wissenschaftlichen Durchbruch erhält Shinya Yamanaka bereits sechs Jahre später, im Jahre 2012, den Nobelpreis für Medizin.

Abbildung2: Vom Spezialisten zum Alleskönner. Die Zugabe von vier Wachstumsfaktoren reicht aus, um aus Körperzellen wieder Alleskönner-Zellen zu machen. Diese pluripotenten Stammzellen sind in der Lage, sich zu einem beliebigen Zelltyp weiterzuentwickeln. © University of Utah

2009 gelingt es dem Team um Hans Schöler, Direktor am Max-Planck-Institut für molekulare Biomedizin in Münster, adulte Stammzellen aus dem Gehirn von Mäusen durch Zufügen eines einzigen Transkriptionsfaktors, des Oct4, in induzierte pluripotente Stammzellen (iPS-Zellen) umzuwandeln – sie brauchen lediglich etwas mehr Geduld, bis der Prozess der Reprogrammierung abgeschlossen ist. Oct4 scheint dabei eine Schlüsselrolle zu spielen: „Das Gen ist in allen pluripotenten Zellen des Embryos aktiv“, sagt Schöler. Dabei regulieren sich Oct4, Sox2 und zahlreiche andere Gene bzw. Proteine gegenseitig. Wie genau, wird immer noch in zahlreichen Laboren untersucht. Und wie so oft sind die Zusammenhänge komplizierter als ursprünglich gedacht. So haben Schöler und sein Team inzwischen herausgefunden hat, dass Oct4 für die ersten einleitenden Schritte von Pluripotenz gar nicht benötigt wird – weder in der sich entwickelnden Maus noch bei der Reprogrammierung. Ohne Oct4 ist Pluripotenz allerdings auch nicht möglich: „Es wird dann essenziell, wenn die Pluripotenz von Zellen aufrechterhalten werden muss“, erklärt Schöler.

Ersatzteillager bald praxistauglich?

Die Reprogrammierung von menschlichen Körperzellen zu humanen iPS-Zellen (hiPS) stellt nicht nur einen Durchbruch für die Forschung dar, sondern hat auch die teilweise sehr erhitzte Debatte um embryonale Stammzellen beruhigt. Dazu kommt, dass die Reprogrammierungs-Technik durch weitere Forschungen in rasantem Tempo praxisfreundlicher wird.

So gelang es dem Max-Planck-Team zusammen mit kalifornischen Wissenschaftlerinnen und Wissenschaftlern Zellen ohne virale Gen-Fähren in iPS-Zellen umzuwandeln. Dazu schleusten sie die entsprechenden Proteine direkt in die Hautzellen von Mäusen ein. „Das ist nicht trivial, denn zumindest im molekularen Maßstab sind Proteine extrem groß“, so Schöler. Doch ein Trick half: Sie koppelten eine kleine Kette aus Bausteinen der Aminosäure Arginin an die zuvor eigens in Bakterien hergestellten Proteine. Dieses molekulare Zugangsticket erleichtert deren Eintritt in die Zellen.

Die Zugabe der Proteine birgt nach heutigen Kenntnissen kein Risiko – auch weil sie im Inneren der Zelle recht schnell abgebaut werden. „piPS-Zellen“ haben die Forscher ihre neuen Kreationen getauft: Protein induzierte pluripotente Stammzellen. Inzwischen haben andere Labore auch Verfahren entwickelt, die die chemische Reprogrammierung von iPS-Zellen („ciPS-Zellen“) erlauben. Vor dem Hintergrund einer therapeutischen Anwendung am Menschen scheint damit eines der Kernprobleme der Zell-Reprogrammierung gelöst. „Wir haben jetzt den Fuß in der Tür, aber die Verfahren müssen noch wesentlich effizienter werden“, betont Schöler. Die Hoffnung der Forschenden ist zumindest rein technisch gesehen nicht mehr utopisch:

      Sie wollen Patienten mit Herzinfarkt, Diabetes, Parkinson oder anderen Erkrankungen eines Tages Zellen entnehmen, sie in iPS-Zellen umprogrammieren und diese dann wiederum in die gewünschten Zelltypen umwandeln, um das kranke oder verletzte Gewebe durch frische und vitale Zellen zu ersetzen. Damit gäbe es dann endlich das gewünschte Ersatzteillager aus Zellen, die vom Patienten selbst stammen und von seinem Immunsystem nicht abgestoßen werden.

Tatsächlich hat die US-Gesundheitsbehörde FDA mittlerweile grünes Licht für den Start einer klinische Phase-I-Studie gegeben, die aus pluripotenten Stammzellen gewonnene Dopamin-Neurone für die Behandlung der fortgeschrittenen Parkinson-Krankheit nutzen will.

Der Jungbrunnen – ein Menschheitstraum

Abbildung3: Organ-Modelle der Zukunft. Gehirn-Organoide in der Petrischale. Mit zunehmenden Alter wird die Komplexität der Organoide größer. Zu Beginn bestehen sie aus neuralen Stamm- und Vorläuferzellen. Nach 70 Tagen dominieren reife und junge Nervenzellen sowie Gliazellen. © T. Rauen, MPI für molekulare Biomedizin

Inzwischen denken Wissenschaftlerinnen und Wissenschaftler darüber nach, wie man Zellen direkt im Körper reprogrammieren kann. Gerade der Verlust an Stammzellen im gealterten Körper macht solche Überlegungen attraktiv. Wie schön und gesundheitlich wichtig wäre es, wenn man im Alter noch genug Kraft in den Armen und Beinen hätte. Als Modellsystem nutzen Forscher u.a. sogenannte menschliche Organoide, das sind aus Stammzellen abgeleitete Organ-ähnliche Strukturen (Abbildung 3).

Das Team um Hans Schöler setzt beispielsweise Gehirnorganoide ein, um einerseits Medikamente gegen Parkinson zu finden, andererseits um Verfahren der „Zellverjüngung“ direkt im Körper zu entwickeln. Ein wichtiges Hilfsmittel dazu ist das von ihnen im Jahr 2020 publizierte vollautomatisierte Verfahren der Organoid-Züchtung. Die uralte Vision eines „Jungbrunnens“ könnte so vielleicht doch noch Wirklichkeit werden.


 *Der Artikel ist erstmals unter dem Titel: "Der Griff nach den Genen. Wie sich Zellen neu programmieren lassen" https://www.max-wissen.de/max-hefte/biomax-10-stammzellen/ in BIOMAX Ausgabe 10, Neuauflage Herbst 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links


Stammzellen in ScienceBlog.at:

inge Thu, 17.02.2022 - 12:38

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Sa 12.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Wesentliche Fragen zu Übertragung und Verlauf der Infektion mit SARS-CoV-2 konnten bislang nicht geklärt werden. Aus der ethisch umstrittenen britischen Challenge-Studie konnten erstmals konkrete Aussagen über den gesamten Verlauf der Infektion, insbesondere über deren frühe Phasen und Infektiosität getroffen werden, die in die Überlegungen zu verbesserten Teststrategien einfließen sollten. In dieser Studie wurden 34 junge, gesunde Probanden mit einer sehr niedrigen Dosis des Coronavirus (einer "prä-alpha" Variante) inokuliert, wovon 18 Probanden eine Infektion davontrugen, die zu vorübergehenden, leichten bis mittelschweren Symptomen führte. Es zeigte sich, dass früher als bisher angenommen (aktives) Virus im Rachenraum und dann in den Nasenhöhlen detektierbar wird und damit die Infektiosität - für die ein Nasentröpfchen reicht - früher als erwartet einsetzen kann, dass es sehr schnell zu einem sehr hohen Anstieg der Viruslast vor allem in der Nase kommt und Symptome offensichtlich nicht direkt mit der Viruslast korreliert sind. Besonders erwähnenswert: Die Infektion führt bei einem hohen Anteil auch junger, gesunder Menschen zu (sehr) lang anhaltenden Beeinträchtigungen des Geruchsinns: In dieser Studie waren zwei Drittel der Infizierten davon betroffen.

Nach nunmehr 2 Jahren Corona-Pandemie mit nahezu 400 Millionen Infizierten, über 5,7 Millionen an/mit COVID-19 Verstorbenen und einem bisher nie dagewesenen globalen Forschungsaufwand, der uns neuartige, hochwirksame Vakzinen und wirksame antivirale Medikamente bescherte, sind wesentliche Fragen zu Übertragung und Verlauf der Infektion bislang ungeklärt geblieben. Eine sogenannte Human-Challenge-Studie sollte hier Einblick schaffen, d.i. eine Studie, bei der gesunde Menschen gezielt dem Virus ausgesetzt werden, um Zeitverlauf (die Kinetik) der Infektion, Viruslast, Infektiosität und Krankheitssymptome quantitativ erfassen zu können. In weiterer Folge lässt sich dann untersuchen, wieweit eine Infektion durch Impfstoffe oder Medikamente unterdrückt werden kann. Mit einer relativ kleinen Zahl an Studienteilnehmern kann so zeit-und kostensparend zwischen potentiellen Vakzinen/Medikamenten selektiert und optimiert werden. Die erste derartige Challenge Studie mit SARS-CoV-2 startete im März 2021 in Großbritannien, ihre (vorläufigen) Ergebnisse wurden vorige Woche auf einem preprint Server von Springer Nature publiziert (sind also noch nicht peer-reviewed) [1].

Ethische pros und cons

Human-Challenge-Studien konnten bereits in der Vergangenheit die Entwicklung von Therapien in anderen Infektionskrankheiten, wie Typhus, Cholera, Malaria und Influenza wesentlich vorantreiben [2] - als ältestes Beispiel kann wohl die Geburtsstunde der Vakzinologie - die 1798 von Edward Jenner durchgeführte Impfung mit Kuhpocken - gesehen werden, die schlussendlich zur Ausrottung der Pocken führte. Solche Studien werden heute vom ethischen Standpunkte aus kontrovers diskutiert: einem für die öffentliche Gesundheit äußerst wertvollen Erkenntnisgewinn steht das vielleicht sehr hohes Risiko gegenüber gesunde freiwillige Probanden schwerkrank zu machen. Dabei werden freilich Erinnerungen an verbrecherische Untersuchungen auch aus jüngerer Zeit wach, die an Personen ohne deren Information und Einverständnis stattfanden - Häftlinge, Kriegsgefangene, aber auch geistig zurückgebliebene Patienten in psychiatrischen Anstalten waren die bedauernswerten Opfer.

Auch im Vorfeld der Human Challenge Studien mit SARS-CoV-2 hat es ernste Bedenken gegeben, beispielsweise hat John Mascola, Direktor am NIH-Vaccine Research Center (VRC), im Juli 2020 dazu geäußert: "Für Challenge-Studien wäre es vorzuziehen, eine sehr wirksame Behandlung mit synthetischen Arzneimitteln oder Antikörpern zur Hand zu haben. Wenn jemand krank wird, kann man sehr schnell mit den Behandlungen gegen die Infektion beginnen. Wir haben keine kurativen Behandlungen, daher sind wir derzeit noch nicht für COVID-19-Challenge-Studien gerüstet"[3].

Tatsächlich war damals erst eine einzige antivirale Substanz - Remdesivir - zur Behandlung zugelassen, die sich später in zahlreichen Studien allerdings als wenig bis völlig unwirksam herausstellen sollte (so auch in der Challenge-Studie, s. Abbildung 2). Ab Dezember 2020 stand dann auch ein Antikörpercocktail von Regeneron zur Verfügung, der vor schweren Krankheitsverläufen schützen sollte (auch Präsident Trump wurde damit behandelt).

Die britische Challenge-Studie

Bereits im Oktober 2020 kündigte ein britisches Forscherteam die erste Human-Challenge-Studie mit dem Coronavirus an. Das Versuchsprotokoll sah eine streng kontrollierte klinische Untersuchung unter Quarantänebedingungen an jungen gesunden Freiwilligen vor, die mit einer definierten niedrigen Dosis eines gut charakterisierten Virus infiziert werden sollten. Die Ethikkommission der UK Health Research Behörde genehmigte im Feber 2021 die den internationalen Ethikrichtlinien (incl. der Helsinki-Deklaration) genügende Studie und diese startete im März 2021, finanziert von der britischen Regierung mit rund 40 Millionen €. Unter der Leitung des Imperial College London waren mehrere britische Forschungsinstitutionen daran beteiligt, in Partnerschaft mit dem kommerziellen Unternehmer hVIVO Services Ltd.(Teil von Open Orphan), der weltweit als Pionier und führender Experte für das Testen von Impfstoffen und antiviralen Medikamenten in Human Challenge-Studien gilt.

Das Interesse an der Studie war groß, nahezu 30 000 Personen registrierten sich als potentielle Teilnehmer; von diesen wurden in einem Screening-Verfahren 34 junge, gesunde Personen (26 Männer, 8 Frauen) im Alter von 18 - 29 Jahren ausgewählt; diese hatten noch keine SARS-CoV-2 Infektion hinter sich und waren auch nicht dagegen geimpft. Das Design der Studie ist in Abbildung 1 skizziert

Abbildung 1: Design der klinischen Challenge Studie. Bild aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Bereits 2 Tage vor der Infektion mit dem Virus bezogen die Freiwilligen Einzelzimmer mit 24stündiger medizinischer Überwachung in der Quarantänestation des Royal Free London NHS Foundation Trust. Die Inokulation mit dem Virus erfolgte in die Nasenhöhle mit einem Tröpfchen der niedrigsten noch quantifizierbaren Dosis einer Variante, die noch weitgehend dem ursprünglichen Wildtyp entsprach ("prä-Alpha-Variante). Täglich zweimal entnommene Nasen-und Rachenabstriche (in jeweils 3 ml Medium) ermöglichten Infektionsverlauf und Viruslast zu bestimmen. Auftretende Symptome haben die Probanden 3 x täglich in einem Tagebuch notiert. Zur Sicherheit der Probanden wurden tägliche Bluttests, Lungenfunktionstests, Tests auf diverse klinische Parameter, EKGs und Thorax-CTs durchgeführt. Beeinträchtigungen des Geruchsinns wurden mittels des von der University of Pennsylvania entwickelten Smell Identification Tests (UPSITs) festgestellt. Die Probanden blieben mindesten 14 Tage nach Inokulation in Quarantäne und wurden erst entlassen, wenn an 2 aufeinanderfolgenden Tagen kein Virus in den Nasen-/Rachen-Abstrichen mehr nachweisbar war. Weitere Tests erfolgten nach 28 Tagen und sollen auch noch nach einem Jahr stattfinden.

Als Kompensation für die Teilnahme an der Studie wurden 4500 Pfund pro Proband vorgesehen.

Der Infektionsverlauf

Erstmals konnte ein Einblick in die Anfangsphase der Infektion gewonnen werden, d.i. wie lang es nach dem definierten Zeitpunkt der Inokulation dauert bis Virusausscheidung detektierbar wird, Infektiosität eintritt (Latenzzeit) wie schnell und wie hoch die Virenlast ansteigt und wann es zu Symptomen kommt (Inkubationszeit).

Abbildung 2: Zeitverlauf der Viruslast in Nasen-und Rachenabstrichen. Oben: Bestimmung der Viruslast mittels PCR-Test in Kopien des Nucleocapsid-Gens/ml (blau) und mittels Test auf funktionelles Virus in Kultur in Foci-bildenden Einheiten (FFU)/ml (rot). Unten: Die präventiv verabreichte antivirale Substanz Remdesivir (blau) kann weder die Viruslast reduzieren noch den Zeitverlauf beeinflussen. Die Viruslast ist logarithmisch dargestellt in Form von Mittelwerten+/- Standardabweichung. Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Das niederdosierte Inokulum des vermehrungsfähigen Virus (5,5 Mio Kopien/ml, 55 FFU/ml) führte bei 18 der 34 Probanden zur Infektion (das entsprach der angepeilten Inzidenz von 50 %). Bereits früher als man bislang angenommen hat, wurde Virusausscheidung in Nase und Rachen detektierbar: mittels PCR-Test (auf das Nucleocapsid-Gen) und auch mittels des Foci-Forming Tests in Zellkultur auf aktives Virus wurde die Viruslast im Rachen bereits nach 40 Stunden, in der Nase nach 58 Stunden nachgewiesen. Die Virusmengen stiegen dann rasant an, erreichten einen Maximalwert im Rachen von im Mittel 65 Mio Kopien/ml (800 FFU/ml) nach rund 4,7 Tagen und einen um eine Größenordnung höheren Wert von 750 Mio Kopien/ml (8000 FFU/ml) in der Nase nach 6,2 Tagen. Abbildung 2.

Auch der weitere Infektionsverlauf brachte eine neue Erkenntnis: Die Virusausscheidung klang nur langsam ab - auch 14 Tage nach Inokulation war bei allen Infizierten das Virus noch quantifizierbar, sodass bis zur fehlenden Detektierbarkeit die Quarantäne noch bis zu 5 Tage länger andauern musste.

Remdesivir erweist sich als wirkungslos

In der Hoffnung mit dem antiviralen Medikament Remdesivir den Infektionsverlauf beeinflussen zu können, wurden 10 Teilnehmer präventiv - sobald das Virus in den Abstrichen detektierbar wurde - über 5 Tage mit täglich 200 mg der Substanz behandelt. Weder der Zeitverlauf noch die Höhe der Viruslast zeigten einen Unterschied zu den nicht mit Remdesivir Behandelten (Abbildung 2). Auch hinsichtlich der Symptome gab es keinen Unterschied.

Bildung von Antikörpern

In allen infizierten Probanden hat das Immunsystem mit der Bildung von Virus-neutralisierenden - also vor der Vermehrung des Virus schützenden - Antikörpern geantwortet. Gesamt gesehen stieg deren Serumspiegel in den ersten beiden Wochen nach Infektion rasch an, um sich dann bis zum 28. Tag nur mehr zu verdoppeln. Abbildung 3. Speziell gegen das Spikeprotein, mit dem das Virus an unsere Zellen andockt, entstanden Antikörper wesentlich langsamer und zeigten dabei große individuelle Unterschiede im Zeitverlauf. Im Mittel erfolgte dann zwischen 14. und 28. Tag nach Infektion ein Anstieg der Spikeprotein- Antikörper auf das 10-fache.

Abbildung 3: Neutralisierende Antikörper (links, gemessen im Serum mittels Mikroneutralisationstest; NT50: Verdünnung des Serums bei der die Virusvermehrung in der Zellkultur um 50 % reduziert wird) und Antikörper speziell gegen das virale Spikeprotein (rechts). Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Symptome

Von den 18 Infizierten entwickelten 16 Symptome, die sich 2 - 4 Tage nach Infektion bemerkbar machten. Es gab keine schweren Erkrankungen, keine Veränderungen der Lunge. Der Antikörpercocktail (Regeneron), der zur Behandlung schwerer Fälle hätte dienen können, brauchte nicht eingesetzt werden.

Trotz der stark ansteigenden, sehr hohe Titer erreichenden Virusausscheidung in Nase und Rachen, waren die Symptome leicht bis mittelschwer und zum überwiegenden Teil Erkältungssymptomen ähnlich. Sie betrafen vor allem den oberen Atmungstrakt - verstopfte/rinnende Nase, trockene Kehle - waren aber auch systemisch - Fieber, Muskel-/Gelenksschmerzen, Kopfschmerzen - anzutreffen. Abbildung 4 (rechts).

Ein für COVID-19 charakteristisches Symptom ist die Beeinträchtigung des Geruchsinns. Diese trat bei zwei Drittel (12/18) der infizierten Probanden (nicht aber bei den Nichtinfizierten) auf, bei 9 davon (50 %) kam es zu völligem Riechverlust. Riechminderung/Riechverlust setzte wesentlich später ein als die anderen Symptome und blieb auch länger bestehen (Abbildung 4, lila Kurve). Am Tag 28 berichteten noch 11 Probanden über Beeinträchtigungen, nach 90 Tagen waren es 4 und 5 nach 180 Tagen (Table 1, [1]).

Nach Ablauf eines Jahres sollen die Probanden nochmals auf potentielle Langzeitfolgen der Infektion untersucht werden.

Abbildung 4: Die Infektion mit SARS-CoV-2 hat zu häufigen milden, bis mittelschweren Symptomen geführt, die mit dem Zeitverlauf nicht aber mit der Höhe der Viruslast in Nase und Rachen (siehe Abbildung 2) korrelieren . Dies ist insbesondere für den sehr häufig auftretenden Riechverlust der Fall. Links: Gesamtscore der Symptome der Infizierten (rot), Riechverlust (lila, gemessen mittels University of Pennsylvania Smell Identification Tests - UPSIT). Gesamtscore der Symptome der Nichtinfizierten (schwarz). Bild aus Ben Killingley et al.,[1]. Lizenz cc-by 4.0.

Ausblick

 

Die Challenge-Studie hat gezeigt, dass ein sehr niedriges, gerade noch quantifizierbares Inokulum des aktiven Virus ausreicht, um eine Infektion hervorzurufen. Derartig niedrige Virusmengen können bereits in frühen Infektionsphasen in einem einzigen Nasentröpfchen, in einem Atemlufttröpfchen vorhanden sein, Infizierte früher als angenommen ansteckend sein. (Demzufolge erweist sich wiederum die Mund-Nasenmaske als besonders wirksame Schutzmöglichkeit) Eine wesentliche Frage ist, warum einige Menschen angesteckt werden und andere nicht. Um herauszufinden, welche Faktoren Schutz bieten können, wertet das Forscherteam der Challenge-Studie eine Fülle weiterer Ergebnisse aus, analysiert lokale und systemische immunologische Marker, darunter mögliche kreuzreaktive Antikörper, T-Zellen und lösliche Mediatoren (Cytokine) und molekularbiologische Parameter wie Genexpression.

In Hinblick auf sogenannte Impfdurchbrüche will das Forscherteam in weiteren Challenge-Studien vormals infizierte und geimpfte Probanden mit steigenden Dosierungen des Wildtyps und/oder mit anderen Virusvarianten zu inokulieren, um herauszufinden, welche Faktoren zu einem klinischen Befund führen.

In Zukunft können Challenge-Studien eine Plattform bieten, um im frühen Entwicklungsstadium schnell und effizient antivirale Entwicklungssubstanzen, Impfstoffkandidaten und Diagnostika auf Eignung zu testen und Studien zu vermeiden, die auf einer kontinuierlichen Übertragung der Infektion in der Gemeinschaft beruhen.

-----------------------------------------

Nachsatz (I.S.)

Mit Ausnahme des gestörten Riechsinns hat die Challenge-Studie rasch vorübergehende leichte bis mittelschwere Symptome hervorgerufen. Minderung bis hin zum Verlust des Riechsinn, von dem 2/3 der Infizierten betroffen war, gehört zu dem sehr häufig auftretenden, noch weithin unverstandenen Kranheitsbild von long-COVID, das eine erhebliche Reduzierung der Lebensqualität mit sich bringt [4]. Weitere Challenge-Studien, vor allem auch mit aggressiveren Virus-Varianten, sollten erst starten, wenn man in der Lage ist die langzeitigen negativen Folgen für die jungen, geunden Probanden zu minimieren.


[1] Ben Killingley et al., Safety, tolerability and viral kinetics during SARSCoV-2 human challenge. (posted 1. Feb. 2022) https://doi.org/10.21203/rs.3.rs-1121993/v1

[2] Euzebiusz Jamrozik and Michael J. Selgelid: History of Human Challenge Studies. Human Challenge Studies in Endemic Settings . 2021 : 9–23. doi:10.1007/978-3-030-41480-1_2

[3] Francis S. Collins. 16.07.2020: Fortschritte auf dem Weg zu einem sicheren und wirksamen Coronaimpfstoff - Gepräch mit dem Leiter der NIH-COVID-19 Vakzine Entwicklung

[4] Inge Schuster, 7.1.2022:Was ist long-COVID?


Artikel in ScienceBlog.at

Zu COVID19 sind bis jetzt 42 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren


inge Sat, 12.02.2022 - 13:47

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

Sa. 05.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Zum 100. Geburtstag von Vitamin D ist eine klinisch überaus bedeutsame Wirkung von Vitamin D nachgewiesen worden. In einer Begleitstudie zur 5 Jahre dauernden, randomisierten, doppelblinden, Placebo-kontrollierten VITAL-Studie mit 25.871 Teilnehmern konnte erstmals gezeigt werden, dass Supplementierung mit Vitamin D vor Autoimmunerkrankungen schützt. Diese zu den häufigsten Erkrankungen zählenden Defekte sind derzeit unheilbar und können die Lebensqualität enorm beeinträchtigen. Die Prävention mit dem billigen, ungefährlichen und chemisch stabilen Vitamin D bietet einen neuen Zugang zur Bewältigung von Autoimmundefekten.

Ein kurzer Rückblick

Vor 100 Jahren wurde die antirachitische Wirkung einer Komponente - des sogenannten Vitamin D - im Lebertran entdeckt (Abbildung 1). Etwa zeitgleich konnte gezeigt werden, dass die schwere, auf eine gestörte Mineralisation der Knochen zurückzuführende Erkrankung durch Bestrahlung mit UV-Licht verhindert und geheilt werden kann. Auch hier wird die Wirkung durch Vitamin D hervorgerufen: dieses entsteht in der Haut aus der unmittelbaren Vorstufe des Steroidmoleküls Cholesterin durch UV-Licht, wie es auch im Sonnenlicht enthalten ist.

Abbildung 1: Vor 100 Jahren hat der amerikanische Biochemiker Elmer McCollum die antirachitische Wirkung einer im Lebertran enthaltenen Substanz beschrieben, die er als Vitamin D bezeichnete (Screenshot aus J.Biol. Chem 53: 293-312 (1922),cc-by-Lizenz)

Vitamin D ist Vorstufe zu einem Hormon mit diversen Funktionen

Das vom Körper selbst produzierte Vitamin D allerdings noch nicht die eigentlich wirksame Substanz; dies haben drei voneinander unabhängige Forscherteams vor 50 Jahren festgestellt. Sie haben gezeigt, dass aus Vitamin D in zwei aufeinanderfolgenden Schritten das Hormon Calcitriol entsteht, das - gebunden an seinen spezifischen Rezeptor - in der Weise von Steroidhormonen die Expression diverser Gene reguliert. Mit Hilfe neuer effizienter Methoden konnte in den 1990er Jahren dann untersucht werden, um welche Gene es sich dabei handelt: insgesamt sind es hunderte Gene - rund 3 % aller unserer Gene -, die direkt oder indirekt durch Calcitriol reguliert werden können.

Neben Genen, welche die klassische Rolle von Vitamin D in der Mineralisierung des Skeletts, im Wachstum und Umbau der Knochen und insgesamt im Calciumhaushalt erklären, gibt es eine Fülle weiterer Gene, die Schlüsselfunktionen in Wachstum und Differenzierung von Zellen innehaben, die diverse neurophysiologische Prozesse steuern und wichtige Rollen in der Regulierung der angeborenen und erworbenen Immunantwort spielen und viele andere mehr. Über diese sogenannten pleiotropen Funktionen des hormonell aktiven Vitamin D wurde bereits ausführlich im Blog berichtet [1].

Vitamin D-Mangel

Unterversorgung mit Vitamin D führt zu den eingangs erwähnten, altbekannten Störungen des Calciumhaushalts, des Knochenaufbaus und -Umbaus. Wieweit durch Vitamin D Mangel andere Funktionen des Hormons gestört werden und damit das Risiko für weitere Erkrankungen steigt, wird intensiv erforscht. Tatsächlich wird ja bei vielen Krankheiten ein Zusammenhang mit niedrigen Vitamin D- Spiegeln geortet: Dazu zählen u.a. Krebserkrankungen, Erkrankungen des Immunsystems, des kardiovaskulären Systems, metabolische Defekte, neuronale Erkrankungen und Infektionen.

Die primäre Quelle für das in unserem Organismus zirkulierende Vitamin D ist die Eigenproduktion in der dem Sonnenlicht ausgesetzten Haut; mit Ausnahme von fettem Fisch enthalten die meisten unserer Nahrungsmittel viel zu wenig Vitamin D, um nennenswerte Mengen davon aufzunehmen. Durch Lebensumstände und Gewohnheiten bedingt kommt es in der westlichen Welt häufig zu Vitamin D Mangel. Der Vitamin D-Status wird dazu an Hand der Blutspiegel des als Marker dienenden Vitamin D Metaboliten 25(OH)D bestimmt. Vitamin D-Mangel, der die Knochen-/Muskel-Gesundheit beeinträchtigt , wird allgemein (beispielsweise von der European Food Safety Authority) mit 25(OH)D -Blutspiegeln unter 20 ng/ml (50 nmole/l) definiert, wobei schwerer, zu Rachitis bei Kindern und Osteomalazie bei Erwachsenen führender Mangel vorliegt, wenn25(OH)D den Grenzwert von 10 - 12,5 Nanogramm/ml (25 - 30 nmole/l) unterschreitet. Testungen des Vitamin D-Status haben in den letzten Jahren eine enorme Steigerung erfahren. Eine rezente Metaanalyse von weltweit dazu erfolgten Studien zeigt auf, dass ein beträchtlicher Anteil der Menschheit von Vitamin D-Mangel betroffen ist: 25(OH)D -Blutspiegel unter 20 ng/ml weisen im Schnitt rund 40 % der Europäer, 37 % der Kanadier, dagegen nur 24 % der US-Amerikaner (die ja einige mit Vitamin D angereicherte Nahrungsmittel konsumieren) auf. Schweren Vitamin D-Mangel mit 25(OH)D-Spiegeln unter 10 - 12,5 ng/ml haben im Schnitt 13 % der Europäer, 7,4 % der Kanadier und 5,9 % der US-Amerikaner [2].

Dass Supplementierung von Vitamin D vor Erkrankungen des Muskel-/Knochensystems schützt, ist erwiesen. Wieweit kann Vitamin D aber auch vor den oben angeführten weiteren Krankheiten schützen? Und in welchen Dosierungen müsste Vitamin D angewandt werden, um Wirksamkeit ohne schädliche Nebenwirkungen zu erzielen?

Zu diesen Themen wurden und werden weltweit nahezu unzählige klinische Studien unternommen, die meisten davon sind in der US-amerikanische Datenbank https://clinicaltrials.gov/ gelistet: Unter dem Stichwort "vitamin D deficiency" finden sich dort insgesamt 791 Studien, von denen rund 500 bereits abgeschlossen sind. Die meisten dieser Studien leiden allerdings unter methodischen Schwächen. Abgesehen von häufig zu niedrigen Teilnehmerzahlen, kann die wesentlichste Frage nicht beantwortet werden: wie unterscheiden sich die Ergebnisse der Vitamin-D supplementierten Kohorte von denen einer Placebo-Kohorte - d.i. Vitamin D-Mangel -Kohorte?  An Letzterer sind aus ethischen Gründen ja keine Langzeitstudien verantwortbar.

Die VITAL-Studie

Das Fehlen einer solchen Vitamin D-Mangel-Gruppe trifft auch auf die bislang größte Placebo kontrollierte, randomisierte klinische Studie zu. Diese sogenannte VITAL-Studie zur präventiven Wirkung von Vitamin D3 auf Herz-Kreislauferkrankungen und Krebs wurde in dem der Harvard Medical School angegliederten Brigham and Women’s Hospital in Boston ausgeführt, deren Ergebnisse Ende 2018 publiziert. In diese Studie waren insgesamt 25 871 anfänglich gesunde Personen im Alter über 50 (Männer) bzw. 55 Jahren (Frauen) involviert, die über einen Zeitraum von etwa fünf Jahren täglich hochdosiertes Vitamin D3 (2 000 IU = 50 µg) oder Placebo und/oder parallel dazu 1 g Omega-3 Fettsäuren erhielten. Über diese Studie und ihr Ergebnis habe ich in [3] berichtet. Zum besseren Verständnis der neuen, darauf aufbauenden Begleitstudien wird das Design von VITAL nochmals in Abbildung 2 dargestellt.

Abbildung 2. Das Design der VITAL-Studie. Die primäpräventive Wirkung von Vitamin D3 und von Fischöl (EPA + DHA) auf kardiovaskuläre Ereignisse (Infarkt, Schlaganfall, CV-Tod) sowie auf invasive Krebserkrankungen wurden im Vergleich zu Placebo in randomisierten Gruppen mit N Teilnehmern untersucht. EPA: Eicosapentaensäure, DHA: Docosahexaensäure. (Bild aus [3] übernommen, Daten aus: JoAnn Manson et al.,: Vitamin D Supplements and Prevention of Cancer and Cardiovascular Disease. NEJM (10.11.2018) DOI: 10.1056/NEJMoa1809944)

Die Placebo-Gruppe wies - wie erwähnt - keinen Vitamin D-Mangel auf; es war ihr erlaubt bis zu 800 IU (20 µg) Vitamin D täglich zu sich nehmen (eine Reihe von Nahrungsmittel in den US sind ja Vitamin D supplementiert); dies entspricht der von der Deutschen Gesellschaft für Ernährung (DGE) empfohlenen Tagesdosis für ausreichende Vitamin D-Versorgung. Demzufolge lagen die Blutspiegel der Placebo-Gruppe im Schnitt bei 30,8 ng/ml (78 nM); nur 12,7 % der Teilnehmer hatten Spiegel unter 20 ng/ml, d.i. fielen unter die Definition Vitamin D-Mangel.

Das Ergebnis der Studie war enttäuschend. Die Supplementierung mit Vitamin D3 (und/oder mit Omega-3 Fettsäuren) hatte zwar eine Erhöhung der 25(OH)D-Spiegel auf etwa 41.8 ng/ml (104 nmole/l) zur Folge, im Vergleich zur Placebo-Gruppe konnte jedoch kein signifikanter Schutz vor kardiovaskulären Ereignissen oder Krebserkrankungen beobachtet werden [3]. Es ist nicht auszuschließen, dass in der Placebo-Gruppe Vitamin D seine Wirkung bereits voll entfalten konnte und ein rund 40 %iger Anstieg der Blutspiegel kaum mehr eine Steigerung der Effekte erbrachte.

Begleitende Studien zu VITAL

Design und Durchführung der VITAL-Studie haben einen enormen Aufwand bedeutet, dabei aber auch die Möglichkeit für Begleitstudien geboten, welche die Auswirkung von Vitamin D und/oder Omega-3-Fettsäuren auf andere Gesundheitsrisiken untersuchen konnten. Dabei nahm man ein weites Spektrum von Krankheiten ins Visier, das von Depression, Gedächtnisverlust, kognitivem Verfall über Infektionen bis hin zur großen Gruppe der Autoimmunerkrankungen reichte (unter "VITAL, vitamin D" sind 66 Studien in https://clinicaltrials.gov gelistet).

Autoimmunerkrankungen

Mehr als hundert unterschiedliche Autoimmunerkrankungen sind derzeit bekannt und rund 4 % der Weltbevölkerung sind davon betroffen. Zu den bekanntesten Autoimmundefekten zählen u.a. Typ 1-Diabetes, multiple Sklerose, Psoriasis, chronisch entzündliche Darmerkrankungen, rheumatoide Arthritis, Polymyalgie und autoimmune Schilddrüsenerkrankung. In der industrialisierten Welt gehören Autoimmunerkrankungen zu den häufigsten Krankheitsursachen. Einer aktuellen Umfrage der Plattform Statista zufolge sind an die 7 % der US-Amerikaner, 6 % der EU-Bürger und 5 % der Chinesen daran erkrankt (https://www.statista.com/statistics/418328/diagnosed-autoimmune-conditions-prevalence-in-selected-countries/). Die Inzidenz von Autoimmunerkrankungen steigt stark an - zum Teil dürfte da auch die höherer Informiertheit und eine verbesserte Diagnostik beitragen.

Ausgelöst werden Autoimmunerkrankungen durch ein fehlgeleitetes Immunsystem , das Komponenten des Körpers als fremd ansieht und attackiert. Autoreaktive T-Zellen und B-Zellen richten sich gegen Antigene, die aus körpereigenen Proteinen stammen. Es werden gesunde Zellen angegriffen - organspezifisch, wie im Fall von Typ1-Diabetes im Pankreas oder auch Zellen im gesamten Körper, wie im Fall des systemischen Lupus erythematodes. Was im Einzelnen zur Fehlleistung des Immunsystems führt, ist noch nicht hinreichend bekannt - eine Rolle spielen offensichtlich genetische Veranlagung, Infektionen, Ernährung und Exposition zu Umweltstoffen.

Autoimmundefekte sind chronische Erkrankungen, die derzeit nicht heilbar sind und deren Behandlung mit Immunsuppressiva von schweren Nebenwirkungen begleitet werden kann. Es wird daher nach Möglichkeiten zur Prävention dieser Erkrankungen gesucht.

VITAL-Studie zeigt: Vitamin D-Supplementierung reduziert das Risiko von Autoimmunerkrankungen

(Design der Studie: siehe Abbildung 2)

Eine der VITAL-Begleitstudien zur Auswirkung auf Autoimmunerkrankungen haben Forscher des Brigham and Women's Hospital (Boston, MA, US), an dem die VITAL-Studie gelaufen war, durchgeführt; die vielversprechenden Ergebnisse wurden kürzlich publiziert [4].

Die Studienteilnehmer hatten in jährlichem Abstand Fragebögen erhalten, in denen sie u.a. angaben, ob, wann und welche Autoimmunerkrankungen neu aufgetreten und ärztlich bestätigt worden waren. Dabei wurden explizit rheumatoide Arthritis, rheumatische Polymyalgie, autoimmune Schilddrüsenerkrankung, Psoriasis und entzündliche Darmerkrankungen angeführt , zusätzlich konnten alle anderen neu diagnostizierten Autoimmunerkrankungen eingetragen werden. Für die einzelnen Krankheiten spezialisierte Fachärzte prüften die Krankenakten und bestätigten die noch geblindeten Angaben (d.i. ohne Kenntnis ob sie aus der Vitamin D oder Placebo-Gruppe stammten) oder lehnten sie ab.

Es zeigte sich, dass Personen, die mit Vitamin D oder Vitamin D plus Omega-3-Fettsäuren supplementiert wurden, eine signifikant niedrigere Inzidenz von Autoimmunerkrankungen aufwiesen als Personen der Placebo-Gruppe. So wurden während der 5-jährigen Studiendauer bei 123 Teilnehmern in der Vitamin D-Gruppe Autoimmunerkrankungen neu diagnostiziert, in der Placebogruppe dagegen bei 155 Teilnehmern - entsprechend einer Reduktion um 22 % (Abbildung 3).

Abbildung 3. Inzidenz von Autoimmunerkrankungen in der VITAL-Studie. Kumulierte Inzidenzen in der Vitamin D-Gruppe (blau) verglichen mit der Plazebo.Gruppe (gelb).(Bild modifiziert nach J. Hahn et al., 2022 [4], Lizenz cc-by-nc.).

Autoimmunerkrankungen entwickeln sich langsam, die hemmende Wirkung von Vitamin D beginnt erst nach 2 Jahren sichtbar zu werden und könnte bei über die 5 Jahre hinaus dauernder Supplementierung noch stärker ausfallen. Werden nur die letzten 3 Jahre der VITAL-Studie betrachtet, so ergibt sich eine Reduktion der Krankheitsfälle um fast 40 %. (Was die alleinige Supplementierung mit Fettsäuren betrifft, so ergab sich eine leichte Reduktion der Erkrankungsrate, die aber erst für die letzten 3 Jahre mit 10 % Signifikanz erlangte. Auch hier ist möglicherweise erst nach längerer Anwendungsdauer eine stärkere Wirkung zu erwarten.)

Fazit

Autoimmunerkrankungen zählen zu den häufigsten Erkrankungen; sie vermindern die Lebensqualität, erhöhen die Mortalitätsrate, ihre Behandlung verursacht enorme Kosten (laut Statista wurden 2019 global US $ 140 Milliarden ausgegeben) und sie sind bis jetzt nicht heilbar. Dass Supplementierung mit Vitamin D einen Schutz vor Autoimmunerkrankungen bietet, ist von hoher klinischer Bedeutung. Bei Vitamin D handelt es sich ja um eine stabile, billige Substanz, die chronisch auch in höherer Dosis angewandt werden kann, ohne schwere Nebenwirkungen zu verursachen.


[1] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?

[2] Karin Amrain et al., Vitamin D deficiency 2.0: an update on the current status worldwide. Eur. J.Clin. Nutrition (2020) 74:1498–1513. https://doi.org/10.1038/s41430-020-0558-y

[3] Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

[4] Jill Hahn et al., Vitamin D and marine omega 3 fatty acid supplementation and incident autoimmune disease: VITAL randomized controlled trial. BMJ 2022;376:e066452 | doi: 10.1136/bmj-2021-066452


inge Sat, 05.02.2022 - 16:29

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Do, 27.01.2022 — Redaktion

Redaktion

Icon Energie

Der Umstieg auf erneuerbare Energie konkurrenziert mit der Landwirtschaft um geeignete Bodenflächen. Eine grandiose Lösung zur optimierten Nutzung der begrenzten Ressource Land kann von Agrophotovoltaik erwartet werden, der gleichzeitigen Landnutzung sowohl für die Produktion von Energie als auch von Nahrung. Weltweit laufen Pilotprojekte, um die Effizienz solcher "Anbausysteme unter Solarpaneelen" und deren Marktfähigkeit zu testen. Wesentliche Aspekte dieser Forschungen, zu denen auch von der EU-unterstützte Projekte (PanePowerSW und HyPErFarm) beitragen, wurden kürzlich im EU-Research & Innovation Magazine "Horizon" beschrieben*. .*

 

In einem Photovoltaikpark auf dem griechischen Festland wird eine Mischung aus aromatischen Kräutern und Blumen angebaut. In Spanien teilen sich Artischocke und Brokkoli Felder mit Solar-Paneelen. In Belgien wurden Paneele direkt über Birnbäumen und Zuckerrübenbeeten installiert. Abbildung 1.

Abbildung 1: Forscher testen die Effizienz von Pflanzenwachstum unter Solarpaneelen und deren Marktfähigkeit. (Bild: © Brite, 2022, siehe unten)

Dies sind Beispiele für Agrophotovoltaik – eine neue nachhaltige Lösung, die auf dem Vormarsch ist. In ganz Europa tauchen Pilotprojekte auf, die aufzeigen sollen, wie die Ernte von Sonnenlicht für landwirtschaftliche Betriebe eine Win-Win-Situation sein könnte, insbesondere für Kleinbauern, die nach Möglichkeiten suchen, ihre Erträge zu steigern und gleichzeitig weniger Energie und Wasser zu verbrauchen.

Laut den Vereinten Nationen ist der Wasser-Nahrung-Energie-Nexus der Schlüssel für eine nachhaltige Entwicklung unserer Gesellschaften (1]. Nach allen drei Ressourcen steigt die Nachfrage - Treiber sind die steigende Weltbevölkerung, die rasche Urbanisierung, veränderte Ernährungsgewohnheiten und das Wirtschaftswachstum. Aus den Daten der Vereinten Nationen geht auch hervor, dass die Landwirtschaft heute der größte Verbraucher der weltweiten Süßwasserressourcen ist, und mehr als ein Viertel der weltweit verbrauchten Energie für die Nahrungsmittelproduktion und -versorgung aufgewendet wird.

Die Welt wird in den nächsten 30 Jahren Heimat von unglaublichen 10 Milliarden Menschen sein. Das sind nicht nur sehr viele Menschen, sondern auch viele Mäuler zu stopfen – viel zu viele, als dass die heutigen Landwirtschaften sie zufrieden stellen könnten. Um diese zukünftige Bevölkerung zu ernähren, müssen wir tatsächlich doppelt so viel Nahrung produzieren wie heute – eine Aufgabe, die voll von Herausforderungen ist.

Erst einmal gibt es die Herausforderung, wo mehr Pflanzen angebaut werden sollen. Von insgesamt 13 Milliarden Hektar Land auf diesem Planeten stehen nur 38 % für die Landwirtschaft zur Verfügung. Um diese Fläche zu vergrößern müssten Wälder – einschließlich Regenwälder – in Ackerland umgewandelt werden, was zu einem großen Verlust an Biodiversität führen würde. Und weil Bäume eine essentielle Rolle im Kampf gegen den Klimawandel spielen, würde eine solche Entwaldung auch zu einem Anstieg der Treibhausgasemissionen führen.

Zusätzlich zur Entwaldung besteht auch die Herausforderung der Umweltverschmutzung, da die Landwirtschaft für mindestens 10 % der weltweiten Treibhausgasemissionen verantwortlich ist. Diese sind größtenteils auf Methan zurückzuführen, das von Nutztieren produziert wird, auf die Verwendung von Düngemitteln auf Stickstoffbasis (die Stickoxid verursachen, ein 300 Mal stärkeres Treibhausgas als CO2) und auf die von fossilen Brennstoffen abhängigen landwirtschaftlichen Maschinen und Transportmittel.

Agrophotovoltaik könnte die Antwort sein

Ungeachtet des Ziels der EU, 30 % ihrer Energie bis 2030 aus Erneuerbaren Quellen zu erzeugen, sind derzeit fast alle Schritte in der Lebensmittelproduktion auf Gas und Öl angewiesen. In Anbetracht dieses Umstands würde jede Steigerung der Nahrungsmittelproduktion mit Sicherheit einen Anstieg im Verbrauchs fossiler Brennstoffe bedeuten und daraus resultierende Treibhausgasemissionen.

Agrophotovoltaik könnte der Ausweg sein. Pflanzen benötigen Sonnenlicht, um zu wachsen, landwirtschaftliche Betriebe können das Sonnenlicht nutzen, um ihre Produktionsprozesse zu betreiben. Schließlich sind landwirtschaftliche Felder in der Regel große offene Flächen, die einer Menge Sonnenlicht ausgesetzt sind. Warum also nicht Solarpaneele installieren?

„Leider nehmen Solarpaneele Platz ein“, antwortet Ilse Lenaerts, Leiterin der Wissenschafts-, Ingenieur- und Technologieeinrichtung TRANSfarm, die Forschungsgruppen der Katholieke Universiteit (KU) Leuven unterstützt [2]. „Da dieser Raum nicht mehr für den Anbau von Pflanzen genutzt werden kann, können sie den Ernteertrag eines Betriebs verringern.“

Aber es ist nicht alles verloren. „Die Agrophotovoltaik zielt darauf ab, die Produktion von Nutzpflanzen auf derselben Landfläche fortzuführen, die für Solarpaneele genutzt wird“, erklärt Lenaerts.

Im Rahmen des EU-Projekts HyPErFarm (Hydrogen and Photovoltaic Electrification on Farm; [3]) arbeitet das Team der KU Leuven daran, die Nutzung der Agrophotovoltaik voranzutreiben und sie von einem innovativen Konzept zu einer tragfähigen kommerziellen Lösung zu machen. „Wir wollen einen unanfechtbaren Business Case dafür liefern, warum Landwirte erneuerbare Energie auf ihren Höfen produzieren und nutzen sollten und warum Agrophotovoltaik der beste Weg dazu ist“, sagt sie.

Was den Produktionsprozess betrifft hat das Projekt eine einmalige Technik zur Installation von Solarpaneelen auf landwirtschaftlichen Feldern entwickelt. Anstatt die Paneele auf dem Boden zu platzieren, installiert HyPErFarm sie als eine Art Überdachung über den Pflanzen oder neben den Pflanzen als schützende Windschutzscheibe.

„Indem man die Solarpaneele über den Feldfrüchten installiert, geht kein Ackerland verloren; dies bedeutet, dass Solarenergie ohne Beeinträchtigung der Ernteerträge erzeugt werden kann“, bemerkt Lenaerts. „Die Paneele bieten den Pflanzen auch Schatten und Schutz vor widrigen Wetterbedingungen, was ebenfalls zu höheren Erträgen beitragen kann.“

Mit den installierten Solarpaneelen können Landwirte die Energie erzeugen, die für einen Großteil des Betriebs ihrer Farm (z. B. Beleuchtung, Heizung und Kühlung) benötigt wird. Das wiederum senkt die Betriebskosten – und den CO2-Ausstoß. HyPErFarm erforscht auch Möglichkeiten, diese Sonnenenergie zur Erzeugung von sauberem Wasserstoff zu nutzen, der dann zum Antrieb landwirtschaftlicher Maschinen und Geräte verwendet werden könnte.

Agrophotovoltaik-Systeme öffnen das Tor zur vollständigen Elektrifizierung landwirtschaftlicher Betriebe“, fügt Lenaerts hinzu. „Dies kommt den Landwirten nicht nur in Bezug auf Ernteerträge und Betriebskosten zugute, sondern stellt auch sicher, dass die Landwirtschaft ihren Teil dazu beiträgt, Europa dabei zu helfen, seine Klimaziele zu erreichen.“

Lass' den Sonnenschein herein

Während Solarpaneele großartig sind, wenn sie auf offenen Feldern verwendet werden, sind sie für Gewächshäuser von begrenztem Nutzen. „Da Solarpaneele Sonnenlicht absorbieren sollen, sind sie normalerweise undurchsichtig, sogar schwarz“, sagt Dr. Nick Kanopoulos, CEO von Brite Solar [4]. „Da Gewächshäuser jedoch die Menge der einfallenden Sonne maximieren müssen, sind Solarpaneele eher unpraktisch.“

Das ist bedauerlich, da die Feldbestellung in Gewächshäusern die zehnfache Menge der auf freiem Feld angebauten Früchte produziert. „Das Problem ist, dass die Produktion dieser Menge an Nahrungsmitteln zehnmal mehr Energie erfordert als ein Feld im Freien benötigt“, fügt er hinzu.

Der CEO von Brite Solar glaubt, dass der Schlüssel zur Senkung des Energieverbrauchs eines Gewächshauses darin besteht, seine Nutzung der Solarenergie zu erhöhen. Und dafür hat sein Unternehmen mit Unterstützung des PanePowerSW-Projekts (Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Building; [5]) das sogenannte Solarglas erfunden: ein transparentes Paneel für Gewächshäuser, das wie ein normales Fenster aussieht und gleichzeitig Sonnenlicht hereinlassen und Solarstrom erzeugen kann.

Das Geheimnis der Doppelfunktion des Solarglases ist eine innovative nanostrukturierte Beschichtung. „Die Nanobeschichtung absorbiert nur das UV-Licht, das für die Pflanzen und die Solarzellen nutzlos ist“, erklärt Kanopoulos. „Die Beschichtung transformiert dieses UV-Licht dann in das sogenannte rote Lichtspektrum, das Pflanzen zum Wachstum und Solarzellen zur Energiegewinnung nutzen.“

Um zu demonstrieren, wie bahnbrechend diese Anwendung ist, hat Brite Solar ein 1.000 Quadratmeter großes Gewächshaus für einen Weingarten in Griechenland gebaut. Das von nanostrukturbeschichteten Solarzellen völlig eingehüllte Gewächshaus kann 50 kW Leistung erzeugen – genug, um fast den gesamten Energiebedarf des Gewächshauses zu decken. „Zum ersten Mal in der Geschichte der Landwirtschaft haben wir einen negativen Kohlendioxid-Fußabdruck pro Kilogramm produzierter Feldfrüchte gemeldet“, sagt Kanopoulos.

Doch beim Demo-Gewächshaus geht es um mehr als nur um die Stromerzeugung. Es geht auch um Steigerung der Ernteerträge. Tatsächlich war es das Ziel, den Ertrag gegenüber dem zu verdoppeln, was in einem vergleichbar großen Freilandweingarten erreicht werden kann.

Gewächshäuser haben hier einen besonderen Vorteil gegenüber landwirtschaftlichen Feldern: Sie können das ganze Jahr über ernten. Beispielsweise produziert der Gewächshaus-Weingarten in Griechenland zwei Ernten, eine im Herbst und eine zweite im Winter. Dies ist eine hervorragende und relativ einfache Möglichkeit, die Erträge zu steigern, ohne mehr Ackerland schaffen zu müssen, was letztendlich weniger Entwaldung bedeuten könnte.

„All dies hat tiefgreifende Auswirkungen auf die Umwelt und weist auf eine neue Art der Landwirtschaft hin – eine, die vollständig elektrisch ist, mit erneuerbaren Ressourcen betrieben wird und in der Lage ist, nachhaltig die Lebensmittel zu produzieren, die wir für die Ernährung der Zukunft benötigen“, schließt Kanopoulos.

Dabei unterstützen Projekte wie PanePowerSW und HyPErFarm so wichtige Strategien wie die Farm2Fork-Initiative [6] und beschleunigen Europas Übergang zu einem nachhaltigen Ernährungssystem (Abbildung 2).

Abbildung 2 Farm to Fork strategy - for a fair, healthy and environmentally-friendly food system . https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de#Strategy

-

 


[1] Water, Food and Energy: https://www.unwater.org/water-facts/water-food-and-energy/

[2] TRANSFARM: https://set.kuleuven.be/en/about-us/transfarm

[3]HyPerFarm - Eine Doppelnutzung für die Energie- und Nahrungsmittelerzeugung. EU-Projekt. https://cordis.europa.eu/project/id/101000828/de

[4] Brite Solar: https://www.britesolar.com/ dazu Brite Solar Presentation, Video 3:58 min. https://www.youtube.com/watch?v=GJ6CDqIdJww&t=198s  

[5] PanePowerSW - Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Buildings.EU-Projekt. EU-Strategy. https://cordis.europa.eu/project/id/804554

[6] Farm to Fork Strategy: https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de


 *Dieser Artikel wurde ursprünglich am 21. Jänner 2022 von Nick Klenske in Horizon, the EU Research and Innovation Magazine unter dem Titel " To feed a growing population, farmers look to the Sun"https://ec.europa.eu/research-and-innovation/en/horizon-magazine/feed-growing-population-farmers-look-sun publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 - Farm to Fork Strategy - wurde von der Redaktion eingefügt und stammt von der EU-Seite https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de.


Ein kurzes Video zum Artikel:

To feed a growing population, farmers look to the Sun. Video 1:12 min. https://www.youtube.com/watch?v=rgx-0M5uP9k


inge Thu, 27.01.2022 - 12:59

COVID-19 - ist ein Ende der Pandemie in Sicht?

COVID-19 - ist ein Ende der Pandemie in Sicht?

Do, 20.01.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Infektionszahlen mit der neuen hochmutierten Omikron-Variante nehmen rasant zu. Impfungen und auch eine dritte Auffrischungsimpfung - Booster - bieten nur eingeschränkten Schutz vor einer Infektion. Grund dafür dürfte sein, dass die gegen den ursprünglichen Corona- Wildtyp gerichteten Vakzinen zwar in beschränktem Ausmaß neutralisierende Antikörper auch gegen Omikron initiieren, diese aber sehr rasch absinken. Dass es dennoch zu milderen Krankheitsverläufen kommt als bei Infektionen mit früheren Corona-Varianten, wird dem Schutz durch eine starke Vakzinen-induzierte T-Zellantwort zugeschrieben. Trotz der katastrophalen Infektionszahlen sehen führende Immunologen und Virologen nun eine positive Wendung im Infektionsgeschehen. Die Genetikerin Ricki Lewis berichtet darüber.*

Ein Ende könnte in Sicht sein. Zum ersten Mal seit Beginn der Pandemie habe ich mir eine Pressekonferenz von medizinischen Experten angehört, die mir keine Albträume bescherte.

Dies war am 11. Dezember 2021, der wöchentliche Zoom des Massachusetts Consortium on Pathogen Readiness (MassCPR). Die Gruppe eloquenter Experten hatte sich zu Beginn der Pandemie gebildet: Seither haben sie sporadische Informationsveranstaltungen für Journalisten abgehalten, die, als sich Anfang Dezember Omikron abzeichnete, bis auf wöchentliche Veranstaltungen steigerten

Von JAMA zu MassCPR

Am Anfang war ich ein Fan der Online-Gespräche mit Howard Bauchner, der damals Chefredakteur des medizinischen Fachjournals Journal of the American Medical Association war. Dr. Bauchners entspannte Art brachte die Superstars der Pandemie – von Anthony Fauci (Direktor des National Institute of Allergy and Infectious Diseases (NIAID) and Chief Medical Advisor to the President; Anm. Redn.) über Rochelle Walensky ((Leiterin der Centers for Disease Control and Prevention - CDC; Anm. Redn.) bis hin zu Paul Offit (Leiter des Vaccine Education Center)– dazu, auch entspannt zu sein. Das war noch die Zeit, als die Experten vom Ziel einer Herdenimmunität sprachen. Ich vermute, keiner von ihnen hätte daran gedacht, dass so viele Menschen lebensrettende Impfstoffe ablehnen würden. Dass die Entscheidung dafür gar zum Politikum würde, das uns alle gefährdet und einen fruchtbaren Boden für Omikron und die anderen Varianten bietet, dass sie evolvieren, auftreten und uns bedrohen. Ich muss zugeben, dass ich davon überrumpelt wurde.

Eines der ersten Gespräche von Dr. Bauchner war mit Maurizio Cecconi vom Humanitas Research Hospital in Mailand. In Coronavirus in Italy, Report from the Front Lines, beschrieb Cecconi die schreckliche Situation in der Lombardei. Es war der 16. März 2020. Ich starrte auf meinen Bildschirm, auf das Bild einer düsteren und scheinbar endlosen Parade von Särgen, die sich langsam eine breite Allee entlang bewegten. Ich hätte nie gedacht, dass meine Tochter bald einen noch schlimmeren Ausblick aus ihrem Fenster auf eine Notaufnahme in Astoria, Queens (Stadtteil von New York; Anm. Redn.) haben würde. Diese Leichen lagen nicht horizontal wie auf der italienischen Promenade, sondern vertikal gestapelt und warteten auf die weißen Kühllaster, um sie abzutransportieren.

Bedauerlicherweise ging Dr. Bauchner im Juni 2021 "über Bord", nachdem er es versäumt hatte, einen rassistischen Podcast zu stoppen, den JAMA leider und unerklärlicherweise gesponsert hatte (“Structural Racism for Doctors—What Is It?” nicht mehr verfügbar; Anm. Redn.). Darin behaupteten zwei weiße Redakteure, dass es in der Medizin keinen strukturellen Rassismus gibt, weil er illegal ist.

Ja, Dr. Bauchner hat es versäumt, auf die beiden Redakteure loszugehen; ich vermisse aber nun seine Podcasts.

So bin ich zu den MassCPR-Pressekonferenzen abgewandert. Eine davon vor etwa einem Jahr habe ich zu einem Blog-Beitrag in DNA-Science gemacht ("Überholt der COVID-Optimismus endlich den Pessimismus? Harvard-Experten stimmen zu"[1]). Impfstoffe wurden auf den Markt gebracht, Ärmel hochgekrempelt und Idee und Idealvorstellung einer Herdenimmunität mussten noch begraben werden. Ich hatte gerade meine erste Impfung bekommen, was mir meine Polio-Impfung in der Grundschule in Erinnerung rief.

Omikron taucht auf

Die Frequenz der MassCPR-Briefings nahm zu, wurde wöchentlich, als sich seit Anfang Dezember Omikron von Südafrika aus zu verbreiten begann.

Was die Redner uns auf der Grundlage von Vorabdrucken und dem, was sie von Kollegen und direkten Erfahrungen mit an COVID-Erkrankten und Sterbenden wussten, erzählten, war den Nachrichten immer Tage, wenn nicht Wochen voraus. So hatte ich in den folgenden Tagen dieses Gefühl des Untergangs, als Freunde mir Artikel aus den Mainstream-Medien und von anderen Journalisten im Zoom schickten.

Die MassCPR-Pressekonferenz vom 14. Dezember 2021 bildete den größten Teil meines DNA-Wissenschaftsbeitrags „Pandemie zu schnell, um ihr zu folgen, da drei Infektionswellen über die USA hinwegfegen: Delta, Omicron und Grippe“ [2]. Ich endete in Finsternis und Untergangsstimmung unter der Überschrift „Was mich nachts wach hielt“ mit einem ausführlichen Zitat von Jacob Lemieux, einem Spezialisten für Infektionskrankheiten am Massachusetts General Hospital. Die zu befürchtende ausgedehnte Reisetätigkeit über Weihnachten und Silvester machte mir Angst.

Das erste MassCPR-Briefing des neuen Jahres habe ich ausgelassen, nachdem ich in den Abendnachrichten die steil ansteigenden Kurven von Krankenhauseinweisungen gesehen hatte - katastrophale Spitzenwerte, die hauptsächlich von denen verursacht wurden, die sich immer noch weigerten, sich impfen zu lassen. Sie dürften nun endlich Plateauwerte erreichen.

Die Hoffnung kommt von T-Zellen

Am 11. Januar hat wieder der faszinierende Dr. Lemieux das MassCPR -Briefing beendet, und ich war fassungslos über seinen positiven Ton. Vieles davon stammte aus einer Zusammenstellung von Ergebnissen und daraus sich ergebenden Folgerungen, dass sinkende Spiegel neutralisierender Antikörper gegen Omikron und die allgemein milden Symptome bedeuten, dass T-Zellen Schutz bieten.

Kurze Biologiestunde

T-Zellen induzieren B-Zellen zur Ausscheidung von Antikörpern und sie zerstören auch virusinfizierte Zellen. Der Nachweis von T-Zellen ist allerdings wesentlich schwieriger und länger dauernd als der von Antikörpern; T-Zellen dürften aber das verlässlichste „correlate of protection“ [3]– Indikator für das Überwinden einer Infektion sein . Abbildung 1. In anderen Worten: Antikörper erzählen nicht die ganze Geschichte. Die meisten Medienberichte, die ich gesehen habe, haben aufgehört, irgendetwas über Antikörper hinaus zu erklären, und die lebenswichtige zelluläre Immunantwort -der T- und B-Zellen - ignoriert. Antikörper bilden die humorale Immunantwort („humor“ bedeutet „Flüssigkeit“; Antikörper werden im Blutserum nachgewiesen). Ende des Biologieunterrichts.

Abbildung 1: . Schematische Darstellung der adaptiven Immunantwort nach einer Virus-Infektion. Das Virus wird von Makrophagen oder dendritischen Zellen inkorporiert und zu Bruchstücken (zu kurzen Peptiden) abgebaut, die als Antigene an der Zelloberfläche präsentiert werden. T-Zellen heften sich an diese Antigene. Ihre Aktivierung führt einerseits zur Generierung von B-Zellen, die gegen das Antigen spezifische Antikörper generieren und sezernieren (humorale Immunantwort) und cytotoxische (Killer)-T-Zellen, die infizierte Zellen zerstören (zelluläre Immunantwort). Die Aktivierung führt auch zu Gedächtniszellen von B-Zellen und T-Zellen, die bei erneutem Kontakt mit demselben Erreger eine sekundäre Immunantwort einleiten. (Bild und Beschriftung von Redn. eingefügt. Bild modifiziert nach Sciencia58 https://commons.wikimedia.org/wiki/File:Immunantwort_1.png. Lizenz: cc-by-sa)

Am 11. Jänner spürte man bei den Rednern insgesamt eine Veränderung. Klischees schwappten hoch wie: Licht am Ende des Tunnels. Sehr finster vor der Morgendämmerung. Und so schließe ich mit dem, was Dr. Lemieux zu sagen hatte:

„Bei diesen Briefings wird es immer schwieriger Fragen zu beantworten. Wir wissen nicht, was die Zukunft bringt.

Am Anfang dachte ich, ok, was können wir von Omikron annehmen? Wir wussten, dass es beängstigend aussieht, und dass wir herausfinden müssten ob damit eine Zunahme der Übertragbarkeit signalisiert wird. In den nächsten Wochen wurde klar, dass Omikron viel stärker übertragbar ist. Und als experimentelle Labordaten eintrafen, zeigten sie, dass Omikron die bislang der Immunantwort am weitesten ausweichende Variante ist. Von da an war der Weg vorbestimmt - außerordentlich übertragbar und immunausweichend, also würde sich Omikron ausbreiten und das tat es auch. Es war leicht zu konstatieren, dass es in der folgenden Woche mehr Fälle geben würde; wir wussten allerdings nicht, wie gut die Impfung funktioniert und ob es einen Unterschied in der Schwere der Erkrankung geben würde.

Glücklicherweise zeigen Impfstoffe immer noch Wirksamkeit und die Variante ist weniger virulent. Aber in Bezug auf die Vorhersage, was jetzt passiert, ist es viel schwieriger. Alles, was wir sagen, muss mit einem viel größeren Vorbehalt aufgenommen werden.

Wir können jetzt über die grundlegenden wissenschaftlichen Fragen sprechen, wie die Beobachtung, dass weniger Menschen mit Omikron sterben. Das sind gute Neuigkeiten. Aber wieso ist das so? Was ist die Quelle ihrer anhaltenden Immunität? T-Zellen? Eine nicht neutralisierende Funktion von Antikörpern? Alles Hypothesen, die im Begriff sind evaluiert zu werden, und wir beginnen, eine Flut an Veröffentlichungen zu sehen, die sich mit diesen Fragen befassen. Es fühlt sich an wie ein normaler wissenschaftlicher Prozess. Aber in Bezug auf das, was jetzt passiert, würde ich einfach sagen, dass wir alle zusammen daran sind und wir werden es bald herausfinden.

Erstens befinden wir uns in der Pandemie an einem ganz anderen Punkt als vor zwei Jahren. Es hat damals düster ausgesehen, mit null Behandlungen oder Impfstoffen und einer hohen Anzahl von Fällen, aber es gibt Licht am Ende des Tunnels. Wir sind immer noch im Tunnel, aber die Impfstoffe wirken und wir haben gelernt, welche Maßnahmen im Bereich der öffentlichen Gesundheit funktionieren, wie Masken und soziale Distanzierung. Und wir stehen kurz vor der Markteinführung von Medikamenten, die derzeit nur begrenzt verfügbar sind, aber zunehmen und an ambulante Patienten verabreicht werden und ein hohes Maß an Wirksamkeit aufweisen werden.

Wir sehen auch, dass das Virus im Laufe der Zeit weniger virulent wird. Wird sich dieser Trend fortsetzen? Wir hoffen es, wissen es aber nicht genau. Wir blicken auf etwas in Richtung einer normaleren Zukunft, insbesondere wenn der Winter langsam aufhört.

Aber ist das Virus schon endemisch? Nein. Es ist ganz klar immer noch eine Epidemie, weil die Fälle zunehmen.

Wird es noch eine Variante geben? Ja, denn Mutationen finden statt.

Werden neue Varianten die gleiche Auswirkung wie Omikron haben? Wir wissen es nicht, aber wir können sicherlich wissen, dass wir uns als Gesellschaft auf das mögliche und unvermeidliche Auftreten von Varianten vorbereiten müssen. Und das bedeutet, die Qualität der Überwachungssysteme zu verbessern und auch den Zugang zu bereits vorhandenen Impfstoffen und Medikamenten. Wir müssen eine Strategie entwickeln, wie wir langfristig mit Varianten umgehen. In den kommenden Monaten werden wir eine Rückkehr zur Normalität erleben.

Moderator Bruce Walker, Direktor des Ragon Institute of MGH, MIT und Harvard, fügte hinzu: „Es gibt viele Gründe für Optimismus. Unter dem Strich müssen wir alles tun, um zu verhindern, dass wir uns im nächsten Monat infizieren, während wir uns mitten in einem Anstieg befinden. Dann, meine ich , werden uns erneut damit befassen, wie wir vorankommen und zu einer Balance mit dieser Pandemie gelangen.“


[1] Ricki Lewis, 04.03.2021: Is COVID Optimism Finally Overtaking Pessimism? Harvard Experts Weigh In. https://dnascience.plos.org/2021/03/04/is-covid-optimism-finally-overtaking-pessimism-harvard-experts-weigh-in/

[2] Ricki Lewis, 16.12.2021: Pandemic Too Fast to Follow as Three Waves of Infection Wash Over the US: Delta, Omicron, and Flu. https://dnascience.plos.org/2021/12/16/pandemic-too-fast-to-follow-as-three-waves-of-infection-wash-over-the-us-delta-omicron-and-flu/

[3] Ricki Lewis, 21.09.2021: Viewpoint: Does mounting evidence for vaccine “durability” suggest we delay boosters for all until we learn more? https://geneticliteracyproject.org/2021/09/21/viewpoint-does-mounting-evidence-for-vaccine-durability-suggest-we-delay-boosters-for-all-until-we-learn-more/ ------------------------------------------------------ *

* Der Artikel ist erstmals am 13.Jänner 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " Pandemic Predictions Take a Turn Towards the Positive – Finally" https://dnascience.plos.org/2022/01/13/pandemic-predictions-take-a-turn-towards-the-positive-finally/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildung 1 und Legende wurden von der Redaktion eingefügt.


Weitere Links:

Massachusetts Consortium on Pathogen Readiness  https://masscpr.hms.harvard.edu/

Inge Schuster, 11.12.2021: Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2? https://scienceblog.at/omikron-impfschutz

Inge Schuster, 16.12.2021: Omikron - was wissen wir seit vorgestern? https://scienceblog.at/omikron-wirksamkeitsstudie


inge Thu, 20.01.2022 - 20:07

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Do, 13.01.2022 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Nanokapseln im medizinischen Bereich sollen Arzneistoffe sicher einschließen und diese an einen bestimmten Ort im Körper bringen. Welche Herausforderungen gibt es beim Bau bioverträglicher Kapseln, und wie gelangen sie genau zu den Stellen, an denen sie wirken sollen? Wie solche winzige Transporter hergestellt werden und welche Rolle Polymere dabei spielen, beschreibt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

Ohne die Eigenschaften der Nanowelt ist chemische Forschung heute kaum noch denkbar. Das gilt besonders für die Nanokapseln von Katharina Landfester, Direktorin am Max-Planck-Institut für Polymerforschung in Mainz. Diese Objekte sind mit einigen Hundert Nanometern Durchmesser zwar winzig. Sie sind aber immer noch viel größer als typische Moleküle. Deshalb können an ihren Oberflächen chemische Reaktionen ablaufen, zum Beispiel eine Polymerisation. Sind nun viele Nanoobjekte im Spiel, bieten sie dafür eine gigantisch große Oberfläche an. Genau diese Stärke der Nanowelt nutzt die Mainzer Forscherin in ihren Miniemulsionen aus fein verteilten Nanotröpfchen.

Abbildung 1: Schematische Darstellung von Nanokapseln als Träger von Wirkstoffen im Blut. Nanokapseln (Durchmesser etwa 100 Nanometer) sind wesentlich kleiner als Erythrozyten (rot, Durchmesser rund 7,5 Mikrometer (µm), Dicke 2 µm) und Lymphozyten (weiß, Durchmesser : 10 - 15 µm ). © Dr_Microbe/istock

Wer in die Forschungsprojekte von Katharina Landfester eintaucht, erkennt, wie faszinierend und vielfältig Chemie sein kann. Grundlagenforschung und Anwendung gehen dabei Hand in Hand. Über 50 Patente hält die Chemieprofessorin inzwischen, und in allen spielen Nanokapseln eine tragende Rolle. Die Anwendungen reichen von eingekapselten Farbpigmenten, die dadurch nicht mehr zusammenklumpen, über Parfüm-Mikrokapseln für Waschmittel oder verkapselten Korrosionsschutz für Metalle, der nur bei Beschädigung freigesetzt wird, bis hin zur Zukunftsvision einer völlig neuen Art von Medizin. Zu ihren Partnern zählen große Konzerne – und ein durch die Corona-Pandemie berühmt gewordenes Mainzer Start-up-Unternehmen: BioNTech. „Viele junge Chemikerinnen und Chemiker aus meiner Abteilung arbeiten inzwischen dort“, berichtet die Max-Planck-Direktorin über die spannenden beruflichen Perspektiven. Landfester forscht auf einem Gebiet, das ihr ganz besonders am Herzen liegt. Es geht um die Verwirklichung des Traums, Medikamente im Körper gezielt zu den Zellen zu bringen, wo sie wirken sollen. Dazu sollen die Mainzer Nanokapseln sozusagen als winzige „Transport-U-Boote“ im Blut dienen (Abbildung 2). Doch zuerst geht es im Gespräch mit der Max-Planck-Direktorin darum, wie der chemische Zauberkasten funktioniert, den sie seit ihrer Zeit als Nachwuchsforscherin so enorm kreativ weiterentwickelt hat.

Abbildung 2: Winzige Behälter. Mainzer Nanokapseln aus Hydroxyethylstärke, die eines Tages zum Beispiel ein Medikament im Körper genau ans Ziel bringen könnten. Die Aufnahme wurde mit einem Raster-Elektronenmikroskop gemacht.© MPI für Polymerforschung / CC BY-NC-ND 4.0

Grundlegende Mixtur

Die Basis sind sogenannte Miniemulsionen. Eine Emulsion ist beispielsweise ein fein verteilter Mix aus kleinen Öl- oder Fetttröpfchen in einer wässrigen Umgebung – oder umgekehrt. In Miniemulsionen sind diese Tröpfchen besonders klein, bei Landfester sogar Nanoobjekte. Die Nanowelt ist auf der Größenskala zwischen der Mikrowelt mit Objekten in Mikrometergröße und der Welt der Atome und der meisten Moleküle angesiedelt. Der Durchmesser von Atomen bemisst sich in Zehntel-Nanometern (siehe [1]). Emulsionen begegnen uns vielfach im Alltag, etwa in Lebensmitteln oder Kosmetika. Milch ist eine Mixtur aus feinen Fetttröpfchen in einer wässrigen Lösung, bei Butter oder Hautcreme ist es umgekehrt. Eigentlich sind Emulsionen etwas Unmögliches, aber Chemie und Physik machen sie doch möglich. Das erlebt man beim Anmachen einer Salatsoße. Der Essig als wässrige Phase und das Salatöl bleiben zunächst getrennt voneinander. Schnelles Durchquirlen sorgt zwar für feinere Öltröpfchen in der Soße, aber stabil wird die Vinaigrette erst durch Zugabe von etwas Senf.

Der Grund, warum wässrige und fettige Flüssigkeiten sich schlecht mischen, liegt in den Eigenschaften ihrer Moleküle. In einem Wassermolekül zieht das Sauerstoffatom die Elektronen der beiden Wasserstoffatome an. Damit bekommt das Molekül elektrisch negative und positive „Pole“. Als polares Lösungsmittel kann Wasser daher Stoffe, deren Moleküle ebenfalls elektrisch geladene Abschnitte haben, gut lösen. Beim Anlagern der Wassermoleküle entstehen Wasserstoffbrückenbindungen, die in Landfesters Forschung eine wichtige Rolle spielen: Die Wassermoleküle docken sozusagen mit ihren positiv geladenen Wasserstoffatomen an den negativ geladenen Teil eines anderen Moleküls an.

Stoffe mit solchen „hydrophilen“, also wasserliebenden Eigenschaften sind wasserlöslich. Unpolaren Lösungsmitteln wie Fetten und Ölen hingegen fehlen diese von elektrischen Ladungen dominierten Eigenschaften. Ihre Moleküle wechselwirken untereinander durch sogenannte Van-der-Waals-Kräfte. Daher können sich die Wassermoleküle nicht so gut an Fettmoleküle anlagern, was die geringe oder fehlende Löslichkeit von Fetten in Wasser erklärt. Sie sind daher hydrophob, also „wasserängstlich“. Es gibt aber „amphiphile“ Stoffe, deren Moleküle diese lipophilen, „fettliebenden“ Abschnitte und dazu noch hydrophile Teile besitzen. Als Kontaktvermittler können sie so auf der Grenzfläche zwischen den beiden Phasen dafür sorgen, dass zum Beispiel Fetttröpfchen sich sehr fein in Wasser verteilen, also emulgieren. Das geschieht beim Abwaschen von fettigem Geschirr, dank der Tensidmoleküle des Spülmittels. „Ein Beispiel für ein verbreitetes Tensid ist das Natriumdodecylsulfat in Waschmitteln“, erklärt die Chemikerin.

Das Besondere an Landfesters Miniemulsionen ist nun, dass extrem winzige Nanotröpfchen eine riesige Gesamtoberfläche formen. Auf diesem Spielfeld können chemische Reaktionen viel effizienter ablaufen als zwischen den unvermischten wässrigen und öligen Phasen. Sind diese getrennt übereinandergeschichtet, kommen sie nur auf der vergleichsweise kleinen Querschnittsfläche des Gefäßes in Kontakt. „In einer Miniemulsion gleichen Volumens entspricht dagegen die gesamte Grenzfläche zwischen beiden Phasen ungefähr einem Fußballfeld“, sagt Landfester.

Abbildung 3: Herstellung von Nanokapseln © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Wie die Herstellung von Miniemulsionen funktioniert, erklärt Landfester im Labor anhand der Geräte. „Der erste Schritt beginnt tatsächlich mit einem Turbomixer, also im Prinzip einem besseren Pürierstab“, sagt sie (Abbildung 3). Das ergibt eine Voremulsion, die dann in das eigentliche „Herzstück“ kommt. Das ist ein Hochdruck-Homogenisator, wie er im Prinzip auch zum Homogenisieren von Milch eingesetzt wird. In ihm wird die Voremulsion unter hohem Druck von bis zu 2000 bar durch einen schmalen Spalt gegen eine Art Prallwand geschossen, was die Tröpfchen bis in den Nanobereich zerkleinert. Zum Vergleich: Ein Druck von 1000 bar herrscht in einer Wassertiefe von 10 km, also ungefähr der tiefsten Stelle aller Ozeane im Marianengraben. Benötigt das Team nur kleinere Mengen, dann verwendet es alternativ ein Ultraschallgerät zur Zerkleinerung.

Spontane Kugelbildung

Aber wie setzt Landfesters Team die winzigen Tröpfchen als chemische Nanoreaktoren ein? Angefangen haben die Mainzer mit technischen Polymeren und den dazu nötigen Polymerisationsreaktionen. Grundsätzlich verketten diese Reaktionen immer gleiche chemische Grundbausteine, die Monomere, zu langen Polymeren. Mono bedeutet auch im Altgriechischen so viel wie „allein“, während Poly für „viel“ steht. „Das Polymer darf bei uns aber nur an der Kapselwand entstehen“, betont Landfester den entscheidenden Punkt. Ein Beispiel, wo das funktioniert, ist Nylon. „Nylon geht im Prinzip in der Miniemulsion, wenn auch nicht sehr gut, es ist zudem wissenschaftlich nicht so interessant für uns“, sagt Landfester.

Besser funktioniert die Nanokapsel-Herstellung mit einer ähnlichen Reaktion, bei der Polyurethan entsteht (Abbildung 4). Beide Kunststoffe haben grundsätzlich gemeinsam, dass die Polymerisationsreaktion zwei verschiedene Monomer-Bausteine zu einer langen Polymerkette verknüpft. Polyurethan entsteht in einer Polyadditionsreaktion, die Polyamidfasern des Nylons hingegen in einer Polykondensationsreaktion. Bei einer Polykondensationsreaktion muss immer ein Nebenprodukt abgespalten werden, damit die funktionellen Gruppen beider Monomere verbunden werden können. Bei einer Polyadditionsreaktion ist das nicht nötig.

Entscheidend für Landfesters Strategie ist nun, dass eine Bausteinsorte besser in der öligen, die andere in der wässrigen Phase löslich ist. Folglich kommen sie nur an der Grenzfläche miteinander in Kontakt. Damit läuft auch nur dort die Polymerisationsreaktion ab. Da das entstehende Polymer amphiphil ist, verbleibt es zwischen der wässrigen und öligen Phase und baut die Kugel des eingeschlossenen Tropfens nach. So formt sich die Nanokapsel selbstorganisiert. Bei Polyurethan ist einer der beiden Monomerbausteine ein Diol. Das ist eine organische Verbindung, die zwei alkoholische Gruppen enthält und damit oft wasserlöslich ist. Das zweite Monomer ist ein Diisocyanat, das sich besser in der öligen Phase löst. Sobald beide Monomere an der Grenzfläche in Kontakt kommen, startet die Polyadditionsreaktion, denn das Diisocyanat ist hochreaktiv.

Abbildung 4: Polyurethan-Nanokapsel. Herstellung einer Nanokapsel aus Polyurethan durch eine Polyadditionsreaktion. Links unten ist das Diisocyanat, darüber das Diol, rechts vom Reaktionspfeil das fertige Polymer. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Verträgliche Transporter

Allerdings eignen sich solche technischen Kunststoffe nicht für Nanokapseln, die medizinische Wirkstoffe ans Ziel bringen sollen. Der Einsatz im Körper erfordert biokompatible Alternativen für das Kapselmaterial. Und noch etwas sei wichtig, sagt Landfester: „Die meisten Wirkstoffe sind wasserlöslich.“ Das ist typisch für biologische Moleküle, ein Beispiel ist das mRNA-Molekül im Covid-Impfstoff von BioNTech. „Also müssen wir unsere Miniemulsion sozusagen umdrehen“, fährt die Chemikerin fort (Abbildung 3 rechts). Das Team musste Nanokapseln mit einem wässrigen Inhalt erzeugen, die während der Reaktion in einer öligen Flüssigkeit emulgiert sind – sozusagen High-Tech-Creme. Für das Material der Kapsel experimentierten die Mainzer mit verschiedenen biokompatiblen Stoffen, die sich polymerisieren lassen. Dazu müssen diese reaktive Gruppen besitzen, die sich für chemische Bindungen an weitere Moleküle eignen. So sind die Mainzer zu Kohlenhydraten und Proteinen gekommen. „Zucker haben OH-Gruppen, mit denen man solche Grenzflächenreaktionen machen kann“, erzählt Landfester, „und bei Proteinen sind es Amino.(NH2)-Gruppen an bestimmten Aminosäuren, die man zur Reaktion nutzen kann“.

Proteine sind besonders interessant für das Ziel, Medikamente im Körper genau dorthin zu bringen, wo sie wirken sollen. Das liegt daran, dass man Proteinoberflächen von Nanokapseln gewissermaßen mit chemischen Versandadressen versehen kann, die bestimmte Zellen erkennen können. Das können Immunzellen sein, die gegen ein Virus oder eine Krebsart aktiviert werden sollen – oder Tumorzellen. Targeting heißt dieser Traum der Medizin, nach dem englischen Wort „target“ für Ziel. Proteine sind als große Biomoleküle bereits Polymere. Die Grenzflächenreaktion, die aus ihnen Nanokapseln formen soll, muss daher etwas anderes tun als zu polymerisieren. Sie muss benachbarte Polymerstränge miteinander so vernetzen, dass diese eine stabile Kapsel bilden. Das Resultat einer Vernetzung von Proteinen begegnet uns im Alltag zum Beispiel in Form von Gelatine. Für die biokompatiblen Nanokapseln kommen verschiedene Vernetzungsreaktionen zum Zug. Ein besonders interessanter Ansatz sind sogenannte „Click-Reaktionen“. Ein herkömmliches Reagenz, das eine Vernetzung starten soll, funktioniert „unspezifisch“, also nicht zielgerichtet. Dadurch besteht die Gefahr, dass es auch mit den Wirkstoffen reagiert, die eingekapselt werden sollen. „Viele Wirkstoffe haben ebenfalls OH- oder NH2-Gruppen“, erklärt die Professorin: „Das heißt, wir würden sie ungewollt mit der Kapsel vernetzen.“ Das darf aber nicht passieren, und hier spielt die Click-Chemie ihren Vorteil aus: Sie funktioniert zielgerichtet und schnell.

Es gibt verschiedene Vernetzungsreaktionen mit Hilfe der Click-Chemie. Eine ist die Alkin-Azid-Reaktion. Entscheidend ist hier die N3-Gruppe der Azide, mit der zuerst die zu vernetzenden Proteine „funktionalisiert“, sozusagen für die Vernetzung vorbereitet werden. Dabei werden die NH2-Gruppen des Proteins genutzt, um ein Molekül anzubinden, an dessen Ende sich eine N3-Gruppe befindet. Diese Azid-Gruppe reagiert dann mit einem Dialkin, das die Rolle eines „Vernetzermoleküls“ übernimmt. Die Dreifachbindung des Dialkins öffnet sich und sorgt dafür, dass sich mit den am Protein hängenden Azid-Gruppen Ringmoleküle ausbilden. Diese verknüpfen dann benachbarte Proteine zum Netzwerk (Abbildung 5).

Abbildung 5: Click-Chemie. Proteinmoleküle, die durch die Reaktion einer Azid-Gruppe mit einem Dialkin miteinander vernetzt wurden. Das Fenster zeigt, wie die Reaktion an der Kapselwand abläuft (rote Pfeile). R1: Proteinmolekül, R2: Dialkin, blau: wässriger Nanotropfen, gelb: umgebende ölige Phase, grün: Proteinmoleküle. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Eine Click-Vernetzungsreaktion hat noch einen Vorteil: Es entstehen keine Nebenprodukte, die gesundheitsschädlich sein könnten. Außerdem muss die Vernetzung so ablaufen, dass sie die biologische Funktion der Kapselproteine selbst nicht verändert. Das ist wichtig für die smarte Funktion beim Targeting im Körper. Bei den Nanokapseln gibt es allerdings noch eine Herausforderung: Sie müssen so dicht sein, dass die Wirkstoffmoleküle sicher eingekapselt bleiben, solange sie nicht am Ziel sind. Nun ist so eine Kapsel mit einem Durchmesser von etwa hundert Nanometern wirklich winzig. Die Kapselwand ist folglich nur 15 bis 20 Nanometer dünn – eine Extremfolie sozusagen. „Jetzt versuchen Sie mal, das dicht zu machen“, sagt Landfester. Je dünner so ein Polymernetzwerk ist, desto durchlässiger wird es auch. Die Folge: Die Wirkstoffmoleküle drohen die Kapsel zu verlassen, bevor sie am Ziel sind. Zum Glück gibt es Möglichkeiten, diese superdünnen Kapselwände dichter zu bekommen. Als ersten Schritt kann man sie noch stärker vernetzen, also das Molekülgitter engmaschiger machen. „Das reicht aber häufig nicht aus“, sagt die Chemikerin. Abhilfe können nun zusätzliche Wasserstoffbrückenbindungen bringen. „Die ziehen das Netzwerk der Proteinstränge noch näher zusammen und machen es dichter“, betont Landfester. Vor allem ordnen die Stränge sich teilweise so sauber nebeneinander, dass sie ansatzweise Kristalle bilden. Diese Teilkristallinität macht zum Beispiel auch Kunststofffolien wasserdichter. „Wenn Plastiktüten knistern, dann hört man diese Teilkristallinität sogar“, erklärt die Max-Planck-Direktorin einen Effekt, den alle kennen.

Zielgenaue Lieferung

Eine Nanokapsel, die einen Wirkstoff sicher eingeschlossen transportieren kann, ist aber nur der erste Schritt. Der nächste ist das Targeting, also das erfolgreiche Adressieren an ein Ziel im Körper. Das erfordert Lösungen, bei denen Chemie auf Biologie und Medizin trifft. Deshalb arbeitet Landfesters Team seit 2013 in einem großen Sonderforschungsbereich mit diesen Disziplinen zusammen, auch die Physik ist dabei. Ein Ziel ist es, die Kapseln an ihrer Oberfläche mit Molekülen zu versehen, die nur von den zu bekämpfenden Erregern im Körper erkannt werden. Dazu muss die Kapsel allerdings chemisch so getarnt sein, dass sie nicht vorher schon im Blut von den falschen Adressaten wie den Fresszellen erkannt und aufgenommen wird. „Angesichts von 1600 Proteinen im Blut ist das eine echte Herausforderung“, sagt Landfester. Inzwischen hat das Team Lösungen für eine solche Tarnkappenfunktion gefunden. Eine wichtige Rolle spielen dabei sogenannte Apolipoproteine. Diese Moleküle führen dazu, dass die Nanokapseln von den Zellen nicht erkannt werden.

Beim Targeting, das Krebszellen bekämpfen soll, gibt es eine schlauere Alternative als die Tumorzellen direkt zu vergiften: Das Immunsystem selbst soll gegen die versteckten Tumorzellen fit gemacht werden. Dazu werden die Nanokapseln an der Oberfläche so präpariert, dass die T-Zellen des Immunsystems sie erkennen und zerstören. In der Kapsel befinden sich Moleküle, die das Immunsystem auf Merkmale der Tumorzellen trainieren. So lernen die T-Zellen, diese Feinde im Körper aufzuspüren und zu vernichten. Tatsächlich funktionieren diese „Nanotherapeutika“ schon bei erkrankten Mäusen im Labor. Katharina Landfester ist optimistisch, dass der Einsatz solcher Therapeutika auch bald beim Menschen möglich sein wird. Chemische Grundlagenforschung kann also auf unterschiedlichsten Gebieten Fortschritte bringen. Das ist das Faszinierende an ihr.


 *Der Artikel ist unter dem Titel " Smarte Polymere – wie Nanokapseln Chemie und Medizin revolutionieren" in TECHMAX 29 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-29-polymere-nanokapseln/.. Der unter einer CC BY-NC-SA 4.0 Lizenz stehende Artikel ist hier ungekürzt wiedergegeben. Abbbildung1 wurde von der Redaktion mit einer Beschriftung versehen.


Weiterführende Links

Katharina Landfester: Physikalische Chemie der Polymere. Max-Planck-Institut für Polymerforschung.  https://www.mpip-mainz.mpg.de/de/landfester

Volker Mailänder & Katharina Landstätter: Wirkstofftransporter für die Nanomedizin (2016). https://www.mpg.de/11344118/wirkstofftransporter-fuer-nanomedizin.pdf

Max-Planck.Institut für Polymerforschung: Kunststoff Bildungspfad: https://sites.mpip-mainz.mpg.de/kunststoffbildungspfad  

Universität Mainz: Sonderforschungsbereich 1066 - Die vier Teile der Videoreihe zum SFB 1066 im Überblick (30.10.2020):

inge Thu, 13.01.2022 - 17:30

Was ist long-Covid?

Was ist long-Covid?

Fr. 07.01.2022  — Inge Schuster

Inge Schuster Icon Medizin Weltweit haben sich bisher über 300 Millionen Menschen mit SARS-CoV-2 Infiziert, 5,47 Millionen sind an oder mit COVID-19 gestorben, etwa die Differenz gilt als "genesen". Dass ein beträchtlicher Anteil der "Genesenen" aber unter massiven Langzeitfolgen, dem sogenannten long-COVID, leidet, wird häufig übersehen. Die Fülle an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen. Deren Pathomechanismen sind aber noch weitgehend unverstanden. Es fehlen auch eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Impfungen könnten nicht nur vor der Erkrankung an COVID-19 schützen, sondern auch das Risiko von long-COVID reduzieren.

Vor mehr als einem Jahr infizierte sich unser Nachbar mit SARS-CoV-2 . Glücklicherweise kam es zu einem recht milden Verlauf: er hatte Symptome, wie man sie von einer sogenannten Erkältung kennt Schnupfen, Husten, Halsweh, etwas Fieber - und diese klangen rasch ab. Nicht abgeklungen sind allerdings nun mehr als ein Jahr danach die Langzeitfolgen: ein völliger Verlust von Geruchs- und Geschmacksempfindungen und eine bleierne Müdigkeit. Unser Nachbar ist damit kein Einzelfall.

Von COVID-19 genesen bedeutet nicht immer gesund.

Nach der akuten Phase einer Corona-Infektion treten häufig Langzeitfolgen auf. Es sind vielfältige, oftmals wenig spezifische Symptome wie u.a. dauernde Erschöpfung, Atemnot, Schlafstörungen, kognitive Probleme und Konzentrationsstörungen ("Gehirnnebel"), die sich nach einem schweren lebensbedrohenden, längerem Krankheitsverlauf, aber ebenso nach milden, 2-3 Wochen dauernden Verläufen und sogar nach asymptomatischen Verläufen einstellen können. Auch junge, gesunde und sportliche Personen und sogar Kinder können von solchen Langzeitfolgen betroffen sein.

Mit diesem neuartigen Krankheitsbild haben sich bereits sehr viele internationale und auch nationale Studien – klinische Untersuchungen, Internet-basierte Umfragen und Metaanalysen – befasst (allein in der Datenbank PubMed (MEDLINE) sind dazu schon 938 wissenschaftliche Artikel gelistet; 5.Jänner 2022); sehr viele Studien sind aktuell am Laufen. Dennoch ist Vieles noch ungeklärt – von der Epidemiologie (insbesondere bei Kindern) bis zur Charakterisierung und Definition der Krankheit, d.i. zu den Pathomechanismen vieler Symptome, zu deren Verlauf/Rückbildung, zur Lebensqualität und Funktionsfähigkeit der Betroffenen, zu Diagnose und Ansätzen zur Rehabilitation. Eine erste (zweifellos verbesserbare) Definition (Fallbeschreibung) hat die Weltgesundheitsorganisation (WHO) am 6. Oktober 2021 veröffentlicht:

       "Eine Post-COVID-19-Erkrankung kann bei Personen mit einer wahrscheinlichen oder bestätigten SARS-CoV-2-Infektion auftreten, in der Regel drei Monate nach Auftreten von COVID-19 mit Symptomen, die mindestens zwei Monate andauern und nicht durch eine andere Diagnose zu erklären sind. Zu den allgemeinen Symptomen zählen Erschöpfung, Kurzatmigkeit, kognitive Fehlleistungen sowie weitere, die sich im Allgemeinen auf den Tagesablauf auswirken. Die Symptome können neu auftreten nach einer anfänglichen Genesung von einer akuten COVID-19-Erkrankung oder die anfängliche Krankheit überdauern. Die Symptome können fluktuieren oder mit der Zeit wiederkehren. Eine gesonderte Definition kann für Kinder erforderlich sein." [1]

Von den unterschiedlichen Bezeichnungen, die für diese neuartige Erkrankung geprägt wurden - dem WHO angeregten Begriff "Post-COVID-19-Erkrankung" oder „long-haul COVID“ oder „long COVID“ - wird im folgenden Text long-COVID verwendet.

Wie viele SARS-CoV-2-Infizierte sind von long-COVID betroffen?

Über die Häufigkeit von long-COVID variieren die Aussagen. Während die WHO eine Inzidenz von 10 - 20 % der zuvor an COVID-19 Erkrankten schätzt [2], gehen zahlreiche nationale (u.a. in Norwegen, Großbritannien, USA, Deutschland, China, etc.) und internationale Studien davon aus, dass bis zu 75 % (und sogar noch mehr, siehe [5]) zumindest ein oder mehrere mit long-COVID assoziierte Symptome aufweisen.

Neueste Ergebnisse aus der bislang größten deutschen Studie - der EU-geförderte Gutenberg COVID-19 Studie - wurden in einer Pressekonferenz am 20. Dezember 2021 vorgestellt [3]. Die von Oktober 2020 bis März 2022 laufende Studie untersucht(e) eine repräsentative Bevölkerungsstichprobe von insgesamt 10.250 Personen aus Rheinhessen zu zwei Zeitpunkten im Abstand von 4 Monaten sowie nach einem Jahr. Ziel dieser Studie ist es das Krankheitsbild von long-COVID "evidenzbasiert charakterisieren und definieren zu können. Das beinhaltet beispielsweise betroffene Organe und Systeme, aber auch Risikofaktoren zu identifizieren" [3]. PCR- und Antigen-Tests ergaben, dass rund 5 % der Probanden sich mit dem Coronavirus - wissentlich oder unwissentlich - angesteckt hatten. Von diesen berichteten jeweils rund 40 % über mindestens 6 Monate nach der Infektion andauernde/neu aufgetretene long-COVID-Symptome. Etwa die Hälfte der Symptome verursachten eine mäßige bis schwere Beeinträchtigung des Alltagslebens und/oder Berufslebens.

Für eine der bisher größten internationalen Studien wurde eine Internet-basierte Umfrage designt, mit der sowohl das breite Profil der long-COVID Symptome, als auch deren zeitlicher Verlauf und die Auswirkungen auf Alltags- und Berufsleben erfasst werden sollten. Unter Leitung des University College London wurden damit 3762 COVID-19 Fälle aus 56 Ländern über 7 Monate verfolgt [4]. Von diesen gaben etwa 65 % an 6 Monate nach der Erkrankung noch unter Symptomen zu leiden: mehr als die Hälfte unter Erschöpfung (Fatigue), Verschlechterung des Zustands nach physischer oder mentaler Belastung, kognitiven Störungen ("Gehirn-Nebel"), Gedächtnisproblemen, Bewegungseinschränkungen, Kopfschmerzen; bis zu 50 % litten an Atemnot, Muskelschmerzen, Arrhythmien, Schlaflosigkeit, Gleichgewichtsstörungen, u.a.m. Wie schwer solche Symptome sind und, dass sie offensichtlich noch länger als 6 Monate anhalten dürften, ist in Abbildung 1 dargestellt.

Abbildung 1: Wahrscheinlichkeiten von leichten bis sehr schweren Symptomen nach COVID-19 und deren zeitlicher Verlauf. Schwere bis schwerste Symptome nehmen nach der Akutphase ab, sind aber nach 6 Monaten noch nicht abgeklungen. Mäßig starke und milde Symptome nehmen zu und dominieren die Spätphase. Bild modifiziert nach H. E. Davis et al.,2021 [4] (Lizenz cc-by 4.0).

Symptome von long-COVID

Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen Gegenstand intensiver Forschung sind. In diesem Zusammenhang sollte darauf hingewiesen werden, dass sehr viele Typen unserer Körperzellen mit Rezeptoren ausgestattet sind, welche dort das Andocken und Eindringen von SARS-CoV-2 ermöglichen. So kann das Virus neben dem Atmungstrakt verschiedene andere Organe und Gewebe - von Herz, Niere, Leber bis zum Gehirn - befallen. Dies ist in Einklang mit klinischen Studien und Autopsien (s.u.), in denen strukturelle Schädigungen in Organen, Geweben, Blutgefäßen beobachtet werden, ausgelöst möglicherweise durch zurückbleibendes Virus, durch chronische Entzündungsprozesse und/oder durch Virus-verursachte Dysregulierungen des Immunsystems.

Dass das Krankheitsbild von long-COVID den gesamten Körper betreffen kann, soll an Hand von 2 repräsentativen Studien gezeigt werden, die bezüglich der am häufigsten auftretenden Symptome übereinstimmen:

     Eine systematische, umfassende Übersicht basierend auf Metaanalysen aller Artikel (peer-reviewed) mit Originaldaten zu long-COVID, die an mindestens 100 Personen stattfanden und vor dem 1. Jänner 2021 veröffentlicht wurden, ist im August 2021 im Fachjournal Nature erschienen [5]. Insgesamt wurden knapp 48 000 Patienten (im Alter von 17 - 87 Jahren) in einem Zeitraum von 14 - 110 Tagen nach der Virusinfektion erfasst und 55 Symptome identifiziert, die mit long-COVID assoziiert sind. Laut Schätzung der Autoren entwickelten rund 80 % der infizierten Patienten in dieser Zeit ein oder mehrere solcher Symptome. Zu den 5 am häufigsten vorkommenden Symptomen zählten Erschöpfung (58 %), Kopfschmerzen (44 %), Aufmerksamkeitsstörungen (27 %), Haarausfall (25 %) und Atemnot (24 %). Einen Überblick über alle 55 Symptome und deren Häufigkeit gibt Abbildung 2.

Abbildung 2. Symptome von long-COVID. Die Häufigkeit (%) der 55 Symptome ist durch Größe und Farben der Kreise gekennzeichnet; rund 80 % der Patienten litten im Zeitraum 14 - 110 Tage nach Infektion mit Beginn von COVID-19 unter zumindest einem der Symptome. Bild leicht modifiziert nach S. Lopez-Leon et al., [5] (Lizenz: cc-by).

     Die bereits oben erwähnte, vom University College London geleitete Studie berichtet über eine noch höhere Zahl an Symptomen [4]: Insgesamt finden sich über 200 Symptome in der Liste, die 10 Organsystemen zugeordnet wurden:

  • systemische Beeinträchtigungen (u.a. Erschöpfung, Schwäche, Fieber),
  • neuropsychiatrische Symptome (von kognitiven Beeinträchtigungen bis zur Ageusie),
  • Symptome des Atmungstraktes (u.a. Atemnot),
  • Symptome des Verdauungstraktes,
  • Symptome des Reproduktions-und endokrinen Systems,
  • Symptome des Herz-Kreislaufsystems,
  • Symptome des Skelett-Muskelsystems,
  • Symptome der Haut,
  • Symptome an Schädel, Auge, Ohr, Rachen,
  • immunologische / Autoimmun-Symptome.

Long-COVID oder nicht-long-COVID - das ist die Frage

Eine Vielfalt und Vielzahl an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen; es fehlen aber eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Viele der mit long-COVID assoziierten Beschwerden sind ja unspezifisch und können auch bei Personen auftreten, die nicht mit SARS-CoV-2 infiziert sind. Die Abgrenzung ist schwierig; vielen Studien, die long-Covid Symptome beschreiben, fehlen ausgewogene Kontrollgruppen aus der nicht-infizierten Bevölkerung.

Die bereits erwähnte Gutenberg-Studie [3] kann auf solche Kontrollgruppen zurückgreifen. Hier hatten 40 % der nachgewiesen Infizierten über diverse Langzeitfolgen berichtet - allerdings auch rund 40 % der nachgewiesen nicht-Infizierten. In dieser Gruppe überwogen allerdings unspezifische Symptome wie Müdigkeit, Schlafstörungen und Stimmungsschwankungen. Die Infizierten gaben dagegen spezifischere Symptome wie u.a. den Verlust von Geruch- und Geschmacksinn (Ageusie) an.

In einer schwedischen Studie (COMMUNITY) wurden an Spitalsbeschäftigten Langzeit-Symptome nach milden Verläufen von COVID-19 und an entsprechenden Kontrollgruppen untersucht: 26 % der Infizierten (gegenüber 9 % der nicht-Infizierten) gaben an längerfristig zumindest an einem mittelschweren bis schweren Symptom zu leiden, welche die Lebensqualität beeinträchtigten, wobei der Verlust von Geruch und Geschmack, Erschöpfung und Atemprobleme im Vordergrund standen. Kognitionsstörungen, Muskelschmerzen oder auch Fieber traten nicht häufiger als in der Kontrollgruppe auf [6].

Langzeitfolgen nach COVID-19 und Influenza. Langzeitfolgen sind auch nach anderen Virusinfektionen wie beispielsweise Influenza bekannt. Ein Forscherteam von der Oxford University hat - basierend auf den elektronischen Gesundheitsdaten von 81 Millionen Personen inklusive 273,618 von COVID-19 Genesener - das Auftreten von 9 langfristigen mit post-COVID assoziierten Symptomen an den COVID-19-Genesenen untersucht und an einer vergleichbaren Gruppe von im selben Zeitraum von Influenza genesenen Personen.[7] Insgesamt traten Symptome nach COVID -19 wesentlich häufiger auf als nach Influenza: im Zeitraum 3 - 6 Monate nach Infektion litten 42,3 % nach COVID-19 gegenüber 29,7 % nach Influenza an derartigen Symptomen. Auch nach einzelnen Symptomen betrachtet traten diese nach COVID-19 häufiger auf als nach Influenza. Abbildung 3. Ein beträchtlicher Teil der Beschwerden könnte auch bei nicht-infizierten Personen vorkommen.

Abbildung 3. Wesentliche langfristige Symptome nach COVID-19 treten auch nach Influenza auf, allerdings mit geringerer Häufigkeit. Bild zusammengestellt aus Daten von Table 1 in M. Taquet et al., [7](Lizenz: cc-by).

Long-COVID eine Multiorganerkrankung: Evidenz für die systemische Ausbreitung und Persistenz von SARS-CoV-2 in diversen Körperregionen

Vor wenigen Tagen ist die Untersuchung eines NIH-Forscherteams um Daniel Chertow erschienen (als preprint), die eine Erklärung für die breite Palette und Persistenz der long-COVID Symptome bieten könnte.

An Hand der Autopsien von 44 hospitalisierten (größtenteils intubierten) Patienten, die bis zu 230 Tage nach dem Auftreten von Symptomen an oder mit COVID-19 verstarben, wird erstmals ein Bild über die breite Verteilung von SARS-CoV-2 über nahezu den gesamten Organismus, seine Replikation, Mutierbarkeit und Persistenz - und das auch im Gehirn - aufzeigt [8]. (Die Autopsieproben wurden dabei zu einem Zeitpunkt analysiert , an dem sich die virale RNA noch nicht zersetzt hatte):

Gene des Virus wurden in den Lungen praktisch aller Verstorbenen in höchster Kopienzahl nachgewiesen, in niedrigerer Konzentration aber auch an mehr als 80 anderen Orten. Unter anderem wies bei 80 % der Patienten das Herz-Kreislauf-System Virus-RNA auf, bei 86 % das Lymph-System, bei 72 % der Magen-Darmtrakt, bei 64 % Nieren und Hor¬mondrüsen, bei 43 % die Fortpflanzungsorgane, bei 68 % Muskel-, Fett- und Hautgewebe einschließlich periphe¬rer Nerven, Augen bei 58 % und Hirngewebe bei 91 % (in 10 von 11 analysierbaren Proben). Neben den Genen des Virus wurden auch seine Genprodukte -Virus Proteine - in den Organen detektiert. Abbildung 4 zeigt, dass das virale Nucleocapsidprotein NP1 in allen Schichten des Cerebellums detektiert werden kann.

Abbildung 4. Das SARS-CoV-2 Protein Np1 (grün) wird in allen Schichten des Cerebellums detektiert (MS: Molekulare Schicht, KS: Körnerschicht, WS: weiße Substanz). Zellkerne: Neronen-spezifische Kerne wurden mit NeuN rot-violett gefärbt, andere Zell sind blau. Rechts. ein vergrößerter Ausschnitt aus der weißen Substanz zeigt ein angeschnittenes Blutgefäß, in dessen umhüllenden Endothelzellen das Virusprotein eingelagert ist. Bild: modifizierter Ausschnitt aus D. Chertow et al., 2021 [8].(Lizenz cc-by) .

Bei längerer Dauer der Infektion ging die Zahl der Virus RNA-Kopien in den Organen zurück, ließen sich jedoch bis zu 230 Tage nach Symptombeginn noch nachweisen; auch bei Patienten die symptomlos oder mit milden Symptomen verstarben.

Die Sequenzierung der RNA ergab, dass bei einigen Patienten bereits mehrere durch einzelne Mutationen unterschiedliche Varianten auftraten, die auf die fehlerhafte Replikation - Evolution - des Virus schließen ließen.

Kann die Impfung vor long-COVID schützen?

Dafür gibt es erste Hinweise aus der britischen Zoe-COVID-Studie, einer Initiative zu der weltweit via App Millonen Menschen beitragen. Für Großbritannien zeigen die Daten, dass zweifach geimpfte Personen nicht nur vor schweren Krankheitsverläufen mit Hospitalisierungen geschützt sind (Reduktion um 73 %), sondern auch - falls es zu einem Impfdurchbruch kommt - nur ein halb so großes Risiko haben long-COVID  zu entwickeln wie ungeimpfte Personen [9].

Fazit

Von den global bereits über 300 MIllionen mit SARS-CoV-2 Infizierten, gelten rund 97 % bereits als genesen. Tatsächlich dürfte ein beträchtlicher Teil (> 30 Millionen) an z.T. schweren Langzeitfolgen - long-COVID - leiden, welche die Lebensqualität beeinträchtigen und bis zur Funktionsunfähigkeit in Alltag und Berufsleben führen. Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen bislang nicht bekannt sind und die auf eine Involvierung sehr vieler Organe und Gewebe hindeuten. (Der Großteil der zugrundeliegenden Studien stammt allerdings aus einem Zeitraum, in dem die neuen Virus-Varianten Delta und Omikron noch nicht entstanden waren; diese könnten zu einer unterschiedlichen Virusbelastung des Organismus führen.)

Bislang gibt es noch keine Definition für dieses neuartige Krankheitsbild, auch keine eindeutige Diagnose und Strategien zur Rehabilitation Betroffener. Welche Auswirkungen long-COVID auf unsere Gesundheitssysteme haben kann, wenn auch nur 10 % der Infizierten long-COVID entwickeln und langfristig behandelt werden müssen, lässt größte Befürchtungen aufkommen. Eine Intensivierung der Forschung zu long-COVID ist unabdingbar.


[1] WHO: Klinische Falldefinition einer Post-COVID-19-Erkrankung gemäß Delphi-Konsens (6.10.2021).https://apps.who.int/iris/bitstream/handle/10665/350195/WHO-2019-nCoV-Post-COVID-19-condition-Clinical-case-definition-2021.1-ger.pdf?sequence=1&isAllowed=y

[2]WHO: Coronavirus disease (COVID-19): Post COVID-19 condition (16 December 2021) https://www.who.int/news-room/questions-and-answers/item/coronavirus-disease-(covid-19)-post-covid-19-condition

[3] Die Gutenberg COVID-19 Studie. https://www.unimedizin-mainz.de/GCS/dashboard/#/app/pages/AktuelleErgebnisse/ergebnisselc

[4] Hannah E. Davis et al., Characterizing long COVID in an international cohort: 7 months of symptoms and their impact. July 2021, EClinicalMedicine.  DOI: 10.1016/j.eclinm.2021.101019

[5] Sandra Lopez-Leon et al., More than 50 long‑term effects of COVID‑19: a systematic review and meta‑analysis. Nature, Scientific Reports (2021) 11:16144; https://doi.org/10.1038/s41598-021-95565-8

[6] Sebastian Havervall et al., “Symptoms and Functional Impairment Assessed 8 Months After Mild COVID-19 Among Health Care Workers” April 2021, JAMA: Journal of the American Medical Association.  DOI: 10.1001/jama.2021.5612

[7] Maxime Taquet et al., Incidence, co-occurrence, and evolution of long-COVID features: A 6-month retrospective cohort study of 273,618 survivors of COVID-19. (28.09.2021) PLoS Med 18(9): e1003773. https://doi.org/10.1371/journal.pmed.1003773

[8] Daniel Chertow et al., SARS-CoV-2 infection and persistence throughout the human body and brain. Biological Sciences - Article, DOI:https://doi.org/10.21203/rs.3.rs-1139035/v1

[9] Michela Antonelli et al., Risk factors and disease profile of post-vaccination SARS-CoV-2 infection in UK users of the COVID Symptom Study app: a prospective, community-based, nested, case-control study. 2022, The Lancet, Infectious Diseases 22 (1): 43 - 55

inge Fri, 07.01.2022 - 18:53

Comments