…Erscheinungsdatum

…Erscheinungsdatum Redaktion Tue, 19.03.2019 - 10:10

2021

2021 mat Thu, 07.01.2021 - 06:20

Brennstoffzellen: Knallgas unter Kontrolle

Brennstoffzellen: Knallgas unter Kontrolle

Do, 08.10.2021 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Brennstoffzellen ermöglichen die direkte Umwandlung von chemischer Energie in elektrische Energie. Verglichen mit der von fossilen Brennstoffen ausgehenden Stromerzeugung haben Brennstoffzellen dementsprechend einen sehr hohen Wirkungsgrad. Die im folgenden Artikel beschriebene Zelle verwendet kontinuierlich zuströmenden Wasserstoff als Brennstoff, der Reaktionspartner ist Sauerstoff. Dabei entstehen Strom, Wasserdampf und Wärme. Wie diese Zelle funktioniert, wovon ihre Effizienz abhängt und wie sie praxistauglicher gemacht werden kann, erklärt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

„Houston, wir haben hier ein Problem.“ Mit dieser Meldung von Apollo 13 wurde die Brennstoffzelle schlagartig berühmt. Am 11. April 1970 war ein Sauerstofftank an Bord des Raumschiffs auf dem Weg zum Mond explodiert. Das Merkwürdige war, dass damit die Stromproduktion an Bord ausfiel. Was aber hat Sauerstoff mit elektrischer Energie zu tun? Die mitfiebernden Fernsehzuschauer erfuhren, dass eine „Brennstoffzelle“ aus Sauerstoff und Wasserstoff elektrischen Strom machte. Das Abfallprodukt war praktischerweise Trinkwasser für die Astronauten.

Die erste Brennstoffzelle bastelte 1838 Christian Friedrich Schönbein. Wasser kann man mit elektrischer Energie in Wasserstoff und Sauerstoff spalten, und diese Elektrolyse (Abbildung 1) drehte Schönbein um. Er steckte zwei Platindrähte in Salzsäure und umspülte den einen Draht mit Wasserstoff, den anderen mit Sauerstoff. Zwischen den Drähten konnte er eine elektrische Spannung messen. fast zur gleichen Zeit kam der Engländer Sir William Grove auf dieselbe Idee. Beide gelten heute als Väter der Brennstoffzelle. Welches Energiepotenzial eine Wasserstoff-Brennstoffzelle hat, vermittelt ein Schulversuch: Mischt man gasförmigen Wasserstoff mit Sauerstoff und entzündet dieses Knallgas, dann gibt es eine Explosion. Chemisch verbinden sich dabei jeweils zwei Wasserstoffatome mit einem Sauerstoffatom zu einem Wassermolekül. Dabei wird viel Energie als Wärme frei. eine Brennstoffzelle bringt diese heftige chemische Reaktion unter Kontrolle und zwingt sie, ihre Energie zum guten Teil in elektrisch nutzbarer Form abzugeben. Abbildung 1.

Abbildung 1: Knallgas unter Kontrolle

Brennstoffzellen gehören, wie Batterien und Akkumulatoren, zu den elektrochemischen Zellen. Diese wandeln chemische Energie in elektrische Energie um. Akkus sind über den umgekehrten Prozess auch aufladbar. Im Unterschied zu Batterien müssen Brennstoffzellen permanent von außen mit den elektrochemisch aktiven Stoffen, Sauerstoff und Brennstoff, versorgt werden. Nur dann produzieren sie elektrische Energie.

Wie Batterien haben Brennstoffzellen zwei Elektroden, die über einen Elektrolyten Kontakt haben. Zusätzlich brauchen sie noch einen Anschluss für den Brennstoff, in der Regel reinen Wasserstoff. Durch eine weitere Öffnung müssen sie Sauerstoff aus der Luft aufnehmen können. Als Abgas entsteht in der Wasserstoff-Brennstoffzelle reiner Wasserdampf.

Die Elektroden der Zellen sind porös, damit Luft, der Brennstoff und das Abgas sie möglichst gut durchströmen können. Sie bestehen zum Beispiel aus mikroskopisch kleinen Kohlenstoffkörnern, die zusammengepresst sind. Diese Körnchen sind zusätzlich mit Katalysatorteilchen belegt, die ungefähr zehn Mal kleiner sind. als Reaktionsbeschleuniger spielt der Katalysator eine entscheidende Rolle. Wasserstoff-Brennstoffzellen benötigen hierfür Edelmetalle wie Platin, was teuer ist.

Das Team des Chemikers Klaus- Dieter Kreuer am Max-Planck-Institut für Festkörperforschung forscht an der Verbesserung von Niedertemperatur-Brennstoffzellen. Die Betriebstemperatur solcher Zellen liegt normalerweise unterhalb von 100 °C, dem Siedepunkt von Wasser unter Normaldruck. ihre kompakte Bauweise erlaubt enorme Leistungsdichten. im Gegensatz zu Hochtemperatur-Brennstoffzellen, die bei bis zu 1000 °c arbeiten, reagieren sie agil auf Lastwechsel, zum Beispiel beim Beschleunigen und Bremsen von Fahrzeugen. Das macht sie besonders geeignet für Elektroautos und elektrische Züge auf Strecken ohne Oberleitung.

Im Fokus von Kreuers Team steht ein zentrales Bauteil der Niedertemperatur-Brennstoffzellen: eine hauchdünne Kunststoffmembran. Diese muss beide Elektrodenräume der Brennstoffzelle effizient trennen. Deshalb heißen solche Zellen auch Polymermembran-Brennstoffzellen. „Heute sind solche Membranen bis zu zehn Mikrometer dünn“, erklärt Kreuer. Menschliches Kopfhaar ist grob zehnmal so dick. Da es an den bisher verwendeten Membranen noch Verbesserungsbedarf gibt, forschen die Stuttgarter Chemikerinnen und Chemiker seit vielen Jahren an neuen Membranmaterialien.

Abbildung 2: Grundprinzip der Wasserstoff-Niedertemperatur-Brennstoffzelle. In der Anode links wird das Wasserstoffgas H2 (H–H) in je zwei Protonen (H+, rot) und Elektronen (e–, blau) zerlegt. Die Elektronen fließen durch einen Verbraucher und leisten dort Arbeit. Die Protonen wandern durch die Membran als Elektrolyt in die Kathode (rechts). Dort treffen sie auf die vom Verbraucher kommenden Elektronen. Zusammen mit Sauerstoff ( O2) aus angesaugter Luft entsteht Wasser (H2O). © R. Wengenmayr / CC BY-NC-SA 4.0

Um zu verstehen, was eine solche Membran leisten muss, schauen wir uns zuerst an, wie eine Wasserstoff-Brennstoffzelle grundsätzlich funktioniert. In ihr laufen zwei einfache chemische Teilreaktionen ab, räumlich getrennt an den beiden Elektroden (Abbildung 2). An der Anode wird das Wasserstoffgas H2 elektrochemisch in zwei Wasserstoffatomkerne, also Protonen (H+), und zwei Elektronen (e–) zerlegt. Oxidation heißt eine solche Reaktion. Vom Anodenkontakt fließen die Elektronen (e–) durch den äußeren Stromkreis und leisten Arbeit. Sie treiben zum Beispiel den Elektromotor eines Autos an. Danach fließen sie über den Kathodenkontakt zurück in die Zelle. An der Kathode treffen die Elektronen wieder auf die Protonen. Über diese Elektrode saugt die Zelle auch Luft und damit Sauerstoff (O2) an. In der Kathode läuft die zweite Teilreaktion ab. Dabei wird das Sauerstoffmolekül an der Katalysatoroberfläche in zwei Sauerstoffatome zerlegt, die sich mit je zwei Protonen und zwei Elektronen zu Wassermolekülen (H2O) verbinden. Diese Teilreaktion stellt eine chemische Reduktion dar. Die Zelle gibt den reinen Wasserdampf zusammen mit überschüssiger Luft als Abgas ab. Theoretisch liefert so eine Zelle bei Raumtemperatur 1,23 Volt Spannung. Verluste durch elektrische Widerstände drücken diese aber in der Praxis unter 1 Volt.

Aber wie gelangen die Protonen in die Kathode? Hier kommt die Membran ins Spiel. Als Elektrolyt muss sie den Protonen eine möglichst gute Rennstrecke von der Anode zur Kathode bieten. Der Protonenstrom durch den Elektrolyten ist nämlich genauso hoch wie der Elektronenstrom durch den Verbraucher. Zugleich muss die Membran verhindern, dass Elektronen direkt durch die Zelle fließen – sie ist also ein Elektronen-Isolator. Ein elektronischer Kurzschluss in ihr wäre gefährlich. Außerdem sollen die Elektronen im Stromkreis außerhalb der Zelle Arbeit leisten. Also muss dieser äußere Stromkreis die Elektronen gut leiten. Dafür sorgen Metalle wie Kupfer in den Kabeln und zum Beispiel Motorwicklungen. Solche Metalle leiten wiederum keine Protonen, wirken also umgekehrt als Protonen-Isolatoren.

Je wärmer, desto effizienter

Gegenüber konventionellen Verbrennungsmotoren bieten Elektrofahrzeuge mit Brennstoffzellen prinzipielle Vorteile. Reine Wasserstoff-Brennstoffzellen emittieren kein klimaschädliches Kohlenstoffdioxid (CO2), wenn der Wasserstoff mit erneuerbaren Energiequellen erzeugt wurde. Das kann etwa mit überschüssigem Strom aus Windenergie- oder Photovoltaikanlagen geschehen. Damit zerlegt eine Elektrolyseanlage Wasser zu Wasserstoff und Sauerstoff. Es gibt auch die Möglichkeit, Brennstoffzellen mit Methanol zu betreiben, dann arbeiten sie aber nicht CO2-frei. Zudem muss das Methanol zu Wasserstoff und CO2 zersetzt werden, was den technischen Aufwand erhöht. Ein weiterer Vorteil der Brennstoffzelle ist ihr hoher Wirkungsgrad, der sich noch steigern lässt. Grob die Hälfte der im Treibstoff chemisch gespeicherten Energie könne eine moderne Niedertemperatur-Brennstoffzelle in nutzbare elektrische Energie umwandeln, erklärt Kreuer. Wegen weiterer Verluste, wie durch die Kompression des Wasserstoffs im Drucktank, sind es am Ende aber nur etwa 40 Prozent. Das ist zwar immer noch viel besser als Dieselfahrzeuge mit rund 25 Prozent Wirkungsgrad.

Doch dieser Vorsprung in der Effizienz und die Klimafreundlichkeit reichen noch nicht, um die Nachteile auszugleichen: Noch sind die Herstellungskosten hoch, und die Infrastruktur für den Wasserstoff von der Herstellung bis zur Tankstelle fehlt bislang. Wären Niedertemperatur-Brennstoffzellen noch effizienter und kostengünstiger, dann könnten sich Brennstoffzellenautos leichter durchsetzen. Eine Lösung bietet die Erhöhung der Betriebstemperatur. Je wärmer eine Zelle ist, desto schneller laufen die elektrochemischen Prozesse in ihr ab. Das steigert ihre Effizienz. Auf der anderen Seite ist eine zu hohe Temperatur gefährlich für die Zellen. Je nach Hersteller wird die Kunststoffmembran spätestens bei 100 °C weich und verliert durch Austrocknen einen Teil ihrer Protonenleitfähigkeit. In der Zelle entsteht auch Abwärme, die der Wasserdampf als Abgas nicht ausreichend nach außen abführt. Deshalb brauchen Niedertemperatur-Brennstoffzellen ein aufwendiges Kühlsystem. Eine höhere Arbeitstemperatur würde das vereinfachen. Zudem würde sie die Menge an teurem Platin als Katalysator reduzieren, weil die Reaktion besser abliefe. Das würde die Kosten eines Brennstoffzellensystems spürbar senken.

Die neue Stuttgarter Membran

Kreuers Team forscht deshalb an alternativen Kunststoffmaterialien. Vor einigen Jahren gelang ihm die Entwicklung einer Kunststoffmembran, die Temperaturen bis zu 180 °C aushält. Zudem verhindert sie viel effizienter, dass gasförmiger Wasserstoff und Sauerstoff durchdringen. Kommen diese auf den Katalysatoren zusammen, dann reagieren sie dort zu aggressiven Radikalen. „Die greifen die Membran an“, erklärt Kreuer. Noch vor etwa 15 Jahren hat das die Lebensdauer der Brennstoffzellen auf unter 2000 Stunden begrenzt. Heute werden Radikalfänger eingebaut, was die Lebensdauer auf praxistaugliche 10000 Stunden steigert.

Das Urmaterial der Membranen heißt Nafion. Damit sind alle heute eingesetzten Membranen chemisch verwandt. Entwickelt wurde das Material bereits in den 1960er- Jahren von amerikanischen Chemikern. Sie zwangen damals zwei gegensätzliche Partner zu einem Molekül zusammen: Teflon und Sulfonsäure. Teflon ist extrem wasserabweisend, hydrophob, während die Sulfonsäuregruppe extrem wasserliebend, hydrophil, ist. Sie wird in dem neuen Molekül zur Supersäure. Eine Supersäure ist stärker als konzentrierte Schwefelsäure.

Abbildung 3: Mikrostruktur einer Nafion-Membran. Grün sind die hydrophoben Molekülketten, gelb die hydrophilen Supersäuren (Sulfonsäuregruppen), blau: Wasser, rot: positiv geladene Protonen. © MPI für Festkörperforschung / CC BY-NC-SA 4.0

Da sich beide ungleichen Partner eigentlich heftig abstoßen, organisieren sich die hydrophoben Teile der Moleküle zu einem feinen Netzwerk (Abbildung 3). Die Säuregruppen zwingen sie dabei an die Oberfläche dieses Netzwerks. In der Gegenwart von Wasser lagern die Säuregruppen Wassermoleküle an und bilden so eine Wasserstruktur, die sich durch das gesamte Netzwerk zieht. Wie alle Brønsted-Säuren geben diese Supersäuren liebend gerne Protonen an Wasser ab. Damit wird das feinverteilte Wasser in der Membran protonenleitend. Für den effizienten Betrieb in der Brennstoffzelle braucht die Membran einen optimalen Wassergehalt.

Allerdings hat der Teflonanteil im Nafion zwei Nachteile. Erstens ist er als Fluorchlorkohlenwasserstoff nicht umweltfreundlich. Zweitens sorgt diese chemische Struktur dafür, dass Nafion schon bei relativ niedrigen 80 °C kritisch weich wird. Modernere Varianten sind zwar temperaturstabiler, aber spätestens bei 100 °C ist Schluss. Die viel temperaturstabilere Stuttgarter Membran basiert auf einem umweltfreundlicheren Kohlenwasserstoff: Polyphenylen besteht als Polymer aus langen Ketten einzelner Phenylmoleküle. Jeder Grundbaustein (Monomer) enthält ebenfalls eine Sulfonsäuregruppe (Abbildung 4). Allerdings ist das Polymer viel steifer als Nafion. Damit können sich das Polymernetzwerk und der wässrige Teil mit den Ionen schlechter voneinander trennen. Als Folge lagern sich die Säuregruppen weniger gut zusammen. Das glich Kreuers Team durch einen Trick aus: sie bauten in das Material viel mehr Sulfonsäuregruppen ein, als Nafion enthält. Damit erreichten sie sogar eine höhere Leitfähigkeit für Protonen als im Nafion.

Abbildung 4: Ein Monomer-Baustein aus der Polymerkette des neuen Stuttgarter Membrankunststoffs. Rechts oben: Sulfonsäuregruppe. Sie wird zur protonenspendenden Supersäure, weil die SO2-Gruppe (rechts) über den Phenylring (Mitte) elektronische Ladung (blauer Punkt mit Minus) teilweise anzieht. Das lockert das Proton (H+) in der Sulfonsäuregruppe, das sich leicht lösen kann. © MPI für Festkörperforschung, R. Wengenmayr / CC BY-NC-SA 4.0

Eine große Gefahr im Betrieb von Polymermembran-Brennstoffzellen besteht darin, dass die Membran trockenfällt oder zu stark geflutet wird. Muss die Zelle dann volle Leistung bringen, altert das Membranmaterial vorzeitig. Das soll ein Diagnosesystem verhindern, das ein Team von Tanja Vidakovic-Koch am Max-Planck-Institut für Dynamik komplexer technischer Systeme in Magdeburg entwickelt hat. Herkömmliche Diagnosemethoden schicken elektrische Signale durch die Elektroden in die Brennstoffzelle und messen deren elektrische „Antwort“. Diese zeigt, ob es der Zelle gut geht oder ob sie ein Wasserproblem hat.

„Man kann aber nicht unterscheiden, ob die Membran ausgetrocknet oder geflutet ist“, erklärt die Ingenieurin. Mit der neuen Diagnosemethode gelingt das nun. Dazu rüsten die Magdeburger die Zelle mit einem Sensor aus, der den Fluss von Sauerstoff in sie hinein aufzeichnet. Aus den Messdaten bestimmt das Diagnosesystem auch den Fluss des Wassers durch die Zelle hindurch. Um deren Gesundheitszustand zu erfassen, braucht es noch einen Trick: Der Fluss von Sauerstoff und Wasser in die Zelle hinein muss wellenförmig an- und abschwellen.

Diese Wellen sind zum Beispiel sinusförmig. Die Brennstoffzelle reagiert darauf wie ein Musikinstrument: Je nach Frequenz schwächt oder verstärkt sie das Eingangssignal wie ein Resonanzkörper in ihrer elektrischen Antwort. Diese unterscheidet sich nun für die Fälle „zu trocken“ und „zu nass“. Damit könnte ein zukünftiges Diagnosesystem an Bord eines Autos automatisch erfassen, wie es der Brennstoffzelle geht. Erkenne es einen kritischen Zustand früh genug, dann ließen sich sogar anfängliche Schäden in der Membran „ausheilen“, erklärt die Wissenschaftlerin.

Optimal für schwere Elektrofahrzeuge

Abbildung 5: Von oben nach unten: Energiewandlungsketten vom Rohstoff zu der Energiemenge (11,6 kWh), die nötig ist, um das Auto 100 km weit fahren zu lassen. Aus erneuerbaren Energiequellen stammen der Wasserstoff (blaue Kette) und der Strom (hellgraue Kette). Je größer die oben eingekreiste Energiemenge ist, desto größer sind die Verluste. © Verändert nach: Gregor Hagedorn / CC BY 4.0; Daten: WELL-TO-WHEELS Report Version 4.1 European Commission, 2014

Im Verkehr haben Brennstoffzellen auch scharfe Konkurrenz durch die Batterie. Beide Systeme haben Vor- und Nachteile. In Brennstoffzellenautos wird das Wasserstoffgas in einem soliden Drucktank bei 700 bar gespeichert, der gegen Unfälle abgesichert ist. In diesem Zustand hat Wasserstoff eine fast 200 -mal höhere Energiedichte als Lithiumionen-Batterien. Auch wenn man das Gewicht des Drucktanks hinzurechnen muss, schleppt aber ein Elektroauto ein viel höheres Batteriegewicht im Verhältnis zur gespeicherten Energiemenge mit sich. Als Vorteil wiederum kann es Strom ohne größere Verluste speichern.

Für die Brennstoffzelle hingegen muss der Strom erst elektrolytisch Wasserstoff herstellen (Abbildung 5). Dieser muss dann wieder in der Brennstoffzelle elektrische Energie erzeugen. „Wegen dieses Umwegs ist der Wirkungsgrad vom Windrad bis hin zum Rad am Fahrzeug um den Faktor zwei- bis dreimal niedriger als beim Batteriefahrzeug“, erklärt Kreuer.

Diese Vor- und Nachteile hängen aber von der Größe und dem Gewicht beider Typen von Elektrofahrzeugen ab. Bei einem LKW wiegt eine Batterie, die brauchbare Reichweiten ermöglicht, viele Tonnen. Diese „tote“ Masse muss ein Brennstoffzellen- LKW nicht mitschleppen, außerdem braucht er kein so dichtes Wasserstoff-Tankstellennetz wie PKW. Busse, Bahn und LKW könnten also der Brennstoffzelle zum Durchbruch verhelfen.


* Der Artikel ist in aktualisierter Form unter dem Titel: "Knallgas unter Kontrolle - Brennstoffzellen für den breiten Einsatz fit gemacht" in TECHMAX 16 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-16-brennstoffzelle/ und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Tuning für Brennstoffzelle: MPGVideo 9:44 min. https://www.youtube.com/watch?v=lDEtMThhGpc&t=34s

Brennstoffzelle und Elektrolyse, MPG, Video 4:56 min. https://www.youtube.com/watch?v=W4w7bk59YNM

Artikel im ScienceBlog:

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

 

 

inge Thu, 02.12.2021 - 17:06

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Do, 25.11.2021 — Ricki Lewis

Ricki Lewis

Icon Biologie

Die Dämmerzone der Ozeane ist eine Wasserschicht, die sich in einer Tiefe von 200 bis 1000 m unter der Meeresoberfläche über den ganzen Erdball erstreckt. Es ist eine kalte Zone, in die Sonnenlicht nicht mehr durchdringt, in der es aber von unterschiedlichsten Lebewesen nur so wimmelt - insgesamt dürften davon hier mehr zuhause zu sein als in den gesamten übrigen Schichten der Meere. Bislang ist dieses, vermutlich größte Ökosystem auf Erden kaum erforscht. Die Woods Hole Oceanographic Institution hat 2018 das Ocean Twilight Zone Project gestarted, das mit neuesten Methoden, u.a mittels Bestimmung der Umwelt-DNA (eDNA) Forschern Hinweise darauf gibt, welche Arten sich in der Dämmerzone befinden, wie häufig sie vorkommen und wie sie sich dort bewegen. Die Genetikerin Ricki Lewis berichtet darüber.*

Die Dämmerzone - auch mesopelagische Zone oder Mesopelagial genannt (von griechisch pelagos = offenes Meer) - reicht von etwa 200 bis 1.000 Meter Tiefe. Es ist eine kalte und dunkle Zone, aufgehellt durch Blitze von biolumineszenten Organismen, mit denen diese sich vor Räubern schützen. Der Druck in dieser Zone kann bis zu 100 Bar betragen. Die Biomasse der Fische in der Dämmerungszone dürfte die des restlichen Ozeans übersteigen – über ihre Verbreitung wissen wir jedoch wenig. (Abbildung 1)

Abbildung 1: Die Meereszonen (Pelagials) und einige Bewohner der Dämmerzone (Mesopelagia), die Biolumineszenz ausstrahlen. (Abbildung und Text von der Redn. eingefügt; Quelle: links: Wikipedia, gemeinfrei; rechts: modifiziert nach Drazen et al., 2019; https://commons.wikimedia.org/wiki/File:Organisms_inhabiting_the_mesopelagic_zone_-_Oo_257140.jpg. Lizenz cc-by)

Die Bewohner der Dämmerzone erstrecken sich von winzigen Bakterien und Plankton bis hin zu Fischen, Krustentieren, Tintenfischen und allen möglichen klebrigen Variationen der Tierwelt, wie Quallen und Rippenquallen. In der Zone leben Billiarden von Borstenmaulfischen, die nach ihren stacheligen Zähnen benannt sind. Und wir haben keine Ahnung, wie viele Arten noch auf eine Beschreibung warten.

Die Tiere in der Dämmerzone unterstützen das riesige Nahrungsnetz, transportieren Kohlenstoff von der Oberfläche in die Tiefe und wirken so auf das Klima regulierend.

Die größte Tierwanderung auf dem Planeten

Aus den Tiefen der Dämmerzone schwimmen Tiere in den dunklen Stunden auf der Suche nach Nahrung nach oben und tauchen tiefer, wenn die Sonne herauskommt, um den Kontakt mit Räubern zu vermeiden. Die Sonar-Operatoren der US-Marine während des Zweiten Weltkriegs hielten diese täglichen Bewegungen für einen sich wellenden Meeresboden. „Dies ist die größte Tierwanderung auf dem Planeten, und sie findet alle 24 Stunden statt und fegt in einer massiven lebenden Welle über die Weltmeere“, heißt es auf der Website der Woods Hole Oceanographic Institution (WHOI; https://www.whoi.edu/know-your-ocean/ocean-topics/ocean-life/ocean-twilight-zone/). Abbildung 2.

Abbildung 2: Das vertikale tägliche Auf- und Absteigen in der Wassersäule der Dämmerzone. Oben: Echogram der täglichen Wanderung. Die Farbskala zeigt die Intensität des von den Tieren reflektierten Schalls an (Sonar auf einem Schiff). Image courtesy of Kevin Boswell, Florida International University and the DEEPEND https://oceanexplorer.noaa.gov/technology/development-partnerships/21scattering-layer/features/scattering-layer/scattering-layer.html. Unten: Screenshot aus dem Video Bioluminescence, October 25, 2021. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html, (Beide Bilder stehen unter einer cc-by Lizenz und wurden von der Redn. eingefügt,)

Die kalten, dunklen Tiefen nach Lebenszeichen zu durchsuchen, ist für den Menschen eine Herausforderung. Die kleinste Störung lässt Tiere fliehen, und manche Organismen sind so weich, dass sie beim Hochziehen in Netzen oder in Probenahmebehältern geradezu dahinschmelzen.

Umwelt-DNA

Um dieses Szenario zu untersuchen, ohne das Leben zu stören, sammeln die am Dämmerzonen-Projekt arbeitenden WHOI-Forscher Umwelt-DNA – auch bekannt als eDNA – und führen mithilfe von Computermodellen eine Art Volkszählung durch, die das Geschehen aus der Verteilung von DNA aus Exkrementen, Hautschuppen und anderen Partikeln mit Nukleinsäuren, die von Körpern abschiefern, ableitet. Die Muster der DNA-Verteilung und -Konzentration geben Hinweise auf die Häufigkeit, Bewegung und Wanderung von Arten. Abbildung 3.

Diese Untersuchung kann in Scientific Reports nachgelesen werden [1].

Das Simulationsmodell berücksichtigt zwei Größen von eDNA. Große Partikel im Bereich von mehreren zehn Mikrometern (1 µm = 1 Millionstel Meter) bis zu einem Millimeter erfassen Kotpellets, Gewebestücke sowie Eier und Spermien. Kleine Partikel bis zu einem Zehntel Mikrometer sind aus den großen entstanden. Das Modell berücksichtigt Bewegungen, die Teil des Verhaltens eines Tieres sind, Attribute der eDNA wie Sedimentieren und Abbau und physikalische Einflüsse wie Mischung und horizontale Bewegung.

Abbildung 3: Modell der vertikalen Profile der eDNA in der Wassersäule der Dämmerzone - welche Faktoren beitragen. (Bild von der Redn. in modifizierter Form eingefügt aus: E. Andruszkiewicz Allan et al.(2021), https://doi.org/10.1038/s41598-021-00288-5 [1], Lizenz cc-by)

Ich konnte mir diese Experimente vorstellen, indem ich mich lebhaft an den Blick auf das Hinterende eines Nilpferds in der Hippoquarium-Ausstellung im Detroiter Zoo erinnerte. Das Tier entleerte sich und drehte dann seinen Schwanz wie ein riesiges Windrad hoch und ließ die Exkremente weit kreisen. Die DNA der Tiefe scheint nach dem Modell der ozeanischen eDNA nicht ganz so dynamisch zu sein.

„Eine wichtige Erkenntnis unserer Arbeit ist, dass das eDNA-Signal nicht sofort verschwindet, wenn sich das Tier in der Wassersäule nach oben oder unten bewegt. Das hilft uns, einige große Fragen zu beantworten, die wir mit Netzschleppen oder akustischen Daten nicht beantworten können. Welche Arten wandern? Wie viel Prozent von ihnen wandern jeden Tag aus? Und wer ist ein früher oder später Einwanderer?“ sagte die Erstautorin Elizabeth Andruszkiewicz Allan in einer Pressemitteilung.

Physikalische Prozesse wie Strömungen, Wind und Mischung sowie dasSedimentieren des Materials hatten keinen großen Einfluss auf die vertikale Verteilung der eDNA, die die Tendenz hatte innerhalb von 20 Metern von ihrem Ursprung zu bleiben. Das bedeutet, dass das eDNA-Muster zeigen kann, wo sich bestimmte Arten zu verschiedenen Tageszeiten aufhalten, wie lange sie in bestimmten Tiefen verweilen und welcher Anteil einer Spezies während eines Tages aus der Dämmerzone an die Oberfläche wandern.

„Vor dieser Untersuchung konnten wir nicht sicher sagen, was mit der eDNA passiert ist, die von Arten der Dämmerzone abgegeben wurde. Aber im Modell zeigte sich ein sehr klares Muster, das ein grundlegendes Verständnis der Konzentration von eDNA zwischen der Oberfläche und den tiefen Schichten im Zeitverlauf lieferte “, sagte Teammitglied und Ozeanograph Weifeng Zhang. „Mit diesem neuen Wissen werden Feldforscher in der Lage sein, gezielt zu bestimmen, wo sie die wertvollen Wasserproben entnehmen, um die wandernden Arten zu identifizieren und den Anteil der Tiere in jeder Artengruppe zu schätzen, die jeden Tag wandern“, fügte er hinzu.


[1] Elizabeth Andruszkiewicz Allan et al., Modeling characterization of the vertical and temporal variability of environmental DNA in the mesopelagic ocean. Scientific Reports, 2021,https://doi.org/10.1038/s41598-021-00288-5


* Der Artikel ist erstmals am 4.November in PLOS Blogs - DNA Science Blog unter dem Titel "A Glimpse of the Ocean’s Twilight Zone Through Environmental DNA" https://dnascience.plos.org/2021/11/04/a-glimpse-of-the-oceans-twilight-zone-through-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Drei passende Abbildungen plus Legenden und einige Untertitel wurden von der Redaktion eingefügt.

 


Weiterführende Links

Woods Hole Oceanic Institution (WHOI) is the world's leading, independent non-profit organization dedicated to ocean research, exploration, and education. Our scientists and engineers push the boundaries of knowledge about the ocean to reveal its impacts on our planet and our lives. https://www.whoi.edu/who-we-are/

NOAA Ocean Exploration is the only federal program dedicated to exploring our deep ocean, closing the prominent gap in our basic understanding of U.S. deep waters and seafloor and delivering the ocean information needed to strengthen the economy, health, and security of our nation. https://oceanexplorer.noaa.gov/welcome.html

Zahlreiche Videos von den beiden Institutionen:

Value Beyond View: The Ocean Twilight Zone, Video 2:04 min https://www.youtube.com/watch?v=w-MmLhQDfao&t=3s

Ocean Encounters: Weirdly Wonderful Creatures of the twilight zone. Video 1:12:0 min. https://www.youtube.com/watch?v=GpI2RiUDS6Y&t=572s Sommer 2021

Our beautiful ocean from surface to seafloor Video: 13:34 min. https://www.youtube.com/watch?v=MV3OtxB9BKE

The discoveries awaiting us in the ocean's twilight zone | Heidi M. Sosik, TED, Video 10:01 min. https://www.youtube.com/watch?v=rJmwZhy9Suk 

Deep Sea Dialogues - Bioluminescence. Video 8:03 min. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html


 

inge Thu, 25.11.2021 - 18:06

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Do, 18.11.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Auf der Basis von außerordentlich positiven klinischen Interims-Ergebnissen hat der Pharmagigant Pfizer vorgestern bei der FDA um die Notfallzulassung für sein neues, oral anwendbares COVID-19 Therapeutikum Paxlovid angesucht. Laut Pressemitteilung von Pfizer konnte Paxlovid -innerhalb von 5 Tagen nach Diagnosestellung/Auftreten von Symptomen angewandt - weitestgehend Hospitalisierung und Letalität verhindern. Noch fehlen allerdings Angaben zur Sicherheit einer breiten Anwendung dieses möglichen Game-changers. Wie Paxlovid wirkt und welches Potential dieses neue Therapeutikum haben kann, beschreibt Francis S. Collins - ehem. Leiter des Human Genome Projects, Entdecker mehrerer krankheitsverursachender Gene und seit 2009 Direktor der NIH.*

Im Verlauf dieser Pandemie wurden erhebliche Fortschritte bei der Behandlung von COVID-19 und der Rettung von Menschenleben erzielt. Zu diesen Fortschritten gehören die Entwicklung lebenserhaltender monoklonaler Antikörperinfusionen und die Wiederverwendung bestehender Medikamente, zu denen die öffentlich-private Partnerschaft von NIH zur Beschleunigung von COVID-19 therapeutischen Interventionen und Impfstoffen (ACTIV) einen wichtigen Beitrag geleistet hat.

Seit vielen Monaten hegen wir aber die Hoffnung auf ein sicheres und wirksames orales Arzneimittel, welches - kurz nach Erhalt einer COVID-19 -Diagnose verabreicht - das Risiko eines schweren Krankheitsverlaufs verringern kann. Den ersten Anhaltspunkt, dass sich diese Hoffnungen erfüllen könnten, gab es vor gerade einem Monat: es war die Meldung, dass das von Merck und Ridgeback stammende Medikament Molnupiravir Krankenhausaufenthalte um 50 % reduzieren könnte (das Medikament wurde ursprünglich mit NIH-Förderung an der Emory University (Atlanta) entwickelt). Nun kommt die Meldung von einem zweiten Medikament mit einer möglicherweise noch höheren Wirksamkeit: es ist eine antivirale Pille von Pfizer Inc., die auf einen anderen Schritt im Vermehrungszyklus des SARS-CoV-2 Virus abzielt.

Erste Daten zur antiviralen Pfizer-Pille…

Die aufregenden neuesten Nachrichten kamen Anfang dieses Monats heraus, als ein Pfizer-Forschungsteam in der Zeitschrift Science einige vielversprechende erste Daten zur antiviralen Pille und ihrem Wirkstoff veröffentlichte [1]. Einige Tage später gab es dann noch wichtigere Neuigkeiten, als Pfizer Zwischenergebnisse einer großen klinischen Phase 2/3-Studie bekannt gab. Die Studie an Erwachsenen mit hohem Risiko für einen schweren Krankheitsverlauf zeigte, dass die Pille das Risiko eines Krankenhausaufenthalts oder eines letalen Ausgangs um 89 Prozent reduzierte, wenn sie innerhalb von drei Tagen nach Auftreten von COVID-19-Symptomen eingenommen wurde [2].

Auf Empfehlung des unabhängigen Ausschusses, der die klinische Studie überwachte und in Absprache mit der US-amerikanischen Food and Drug Administration (FDA) hat Pfizer die Studie nun aufgrund der großartigen Zwischenergebnisse gestoppt. Pfizer plant, die Daten sehr bald bei der FDA zur eine Notfallzulassung (Emergency Use Authorization - EUA) einzureichen (diese Anmeldung ist am 16.11.2021erfolgt; Anm.Redn.)

…und wie sie gegen SARS-CoV-2 wirkt

Die antivirale Pille von Pfizer enthält einen Protease-Inhibitor, der ursprünglich PF-07321332 oder kurz "332" genannt wurde. Eine Protease ist ein Enzym, das ein Protein an einer bestimmten Sequenz von Aminosäuren spaltet. Das SARS-CoV-2-Virus kodiert für seine eigene Protease, um ein großes, viral kodiertes Polyprotein in kleinere Segmente zu verarbeiten, die es für seinen Vermehrungszyklus benötigt; ein Medikament, das die Protease hemmt, kann dies verhindern. Wenn der Begriff Protease-Hemmer bekannt erscheint, so liegt das daran, dass Medikamente mit diesem Wirkungsmechanismus bereits zur Behandlung anderer Viren verwendet werden, u.a. zur Behandlung des humanen Immunschwächevirus (HIV) und des Hepatitis-C-Virus.

Im Fall von 332 ist eine von SARS-CoV-2 kodierte Protease namens Mpro (auch 3CL-Protease genannt) die Zielstruktur. Das Virus verwendet dieses Enzym, um einige längere virale Proteine in kürzere Abschnitte zu zerschneiden, die es zur Replikation benötigt. Wenn Mpro außer Gefecht gesetzt ist, kann das Coronavirus keine Kopien zur Infektion anderer Zellen mehr produzieren. Abbildung 1.

Abbildung 1. Wie Paxlovid funktioniert. Wenn das Virus in die Wirtszelle eintritt, beginnt es (unter Verwendung der Wirtssysteme) seine RNA in Polyproteine (pp1a und pp1ab) umzuschreiben (Translation). Daraus entstehen durch Proteolyse die Virusprotease Mpro und einige Nicht-Strukturproteine (Nsps), welche für den Zusammenbau zum aktiven Virus essentiell sind. PF-0731332 ist ein sehr starker Inhibitor von Mpro, Ritonavir blockiert den Abbau von PF-0731332 und verlängert/erhöht ("boostert") so seine Wirksamkeit.(Bild und Beschriftung von Redn. eingefügt; Quelle: adaptiert nach H.M. Mengist et al., Signal Transduction and Targeted Therapy (2020) 5:67, https://doi.org/10.1038/s41392-020-0178-y. Lizenz: cc.by)

Breite Wirksamkeit gegen andere Coronaviren?

Das Bestechende an diesem therapeutischen Ansatz ist, dass Mutationen an den Oberflächenstrukturen von SARS-CoV-2, wie dem Spike-Protein, die Wirksamkeit eines Protease-Inhibitors nicht beeinträchtigen sollten. Das Medikament zielt auf ein hochkonserviertes, essentielles virales Enzym ab. Ursprünglich hat Pfizer bereits vor Jahren Protease-Inhibitoren synthetisiert und präklinisch als potenzielle Therapeutika für das schwere akute respiratorische Syndrom (SARS) evaluiert, das durch ein mit SARS-CoV-2 nahe verwandtes Coronavirus verursacht wird. Dieses Medikament könnte somit sogar gegen andere Coronaviren wirksam sein, die eine Erkältung (grippalen Infekt) verursachen.

In der Anfang dieses Monats in Science [1] veröffentlichten Studie hat das Pfizer-Team unter der Leitung von Dafydd Owen (Pfizer Worldwide Research, Cambridge, MA) berichtet, dass die neueste Version ihres Mpro-Inhibitors in Labortests nicht nur gegen SARS-CoV-2 eine starke antivirale Aktivität zeigte, sondern auch gegen alle von ihnen getesteten Coronaviren, deren Infektiosität für Menschen bekannt ist. Weitere Studien an menschlichen Zellen und Modellen der SARS-CoV-2-Infektion an der Maus deuteten darauf hin, dass die Behandlung eine Limitierung der Infektion und eine Reduzierung der Schädigung des Lungengewebes bewirken könnte.

In dem Science-Artikel berichteten Owen und Kollegen auch über die Ergebnisse einer klinischen Phase-1-Studie an sechs gesunden Personen [1]. Sie zeigten, dass ihr Protease-Inhibitor bei oraler Einnahme sicher war und zur Bekämpfung des Virus ausreichende Konzentrationen im Blutkreislauf erreichen konnte.

Präliminäre Ergebnisse zu Paxlovid

Aber kann es gelingen, COVID-19 bei einer infizierten Person zu behandeln? Die vorläufigen Ergebnisse der größeren klinischen Studie mit der jetzt als PAXLOVID™ bekannten Pille sehen zweifellos ermutigend aus. PAXLOVID™ ist eine Formulierung, die den neuen Proteasehemmer mit einer niedrigen Dosis eines eingeführten Medikaments namens Ritonavir kombiniert. Ritonavir verlangsamt den Metabolismus einiger Proteasehemmer und hält sie dadurch länger im Körper aktiv (Ritonavir blockiert vor allem CYP3A4, das den Metabolismus und damit die Inaktivierung von 332 dominierende Enzym; Anm. Redn.).

An der klinischen Studie der Phase 2/3 nahmen rund 1.200 Erwachsene aus den USA und der ganzen Welt teil. Um rekrutiert zu werden, mussten die Studienteilnehmer eine in den letzten 5 Tagen bestätigte Diagnose von COVID-19, sowie leichte bis mittelschwere Krankheitssymptome haben. Dazu mussten sie zumindest auch ein Merkmal oder ein Befinden aufweisen, das mit einem erhöhten Risiko für einen schweren Krankheitsverlauf von COVID-19 verbunden ist. Die Studienteilnehmer wurden nach dem Zufallsprinzip ausgewählt, um fünf Tage lang alle 12 Stunden entweder das experimentelle antivirale Mittel oder ein Placebo zu erhalten.

Laut Pfizer-Mitteilung wurden bei Patienten, die innerhalb von drei Tagen nach dem Auftreten von COVID-19-Symptomen behandelt wurden, 0,8 Prozent (3 von 389) der PAXLOVID™ Gruppe innerhalb von 28 Tagen ins Krankenhaus eingeliefert, dagegen 7 Prozent (27 von 385) derjenigen, die das Placebo erhalten hatten. Ähnlich ermutigende Ergebnisse wurden bei denen beobachtet, die innerhalb von fünf Tagen nach Auftreten der Symptome behandelt worden waren. Von den mit dem antiviralen Medikament Behandelten wurde ein Prozent (6 von 607) ins Krankenhaus eingeliefert gegenüber 6,7 Prozent (41 von 612) aus der Placebo-Gruppe. Insgesamt gab es keine Todesfälle bei Personen, die PAXLOVID™ einnahmen; dagegen starben 10 Personen in der Placebogruppe (1,6 Prozent) in weiterer Folge.

Paxlovid - die Pille für zuhause?

Wenn der FDA-Review positiv ausgeht, besteht die Hoffnung, dass PAXLOVID™ als eine Behandlung für zu Hause verschrieben werden könnte, um einen schweren Krankheitsverlauf, Hospitalisierungen und Todesfälle zu verhindern.

Paxlovid würde dann längstens 5 Tage nach COVID-19-Diagnose/Auftreten von Symptomen über 5 Tage lang 2 x täglich in einer Dosierung von 300 mg PF-07321332 und 100 mg Ritonavir angewandt werden (Anm. Redn., [3])

Pfizer hat außerdem zwei zusätzliche Studien mit Paxlovid gestartet: i) eine bei Erwachsenen mit COVID-19, die ein normales Risiko für einen schweren Krankheitsverlauf haben (1140 Personen) und ii) eine andere Studie, die die Eignung von Paxovid zur Vorbeugung einer Infektion bei Erwachsenen untersucht, die dem Coronavirus durch ein Haushaltsmitglied ausgesetzt sind (2634 Teilnehmer).

Mittlerweile hat Großbritannien das andere kürzlich entwickelte antivirale Medikament Molnupiravir zugelassen, welches die Virusreplikation auf andere Weise verlangsamt: es blockiert die Fähigkeit des Virus sein RNA-Genom exakt zu kopieren. Die FDA wird am 30. November zusammentreffen, um den Antrag von Merck und Ridgeback auf eine Notfallzulassung von Molnupiravir zur Behandlung von leichtem bis mittelschwerem COVID-19 bei infizierten Erwachsenen mit hohem Risiko für schwere Erkrankungen zu erörtern [4].

Mit Thanksgiving und den schon nahen Winter- Feiertagen sind diese beiden vielversprechenden antiviralen Medikamente sicherlich weitere Gründe in diesem Jahr dankbar zu sein.


 [1 ]An oral SARS-CoV-2 M(pro) inhibitor clinical candidate for the treatment of COVID-19.
Owen DR, Allerton CMN, Anderson AS, Wei L, Yang Q, Zhu Y, et al. Science. 2021 Nov 2: eabl4784.

[2] Pfizer’s novel COVID-19 oral antiviral treatment candidate reduced risk of hospitalization or death by 89% in interim analysis of phase 2/3 EPIC-HR Study. Pfizer. November 5, 2021.

[3]  https://www.pfizer.com/news/press-release/press-release-detail/pfizer-seeks-emergency-use-authorization-novel-covid-19 Pfizer. November 16, 2021

[4] FDA to hold advisory committee meeting to Discuss Merck and Ridgeback’s EUA Application for COVID-19 oral treatment. Food and Drug Administration. October 14, 2021.


 *Dieser Artikel von NIH-Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. November 2021) im NIH Director’s Blog unter dem Titel: "Early Data Suggest Pfizer Pill May Prevent Severe COVID-19". https://directorsblog.nih.gov/2021/11/16/early-data-suggest-pfizer-pill-may-prevent-severe-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Untertiteln und mit "Anm. Redn." gekennzeichneten Ergänzungen versehen. Zur anschaulichen Erläuterung des Wirkmechanismus von Paxlovid wurde von der Redn. auch eine Abbildung (plus Legende) eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health: https://www.nih.gov/

COVID-19-Research: https:/covid19.nih.gov/

ClinicalTrials.gov: Accelerating COVID-19 Therapeutic Interventions and Vaccines (ACTIV): https://www.nih.gov/research-training/medical-research-initiatives/activ

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog


 

inge Thu, 18.11.2021 - 16:03

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Do, 11.11.2021 — IIASA

IIASA Logo Icon Klima

Während die Auswirkungen des Klimawandels gravierender werden und Adaptierungen bald an ihre Grenzen stoßen, werden vulnerable Gemeinschaften verschiedene Arten der Finanzierung benötigen, um Resilienz (Widerstandsfähigkeit) aufzubauen und Umgestaltungen für ihren Selbstschutz vorzunehmen. IIASA-Forscher haben nun ein neues Dossier erarbeitet, das einen Finanzierungsrahmen für solche Klimarisiken vorlegt und relevante Modelleinblicke zur Information internationaler Debatten über Adaptierung und "Loss and Damage" - Verluste und Schäden - bietet.*

Wenn der Meeresspiegel steigt, Überschwemmungen zunehmen, Hitze existenzbedrohend wird und Riffe auf Grund von Hitze und Übersäuerung zusammenbrechen, werden Gemeinschaften gezwungen sein, eine Änderung in ihrem Umgang mit klimabedingten Risiken vorzunehmen – für manche wird dies bis hin zur Aufgabe ihrer Wohnstätten gehen. Die Auswirkungen werden in erster Linie auf weniger wohlhabende und zudem vulnerable Nationen treffen, die auf sich allein gestellt nicht in der Lage sind, effizient zu reagieren. Wo immer aber eine Katastrophe eintritt, werden die Auswirkungen zunehmend erheblicher – insbesondere dort, wo die Grenzen der Adaptierung bereits nahe gerückt sind (Abbildung 1).

Abbildung 1. Existenzielle klimabedingte Risiken und Grenzen der Anpassung. (Starre Grenzen sind unveränderliche Grenzen,die Kipppunkte von Erdsystemen sind, weiche Grenzen sind zwar technisch beherrschbar,können aber von gesellschaftlicher und politischer Seite behindert werden. Anm. Redn.) (basierend auf Mechler und Deubelli, 2021 und Deubelli und Venkateswaran, 2021)

„Vermeidung, Minimierung und Umgang“ von/mit klimabedingten Verlusten und Schäden

Das bedeutet, dass wir überdenken müssen, wie wir mit klimabedingten Risiken umgehen. Die Industrienationen – die seit Jahrzehnten die Haupttreiber des Klimawandels sind – haben eine moralische Verpflichtung die notwendigen Veränderungen in Richtung Resilienz zu unterstützen und im Katastrophenfall zu helfen. Es wurden zwar Schritte unternommen, um den diesbezüglichen Dialog zu fördern, doch sind weitere Maßnahmen erforderlich, insbesondere in Hinblick darauf, wie solche Maßnahmen finanziert werden können. Darüber hinaus verweist die nicht eindeutige Diktion des aktuellen Diskurses auf „Vermeidung, Minimierung und Umgang“ von/mit Verlusten und Schäden; Vermeidung und Minimierung werden aber auch durch Milderung des Klimawandels, Adaptierung und Risikomanagement abgedeckt; übrig bleibt der Umgang mit Verlusten und Schäden, die nicht verhindert werden können.

Abbildung 2. Risiko-Layering-Architektur für das Management von Klimarisiken (RKR: Reduzierung des Katastrophenrisikos; AKW: Anpassung an den Klimawandel)

IIASA-Forscher haben Ideen aus verschiedenen Disziplinen zusammengetragen, um einen umfassenden Rahmen für die Finanzierung von Verlusten und Schäden vorzuschlagen, der alle drei Säulen des "Verlust und Schaden" Diskurses umfasst, wie er jetzt in Publikationen und einem neuen Grundsatzpapier für den Glasgower Klimagipfel ( COP26) dargelegt wird.

Die Forscher haben die Risikoanalyse angewandt, um zwischen vermiedenen, nicht vermiedenen und unvermeidbaren Risiken zu unterscheiden, die als Teil eines Portfolioansatzes zu handhaben sind. Mit den verschiedenen Risikoebenen in Verbindung gebracht führte dies zu einer Hierarchie der Risikoebenen. Abbildung 2.

Finanzierung des Risikomanagements .............

bedeutet in diesem Zusammenhang eine direkte Finanzierung, um für Anpassung, Risikomanagement und Aufbau von Resilienz zu zahlen – es ist dies eine Umwandlung von nicht vermiedenen Risiken in vermiedene Risiken. Dafür ist mehr Risikoprävention nötig und Vorbereitetsein erforderlich. Staatshaushalte und Entwicklungsförderung könnten durch innovativere Finanzierungsmechanismen, wie beispielsweise durch Klimaresilienz-Anleihen, aufgestockt werden. Wo eine zunehmende Adaptierung nicht mehr ausreichend ist, sind zusätzliche Mittel und Engagement für eine radikalere, transformative Anpassung von entscheidender Bedeutung. Dies kann bedeuten, dass man den Menschen hilft, eine neue Existenzgrundlage zu finden, beispielsweise - dort wo die Landwirtschaft nicht mehr realisierbar ist -durch den Wechsel von der Landwirtschaft in die Dienstleistungsbranche; oder aber auch, dass ein gesteuerter Rückzug aus den Bereichen mit dem höchsten Risiko unterstützt wird. Es sind dies transformatorische Initiativen, die im Rahmen des "Loss and Damage"-Dialogs derzeit noch keine ausreichende Unterstützung finden.

..........Risikofinanzierung......

bedeutet im weitesten Sinne private und öffentliche Versicherungen, beispielsweise durch regionale Risikobündelung, um einen schnellen Wiederaufbau und Wiederaufschwung zu finanzieren, wenn ein Sturm Hochwasserschutzanlagen fortgerissen hat. Traditionell steht die Risikofinanzierung im Mittelpunkt der Debatte um die Finanzierung von Verlusten und Schäden – sie ist jedoch nur ein Trostpflaster, wenn die Abwendung und Minimierung von Schäden aussichtslos gewesen ist.

.....kurative Finanzierung

Schlussendlich stellt kurative Finanzierung einen letzten Ausweg für übrige Risiken dar, um die Kosten eines erzwungenen Rückzugs und des Verlusts der Lebensgrundlage zu decken. Wo sich Risiken an den starren Grenzen der Anpassung manifestieren, kann auch die Finanzierung der transformativen Anpassung einen Ort nicht wieder bewohnbar machen; daher werden neue Finanzierungsquellen und -mechanismen benötigt, wie beispielsweise nationale und internationale Verteilung- der- Verluste- und Entschädigungssysteme.

Nach Meinung der Forscher sollten solche Systeme idealerweise global angelegt sein; in Ermangelung globaler Mechanismen, um ausreichende Mittel bereitzustellen und die ethischen Verpflichtungen reicherer Nationen zu erfüllen, bietet aber die offizielle Entwicklungshilfe für nationale Verlustverteilungs- und Entschädigungssysteme einen nützlichen Ausweg.

„Wie der Weltklimarat (IPCC) gezeigt hat, stoßen einige Systeme und Länder bereits an die Grenzen der Anpassung oder sind nahe daran“, sagt Reinhard Mechler, Leiter der Forschungsgruppe für Systemisches Risiko und Resilienz. „Beispielsweise besteht eine hohe Wahrscheinlichkeit, dass um das Jahr 2050 tropische Korallenriffe verschwunden sind und Gemeinden, die einst auf diese vertraut haben - für Küstenschutz, Ökosystemdienstleistungen und Tourismus - nun" gestrandet" sind– selbst wenn die Erwärmung auf 1,5 ° C begrenzt bleibt.“

Abbildung 3. Strategischer Rahmen für limitanfällige Systeme

Modellierung

IIASA hat auf der Grundlage seines CatSim-Modells (Catastrophic Simulation-odell) Tools entwickelt, um die verschiedenen Risikoebenen zu modellieren. Insbesondere die Frage, wer kurative Finanzierungen für die Hochrisiko-Abwanderungsebene „jenseits der Anpassung“ bereitstellt, ist umstritten – aber sie ist dringend geworden und eine Angelegenheit von gemeinschaftlichem globalem Interesse. Abbildung 4 zeigt die weltweite Finanzierungslücke für mehrere Risiken, um Länder und Regionen zu identifizieren, die internationale Unterstützung benötigen.

Abbildung 4. Abschätzung der Ebene Abwanderungsrisiko mit CatSim; Hochrainer-Stigler, 2021

Der Ansatz der Risikoebenen bietet einen wissenschaftlich fundierten und umsetzbaren Rahmen für einen globalen Ansatz zur Aufnahme zunehmend existenzieller Risiken und zur Schaffung von Eigenverantwortung für Risikoschichten „jenseits der Anpassung". Weitere Studien sind erforderlich, um Grenzen der Anpassung, Kapazitäten und Risiken im großen Maßstab zu verstehen und Chancen im Bereich der internationalen Klimapolitik auf der COP26 und darüber hinaus zu erkennen. Die Kurzfassung zum neuen Rahmenwerk kann hier abgerufen werden: https://iiasa.ac.at/web/home/resources/publications/IIASAPolicyBriefs/PB32.pdf-


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 10.November 2021 auf der IIASA Webseite unter dem Titel: " A climate policy framework to deal with existential climate risk" https://iiasa.ac.at/web/home/about/211110-loss-and-damage-finance-policy-brief.html
erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel ergänzt.

 


Relevante Publikationen

Deubelli, T.M. & Mechler, R. (2021). Perspectives on transformational change in climate risk management and adaptation. Environmental Research Letters 16, e053002 [[pure.iiasa.ac.at/17003

Deubelli, T.M. & Venkateswaran, K. (2021). Transforming resilience-building today for sustainable futures tomorrow. IIASA Working Paper. Laxenburg, Austria: WP-21-005 [pure.iiasa.ac.at/17398]]

Hochrainer-Stigler, S. (2021). Changes in fiscal risk against natural disasters due to Covid-19. Progress in Disaster Science, e100176 [pure.iiasa.ac.at/17198]

Mechler, R. & Deubelli, T.M. (2021). Finance for Loss and Damage: a comprehensive risk analytical approach. Current Opinion in Environmental Sustainability 50, 185-196 [pure.iiasa.ac.at/17239]


 

inge Fri, 12.11.2021 - 00:47

Wie Spinnen ihre Seide nutzen: 14 Anwendungsarten

Wie Spinnen ihre Seide nutzen: 14 Anwendungsarten

Do, 04.11.2021 — Redaktion

Redaktion

Icon Biologie

Von der Produktion von Fallschirmen bis zum Bau von Taucherglocken reichen die faszinierenden Kreationen der Spinnentiere. Spinnenseide ist ein Wundermaterial; auf Gewicht bezogen kann sie stärker als Stahl, fester als Kevlar und elastischer als Gummi sein. Zudem ist sie formbar und antimikrobiell. Wissenschaftler haben diese Seide verwendet, um kugelsichere Rüstungen, Geigensaiten, medizinische Bandagen, Glasfaserkabel und sogar extravagante Kleidung herzustellen. Die Physikerin Shi En Kim (Universität Chikago) hat kürzlich im Smithonian Magazine einen umfassenden (allerdings sehr langen), reich illustrierten Überblick über die diversen Anwendungsarten gegeben, mit denen Spinnen ihre Seide nutzen.*

„Ich kann mir nicht vorstellen, dass man Ihnen glaubt, wenn Sie sagen: es gibt da dieses Geschöpf, das - bezogen auf die Größe eines Menschen -, ein Flugzeug mit dem Material einfangen könnte, das es aus sich selbst produziert,“ sagt Fritz Vollrath, Evolutionsbiologe an der Universität Oxford.

Spinnenseide besteht aus einer Mischung verschiedener Proteine, die zu einer Kette verbunden sind und von speziellen Drüsen, den Spinndüsen, am Hinterende der Spinne produziert werden. Alle Spinnen produzieren Seide (einige Spinnen können verschiedene Arten produzieren), aber nicht unbedingt in Form von Netzen, wie sie als Halloween-Dekorationen dienen.

Über die statischen Netze hinaus, mit denen Spinnen ihre Beute fangen, folgen hier einige ungewöhnliche Anwendungsarten der Spinnenseide.

Als Schnüre und Netze, um Beute aktiv zu umschlingen

Seide als passives Netz, in das Insekten hineinfliegen, ist die wahrscheinlich am wenigsten interessante Jagdmethode der Spinnen. Um ihre nächste Mahlzeit zu fangen, können Spinnen ihre Seide als Netze verwenden – oder als Lassos, Peitschen, Fesseln, Verkleidungen, Angelschnüre und Köder.

Abbildung 1. Oecobius umschlingt die Beute, Deinopis wirft das Netz. Bilder sind Screenshots aus Videos: links https://www.youtube.com/watch?v=CGdMRXQOk18&t=5s , rechts: https://www.youtube.com/watch?v=RmP2Wth3OTA 

Die meisten Spinnen meiden Ameisen, weil diese selbst oft räuberisch sind, eine Spinnenfamilie betrachtet Ameisen aber als Futter. Trifft die Webspinne Oecobius eine Ameise allein an, so umkreist sie ihr Opfer, während sie eine fortwährend eine Seidenschnur absondert und die Ameise aus sicherer Entfernung einwickelt. Abbildung 1 (links). Nachdem die Ameise ganz zusammengerollt ist, geht die Spinne zum Töten, indem sie die Ameise an der Basis der Antennen zerkaut.

Die Spinne der Art Deinopis spinnt ein Netz in Schlingenform und setzt es auf ungewöhnliche Weise ein. Sie webt ein Netz zwischen ihren vier Vorderbeinen, hält dieses kopfüber hängend weit geöffnet und wartet. Abbildung 1 (rechts). Sobald ein Insekt vorbeikommt, fängt sie die Beute mit ihrem Netz. Mit Netzwurf kann sie Beute fangen, die unterhalb läuft oder sogar fliegt. Dann verpackt die erfolgreiche Spinne ihre Beute und tötet sie.

Im Jahr 1883 brach der Vulkan Krakatau im heutigen Indonesien mit der Kraft von über 10.000 Wasserstoffbomben aus, vernichtete den größten Teil der Insel und verwandelte sie in eine leblose Ödnis. Drei Monate später waren Gastwissenschaftler überrascht, eine Lebensform in der Region zu finden: mikroskopisch kleine Spinnen.

Diese Spinnen gab es auf der neuentstandenen Insel nicht deshalb, weil sie die Explosion überlebt haben. Vielmehr waren sie nach der Eruption dorthin gereist – mit Ballonfahrten. Ballonfahren ist heute ein bekanntes Phänomen, wenn Spinnen ihre Seide in die Luft wachsen lassen und den Wind wie ein Segel für das Dach auffangen. Mitten im Ozean wurden Spinnen gefunden, die auf dem Jetstream segeln und auf abgelegenen Inseln, die Hunderte Meilen vom Festland entfernt sind. Nicht alle Spinnen produzieren einen Ballon, um extreme Entfernungen zurückzulegen – einige vertrauen darauf, um vor Räubern zu fliehen oder, um kurze Strecken zurückzulegen, ohne viel Energie zu verbrauchen. (Video dazu: unter Weiterführende Links; Anm Redn.)

Abbildung 2. Eine in den Uluguru-Bergen in Tansania gefundene Radnetzspinne spinnt ein mit dichten Seidenstreifen verziertes Netz. Muhammad Mahdi Karim über Wikimedia Commons unter GFDLv1.2

Wenn die Spinne einen Ballon absondert, geht sie buchstäblich auf Zehenspitzen und hebt ihren Bauch in den Himmel. Es braucht nicht immer günstigen Wind (Brise ist besser als Böen) um abzuheben, der Auftrieb beruht größtenteils auf elektrostatischer Abstoßung. Spinnenseide ist negativ geladen, ähnlich wie die Erdoberfläche, die durch die 40.000 täglichen Gewitter auf der ganzen Welt negativ geladen wird. Gleiche Ladungen stoßen ab, die Seide wird vom Boden gehoben und ermöglicht den Flug der Spinne. Mit den Haaren an ihren Beinen können Spinnen elektrische Felder spüren, so können sie ein Glied heben, um die atmosphärischen Bedingungen zu untersuchen, bevor sie eine große Flucht antreten.

Als Heimdekor

Radnetzspinnen bauen nicht nur ihr Heim aus Seide. Manche mache sich auch die Mühe es zu dekorieren. Sie durchweben ihre Netze mit Streifen aus dick gebänderter Seide, sogenannten Stabilimenta. Abbildung 2. Die Wissenschaftler dachten zunächst, dass diese Strukturen das Gewebe stabilisieren, aber die Theorie wurde widerlegt, als sie herausfanden, dass die Muster nur lose in den Stoff des Gewebes gestrickt waren. Die Funktion der Stabilimenta ist heute noch ein Rätsel.

Es gibt aber mehrere Hypothesen. Da die Stabilimenta nur von tagsüber aktiven Spinnen gewebt werden, haben Forscher vermutet, dass diese Spinnen beabsichtigen ihre aufwendigen Netzdesigns sichtbar zu machen. Die auffälligen Muster könnten dazu dienen die Umrisse der Spinne zu tarnen. Sie könnten in der Wahrnehmung aber auch die Spinne größer erscheinen lassen.

Abbildung 3. Eine Carrhotus-Springspinne versteckt sich in einem kleinen Schutzzelt. Leana Lahom-Cristobal / Projekt Noah

Andere maßgebliche Theorien besagen, dass diese Strukturen ebenso wie Blüten und Blattwerk mehr ultraviolettes Licht reflektieren und damit mehr Insekten anziehen. Alternativ könnten sie als Stoppschild dienen, damit Vögel nicht versehentlich in das Netz fliegen und es beschädigen. Der Nachteil dieser gewebten Motive ist, dass sie anscheinend auch mehr spinnenfressende Spinnen anziehen, indem sie das Netz für diese visuellen Jäger auffälliger erscheinen lassen.

Als Schutz vor den Elementen

Springspinnen laufen tagsüber frei herum, aber nachts oder bei Kälte oder Regen spinnen sie sich einen seidenen Unterschlupf. Abbildung 3. Springspinnen verwenden solche Schutzzelte, um ihre Außenhülle zu sichern, ihre Eiersäcke zu lagern oder zu überwintern.

Ein Wissenschaftler hat spekuliert, dass die Fähigkeit, kuschelige Kokons zu spinnen, die die Spinne vor Kälte isolieren, ein Grund dafür ist, dass die Himalaya-Springspinne (Euophrys omnisuperstes) die eisigen Temperaturen in Höhen von 6 500 m überleben kann, was sie zu einer der am höchsten lebenden, nicht wandernden Tiere der Welt macht.

Abbildung 4. Die Desis martensi Spinne lebt in der Gezeitenzone an felsigen Stränden. Ria Tan und wildsingapore.com via Flickr unter CC BY-NC-ND 2.0

Als Puffer gegen Gezeiten

Eine Spinne spinnt Kokons, um sich an ihrem Wohnort vor den täglichen Gezeiten zu schützen. Die Desis-Spinnen huschen bei Ebbe zwischen Korallen, verlassenen Muscheln und den Seetangböden am Strand herum. Abbildung 4.

Wenn das Wasser steigt, versiegeln sich die Spinnen in diesen Ecken und Winkeln mit wasserdichter Seide. Forscher haben herausgefunden, dass die Spinne ihre Atmung reduziert, um den Sauerstoffverbrauch in ihrer Lufttasche zu verringern.

Es gibt noch Rätsel - beispielsweise, wie das Netz Salz aushält oder wie die Spinne mit den Gezeiten Schritt hält.

Als Unterwasser-Atemtank

Ein einziges Spinnentier lebt den Großteil seines Lebens unter Wasser: die Wasserspinne (Argyroneta aquatica). Wie alle anderen Landspinnen atmet sie nur Luft. Bevor sie untertaucht, nimmt sie eine Luftblase auf ihrem Hinterteil mit als temporäre Tauchflasche. Abbildung 5. Für eine längerfristige Lösung spinnt sie auf Wasserpflanzen eine luftgefüllte, kuppelförmige Taucherglocke aus Seide auf Wasservegetation - ihre Unterwasserheimat.

Abbildung 5. Eine Wasserspinne verzehrt in ihrer Unterwasserbehausung einen Stichling. Oxford Scientific über Getty Images

 

Wasserspinnen pumpen ihr Heim mit Luftblasen auf, die sie von der Wasseroberfläche sammeln. Ihre seidene Höhle ermöglicht den Austausch von Gasmolekülen mit dem umgebenden Wasser. Wissenschaftler haben gemessen, wie Sauerstoff in die Taucherglocke diffundiert und Kohlendioxid nach außen diffundiert, um die Atmung einer Spinne zu erleichtern. Aus diesem Grund haben Wissenschaftler die selbstgesponnene Struktur sogar mit einer Kieme verglichen.

In sauerstoffarmen Gewässern erweitern diese Spinnen ihre Häuser, um mehr Luft aufzunehmen. Obwohl der Gasaustausch effizient ist, schrumpfen die Taucherglocken schließlich, sodass die Spinnen einmal am Tag wieder auftauchen müssen, um Luftblasen zum Wiederaufpumpen zu sammeln.

Als Türblätter am Bau

Falltürspinnen und Vogelspinnen verwenden Seide zur Verstärkung der Wohnröhren, die sie errichten. Es ist also gleichsam ein Baustoff“, sagt Sebastian Echeverri, Spinnenforscher und Kommunikator. Abbildung 6. Unter seinen 19 Haustierspinnen sind seine beiden Falltürspinnen seine Favoriten.

Abbildung 6.Eine Falltürspinne späht aus der Tür ihres Baus. Louise Docker, Sydney, Australien über Getty Images

 

Diese Spinnenart richtet ihr Zuhause mit einer soliden Tür aus Erde, Blättern und Seide ein. Insbesondere das Türblatt ist aus Seide gesponnen. Diese Spinnentiere halten morgens die Tür geschlossen und lassen sie nachts offen, wenn sie jagen und am aktivsten sind. Vom Eingang gehen Spuren aus Seidenfäden aus, die als Stolperfallen dienen. Wenn ein Opfer diese Fäden berührt, spüren die im Hinterhalt lauernden Jäger deren Schwingungen durch die Seide und stürzen sich darauf.

Die Türen dienen als Schutz, insbesondere vor ihrem räuberischen Erzfeind: Schlupfwespen. Im Falle eines Angriffs halten die Falltürspinnen mit ihren Reißzähnen die Tür zu – eine Bewegung, die seltsam an einen mürrischen menschlichen Teenager erinnert. Aber die stechenden Räuber gewinnen üblicherweise indem sie die Klappe durchkauen. Die älteste bekannte Spinne in freier Wildbahn, eine Falltürspinne im Südwesten Australiens, starb 2016 im Alter von 43 Jahren, als sie von einer parasitären Wespe getötet wurde, die ihr Zuhause überfiel.

Abbildung 7. Die Netze der sozialen Anelosimus eximus-Spinnen, wie sie im Yasuni-Nationalpark in Ecuador zu finden sind, können bis zu 7 Meter lang werden und bis zu 50.000 Einwohner aufnehmen. Peter Prokosch über Flickr unter CC BY-NC-SA 2.0

Als Gemeinschafts-Zentren

Nicht alle Spinnen sind Einzeljäger. Forscher kennen 25 soziale Spezies unter den 45.000 beschriebenen Arten. Soziale Spinnen leben oft in Kolonien bis zu 50.000 Tieren zusammen (obwohl eine Mitgliederzahl von etwa 1.000 normalerweise die optimale Größe ist). In Kooperation kann eine solche Armee von Spinnentieren beeindruckende Behausungen aus Seide bauen. Abbildung 7. Die Spinnenkolonie Anelosimus eximius in Südamerika kann Netze mit einer Länge von 7,5 m spinnen und bildet eines der größten seidenen Schutzgebiete der Natur.

Nur die weiblichen Mitglieder – sie übertreffen die Männchen um das Fünffache - kooperieren, um ihr Heim zu bauen, zu reparieren und zu reinigen. Die großen Zahlen der Kolonie und des gigantischen Netzes sind von Vorteil, wenn die Spinnen nach größerer Beute Ausschau halten, die ein Individuum allein nicht bewältigen kann. Die Spinnen arbeiten im Team, um diese größeren Insekten wie Heuschrecken oder Schmetterlinge zu töten, indem sie die Opfer mit ihrer Zahl überwältigen.

Wenn die Anelosimus-Netze durch räuberische Ameisen- oder Wespenschwärme beschädigt werden, können die Spinnentruppen im Gegenzug eine Verteidigung aufbauen. Die Vibrationen der Eindringlinge werden leicht auf die riesigen Netze übertragen, wodurch jeder Überraschungsangriff verhindert wird. Der Sieger der Schlacht, ob Spinne oder nicht, wird von den Gefallenen eine reichhaltige Mahlzeit erhalten.

Große Seidennetze eignen sich nicht gegen größere Tiere, insbesondere gegen Vögel, welche die Seide stehlen, um ihre eigenen Nester damit zu schmücken.

Abbildung 8. In Indonesien sitzt eine Wolfsspinne in einem Netz, das mit Wassertröpfchen bedeckt ist. dikkyoesin1 über Getty Images

Als Trinkbrunnen

Während Spinnen ihren Durst normalerweise durch Saugen an den Säften ihrer Beute stillen, können sie sich auch auf traditionelle Weise hydratisieren, indem sie direkt aus Wassertropfen oder kleinen Pfützen trinken. Um sich den Ausflug zu einem Wasserloch zu ersparen, nippen sie gelegentlich an den Tröpfchen, die auf ihren Netzen kondensieren.

Spinnenseide kann hervorragend Feuchtigkeit aus der Luft anziehen. Abbildung 8. Die Forscher haben die Seide von Cribellate-Spinnen untersucht und herausgefunden, dass der Schlüssel zu ihrer wassersammelnden Eigenschaft die sich verändernde Struktur der Faser selbst ist:

       In Gegenwart von Feuchtigkeit kräuseln sich die Filamente zu knotigen Puffs, die dann zwischen glatten, entwirrten Strängen gelagert, wie an einer Schnur aufgefädelte Perlen aussehen. Diese knotigen Puffs sind Feuchtigkeitsmagnete. Wenn Wasser auf der Seide kondensiert, gleiten die Tröpfchen entlang der glatten Bereiche zu den Puffs und verschmelzen dort zu größeren Kügelchen.

Die knotige Struktur dieser Seide saugt Wasser so effizient aus der Luft, dass sie Wissenschaftler dazu inspiriert hat, ähnliche Materialien zu entwickeln, in der Hoffnung, Wasser aus Nebel zu gewinnen.

Abbildung 9. Die schlimmste Art von Mitbewohnern, eine Argyrodes elevatus-Spinne, sitzt auf einem nicht selbst produzierten Netz, dem einer gelben Gartenspinne. Die Spinnen sind dafür bekannt, anderen Beute und Seide zu stehlen. Katja Schulz via Flickr unter CC BY 2.0

Als Nahrung

Die Proteine der Spinnenseide sind ein wertvolles Gut. Die Seidenherstellung erfordert Energie von der Spinne, so dass sie manchmal ihre eigene Seide frisst und ihrem Körper ermöglicht, die Proteine zu recyceln, um neue Seide herzustellen. Viele Spinnen reißen routinemäßig ihre Netze ab und beginnen von vorne, so können sie ebenso ihre Baumaterialien recyceln.

Die Argyrodes-Spinne oder Diebsspinne, bringt – indem sie die Seide anderer Spinnen stiehlt - das Seidenfressen auf eine ganz neue Ebene. Abbildung 9. Diese Spinne ist ein Kleptoparasit, das bedeutet, dass sie die erbeuteten Insekten anderer Spinnen raubt, anstatt nach eigenen zu jagen. Gelegentlich macht sie mehr als nur stehlen – sie kann sogar einwandern und den Wirt erbeuten. In mageren Zeiten, in denen andere Spinnen nichts fangen können, stehlen Diebsspinnen noch von den Armen, indem sie deren Netze fressen. Ihr Netzraub ist eine temporäre Strategie der Futtersuche, um zu überleben, wenn für alle Nahrung knapp ist. Forscher haben im Labor beobachtet, dass diese wahren Diebe genauso viel Seide fressen können wie Insekten.

Als Geschenkspapier

Weibliche Jagdspinnen sind dafür bekannt, dass sie einen auffälligen Eikokon aus Seide als Kinderzimmer bauen. Die Mütter sind extreme Beschützerinnen –wohin sie auch wandern, tragen ihre Eiersäcke in ihren Kieferklauen. Wenn die Eier schlüpfen, spinnt die Mutter ein „Kinderzelt“ und legt die Eier hinein. Dann hält sie draußen Wache und wehrt Räuber ab, bis ihre Jungen alt genug sind, um einen eigenen Weg in die Welt zu finden.

Abbildung 10. Eine männliche Jagdspinne verpackt das Brautgeschenk für ein Weibchen. Scrrenshot aus https://www.youtube.com/watch?v=Nw1YZkCtLa4.

Der kreative Umgang mit Seide ist nicht auf die Weibchen beschränkt. Männchen verspinnen das Material zu Geschenkpapier. Als Zeichen der Vertrauenswürdigkeit verwendet das Jagdspinnenmännchen seine Seide, um ein Futter als Geschenk zu verpacken und es als Brautgabe anzubieten. Abbildung 10. Das Risiko ist hoch, wenn er mit leeren Händen auftaucht: Normalerweise frisst ihn das Weibchen. Brautgeschenke, wie die in Seide gewickelten Mitgiften genannt werden, tragen dazu bei den sexuellen Kannibalismus durch Weibchen zu verhindern und die Paarungszeit auszudehnen, wenn die Weibchen mit dem Auspacken beschäftigt sind . Wie Forscher zeigten, ist es sechsmal wahrscheinlicher, dass das Weibchen einen möglichen Partner frisst, wenn er ohne Geschenk erscheint, egal ob sie nun hungrig ist oder nicht.

„Manche Männchen sind eigentlich ziemlich frech“, sagt Vollrath. Bisweilen enthalten Pakete nicht einmal eine Fliege“. Hinterlistige Männchen können kurzen Prozess machen – anstatt in die Vorbereitung eines nahrhaften Geschenks zu investieren, können sie betrügen und Falsches einpacken, wie ungenießbare Pflanzensamen, Essensreste oder Kieselsteine. Ein Männchen könnte mit dem Trick davonkommen und einen Quickie schaffen, aber das Weibchen bricht normalerweise die romantische Zeit ab - kurz, nachdem sie die List entdeckt hat.

Die Täuschung des Jagdspinnen-Männchens ist eine messerscharfes Balance zwischen Kosten und Nutzen: Er kann seine Energie sparen, indem er ein wertloses Geschenk für das Weibchen vorbereitet; aber auf der anderen Seite kann es sein, dass er nicht genug Zeit hat, um zu kopulieren, oder er wird gefressen.

Abbildung 11. Ein mickriges Nephila-Pilipes-Männchen kann ein kannibalisches Weibchen fesseln, bevor es sich mit ihr paart. Dieses Paar wurde am Airlie Beach in Queensland, Australien, fotografiert. Graham Winterflood über Wikimedia Commons unter CC BY-SA-2.0

Umherziehende Wolfspinnenweibchen bemühen sich anzuzeigen, dass sie Single und paarungswillig sind - sie hinterlassen beim Durchstreifen eine Seidenspur. Diese „Seidenstraße“ enthält Sexualpheromone, schüchterne chemische "komm' her" Signale, die die Männchen auf eine fröhliche Jagd schicken. Abbildung 12. Tatsächlich können Männchen einer bestimmten Wolfsspinnenart, der Schizocosa ocreata, jungfräuliche Erwachsene von vorpubertären Weibchen anhand der Chemikalien in den Seidenfasern unterscheiden. Sie ziehen es vor, nach den geschlechtsreifen Weibchen zu jagen, um ihren Fortpflanzungserfolg zu steigern.

Als Fessel während der Paarung

Angehende Bräute vieler Spinnenarten sind furchterregende Kreaturen – sie können jedes Männchen fressen, das sich ihnen zu nähern wagt. Eine männliche Spinne kann aber ein Weibchen daran hindern, ihn zu fressen, indem er sie vor der Paarung mit seiner Seide bindet. Abbildung 11.

Einige Spinnen halten das Weibchen zurück, indem sie deren ganzen Körper an den Boden binden; andere Männchen werfen einen leichten Seidenschleier über ihre Bräute, der mit Pheromonen angereichert ist, um sie anzumachen.

Forscher haben gezeigt, dass diese dünne Seide das Weibchen beruhigt wie eine schwere Decke. Das Ancylometes bogotensis Männchen bindet ein Weibchen nur an den Beinen hoch und kippt es dann auf die Seite, um sich mit ihm zu paaren. Dieses Vorspiel erfolgt aus reiner Notwendigkeit – Weibchen sind im Allgemeinen größer und aggressiver als die Männchen. Bei Nephila pilipes ist das Weibchen zehnmal größer und 125mal schwerer. Und die Weibchen haben keine Probleme, sich nach der Paarung von den Bindungen zu befreien.

Abbildung 12.Wolfspinnen sind wandernde Spinnentiere, die keine Netze spinnen, aber Seide verwenden, um chemische Informationen abzusondern. Joshua Innes über Getty Images

Als Chemikalien-getränkte Straße

Umherziehende Wolfspinnenweibchen bemühen sich anzuzeigen, dass sie Single und paarungswillig sind - sie hinterlassen beim Durchstreifen eine Seidenspur. Diese „Seidenstraße“ enthält Sexualpheromone, schüchterne chemische "komm' her" Signale, die die Männchen auf eine fröhliche Jagd schicken. Abbildung 12. Tatsächlich können Männchen einer bestimmten Wolfsspinnenart, der Schizocosa ocreata, jungfräuliche Erwachsene von vorpubertären Weibchen anhand der Chemikalien in den Seidenfasern unterscheiden. Sie ziehen es vor, nach den geschlechtsreifen Weibchen zu jagen, um ihren Fortpflanzungserfolg zu steigern.

Männchen, die ein Geruchsignal empfangen, beginnen eine Balz, noch bevor sie das Weibchen erreichen. Die auffällige Show ist energetisch kostspielig und kann ihn für Räuber sichtbarer machen. Forscher glauben jedoch, dass es immer noch einen evolutionären Vorteil gibt, eine Show ohne das schüchterne Weibchen im Publikum zu machen. Die Männchen hoffen einfach, die Aufmerksamkeit anderer Weibchen auf sich zu ziehen, die zufällig in der Nähe sind, und vielleicht eine frühe Botschaft an interessierte Weibchen senden, die eifrigen Werber nicht zu fressen.

Als Kommunikationsmittel

Spinnen sind außerordentlich empfindlich für Vibrationen. Durch das winzige Zittern der Seide können sie ihre Beute spüren. Seide bietet auch die perfekte Plattform für Spinnentiere, um aus der Ferne zu kommunizieren, indem sie an den Strähnen zupfen oder mit ihrem Hinterleib Töne von sich geben. Abbildung 13. Spinnen können während der Balz entlang eines Seidenfadens hin und her kommunizieren, sodass ein Männchen testen kann, bevor es sich einem distanzierten Weibchen nähert, um nicht gefressen zu werden. Wenn das Weibchen paarungswillig ist, klimpert sie vielleicht einfach zurück.

Abbildung 13.Die Portia fambriata-Spinne schlägt Spinnenseide wie eine Gitarre, um andere Spinnen als Beute anzulocken. Hua Ming Lee über Getty Images

Spinnen können, falls es immer noch nicht klar ist, hinterhältige Kreaturen sein. Eine kannibalische Spinne hat gelernt, die Schwingungen eines in einer Falle gefangenen Insekts nachzuahmen. Sie dringt in die Netze anderer Spinnen ein, klimpert ihr Lied, um die Opfer in eine Ecke zu locken, und überfällt sie dann. Die Springspinne Portia ist berühmt für ihre Intelligenz; sie wendet "trial and error" an, um die die richtigen Signale zu „komponieren“, bis sie erfolgreich die Neugier der Beute weckt. Es wurde beobachtet, dass eine besonders hartnäckige Portia drei Tage lang ihr experimentelles Geklimpere durchführte, bevor sich ihre Beute schließlich entschied, dem nachzugehen.

Portia-Spinnen gehen auf jede Spinne zu, die bis doppelt so groß sein kann. Wenn sich die Kannibalen also mit größeren Spinnen anlegen, müssen sie achtsam klimpern, damit sie nicht selbst zur Beute werden. Auch hier experimentiert diese schlaue Spinne mit verschiedenen Beats und zupft vielleicht eine monotone Melodie, die auf größere Spinnen beruhigend wirkt. Der Rhythmus kann das Opfer auch in eine bestimmte Richtung lenken, damit die Portia ihre Beute aus einem sichereren Winkel angreifen kann. Die beeindruckende Bandbreite von Portias Taktiken ist das Markenzeichen der Spinnen-fressen-Spinnen-Welt, in der diese Tiere leben.

„Spinnen haben jeden einzelnen möglichen Aspekt des Spinnenseins aufgegriffen und sind damit in völlig verschiedene Richtungen aufgebrochen“, sagt Echeverri. "Spinnen agieren als Spinnen auf völlig unterschiedliche Weise."


*Der vorliegende Artikel von Shi En Kim ist unter dem Titel "Fourteen Ways That Spiders Use Their Silk" am 27. Oktober 2021 im Smithsonian Magazine erschienen https://www.smithsonianmag.com/science-nature/fourteen-ways-spiders-use-their-silk-180978354/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und es wurden aus den zitierten YouTube-Videos drei Screenshots (Abbildung 1 und 10) eingefügt.


 Weiterführende Links

Smithsonian Institution (Smithsonian, https://www.si.edu/): bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home

Zur Ballonfahrt der Spinnen:

Spinnen fliegen mit eigenen Ballons um die Welt, Natl. Geographic, https://www.nationalgeographic.de/wissenschaft/spinnen-fliegen-mit-eigenen-ballons-um-die-welt


 

inge Thu, 04.11.2021 - 12:15

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Sa. 30.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Von Medien, akademischen Institutionen, Wirtschaft und Politik noch völlig ignoriert ist vor wenigen Wochen das Ergebnis der bislang umfangreichsten, von der Europäischen Kommission beauftragten Umfrage zum Thema Wissenschaft und Technologie erschienen (Special Eurobarometer 516). Es geht dabei um "Kenntnisse und Ansichten der europäischen Bürger zu Wissenschaft und Technologie". Aus der enormen Fülle der dort erhobenen Informationen wurde kürzlich im Scienceblog über die Aspekte "Interesse an Wissenschaft &Technologie und Informiertheit" berichtet - beide Voraussetzung für den Erwerb von Kenntnissen in den Wissenschaften, die das moderne Leben prägen. Mit diesen Kenntnissen und den Ansichten der Europäer zu Naturwissenschaften befasst sich der aktuelle Artikel, wobei speziell auch auf die Situation in Österreich Bezug genommen wird.

 

 

Wissenschaft* und Technologie spielen eine enorm wichtige Rolle für unsere Gesellschaften, sie sind die Grundlage für unser heutiges und zukünftiges wirtschaftliches und soziales Wohlergehen.Dass unter den EU-Bürgern aber nicht immer ein breites Verständnis für Naturwissenschaften und deren Methoden vorhanden ist, wurde in mehreren, von der EU beauftragten Umfragen ("Special Eurobarometer") zu verschiedenen Aspekten von Wissenschaft und Technologie aufgezeigt. Dies geht auch aus den Ergebnissen der letzten EU-weiten Umfragen 2010, 2013 und 2014 hervor. Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde mit speziellem Fokus auf Österreich im ScienceBlog berichtet [1 - 4].

Sieben Jahre später hat nun wieder eine europaweite Umfrage zu Wissen und Ansichten der europäischen Bürger zu Wissenschaft und Technologie ("European citizens’ knowledge and attitudes towards science and technology") stattgefunden. Diesmal wurden nun nicht nur Bürger der EU27 interviewt, sondern auch Bürger der Beitrittskandidaten in Südosteuropa und andere Nicht-EU-Mitglieder (Island, Norwegen, UK, Schweiz). Zu einer Menge neuer Fragen kamen bereits früher gestellte dazu und ermöglichen damit einen Vergleich der wissenschaftlichen Entwicklung einzelner Länder. Der vor vier Wochen erschienene Report dieser bislang umfangreichsten Studie enthält auf 322 Seiten eine so enorme Fülle an wichtigen Ergebnissen, dass diese auch nicht ansatzweise in einem Artikel zusammengefasst werden können [5]. Dass allerdings weder die europäische noch die internationale Presse darüber berichtete, erscheint dennoch verwunderlich.

Über den Aufbau dieser Studie und über die Ergebnisse zum Teilaspekt "Interesse der europäischen Bürger an Wissenschaft & Technologie und Informiertheit" hat kürzlich der ScienceBlog berichtet [6]. Daraus ging hervor, dass das Interesse der Europäer naturwissenschaftlichen und technologischen Themen seit 2010 gestiegen war und nun der überwiegende Anteil (82 - 89 %) der Befragten angab daran (sehr oder eher) interessiert zu sein. Gleichzeitig bedauerten die Menschen aber über naturwissenschaftliche Themen nicht sehr gut informiert zu sein - eine Situation, die sich seit 2010 nur schwach verbessert hat.

In Fortsetzung zu diesem Artikel wird heute ein weiterer Fragenkreis der Studie zu "Kennnissen und Ansichten der Europäer zu Naturwissenschaften und Technologie" behandelt. Wie auch in [6] wird dabei der Fokus auf die Ansichten der Österreicher im Vergleich zu den Ansichten anderer Europäer gelegt

Wie denken die europäischen Bürger über Wissenschaft und Technologie?

Nicht in Einklang mit dem bekundeten Interesse steht der persönliche Bezug vieler Europäer zu den Naturwissenschaften. Abbildung 1.

Abbildung 1: Persönliche Standpunkte zu den Naturwissenschaften: Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Standpunkt 1 und 3 waren neu, die Bedeutung der Naturwissenschaften im täglichen Leben wurde bereits in früheren Umfragen erhoben (hier 2010). Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Zu kompliziert - ich verstehe ja kaum etwas

Knapp die Hälfte der befragten EU-Bürger (46 %) beklagt, dass Naturwissenschaften derart kompliziert sind, dass sie davon kaum etwas verstehen, nur 28 % sind der gegenteiligen Meinung. Es besteht dabei ein starker Süd/Ost - Nord/West- Trend: den höchsten Mangel am Verständnis geben Bulgarien (70 %), Zypern (69 %) und Griechenland (67 %) an, den niedersten Belgien (23 %), Irland (24 %) und Holland (24 %) am andern Ende der Reihung. Fünf der EU-Beitrittskandidaten in Südosteuropa (incl. Kosovo) fügen sich mit 57 - 60 % in das Ranking der süd/östlichen EU-Staaten ein. Albaniens Angabe - nur für insgesamt 23 % erscheinen Naturwissenschaften zu kompliziert - steht in krassem Widerspruch zu den weiter unten festgestellten geringfügigen Kenntnissen.

Österreich (51 % ) liegt - etwas schlechter als der EU27 Schnitt - an 13. Stelle der EU-Länder umgeben von zahlreichen ehemaligen Oststaaten.

Bedarf für mehr Informationen zu wissenschaftlichen Entwicklungen

Im EU27-Schnitt erklären mehr als die Hälfte (54 %) der Befragten, dass sie sich beispielsweise in Museen, Ausstellungen und Büchereien über wissenschaftliche Entwicklungen informieren möchten. Besonders interessiert erscheinen die Befragten in Portugal (80 %), Irland (68 %), Luxemburg (65 %) und Zypern (64%), am wenigsten interessiert in Bulgarien, Österreich und Kroatien (jeweils 41 %). Österreich steht in dieser Reihung an vorletzter (26.) Stelle und hat mit 35 % ablehnenden Antworten den Spitzenplatz an Desinteresse inne. Nur im Beitrittsland Serbien ist das Desinteresse noch etwas höher (37 %).

Naturwissenschaftliche Kenntnisse im täglichen Leben? Es geht auch ohne

Abbildung 2: In einigen europäischen Ländern braucht nur eine Minderheit naturwissenschaftliche Kenntnisse, um im täglichen Leben zurechtzukommen. Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Während im EU27-Schnitt ein Drittel der Bürger diese Ansicht vertreten, fast die Hälfte (46 %) aber angibt solche Kenntnisse im täglichen Leben zu brauchen, hält mehr als die Hälfte (53 %) der befragten Österreicher solche Kenntnisse für unwichtig und nur 29 % erklären darauf angewiesen zu sein. Im Vergleich zu den Erhebungen von 2010 ist der Anteil derer, die damals ohne Kenntnisse auskamen (57 %), nur leicht gesunken, derer die damals solche benötigten (25 %) etwas gestiegen (Abbildung 1). In dieser "es geht auch ohne" Reihung nimmt Österreich Platz 3 nach Bulgarien (57 %) und Griechenland (53 %) ein, gefolgt von ehemaligen Ostblockländern wie Slowakei, Ungarn, Polen und Rumänien. Ähnlich negative Werte sehen wir ansonsten nur bei den Beitrittsländern Serbien und Montenegro. Abbildung 2.

Am anderen Ende der Reihung stehen Länder wie Portugal, Malta, Tschechei und Finnland, in denen bis über 70 % der Befragten naturwissenschaftliche Kenntnisse im täglichen Leben für wichtig erachten.

Soll sich die Jugend für Naturwissenschaften interessieren?

Abbildung 3: Ist das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand? Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Die überwiegende Mehrheit in den EU27 Staaten stimmt voll oder eher zu (insgesamt 68 - 98 %) , dass das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand ist. Abbildung 3. Auch hier ist ein starker Nord/West - Süd/Ost Trend bemerkbar. In 16 EU- Staaten stimmt mehr als die Hälfte der Befragten voll zu, angeführt von Portugal (80 %), Schweden (64 %), Estland (67 %) und Irland (69 %), am anderen Ende sind hauptsächlich ehemalige Ostblockländer, Italien und - leider wiederum - Österreich. Nur 27 %, die voll zustimmen und 11 %, die meinen "brauchen wir (eher) nicht", sind ein Armutszeugnis für ein Land, das so viel in Bildung investiert.

Kenntnisse in naturwissenschaftlichen Gebieten

Insgesamt wurde den befragten Personen eine Liste mit 11 Aussagen vorgelegt, welche die Kenntnisse über einen weiten Bereich naturwissenschaftlicher Gebiete - Naturgeschichte und Geographie, Bio- und physikalische Wissenschaften - und dazu auch den Glauben an Verschwörungstheorien - testeten. Aufgabe war es zu entscheiden ob die Aussagen richtig oder falsch wären, bzw. "ich weiß nicht" anzugeben.

Naturgeschichte und Geographie

Dieses Themengebiet enthielt 4 Aussagen; die Antworten im EU27-Schnitt und aus Österreich sind in Abbildung 4 zusammengefasst. Auch hier ist ein starker Nord/West - Süd/Ost Trend richtiger Antworten ersichtlich (die auch den Trends in Abbildung 2 und 3 entsprechen) und ein ähnliches Abschneiden der EU-Beitrittskandidaten wie in deren EU-Nachbarländern (die Trends sind im Report [5] nachzusehen).

"Die Kontinente, auf denen wir leben, haben sich seit Millionen Jahren bewegt und werden sich auch in Zukunft bewegen". Dass dieses Statement richtig ist, weiß der bei weitem überwiegende Teil der Befragten in den EU27-Staaten. Angeführt wird die Reihung der richtigen Antworten von Deutschland (92 %), Schweden (91 %) und Irland (91 %), am anderen Ende der Liste sind Polen (72 %), Bulgarien (67 %) und Rumänien (62 %). Österreich steht mit 78 % in dieser Reihung an 20. Stelle und hat sich seit 2005 (88 %) um 10 Punkte verschlechtert. Die richtigen Antworten der Beitrittskandidaten liegen zwischen 35 % (Albanien) und 74 % (Montenegro).

Abbildung 4: Kenntnisse in Naturgeschichte und Geographie in den EU27-Staaten. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Frage 1,2 und 4 wurden bereits auch 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports entnommen.

Dass der Mensch sich aus früheren Tierspezies entwickelt hat, wissen im EU27-Schnitt rund 2/3 der Befragten: die meisten davon gibt es in Irland (84 %), Schweden (83 %) und Luxemburg (83 %), die wenigsten in Zypern (48 %), Lettland (39 %) und der Slowakei (36 %). Richtige Antworten der Beitrittskandidaten gibt es von 22 % (Kosovo) bis 51 % (Nord-Mazedonien). Österreich rangiert in der EU am 13. Platz und hat seit 2005 dazugelernt.

Es gibt derzeit mehr als 10 Milliarden Menschen auf der Erde. Ein relativ hoher Anteil der Bevölkerung hält diese falsche Aussage für richtig: 37 % im EU27-Schnitt, gleich viele in Österreich. Die höchste Rate der Fehleinschätzungen gibt es in Zypern (51 %), Spanien (45 %) und Polen (44 %), die geringste Rate in Lettland (24 %), Dänemark (23 %) und Luxemburg (21 %). Die Fehlschätzungen in den Beitrittskandidaten liegen zwischen 54 % (Montenegro) und 26 % (Kosovo). Österreich liegt im Mittelfeld auf Stelle12.

Die frühesten Menschen lebten gleichzeitig mit den Dinosauriern. Zwei Drittel der Befragten im EU27-Schnitt konstatierten diese Aussage als falsch. Die Meisten in der Tschechei, Belgien und Schweden (82 -86 %), die Wenigsten in Rumänien, Italien und Ungarn, wo rund ein Drittel der Personen diesen Satz für richtig hielt. In der Reihung nach falschen Einschätzungen nimmt Österreich mit 28 % den 6. Platz ein und hat sich seit 2005 um 12 Punkte verschlechtert. Von den Beitrittskandidaten liegt nur noch Albanien (48 %) schlechter als Ungarn.

Naturwissenschaften/Physik ("Science")

Dieses Themengebiet enthielt 5 Aussagen; die Antworten im EU27-Schnitt und aus Österreich auf 4 dieser Aussagen sind in Abbildung 5 zusammengefasst. (Auf das 5. Statement "The methods used by the natural sciences and the social sciences are equally scientific", dass sich also Naturwissenschaften und Sozialwissenschaften gleichwertiger wissenschaftlicher Methoden bedienen" wird hier nicht eingegangen, da nicht klar ist, was unter "equally scientific" zu verstehen ist; die Analyse kann in [5] nachgelesen werden.)

Wie in den Aussagen zu Naturgeschichte und Geographie besteht auch hier ist ein starker Nord/West - Süd/Ost Trend der richtigen Antworten (die einzelnen Trends sind im Report [5] nachzusehen).

Abbildung 5: Kenntnisse in Biowissenschaften und Physik. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Fragen 1 - 3 wurden bereits 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Der Sauerstoff, den wir atmen, kommt von den Pflanzen. Der bei weitem überwiegende Anteil der Bevölkerung weiß, dass diese Aussage richtig ist: 82 % im EU27 Schnitt, mit höchsten Werten in Schweden, Lettland und Finnland (89 - 97 %). Auch am andern Ende der Reihung in Rumänien, Ungarn und Belgien gibt es 70 - 75 % richtige Antworten. Österreich liegt mit 81 % an 19. Stelle der Reihung - immerhin 16 % - 6 Punkte mehr als 2005 - halten die Aussage für falsch. Mit Ausnahme Albaniens (52 % richtig) gaben die Beitrittskandidaten zwischen 70 und 89 % richtige Antworten.

Antibiotika töten Viren ebenso wie Bakterien. Mehr als die Hälfte (55 %) der Befragten im EU27-Schnitt betrachtet diese Aussage als falsch - um 9 Punkte mehr als 2005. Auch die meisten EU-Staaten haben hier dazugelernt. Dies ist leider nicht der Fall in Staaten wie Griechenland (68 %), Bulgarien (65 %) und Rumänien (63 %), die sich seit 2005 um 10 - 20 Punkte verschlechtert haben. Zypern mit 71 % (2005: 74 %) nimmt den obersten Platz in der Reihung der falschen Antworten ein. Am anderen Ende der Skala stehen Finnland, Schweden und Belgien mit 7 - 10 % Personen, die grippale Infekte vermutlich mit Antibiotika zu behandeln versuchen. In Österreich ist der Anteil derer, die bei viralen Erkrankungen Antibiotika geben von 40 % im Jahr 2005 auf nun 26 % gesunken; es steht auf Stelle 13 der Reihung.

Laser arbeiten indem sie Schalwellen fokussieren. Dass diese Aussage falsch ist wird im EU27-Schnitt von nur 42 % der Befragten erkannt, rund ein Viertel (26 %) halten sie für richtig und etwa ein Drittel (32 %) gibt zu darüber nichts zu wissen. Die Liste der falschen Antworten führen Polen (43 %), Österreich (42 %) und Italien (40 %) an, die wenigsten falschen Antworten stammen aus Irland, Belgien und Portugal (8 - 10 %). Bei den Beitrittskandidaten liegen die richtigen Antworten zwischen 20 und 38 %.

Der Klimawandel wird größtenteils durch natürliche Kreisläufe und nicht durch menschliche Aktivitäten verursacht. Dieser Meinung ist im EU27-Schnitt rund ein Viertel (26 %) der Befragten, zwei Drittel (67 %) sehen den Menschen als Verursacher. Problematisch für einen EU-weiten effizienten Kampf gegen den Klimawandel erscheint der relativ hohe Anteil an Klima(wandel)leugnern in den ehemaligen Ostblockstaaten, vor allem in Ungarn (48 %), Rumänien (47 %) und der Slowakei (43 %). In den Staaten am anderen Ende der Skala - Belgien, Holland und Portugal - gibt es immerhin auch noch noch 13 -14 % Klima(wandel)leugner. Österreich nimmt mit 30 % den 9.Platz unter den Klimaleugnern ein. Mit Ausnahme Albaniens (56 %) rangieren die Beitrittskandidaten zwischen 31 und 39 % Klima(wandel)leugnern, gleichauf mit dem Großteil ihrer EU-Nachbarstaaten.

Glaube an Verschwörungstheorien

Der Test umfasste hier zwei falsche Thesen mit medizinisch-biologischem Background. Wie auch bei den Antworten zu den wissenschaftlichen Fragen besteht in beiden Fällen ein sehr starker Süd/Ost - Nord/West Gradient.

Es gibt Mittel Krebs zu heilen, von denen die Öffentlichkeit aus kommerziellen Gründen nichts erfährt. Daran glaubt im Schnitt rund ein Viertel (26 %) in den EU27-Ländern, 56 % sind gegenteiliger Meinung und 18 % enthalten sich der Einschätzung. Besonders viele Verschwörungstheoretiker sind in Zypern (58 %), Griechenland (52 %) und Ungarn (48 %) anzutreffen, gefolgt von den Oststaaten. Auch in den Beitrittskandidaten-Ländern finden sehr viele Bürger diese These richtig (44 - 68 %). Die wenigsten der daran glaubenden Menschen gibt es in Finnland, Dänemark und Schweden (4 - 7 %). Österreich liegt mit 21 % auf Platz 16 der Skala der Verschwörungstheoretiker.

Viren sind in staatlichen Labors produziert worden, um unsere Freiheit einzuschränken. Hier ergibt sich ein ganz ähnliche Bild wie zur ersten These. 28 % im EU27-Schnitt halten dies für richtig, 55 % für falsch und 17 % geben dazu keine Meinung ab. Wiederum sind die meisten daran Glaubenden in Süd/Ost anzutreffen, mit Rumänien, Zypern und Bulgarien in den obersten EU-Rängen (52 - 53 %) - und ebenfalls sehr hohen Zahlen in den EU-Beitrittskandidaten-Ländern (51 - 71 %). Schweden, Holland und Dänemark liegen mit 6 - 7 % am unteren Ende der Skala. In Österreich sind 21 % der falschen Meinung - dies ergibt wiederum Platz 16 der Skala der Verschwörungstheoretiker.  

Wie gut sind in Summe die naturwissenschaftlichen Kennnisse der Europäer und wie korrelieren sie mit dem bekundeten Interesse?

Abbildung 6: Kenntnisse der europäischen Bürger in den Naturwissenschaften getestet anhand von 11 Fragen (oben) und geäußertes Interesse an naturwissenschaftlichen Entdeckungen und Entwicklungen (unten; diese Grafik wurde auch in [6] gezeigt). Die Grafiken sind aus dem Special Eurobarometer 516-Reports [5] entnommen.

 

Die Bewertung der 11 Antworten erfolgte nach dem Schlüssel mehr als 8 richtige, 5 - 8 richtige und weniger als 5 richtige Antworten - in Schulnoten ausgedrückt wäre das in etwa: gut bis sehr gut, befriedigend bis genügend und nicht genügend. Abbildung 6.

Im EU27-Schnitt erzielten 24 % der Befragten mehr als 8 richtige Antworten, 56 % zwischen 5 und 8 richtige und 20 % weniger als 5 richtige Antworten - in Summe ergibt das ein zwischen befriedigend und genügend liegendes Resultat.

Zwischen den einzelnen Ländern herrschen sehr große Wissensunterschiede. Die besten Resultate erzielten nordwestliche Staaten wie Luxemburg, Belgien, Schweden, Irland. Finnland und Dänemark mit 39 - 46 % mehr als 8 richtigen Antworten und nur 7 - 10 % weniger als 5 richtigen Antworten. Die schlechtesten Ergebnisse liefern  EU-Länder des ehemaligen Ostblocks, dazu Zypern und Griechenland; noch schlechter sieht es in Albanien und im Kosovo aus. Diese Staaten haben zweifellos ein Manko zu verstehen, was in der Welt um sie herum vorgeht, um auf diverseste Engpässe und Bedrohungen in adäquater Weise zu reagieren.

Österreich erreicht mit Platz 11 ein befriedigendes Ergebnis. Problematisch erscheint der relativ hohe Anteil (17 %) der Personen, die weniger als 5 Fragen richtig beantworten konnten.

Wie korrelieren nun Interesse und Wissen?

Im Allgemeinen gehören die Länder, die im Test am besten abschnitten auch zu denen, die hohes Interesse an Naturwissenschaften bekundeten. Abbildung 6. Im Umkehrschluss bedeutet die Aussage sehr interessiert zu sein aber nicht auch entsprechendes Wissen zu haben (oder anzustreben). Dies zeigen die Beispiele Portugal, das nur mittelmäßig abschnitt, Zypern, das zu den Ländern mit geringstem Wissen zählt und der Kosovo, wo das vorgebliche Interesse sich keineswegs in Kenntnissen wiederspiegelte. (Eine derartige Diskrepanz war auch im Fall der Türkei zu sehen, die in diesem Artikel aber fehlt.) Es erscheint durchaus möglich, dass das Interesse den Interviewern also nur vorgespiegelt wurde.

Fazit

Durch Europa zieht sich ein Graben. Zwar hat eine überwiegende Mehrheit in allen Staaten (sehr großes oder mäßiges) Interesse an Wissenschaft und Technologie bekundet [6], doch besteht ein enormer Unterschied darin, wie der Norden und Westen Europas und die Länder im Süden und Osten diese Gebiete tatsächlich einschätzen und in Folge agieren. Abgesehen vom persönlichen Interesse, das sich auch in guten Kenntnissen manifestiert, sehen die Länder im Norden und Westen auch das Potential von Wissenschaft und Technologie zur Schaffung neuer Anwendungsgebiete und damit von Arbeitsplätzen. Wissenschaft und Technologie gehören für diese Länder zum täglichen Leben, sie schneiden in Wissenstests gut ab und es ist ihnen wichtig die Jugend für diese Gebiete zu interessieren.

Das Gegenteil ist der Fall in den Ländern im Süden und im Osten Europas. Dort sind für viele Wissenschaft und Technologie viel zu kompliziert - sie verstehen nichts davon, ihre Kenntnisse sind dürftig, im Alltagsleben kommen sie auch ohne diese zurecht und sie schließen daraus, dass dies auch für ihre Jungen genügen wird. Noch krasser sieht es in den EU-Beitrittskandidaten am Balkan aus.

Trotz eines sehr hohen Lebensstandards und hohen Ausgaben für Erziehung und Bildung reihen sich die Ergebnisse aus Österreich im Wesentlichen in die der ehemaligen Oststaaten ein. Es ist eine Grundhaltung die unser großer Kabarettist Helmut Qualtinger vielleicht so subsummiert hätte: "Wos, Travnicek, geben Ihnen Wissenschaft und Technologie?" Antwort: "Wos brauch i des; de san ma Wurscht!" Eine überaus blamable Situation!

 


*Unter Wissenschaft sind hier – dem englischen Begriff „science“ entsprechend – ausnahmslos die Naturwissenschaften gemeint.


 [1] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [2]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[3] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[4] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[5] [Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN

[6] I. Schuster, 3.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

inge Sat, 30.10.2021 - 18:36

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Do, 21.10.2021 — Christina Beck Christina Beck

Icon Biologie

Der diesjährige Nobelpreis für Physiologie oder Medizin wurde für die Entdeckung von Ionenkanälen vergeben, die zwei essentielle Sinnesempfindungen vermitteln: die Temperaturwahrnehmung und die Druckwahrnehmung des Körpers. Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Ermöglicht wurden alle derartigen Untersuchungen durch die sogenannte Patch-Clamp Technik, die in den 1970er Jahren am Göttinger Max-Planck-Institut für Biophysikalische Chemie von Erwin Neher und Bert Sakman entwickelt wurde (beide wurden dafür 1991 mit dem Nobelpreis ausgezeichnet). Wie Ionenkanäle identifiziert wurden und wie sie funktionieren beschreibt die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft.*

Als Rod MacKinnon am Neujahrstag 1998 erwachte, fürchtete er, dass alles nur ein Traum gewesen sein könnte. Bis spät in die Nacht hatte er an der Synchrotron-Strahlungsquelle der Cornell-Universität in Ithaka (NY) Daten aufgenommen, um die Struktur eines Kaliumkanals aus der Zellmembran zu ermitteln – einer Art Schleuse für geladene Teilchen. Seine Kollegen waren nach Hause gegangen, und er hatte alleine weitergearbeitet. Mitternacht war vorüber, und mit jeder Neuberechnung der Daten gewann das Bild des Kanals auf seinem Computerschirm an Schärfe. Schließlich begannen sich die Umrisse einzelner Kaliumionen abzuzeichnen, aufgereiht wie die Spielkugeln eines Flipper-Automaten – genauso, wie es Alan Hodgkin fast fünfzig Jahre zuvor prophezeit hatte: „Ions must be constrained to move in a single file, and there should on average, be several ions in the channel at any moment“. MacKinnon war total aus dem Häuschen …

Festgesetzt – Ein Molekül in Handschellen

Es war kein Traum. Tatsächlich hatte Rod MacKinnon eine wissenschaftliche Glanztat vollbracht, die ihm fünf Jahre später den Nobelpreis für Chemie einbringen sollte. Dabei hatten viele Kollegen die Erfolgsaussichten von MacKinnons Vorhaben, die Struktur von Ionenkanälen zu enthüllen, stark bezweifelt. Es galt als extrem schwierig, tierische oder pflanzliche Membranproteine für Röntgenstruktur-Untersuchungen zu kristallisieren. Gewohnt, sich einzeln in eine Lipidschicht einzubetten, zeigen Membranproteine nämlich wenig Neigung, sich mit ihresgleichen zu einem Kristall zusammenzulagern.

Warum kam der Amerikaner zum Erfolg, wo andere gescheitert waren? Zunächst wählte Mac Kinnon für seine Arbeiten einen Ionenkanal, der aus einem sehr wärmeliebenden (hyperthermophilen) Bakterium stammt. Die Proteine solcher Organismen erlangen die für ihre Funktion notwendige Beweglichkeit erst bei hohen Temperaturen, im Bereich um 20°C sind sie sehr viel starrer als entwicklungsgeschichtlich verwandte Moleküle anderer Organismen. Sie lassen sich daher etwas einfacher in eine gemeinsame Form bringen.

Diesen ersten Kristallen fehlte aber immer noch die notwendige exakte innere Ordnung. Die Forscher mussten daher zu einem weiteren Trick greifen: Um das Proteinmolekül endgültig festzusetzen, entwickelten sie einen monoklonalen Antikörper, der sich mit einer speziellen Bindungsstelle genau an jene Region des Kanalproteins heftet, in der offenbar die größte Beweglichkeit herrscht. Auf die unspezifischen Teile des Antikörpers konnten die Forscher im Weiteren verzichten – für ihre Kristallisationsexperimente nutzten sie lediglich das spezifische Teilstück, das so genannte Fab-Fragment. Die damit hergestellten Kristalle lieferten dann die Röntgenbeugungsdaten, aus denen sich jene hoch aufgelöste Struktur des Ionenkanals ableiten ließ, die im Mai 1998 die Titelseite der renommierten Fachzeitschrift Nature zierte.

Die Suche nach Kanälen

Das war nahezu ein halbes Jahrhundert nachdem Alan Hodgkin, Andrew Huxley und Bernhard Katz in Großbritannien Aktionspotenziale am Riesenaxon des Tintenfisches untersucht hatten. Ihre Messungen bestätigten das so genannte Membrankonzept: Danach basieren alle bekannten elektrischen Signale – Aktionspotenziale, synaptische Signale und Rezeptorpotenziale – auf Änderungen in der Membranpermeabilität, also der Durchlässigkeit der Membran für Ionen. Um die bei einem Aktionspotenzial auftretenden Änderungen in der Leitfähigkeit der Membran formal beschreiben zu können, entwickelten Hodgkin und Huxley die Vorstellung von spannungsgeregelten Ionenkanälen. Dafür erhielten die beiden Physiologen aus Cambridge 1963 den Nobelpreis für Medizin. Die Bezeichnung Natriumkanal und Kaliumkanal wurde seither vielfach benutzt, obwohl es keinen direkten Beweis für die Existenz solcher Kanäle auf der Basis biologischer Präparationen gab.

Im Falle künstlicher Membranen war das anders. Diese „black lipid membranes“ dienten seit Ende der 1960er Jahre als experimentelles Modellsystem und ähnelten in vielerlei Hinsicht der Lipidmembran lebender Zellen. Die Membranen stellten sehr gute Isolatoren dar; aber versetzt mit Antibiotika oder Proteinen wurden sie elektrisch leitfähig. Weil der hindurchfließende Strom sich stufenartig änderte, vermuteten die Wissenschaftler, dass einzelne Proteinmoleküle Kanäle durch die künstliche Membran bilden, wobei die Stufen dem Öffnen und Schließen dieser Kanäle entsprechen. Ähnliche Untersuchungen an biologischen Membranen ließen sich zu diesem Zeitpunkt noch nicht durchführen. Die Methoden zur Messung elektrischer Ströme an lebenden Zellen lieferten ein Hintergrundrauschen, das zwar nur zehn Milliardstel Ampere (100 pA) betrug, damit aber immer noch hundert Mal größer war, als die an den künstlichen Membranen beobachteten Einzelkanalströme. Also mussten die Forscher über neue Messmethoden nachdenken.

Am Max-Planck-Institut für biophysikalische Chemie in Göttingen taten das in den 1970er Jahren Erwin Neher und Bert Sakmann. Die Messgeräte würden, so die Überlegung der beiden Wissenschaftler, nur dann mit der gewünschten Empfindlichkeit ansprechen, wenn es gelänge, aus der Zellmembran ein sehr kleines Areal zu isolieren (einen Membranfleck oder „patch“). Dazu benutzten sie eine mit einer elektrisch leitenden Flüssigkeit gefüllte Glaspipette, die sie auf eine enzymatisch gereinigte Muskelfaser aufsetzten – in der Hoffnung auf diese Weise einige wenige Ionenkanäle von der übrigen Membran isolieren zu können und damit ein klares Messsignal zu erhalten. Es erwies sich allerdings als äußerst schwierig, eine dichte Verbindung zwischen der Glaspipette und der Membran herzustellen. Die beiden Max-Planck- Forscher kämpften mit Lecks, durch welche die Flüssigkeiten außerhalb und innerhalb der Pipette in Kontakt gerieten. Also optimierten sie die Pipettenspitze und reinigten die Zelloberfläche noch sorgsamer. Abbildung 1.

Abbildung 1: Durch einen halboffenen Käfig (oben) wird die Messapparatur im Labor vor elektrisch störenden Einflüssen abgeschirmt. Detailbild (rechts) von der Mess- und Haltepipette unter dem Mikroskopobjektiv bei einer Patch-Clamp-Me ssung © W. Filser, MPG / CC BY-NC-SA 4.0

Lauschangriff auf die Zellmembran

1976 wurden ihre Mühen endlich belohnt: Erstmals konnten die Wissenschaftler an der neuromuskulären Synapse, der Kontaktstelle zwischen Nervenfaser und Muskelzelle, Ströme durch einzelne Kanäle beobachten. Diese ersten Messungen bestätigten viele ältere Annahmen über Einzelkanalströme – insbesondere die Vermutung, dass die elektrischen Signale in Pulsen stets gleicher Amplitude (Stromgröße), aber von unterschiedlicher Dauer auftreten.

Einige Jahre später entdeckten Neher und Sakmann durch Zufall, dass sich der elektrische Widerstand der Signalquelle um mehrere Zehnerpotenzen auf mehr als eine Milliarde Ohm (GΩ) erhöhen ließ, wenn man in der Glaspipette einen kleinen Unterdruck erzeugte und so den Membranfleck leicht ansaugte. Damit wurde das Hintergrundrauschen noch geringer, und die Forscher konnten nun auch Ionenkanäle anderer Synapsen-Typen untersuchen. Für diese mittlerweile zum Standard in den elektrophysiologischen Forschungslabors zählende Methode, die „Patch-Clamp-Technik“, bekamen die beiden Deutschen 1991 den Nobelpreis für Medizin (Abbildung 1).

Ein passgenauer Tunnel für Ionen

Auch Nobelpreisträger Rod MacKinnon hatte zunächst mit der Patch-Clamp-Technik versucht, die Eigenschaften von Ionenkanälen zu erforschen (Abbildung 3). Dazu veränderte er Schlüsselstellen des Kanals mit gentechnischen Methoden – er tauschte also bestimmte Aminosäuren aus – und prüfte anschließend, wie sich das auf die Kanaleigenschaften (z. B. die Leitfähigkeit) auswirkte. Auf diese Weise konnte er grundsätzliche Aussagen zur Struktur des von ihm untersuchten bakteriellen Kaliumkanals treffen: Demnach besteht diese Ionenschleuse aus vier Untereinheiten, die die Zellmembran durchspannen und sich dabei um eine zentrale Pore gruppieren. MacKinnon konnte genau zeigen, welche der Aminosäuren die Selektivität des Kanals festlegen – ihn also nur für Kaliumionen, nicht aber für andere Ladungsträger durchlässig machen. Zu ähnlichen Einsichten war man zuvor schon beim Studium von Natriumionen leitenden Kanälen gelangt.

Doch alle diese Ergebnisse warfen neue Fragen auf, die sich mit molekularbiologischen und elektrophysiologischen Methoden alleine nicht beantworten ließen. Wie waren die Untereinheiten räumlich angeordnet? Und wie war es möglich, dass diese Kanäle hochselektiv waren und gleichzeitig enorme Durchflussraten erlaubten?

Abbildung 2: Oben: Ionenkanäle (orange) sind Proteine, die in die Membran (grün) von Zellen eingebettet und auf den Transport von Ionen spezialisiert sind. Unten: Die Kanalpore stellt den Selektivitätsfilter dar – hier entscheidet sich, welches Ion durchgelassen wird und welches nicht. Kaliumionen (lila) passieren die Kanalpore ohne ihre Hydrathülle. © W. Filser, MPG / CC BY-NC-SA 4.0

Um diese Fragen zu klären, begann MacKinnon sich mit Kristallographie zu beschäftigen – Voraussetzung für Röntgenstruktur – Untersuchungen. Seine daraus resultierenden Arbeiten enthüllten schließlich die molekulare Basis dieses Phänomens, über das sich die Forscher jahrzehntelang den Kopf zerbrochen hatten: Durch die dreidimensionale Struktur des Ionenkanals wirkt dieser als hocheffizienter Filter. Die engste Stelle im Kanal, der sogenannte Selektivitätsfilter sorgt dafür, dass nur Kaliumionen mit ihrer charakteristischen Größe und Ladung passieren können. Doch wie gelingt es, Kaliumionen so rasant durchzuschleusen (pro Millisekunde strömen etwa 10.000 Kaliumionen durch die Membran)?

Forscher am Max-Planck-Institut für biophysikalische Chemie und der Universität Dundee (UK) haben herausgefunden, dass der Kanal in der Lage ist, die Ionen trotz ihrer starken elektrostatischen Abstoßungskräfte direkt hintereinander zu leiten. „Tatsächlich funktioniert dieser Mechanismus völlig anders als bisher gedacht“, erklärt der Chemiker Bert de Groot. Mithilfe aufwändiger Computersimulationen konnte sein Team die vorhandenen kristallografischen Daten viel genauer auswerten als bisher und den Kaliumkanälen direkt „bei ihrer Arbeit“ zuschauen (Abbildung 3). An der Engstelle des Kanals, dem Selektivitätsfilter, sitzen die Kaliumionen aufgereiht wie auf einer Perlenschnur sehr eng beieinander. Und anders als bisher vermutet, gibt es keine Wassermoleküle, die die geladenen Teilchen voneinander abschirmen. Weniger als ein millionstel Millimeter sind die Ionen voneinander entfernt. Diese räumliche Nähe führt dazu, dass sich die positiven Ladungen gegenseitig abstoßen. Durch anziehende Wechselwirkungen mit den kanalbildenden Polypeptidketten wird jedoch ein Gleichgewicht der Kräfte eingestellt. Diese feine Balance wird empfindlich gestört, wenn ein neues Kaliumion in den Kanal eintritt. Denn jetzt überwiegt die Abstoßung der positiven Ladungen und das Kaliumion, das am nächsten zum Kanalausgang sitzt, wird hinausgedrängt. Dadurch wird der Durchfluss durch den Kanal beschleunigt.

Abbildung 3: Der schnelle Durchtritt von Kaliumionen und die Ionenselektivität beruhen auf einem gemeinsamen Prinzip. Starke abstoßende Wechselwirkungen zwischen den Kaliumionen ohne Wasserhülle (lila) im Selektivitätsfilter beschleunigen den Durchfluss. Die Bindungsstellen im Selektivitätsfilter (rot) begünstigen dabei die erforderliche räumliche Nähe der Kaliumionen zueinander. Da Natriumionen (gelb) ihre Wasserhülle – anders als Kaliumionen – nicht so leicht ablegen, wird ihr Durchtritt durch den Kanal nicht durch Kanal-Wechselwirkungen gefördert. Zudem sind Natriumionen samt ihrer Wasserhülle für die Pore des Kaliumkanals zu groß.© W. Kopec, MPI für biophysikalische Chemie / CC BY-NC-SA 4.0© W. Filser, MPG / CC BY-NC-SA 4.0

Bleibt die Frage nach der Selektivität: Wieso erlauben Kaliumkanäle den Durchfluss von Kaliumionen, während die kleineren Natriumionen zuverlässig ausgeschlossen werden? An der Ladung kann es nicht liegen, denn diese ist bei beiden gleich. Dem Forschungsteam ist es gelungen, auch diese Frage zu beantworten. Wojciech Kopec, Mitglied in der Forschungsgruppe von de Groot erklärt: „Kaliumionen legen ihre Wasserhülle komplett ab, um durch die enge Pore zu gelangen. Natriumionen hingegen behalten ihre Wasserhülle. Damit sind sie letzten Endes größer als ‚entkleidete‘ Kaliumionen – und zu groß für den engen Kaliumkanal-Filter.“ Doch weshalb legen Natriumionen ihre Wasserhülle nicht ebenso ab wie die Kaliumionen? „Die kleineren Natriumionen gehen stärkere Wechselwirkungen mit den Wassermolekülen der Umgebung ein, da ihre Ladung kompakter ist. Daher wäre mehr Energie nötig, um sie von ihrer Wasserhülle zu befreien“, so Kopec. Die Natriumionen passieren die Membran zusammen mit ihrer Wasserhülle. Dies erklärt auch, weshalb die Natriumkanäle fast dreimal breiter als Kaliumkanäle sind.

Schlüsselstellen im Zellgeschehen

Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Wie viele unterschiedliche Ionenkanäle es im menschlichen Körper gibt, hat die Sequenzierung des Humangenoms eindrucksvoll belegt. Dabei stellen Kaliumkanäle unter den Ionenkanälen die größte Proteinfamilie. Sie finden sich in den Membranen der meisten Zelltypen – ein Hinweis auf ihre entscheidende Rolle bei der Weiterleitung von Signalen. Ihre am besten bekannte Funktion ist die Regulation des Membranpotenzials in Nervenzellen, d. h. der Aufbau und die Aufrechterhaltung einer Spannungsdifferenz zwischen dem Inneren und Äußeren einer Zelle. Es gibt sie aber auch in nicht-erregbaren Zellen. Die so genannten ATP-abhängigen Kaliumkanäle beispielsweise finden sich in den meisten Organen und sind mit zahlreichen Stoffwechselvorgängen verknüpft – wie der Insulinausschüttung, der Steuerung des Muskeltonus der Blutgefäße oder der körpereigenen Antworten auf Herzinfarkt oder Schlaganfall. Das Verständnis der Funktion von Ionenkanälen auf molekularer Ebene ist daher Voraussetzung, um Antworten auf wichtige medizinische Fragen zu erhalten. „Wenn wir den molekularen Mechanismus kennen, der den extrem schnellen Durchstrom der Kaliumionen durch den Kanal ermöglicht, können wir zukünftig auch sehr viel besser verstehen, warum sich bestimmte genetische Veränderungen des Ionenkanals so fatal auswirken und zu Krankheiten wie Herzrhythmusstörungen führen können“, so Bert de Groot.


 *Der Artikel ist erstmals unter dem Titel: " Spannung auf allen Kanälen - Wie Ionen durch die Zellmembran schlüpfen" https://www.max-wissen.de/max-hefte/biomax-15-ionenkanal/print/ in BIOMAX Ausgabe 15, Neuauflage Frühjahr 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

José Guzmán, et al-. Patch-Clamp 2.0 – die nächste Generation der Patch-Clamp-Methode (2017). http://laborjournal.de/rubric/essays/essays2017/m_e17_17.php

Mitteilung MPG: Forscher enthüllen rasend schnellen, hocheffizienten Filtermechanismus in lebenden Zellen (2014).  https://www.mpibpc.mpg.de/14744909/pr_1432

Mitteilung MPG: Struktur von Channelrhodopsin aufgeklärt (2017). https://www.mpg.de/11808464/channelrhodopsin-struktur

Nobelpreis 2021 für Physiologie oder Medizin: https://www.nobelprize.org/prizes/medicine/
 


 

inge Fri, 22.10.2021 - 00:12

Alles ganz schön oberflächlich – heterogene Katalyse

Alles ganz schön oberflächlich – heterogene Katalyse

Do, 08.10.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Sowohl die Synthesen biologischer Verbindungen in der belebten Natur als auch über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen Katalysatoren, um die Prozesse effizient in der gewünschten Weise ablaufen zu lassen. In der Biosphäre vermitteln Enzyme in hochselektiver Weise den Kontakt und die Umsetzung der Ausgangsprodukte, in der Industrie vermitteln meistens Metalloberflächen - in der sogenannten heterogenen Katalyse - das Aufeinandertreffen und die Aktivierung der Reaktanten . Wie im zweiten Fall die einzelnen Schritte auf der molekularen Ebene ablaufen, konnte mit neuen Methoden der exakten Oberflächenforschung untersucht werden. Gerhard Ertl, ehem. Direktor am Fritz Haber Institut der Max-Planck-Gesellschaft, konnte so den Prozess der Ammoniaksynthese aus Stickstoff und Wasserstoff und die Oxydation von Kohlenmonoxid zu Kohlendioxid im Detail aufklären. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr beschreibt diese Vorgänge.*

Im frühen 19. Jahrhundert führten Wohlhabende ihren Gästen gerne ein Tischfeuerzeug vor, das sensationell mühelos eine Flamme produzierte. Erfunden hatte es der Chemieprofessor Johann Wolfgang Döbereiner im Jahr 1823. Es enthielt verdünnte Schwefelsäure und ein Stück Zink an einem Haken. Durch Betätigen des Auslösers wurde das Zink in das Säurebad getaucht und eine chemische Reaktion gestartet, bei der unter Bildung von Zinksulfat (Zinksalz der Schwefelsäure) Wasserstoff frei wurde. Dieser verbrannte mit dem Luftsauerstoff zu Wasser. Normalerweise sind Wasserstoff und Sauerstoff reaktionsträge, weshalb man ihnen durch Anzünden erst Energie zuführen muss. Im Feuerzeug entzündete sich der Wasserstoff jedoch spontan, indem er durch einen kleinen Platinschwamm geleitet wurde: das Platin wirkte als Katalysator.

Katalysatoren reinigen heute nicht nur Abgase. Über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen einen Katalysator als quasi „Heiratsvermittler“ der jeweiligen Ausgangsstoffe (Chinesen gebrauchen für beide Funktionen übrigens das gleiche Wort). Ohne Biokatalysatoren, vor allem Enzyme, gäbe es kein Leben. Der dänische Chemiker Jöns Jakob Berzelius leitete den Namen vom altgriechischen Wort katálysis für „Loslösung“ ab, denn offensichtlich nahmen diese Stoffe an der Reaktion nicht teil. Der deutsche Chemiker und Nobelpreisträger Wilhelm Ostwald prägte die heute noch gängige Definition: „Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert.“ In Lehrbüchern steht allerdings meist, dass der Katalysator beschleunigend wirkt – „Reaktionsbremsen“ sind selten interessant.

Katalysatoren wirken als chemischer „Sesam öffne dich!“: Sie eröffnen einer Reaktion einen günstigen Pfad durch die Energielandschaft, der sonst verschlossen ist. Während einer Reaktion brechen zuerst chemische Bindungen in den Ausgangsmolekülen (Edukte) auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle des Endstoffes (Produkt). Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg.

Um diesen zu bezwingen, brauchen die Moleküle Energie. Im Labor führt man sie meist als Wärmeenergie zu, was aber in der industriellen Großproduktion die Energiekosten explodieren lassen kann. Zudem kann starkes Erhitzen die beteiligten Moleküle zerstören. Der Katalysator umgeht diesen hemmenden Energieberg und lässt die Reaktion ohne viel Energiezufuhr ablaufen. Abbildung 1.

Abbildung 1: Ein hoher Energieberg (rot) verstellt die Reaktion zweier Mo¬leküle (blaue und grüne Kugel links). Sie kann nur ablaufen, wenn man ihr viel Energie zu¬führt (roter Pfeil). Ein Katalysator eröffnet einen alternativen, ener¬giesparenden Weg (grüner Pfeil): Über dessen Gefälle läuft die Reaktion dann von selbst ab, bis hin zum Endprodukt (rechts)

Chemiker unterscheiden grundsätzlich zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die Reagenzien und der Katalysator in der gleichen Phase, zum Beispiel in einer Lösung. Bei der heterogenen Katalyse dagegen stecken das Hochzeitspärchen und der Heiratsvermittler in verschiedenen Phasen. Bei technischen Anwendungen sind es oft Gase, während das Katalysatormaterial fest ist, zum Beispiel beim Autokat.

Eine dreifach harte Nuss

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet – denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. Ohne diesen Dünger würden Ackerböden wesentlich weniger Frucht tragen. Nach einer Schätzung von Wissenschaftlern im Fachmagazin Nature müssten vierzig Prozent der Menschheit, also 2,4 Milliarden Menschen, verhungern, gäbe es nicht ausreichend Stickstoffdünger. Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte tatsächlich eine Hungerkatastrophe.

Dass Luft einen riesigen Stickstoffvorrat enthält (sie besteht zu 78 Prozent aus Distickstoffmolekülen), war den Chemikern bekannt. Allerdings verschloss eine chemische Dreifachbindung den Zugang: Sie „klebt“ die zwei Stickstoffatome bombenfest aneinander. Mit diesem Trick füllen die beiden Atome sich gegenseitig ihre lückenhaften Elektronenschalen und sparen viel Energie ein. An der dreifach harten Nuss scheiterten alle Chemiker – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus dem Distickstoff ermöglicht.

Leider ist Osmium extrem selten, doch der BASF-Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form – wie wir heute wissen – winziger Nanopartikel, erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 Atmosphären und Temperaturen zwischen 400 und 500 °C. Boschs Gruppe meisterte die Herausforderung und konstruierte einen Durchflussreaktor, der unter diesen Bedingungen kontinuierlich arbeitete. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt den Nobelpreis für Chemie im Jahr 1919, Bosch 1931.

Die chemische Reaktion der Ammoniaksynthese sieht eigentlich einfach aus: Aus einem Stickstoffmolekül und drei Wasserstoffmolekülen entstehen zwei Ammoniakmoleküle. Den Forschern gelang es jedoch nicht aufzudecken, was sich auf dem Eisenkatalysator genau abspielt. Klar war nur, dass die Anlagerung der Distickstoff-Moleküle an seiner Oberfläche, ihre Adsorption, die Geschwindigkeit der Reaktion bestimmte. Offen blieb aber, ob die Stickstoffmoleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette Stickstoffmolekül reaktiv wird.

Neue Energielandschaften

Erst 1975 konnten der deutsche Physikochemiker Gerhard Ertl und sein Team zeigen, dass das Distickstoffmolekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte dafür die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Schneidet man durch nahezu fehlerlose Einkristalle, dann sind die Atome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, so vermutete Ertl, als am Nanopartikel-Chaos echter Industriekatalysatoren.

Die Eisenatome an der Oberfläche unterscheiden sich von denjenigen, die tiefer im Kristall stecken. Jedes Atom ist dort auf allen Seiten von Nachbaratomen umgeben, die seinen Hunger nach chemischen Bindungen sättigen. An der Oberfläche dagegen liegen die Atome offen; sie haben sozusagen eine chemische Hand frei. Kommt ein Stickstoffmolekül vorbei, dann können sie es an sich binden. Das passiert allerdings nur in etwa einem von einer Million Fällen. Das gebundene Stickstoffmolekül erfährt auf der Eisenoberfläche eine radikal veränderte Energielandschaft: Plötzlich verliert die starke Dreifachbindung ihren Energiegewinn. Die Stickstoffatome lösen sich und werden frei. Dem Wasserstoff-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die freien Stickstoff- und Wasserstoffatome können nun ihre chemische Hochzeit feiern.

Ertls Gruppe schaffte es, den kompletten Ablauf der komplexen Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. (Abbildung 2) Doch für viele kinetisch anspruchsvollere Reaktionen gilt Katalyseforschung auch heute noch als „Schwarze Kunst“ – nach wie vor müssen die Forscher viele Mixturen ausprobieren. Gerhard Ertl führte in das Gebiet die exakten Methoden der Oberflächenforschung ein. Dafür bekam der Direktor am Berliner Fritz-Haber-Institut der Max-Planck-Gesellschaft, der inzwischen im Ruhestand ist, 2007 den Nobelpreis für Chemie.

Abbildung 2: Die wichtigsten Schritte der Ammoniaksynthese (rote Energiekurve ohne, grüne mit Katalysator). 1. Die N2¬- und H2¬-Moleküle (blaue bzw. grüne Kugeln) liegen frei vor. 2. Das N2¬-Molekül haftet sich an die Eisenoberfläche. 3. Die adsorbierten N2¬- und H2¬-Moleküle zerfallen zu freien N¬- und H¬-Atomen. Es enstehen NH (4.), NH2, (5.) und NH3 (6.). 7. Das fertige Ammoniakmolekül NH3 hat sich von der Eisenoberfläche gelöst. Die Produktion von 1 kg Ammoniak würde ohne Katalysator rund 66 Millionen Joule verbrauchen (etwa die Verbrennungswärme von 1,5 kg Rohöl). Auf der idealen Einkristalloberfläche setzt sie dagegen 2,7 Millionen Joule an Energie frei. © Grafik: R. Wengenmayr nach G. Ertl

Zu Ertls Forschungsobjekten gehörte auch der Drei-Wege-Katalysator in Benzinautos. Er heißt so, weil er drei gefährliche Abgasbestandteile, die während der Verbrennung entstehen, in harmlose Gase umwandelt. Geeignete Katalysatoren sind Platin, Rhodium und Palladium. Auf einem Reaktionsweg oxidiert der „Kat“ das giftige Kohlenmonoxid (CO) mit Sauerstoff (O2) zum ungiftigen Kohlendioxid (CO2). Der zweite Weg ist die Oxidation giftiger Kohlenwasserstoff-Verbindungen zu Kohlendioxid und Wasser. Auf dem dritten Weg reduziert er schädliche Stickoxide (NOx) zu ungefährlichem Distickstoff (N2).

Der Max-Planck-Forscher untersuchte die Oxidation von Kohlenmonoxid (2CO + O2 zu 2 CO2) allerdings auf Platinoberflächen. „Die Kohlenmonoxid-Oxidation an Platin ist unsere Drosophila“, spielt Ertl auf das Modelltierchen der Biologen an. Sie testet stellvertretend für komplexere Reaktionen zuverlässig, wie aktiv die Oberfläche eines Oxidationskatalysators ist. Die Berliner trieben Anfang der 1980er-Jahre diese Reaktion in einen extremen Ungleichgewichtszustand. Die Katalyse produzierte daraufhin nicht mehr gleichmäßig Kohlendioxid, sondern schwang wie ein Pendel zwischen „keine Reaktion“ und „Reaktion“ hin und her. Abbildung 3.

Dabei breiten sich die Gebiete, die gerade CO2 produzieren, als Spiralwellen über die Platinfläche aus. Die Platinatome schwingen mit den CO¬- und O2¬-Molekülen im Wechsel, und die atomare Landschaft der Katalysatoroberfläche springt zwischen zwei verschiedenen Formen hin und her. Gerhard Ertl faszinieren solche Selbstorganisationsprozesse fernab langweiliger Gleichgewichte: „Das ist auch die Grundlage der ganzen Biologie!

Abbildung 3: Die schwingende Oxidationsreaktion des Kohlenmonoxids wandert in Spiralwellen über die Oberfläche des Platin-Katalysators. An den hellen Stellen sitzen Kohlenmonoxid-Moleküle, die noch nicht reagiert haben. Das Bild hat ei¬nen Durchmesser von etwa 500 Mikrometern (Millionstel Meter). © Fritz-Haber-Institut

Offenbar ist die Lehrbuchmeinung, dass Katalysatoren von der Reaktion unbeeindruckt bleiben, idealisiert. Das bestätigt auch Ferdi Schüth, Direktor am Max-Planck-Institut für Kohlenforschung in Mülheim: „Manche Katalysatoren verändern sich unter Reaktionsbedingungen ganz dramatisch!“ Viele technische Katalysatoren brauchen erst eine Anlaufphase, um aktiv zu werden. Diese Aktivität verlieren sie dann wieder allmählich durch Alterungsprozesse.

Die Mülheimer erforschen feste Katalysatoren, wie sie technisch eingesetzt werden. Wie schwierig dieses Terrain ist, demonstriert Schüth mit elektronenmikroskopischen Aufnahmen. Anstatt glatter Flächen zeigen sie wild zerklüftete Mikrolandschaften des Trägermaterials, in denen die Nanopartikel des Katalysators wie verstreute Felsbrocken stecken. Diese poröse Struktur verleiht technischen Katalysatoren eine riesige Oberfläche, die den reagierenden Molekülen ein möglichst großes Spielfeld bieten soll. Ein Gramm der Eisenkatalysatoren für die Ammoniaksynthese zum Beispiel birgt in sich zwanzig Quadratmeter Oberfläche – also einen kompletten, zusammengeknüllten Zimmerboden! Das macht sie so enorm aktiv.

Ähnlich sieht es auch im Drei-Wege-Katalysator aus. Wie viele technische Katalysatoren leidet er zum Beispiel an der hohen Betriebstemperatur, die bis auf 800 °C steigen kann. Auf dem heißen Trägermaterial beginnen die Nanopartikel des Katalysators zu wandern. Bei diesem „Sintern“ lagern sie sich gerne zu größeren Klumpen zusammen. Das kann ihre gesamte Oberfläche und damit ihre Aktivität empfindlich reduzieren. „Deshalb wollen wir einen Katalysator entwickeln, der sinterstabil ist“, sagt Schüth. Dazu sperren die Mülheimer ihre Katalysatorpartikel in molekulare Käfige, die so klein sind, dass die Partikel ihnen nicht entkommen und zusammen sintern können. Diese Käfige besitzen aber Poren, die groß genug sind, damit die an der Oxidationsreaktion beteiligten Moleküle hindurch schlüpfen können. Das Mülheimer Modellsystem besteht aus Goldpartikeln. Seine Aktivität testen die Forscher wieder mit der Standardreaktion, der Oxidation von Kohlenmonoxid zu Kohlendioxid. Erprobt ist die Technik an Goldteilchen mit 15 Nanometern (Milliardstel Meter) Durchmesser.

Nanorasseln für`s Auto

Schüths Mitarbeiter Michael Paul erklärt das Verfahren (Abbildung 4): „Wir bedecken zuerst die Goldpartikel mit einer Schicht aus Polyvinylpyrrolidon.“ Diese Polymermoleküle, kurz PVP genannt, verhindern, dass die Goldpartikel sich am Gefäßboden absetzen oder aneinander haften.

Abbildung 4: Herstellungsschritte des sinterstabilen Katalysators. (von links nach rechts): Die Goldpartikel bekommen eine Schicht aus PVP¬-Polymeren.Die Chemiker umgeben es mit einer Schicht aus Siliziumdioxid, danach mit einer dünnen Schicht aus Zirconiumoxidkristallen. Durch deren Poren lösen sie das Siliziumdioxid auf. Übrig bleibt eine hohle Zirconiumoxidkugel (rechts), die das lose Goldpartikel einschließt. Unten: elektronenmikroskopische Bilder zu diesen Schritten (ein Nanometer entspricht einem Milliardstel Meter). © Grafik: R. Wengenmayr und M. Paul

Im nächsten Schritt setzen die Mülheimer der Lösung eine Silicatverbindung zu. Nun wirken die langen PVP-Moleküle wie Anker, in denen sich Siliziumdioxid (SiO2) aus der Lösung verfängt. „Sie funktionieren wie molekulare Staubsauger“, sagt Paul. Die Forscher lassen diesen Stöber-Prozess, benannt nach dem Physiker Werner Stöber, eine Weile laufen. Dabei wächst um das Goldpartikel ein Mantel aus Siliziumdioxid – wie bei einer Perle. Seine Schichtdicke können die Mülheimer zwischen 100 und 400 Nanometern einstellen, indem sie entsprechend lange warten.

„Danach packen wir die Partikel in eine sehr dünne Hülle aus Zirconiumoxidkristallen ein“, erläutert Paul, „und erhitzen sie auf 900 Grad Celsius, um sie zu stabilisieren“. Nun kommt der Trick: Die nur 15 bis 20 Nanometer dünne Zirconiumoxidhülle hat kleine Poren mit grob fünf Nanometern Durchmesser. Durch diese lassen die Forscher eine Natriumhydroxidlösung eindringen, die das Siliziumdioxid auflöst. Übrig bleibt eine hohle Zirconiumoxid-Nanokugel mit einem losen Goldpartikel. „Wir haben eine Nanorassel“, lacht Paul.

Tests zeigen, dass diese Nanorasseln über 800 Grad Celsius aushalten und zudem auch mechanisch sehr stabil sind. Als Katalysatoren oxidieren sie Kohlenmonoxid zuverlässig zu Kohlendioxid, ohne durch Sintern an Aktivität zu verlieren. Allerdings sind die 15-Nanometer-Goldpartikel kein sehr guter Katalysator. Technisch interessant werden erst kleinere Partikel mit nur wenigen Nanometern Durchmesser. Zudem sind andere Materialien wie zum Beispiel Platin aktiver. Deshalb arbeiten die Mülheimer Verpackungskünstler derzeit an einem System mit kleineren Platinpartikeln. Vielleicht haben unsere Autos bald Nanorasseln im Auspuff.


 * Der Chemie-Nobelpreis ist eben für die Entdeckung einer neuen Art von Katalysatoren - kleinen organischen Molekülen - vergeben worden, die eine Revolution für Synthesen in Akademie und Industrie darstellen (s.u.). Wie die bislang, größtenteils auf Metallen basierenden Katalysatoren funktionieren, zeigt der obige Artikel. Er ist erstmals unter dem Title: "Alles ganz schön oberflächlich –warum Forscher noch mehr über Katalyse wissen wollen" in TECHMAX 10 der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/230626/Techmax-10-Web.pdf und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

B. List, 07.10.2021: Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Fri, 08.10.2021 - 18:58

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Do, 14.10.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die US-National Institutes of Health (NIH) sind weltweit die größten öffentlichen Förderer der biomedizinischen Grundlagenforschung und investieren in diese jährlich 32 Milliarden $. Als return-on investment sind über ein Jahrhundert lang grundlegende Entdeckungen gemacht worden, die Leben retten und die Gesundheit verbessern und 163 NIH-unterstützte Forscher wurden mit Nobelpreisen ausgezeichnet. Francis S. Collins - ehem. Leiter des Human Genome Projects und Entdecker mehrerer krankheitsverursachender Gene - ist seit 2009 Direktor der NIH. In seine Ära fallen 39 NIH-geförderte Nobelpreisträger in den Disziplinen Medizin oder Physiologie, Chemie und nun auch Ökonomie. Mit diesem triumphalen Ergebnis für die Grundlagenforschung tritt Collins nun als Direktor ab, um wieder voll als Forscher in seinem Labor zu arbeiten.*

Die letzte Woche war sowohl für die NIH (US National Institutes of Health) als auch für mich von großer Bedeutung. Ich habe nicht nur meine Absicht angekündigt mit Jahresende als NIH-Direktor zurückzutreten, um voll in mein Labor zurückzukehren; die Bekanntgabe der Nobelpreise 2021 hat mir auch wieder vor Augen geführt, welche Ehre es bedeutet einer Institution anzugehören, die mit einem so starken, andauernden Engagement die Grundlagenforschung unterstützt.

Fünf neue vom NIH-unterstütze Nobelpreisträger

In diesem Jahr begann für die NIH die Nobel-Begeisterung in den frühen Morgenstunden des 4. Oktobers, als zwei vom NIH unterstützte Neurowissenschaftler in Kalifornien die Nachricht aus Schweden erhielten, dass sie den Nobelpreis für Physiologie oder Medizin gewonnen hatten. Ein „Weckruf“ ging an David Julius, University of California, San Francisco (UCSF), der für seine bahnbrechende Entdeckung des ersten Proteinrezeptors ausgezeichnet wurde, der die Temperaturwahrnehmung des Körpers - die Thermosensation - steuert. Der andere Ruf ging an seinen langjährigen Mitarbeiter Ardem Patapoutian, Scripps Research Institute, La Jolla, CA, für seine bahnbrechende Arbeit, die den ersten Proteinrezeptor identifizierte, der unseren Tastsinn steuert. Abbildung 1.

Abbildung 1. Nobelpreis 2021 für Physiologie oder Medizin. Die Arbeiten von David Julius und Ardem Patapoutian wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach.

Aber das war nicht das Ende der guten Nachrichten. Am 6. Oktober wurde der Nobelpreis für Chemie 2021 dem NIH-finanzierten Chemiker David W.C. MacMillan von der Princeton University, N.J verliehen, der sich diese Ehre mit Benjamin List vom deutschen Max-Planck-Institut teilte. (List erhielt auch zu Beginn seiner Karriere NIH-Unterstützung.) Die beiden Forscher wurden für die Entwicklung einer genialen Methode ausgezeichnet, die eine kosteneffiziente Synthese „grünerer“ Moleküle ermöglicht mit breiter Anwendung in Wissenschaft und Industrie, inklusive Design und Entwicklung von Medikamenten. Abbildung 2.

Abbildung 2. Nobelpreis 2021 für Chemie Die Arbeiten von David W.C. MacMillan wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Um daraus einen echten Nobelpreis 2021-„Hattrick“ (im Sport ein Ausdruck für dreimaligen Erfolg desselben Spielers in Serie, Anm. Red.) für die NIH zu machen, erfuhren wir am 12. Oktober, dass zwei der drei diesjährigen Nobelpreisträger für Wirtschaftswissenschaften auch NIH-finanziert wurden. David Card, ein NIH-unterstützter Forscher an der Universität of California, Berkeley, wurde „für seine empirischen Beiträge zur Arbeitsökonomie“ ausgezeichnet. Er teilte sich den Preis 2021 mit dem NIH-Stipendiaten Joshua Angrist vom Massachusetts Institute of Technology, Cambridge, und dessen Kollegen Guido Imbens von der Stanford University, Palo Alto, CA, „für ihre methodischen Beiträge zur Analyse kausaler Zusammenhänge“. Abbildung 3.

Abbildung 3. Nobelpreis 2021 für Wirtsschaftswissenschaften.Nobelpreis für Wirtschaftswissenschaften 2021. Die Arbeiten von David Card und Yoshua D. Angrist wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Was war das für ein Jahr!

Investieren in Grundlagenforschung

Die Leistungen dieser und der 163 früheren Nobelpreisträger der NIH zeugen davon, welche Bedeutung das Investment in die biomedizinische Grundlagenforschung in der langen und stabilen Geschichte unserer Behörde hatte. In diesem Forschungsbereich stellen Wissenschaftler grundlegende Fragen dazu wie Leben funktioniert. Die Antworten, die sie aufzeigen, helfen uns, die Prinzipien, Mechanismen und Prozesse zu verstehen, die lebenden Organismen zugrunde liegen, inkludieren den menschlichen Körper in Gesundheit und Krankheit.

Dazu kommt, dass jeder Fortschritt auf früheren Entdeckungen aufbaut - oft auf unerwartete Weise - und es manchmal Jahre oder sogar Jahrzehnte dauert, bis diese in praktische Anwendungen umgesetzt werden können. Zu den jüngsten Beispielen für lebensrettende Durchbrüche, die auf jahrelanger biomedizinischer Grundlagenforschung aufbauen, gehören die mRNA-Impfstoffe gegen COVID-19 und die Immuntherapieansätze, die heute Menschen mit vielen Krebsarten helfen.

Sensoren für Temperatur und Druck

Nehmen Sie den Fall der neuesten Nobelpreisträger. Es waren grundlegende Fragen zur Reaktion des menschlichen Körpers auf Heilpflanzen, welche Julius an der UCSF zu seinen Arbeiten ursprünglich inspirierten. Er hatte aus ungarischen Studien gesehen, dass eine natürliche Chemikalie in Chilischoten, genannt Capsaicin, eine Untergruppe von Neuronen aktiviert, um das schmerzhafte, brennende Gefühl zu erzeugen, das die meisten von uns durch ein bisschen zu viel scharfe Soße erfahren haben. Was jedoch nicht bekannt war, war der molekulare Mechanismus, durch den Capsaicin diese Empfindung auslöste.

Nachdem Julius und Kollegen sich 1997 für einen optimalen experimentellen Ansatz zur Untersuchung dieser Frage entschieden hatten, haben sie Millionen DNA-Fragmente von Genen gescreened (durchgemustert), die in den sensorischen, mit Capsaicin interagierenden Neuronen exprimiert wurden. Innerhalb weniger Wochen hatten sie das Gen lokalisiert, das für den Proteinrezeptor kodiert, über den Capsaicin mit diesen Neuronen interagiert [1]. In Folgestudien stellten Julius und sein Team dann fest, dass der Rezeptor, später TRPV1 genannt, auch als Wärmesensor auf bestimmte Neuronen im peripheren Nervensystem wirkt. Wenn Capsaicin die Temperatur in einen schmerzhaften Bereich steigert, öffnet der Rezeptor einen porenartigen Ionenkanal im Neuron, der dann ein Signal für das unangenehme Gefühl an das Gehirn weiterleitet.

In Zusammenarbeit mit Patapoutian hat Julius dann seine Aufmerksamkeit von heiß auf kalt geschwenkt. Die beiden nutzten die Empfindung von Kälte, die Menthol, die aktive Substanz in Minze vermittelt, um ein Protein namens TRPM8 zu identifizieren: den ersten Rezeptor, der Kälte wahrnimmt [2, 3]. Es folgte die Identifizierung weiterer porenartiger Kanäle, die mit TRPV1 und TRPM8 in Verbindung stehen und durch eine Reihe unterschiedlicher Temperaturen aktiviert werden.

Zusammengenommen haben diese bahnbrechenden Entdeckungen Forschern auf der ganzen Welt die Tür geöffnet, um genauer zu untersuchen, wie unser Nervensystem die oft schmerzhaften Reize von Hitze und Kälte erkennt. Solche Informationen können sich bei der ständigen Suche nach neuen, nicht süchtig machenden Schmerztherapien als wertvoll erweisen. Die NIH verfolgen aktiv einige dieser Wege durch die Initiative „Helping to End Addiction Long-termSM“ (HEAL).

Währenddessen war Patapoutian damit beschäftigt, die molekulare Grundlage einer anderen fundamentalen Sinnesempfindung - der Berührung - zu knacken. Zuerst identifizierten Patapoutian und seine Mitarbeiter eine Mauszelllinie, die ein messbares elektrisches Signal erzeugte, wenn einzelne Zellen angestoßen wurden. Sie vermuteten, dass das elektrische Signal von einem Proteinrezeptor erzeugt wurde, der durch physikalischen Druck aktiviert wurde, mussten aber noch den Rezeptor und das dafür kodierende Gen identifizieren. Das Team hat 71 Kandidaten-Gene ohne Erfolg überprüft. Bei ihrem 72. Versuch haben sie dann ein Gen identifiziert, das für den Berührungsrezeptor kodiert, und es Piezo1 genannt, nach dem griechischen Wort für Druck [4].

Patapoutians Gruppe hat seitdem weitere Piezo-Rezeptoren gefunden. Wie so oft in der Grundlagenforschung wurden die Forscher durch ihre Ergebnisse in eine Richtung gelenkt, die sie sich so nie hätten vorstellen können. Sie haben beispielsweise entdeckt, dass Piezo-Rezeptoren an der Kontrolle des Blutdrucks beteiligt sind und dass sie erkennen, ob die Harnblase voll ist. Faszinierenderweise scheinen diese Rezeptoren auch eine Rolle bei der Kontrolle des Eisenspiegels in den roten Blutkörperchen zu spielen sowie bei der Regulation der Wirkung bestimmter weißer Blutkörperchen, der sogenannten Makrophagen.

Organokatalyse - kleine organische Moleküle als neuartige Katalysatoren

Wenden wir und nun dem Nobelpreis 2021 für Chemie zu. Hier hat die Grundlagenforschung von MacMillan und List den Weg geebnet, um einen großen ungedeckten Bedarf in Akademie und Industrie zu decken: den Bedarf an kostengünstigeren und umweltfreundlicheren Katalysatoren. Und was ist ein Katalysator? Um die synthetischen Moleküle zu bauen, die in Medikamenten und einer Vielzahl anderer Materialien verwendet werden, verlassen sich Chemiker auf Katalysatoren, das sind Substanzen, die chemische Reaktionen steuern und beschleunigen, ohne Teil des Endprodukts zu werden.

Lange dachte man, es gebe nur zwei Hauptkategorien von Katalysatoren für die Synthese organischer Verbindungen: Metalle und Enzyme. Enzyme sind aber große, komplexe Proteine, die sich nur schwer auf industrielle Prozesse skalieren lassen. Metallkatalysatoren andererseits können für Arbeiter giftig und für die Umwelt schädlich sein. Dann, vor etwa 20 Jahren, entwickelten List und MacMillan unabhängig voneinander eine dritte Art von Katalysator. Dieser Ansatz, bekannt als asymmetrische Organokatalyse [5, 6], basiert auf Katalysatoren aus kleinen organischen Molekülen, die ein stabiles Gerüst aus Kohlenstoffatomen aufweisen, an die aktivere chemische Gruppen binden können, die häufig Sauerstoff, Stickstoff, Schwefel oder Phosphor enthalten.

Die Anwendung von Organokatalysatoren hat sich als kostengünstiger und umweltfreundlicher erwiesen als die Verwendung herkömmlicher Metall- oder Enzymkatalysatoren. Tatsächlich wird dieses präzise neue Werkzeug für die Konstruktion von Molekülen derzeit verwendet, um alles zu bauen, von neuen Pharmazeutika bis hin zu lichtabsorbierenden Molekülen, die in Solarzellen verwendet werden.

Arbeitsökonomie und Analyse von Kausalzusammenhängen

Damit sind wir beim Nobelpreis für Wirtschaftswissenschaften. Die diesjährigen Preisträger zeigten, dass es möglich ist, auf sozialwissenschaftliche Fragen Antworten zu Ursache und Wirkung zu finden. Der Schlüssel liegt darin, Situationen in Gruppen von Menschen zu bewerten, die unterschiedlich behandelt werden - ganz ähnlich wie es im Design klinischer Studien in der Medizin stattfindet. Mit diesem Ansatz des „natürlichen Experiments“ erstellte David Card Anfang der 1990er Jahre neuartige Wirtschaftsanalysen, die zeigten, dass eine Erhöhung des Mindestlohns nicht unbedingt zu weniger Arbeitsplätzen führt. Mitte der 1990er Jahre verfeinerten Angrist und Imbens dann die Methodik dieses Ansatzes und zeigten, dass aus natürlichen Experimenten, die Kausalzusammenhänge aufzeigen, präzise Schlüsse gezogen werden können.

Ausblick

Letztes Jahr hat das NIH die Namen von drei Wissenschaftlern in seine illustre Liste von Nobelpreisträgern aufgenommen. In diesem Jahr sind fünf weitere Namen hinzugekommen. In den kommenden Jahren und Jahrzehnten werden zweifellos noch viele weitere hinzukommen. Wie ich in den letzten 12 Jahren oft gesagt habe, ist es eine außergewöhnliche Zeit, ein biomedizinischer Forscher zu sein. Während ich mich darauf vorbereite, als Direktor dieser großartigen Institution zurückzutreten, kann ich Ihnen versichern, dass die Zukunft von NIH nie besser war.


 [1] The capsaicin receptor: a heat-activated ion channel in the pain pathway. Caterina MJ, Schumacher MA, Tominaga M, Rosen TA, Levine JD, Julius D. Nature 1997:389:816-824.

[2] Identification of a cold receptor reveals a general role for TRP channels in thermosensation. McKemy DD, Neuhausser WM, Julius D. Nature 2002:416:52-58.

[3] A TRP channel that senses cold stimuli and menthol. Peier AM, Moqrich A, Hergarden AC, Reeve AJ, Andersson DA, Story GM, Earley TJ, Dragoni I, McIntyre P, Bevan S, Patapoutian A. Cell 2002:108:705-715.

[4] Piezo1 and Piezo2 are essential components of distinct mechanically activated cation channels. Coste B, Mathur J, Schmidt M, Earley TJ, Ranade S, Petrus MJ, Dubin AE, Patapoutian A. Science 2010:330: 55-60.

[5] Proline-catalyzed direct asymmetric aldol reactions. List B, Lerner RA, Barbas CF. J. Am. Chem. Soc. 122, 2395–2396 (2000).

[6] New strategies for organic catalysis: the first highly enantioselective organocatalytic Diels-AlderReaction. Ahrendt KA, Borths JC, MacMillan DW. J. Am. Chem. Soc. 2000, 122, 4243-4244. -


 *Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 12. Oktober 2021) im NIH Director’s Blog unter dem Titel: "NIH’s Nobel Winners Demonstrate Value of Basic Researchwinners-demonstrate-value-of-basic-research/.https://directorsblog.nih.gov/2021/10/12/nihs-nobel-winners-demonstrate-value-of-basic-research/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH): https://www.nih.gov/

Nobelpreise 2021:

Artikel im ScienceBlog:

Benjamin List, 07.10.2021; Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Thu, 14.10.2021 - 18:41

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Do 07.10.2021 — Benjamin List

Benjamin ListIcon Chemie Wilhelm Ostwald hatte 1901 den Begriff des Katalysators definiert: "Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert." Bis vor 20 Jahren kannte man 2 Gruppen von Katalysatoren: i) in der Biosphäre eine schier unendliche Zahl an Enzymen, die hochselektiv die Synthese aller organischen Verbindungen (d.i. Gerüste aus Kohlenstoff, Wasserstoff und N-, O-, S- Und P-Gruppen) ermöglichen und ii) Metalle (Metallverbindungen), die von Akademie und Industrie zur zielgerichteten chemischen Synthese diverser organischer Moleküle eingesetzt werden. Eine dritte Klasse von Katalysatoren haben um 2000 Benjamin List (damals Scripps-Research Institute, US) und David MacMillan (Princeton University) voneinander unabhängig entdeckt: kleine organische Moleküle, die hochselektiv und effizient chemische Reaktionen katalysieren und ein enormes Potential für die industrielle Anwendung haben. Die beiden Forscher wurden für diese fundamentale Entdeckung mit dem diesjährigen Chemie-Nobelpreis ausgezeichnet. Im Folgenden findet sich ein kurzer Bericht von Benjamin List (Direktor am Max-Planck-Institut für Kohlenforschung, Mülheim, D) , den er nach seiner Rückkehr nach Deutschland 2003 über das neue Gebiet der Organokatalyse verfasst hat.*

Organokatalyse ist eine neue Katalysestrategie, bei der kleine, rein organische Katalysatoren verwendet werden. Obwohl die Natur eine ähnliche metallfreie Katalyse in vielen Enzymen verwendet, haben Chemiker erst vor kurzem das große Potenzial der Organokatalyse als einer hochselektiven und umweltfreundlichen Synthesemethode realisiert. In den letzten Jahren wurden spektakuläre Fortschritte auf dem Gebiet erzielt und seit kurzem wird Organokatalyse auch am Max-Planck-Institut für Kohlenforschung in Mülheim betrieben. Sie ergänzt dort bereits existierende Forschung auf den Sektoren der Biokatalyse, Metallkatalyse und der Heterogenen Katalyse.

Chemiker bemühen sich seit langem, die Effizienz und Selektivität von Enzymen mit synthetischen Katalysatoren nachzuahmen. Insbesondere ist es ein Ziel, die hohe Selektivität, die Enzyme gegenüber spiegelbildlichen Molekülen aufweisen, auch in chemisch katalysierten Reaktionen zu erreichen. Diese so genannte Enantioselektivität ist von herausragender Bedeutung in der Synthese von Wirkstoffen, da spiegelbildliche Moleküle unterschiedliche biologische Aktivitäten aufweisen.

Überraschenderweise basieren die für diesen Zweck entwickelten Katalysatoren fast ausschließlich auf Metallkomplexen, während etwa die Hälfte aller Enzyme völlig metallfrei ist. Erst seit kurzem realisiert man, dass auch niedermolekulare organische Katalysatoren hoch effizient und selektiv chemische Reaktionen katalysieren können. Das Potenzial solcher organokatalytischer Reaktionen ist insbesondere für die industrielle Synthese sehr groß, da die verwendeten Katalysatoren robust, günstig erhältlich, ungiftig und einfach zu synthetisieren sein sollen. Außerdem werden organokatalytische Reaktionen häufig bei Raumtemperatur durchgeführt und sind unempfindlich gegenüber Luft und Feuchtigkeit; viele Reaktionen lassen sich in der Tat in wässrigen Lösungsmitteln durchführen. Eine bedeutend leichtere Anbindung an die feste Phase zur effizienten Abtrennung und Rückgewinnung des Katalysators ist ebenfalls möglich. Das große Potenzial dieses Gebiets wird inzwischen akzeptiert und eine exponentiell wachsende Anzahl von Forschergruppen beschäftigt sich weltweit mit dieser noch nicht einmal ansatzweise ausgeschöpften Thematik.

Abbildung: Produkte neu entdeckter Prolin-katalysierter Reaktionen. Ausbeuten enantioselektiver Produkte (ee rot) in Prozent. (In das Bild wurde von Redn. die Strukturformel des Prolin eingefügt.)


Eine wichtige Klasse von organokatalytischen Reaktionen, die insbesondere am Max-Planck-Institut für Kohlenforschung untersucht werden, sind solche, die durch Amine und Aminosäuren katalysiert werden können. So konnten in den letzten Jahren eine Reihe von Reaktionen entwickelt werden, die durch die Aminosäure Prolin katalysiert werden, so zum Beispiel hochselektive Aldol-, Mannich-, Michael- und Aminierungsreaktionen (Abbildung). Diese neuen Reaktionen liefern in exzellenten Ausbeuten und Enantioselektivitäten chirale Alkohole, Amine und Aminosäurederivate von potenziellem Nutzen für die Synthese funktionaler Moleküle, insbesondere von Wirkstoffen. Vor kurzem wurden außerdem neuartige Zyklisierungsreaktionen entdeckt.


* Der vorliegende Artikel von Bejamin List ist dem Jahrbuch 2003 der Max-Planck-Gesellschaft unter dem Titel "Organokatalyse: Eine neue und breit anwendbare Synthesemethode" (https://www.mpg.de/870377/forschungsSchwerpunkt1?c=154862) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle im ScienceBlog verbreitet werden. Der Abstract (kursiv) zum Artikel wurde von der Redaktion eingefügt. Der folgendeText und eine Abbildung wurden unverändert übernommen, allerdings fehlt der abschließende Teil über eine Reihe weiterer wichtiger Prolin-katalysierter Reaktionen und die Darstellung ihrer Synthesewege, da dafür eine Vertrautheit mit der Sprache der organischen Chemie nötig ist. Auch für die Literaturzitate wird auf den Originalartikel verwiesen.

 


Weiterführende Links

Benjamin List homepage: https://www.kofo.mpg.de/de/forschung/homogene-katalyse

Catarina Pietschmann: Eine Perspektive fürs Leben (6. Oktober 2021), Ein Porträt des Direktors am Max-Planck-Institut für Kohlenforschung und Chemie-Nobelpreisträgers 2021. Chemie (M&T) Preise

Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

BR Mediathek: Benjamin List erklärt seine Methode der asymmetrischen Organokatalyse. (ARD alpha campus talk 2019). Video 11;26 min. https://www.br.de/mediathek/video/nobelpreis-fuer-chemie-benjamin-list-erklaert-seine-methode-der-asymmetrischen-organokatalyse-av:615da7fdeb179f00072e4570

inge Fri, 08.10.2021 - 01:04

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

So. 03.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Über die jüngste EU-weite Umfrage zum Thema Wissenschaft und Technologie "European citizens’ knowledge and attitudes towards science and technology" ist eben der bislang umfangreichste Report erschienen. Aus der enormen Fülle an wichtigen Ergebnissen wird hier eine Auswahl getroffen. Es wird über das Interesse der Europäer (und speziell das Interesse der Österreicher) an Wissenschaft und Technologie berichtet und über deren Informiertheit - beides Grundlagen für den Erwerb von Kenntnissen und einem breiten Verständnis für die Wissenschaften, die das moderne Leben prägen.

Im Jahr 2000 war mit der Lissabon Strategie ein überaus ehrgeiziges Ziel gesteckt worden: die Europäische Union sollte sich bis 2010 zur weltweit wettbewerbsfähigsten und dynamischsten wissensbasierten Ökonomie entwickeln. Zielorientierte Investitionen in Forschung & Entwicklung sowie Innovation - sogenannte Forschungsrahmenprogramme - sollten dabei das Wachstum im Bereich von Wissenschaft (science) und Technik ermöglichen (NB: unter science sind hier die Naturwissenschaften zu verstehen!). Allerdings ergab eine 2001 von der EU-Kommission in Auftrag gegebene EU-weite Umfrage [1], dass die Europäer im Durchschnitt Wissenschaft und Technik nicht in der zur Zielerreichung erforderlichen Weise wahrnahmen, dass es an Wissen und Information, vielfach aber auch einfach an Interesse mangelte. Weitere Umfragen in den Jahren 2005 und 2010 [2] zeigten eine positive Entwicklung auf dem Weg zur angestrebten Wissensgesellschaft, aber auch enorme Verbesserungsmöglichkeiten.

Jedenfalls wurden 2010 die Kernziele von Lissabon auch nicht annähernd erreicht; diese sollten - neben neuen Zielen - nun in der Nachfolgestrategie Europa 2020 weiterverfolgt werden. Um nicht an finanziellen Engpässen zu scheitern, wurde die Mittelausstattung der Forschungsrahmenprogramme massiv erhöht - das von 2014 - 2020 laufende Programm Horizon 2020 wurde mit 70 Milliarden € dotiert, das neue bis 2027 laufende Horizon Europa wird 95,5 Milliarden € erhalten.

Anknüpfend an die 2010-Umfrage folgten in den Jahren 2013 und 2014 zwei weitere EU-weite Umfragen. Diese untersuchten einerseits die Einbindung der Gesellschaft in Wissenschaft und Innovation [3], andererseits wieweit die europäische Bevölkerung davon überzeugt war, dass sich der Einsatz von Wissenschaft und Technologie in naher Zukunft positiv auf die wesentlichsten Aspekte des täglichen Lebens - von Gesundheit über Bildung, Arbeitsplätze, Energieversorgung, Mobilität, Wohnen bis hin zu Umweltschutz und Kampf gegen den Klimawandel - auswirken werde [4].

Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde (mit speziellem Fokus auf Österreich) im ScienceBlog berichtet [5 - 8].

Special Eurobarometer 516

Nach einer langen Unterbrechung von sieben Jahren ist vor 10 Tagen der mit 322 Seiten bislang umfangreichste Bericht über die jüngste Umfrage zu "Wissen und Einstellungen der europäischen Bürger zu Wissenschaft und Technologie" erschienen [9]. Neben 26 827 Personen in den 27 Mitgliedstaaten wurden 10 276 Personen in weiteren 11 Ländern befragt (in den Beitrittskandidaten Albanien, Montenegro, Nordmazedonien, Serbien und Türkei, sowie in Bosnien und Herzegowina, Island, Kosovo, Norwegen, Schweiz und UK). Die Befragung hat vom 13 April bis 10 Mai 2021 stattgefunden - soweit es pandemiebedingt möglich war in Form von face-to-face Interviews bzw. online - in der jeweiligen Muttersprache und soziodemografisch repräsentativ gewichtet.

Die Ergebnisse bieten Einblicke in

  • das Wissen der Bürger über Wissenschaft und Technologie, ihr Interesse daran und ihre Informationsquellen,
  • Ihre Ansichten zu den Auswirkungen von Wissenschaft und Technologie - auch auf die Gesellschaft - und zu Risiken und Vorteilen neuer Technologien,
  • ihre Ansichten zur Governance von Wissenschaft und Technologie,
  • ihre Einstellung zu Wissenschaftlern, zu deren angenommenen Eigenschaften, deren Glaubwürdigkeit und Rolle in der Gesellschaft,
  • ihr Engagement in Wissenschaft und Technologie,
  • Aspekte in Bezug auf junge Menschen,
  • die Geschlechtergleichstellung und soziale Verantwortung
  • den Vergleich des Status in Wissenschaft und Technologie der EU und anderen Teile der Welt.
  • Themen, die bereits in früheren Befragungen angesprochen wurden und die diesbezügliche Entwicklung der Bevölkerung aufzeigen.

Insgesamt liegt eine derart immense Fülle an wichtigen Ergebnissen vor, dass diese hier auch nicht ansatzweise in entsprechender Form zusammengefasst werden können. Fürs Erste wird daher nur der Teilaspekt  Interesse an Wissenschaft &Technologie und Informationsstand ausgewählt. Die Aussagen dazu sind offensichtlich von den derzeitigen beispiellosen Krisen geprägt: vom Klimawandel, vom Verlust der biologischen Vielfalt und vor allem von der COVID-19 Pandemie.

Wie auch in den vorangegangenen Berichten werden die  Ansichten der Österreicher mit den Ansichten anderer Europäer verglichen.

Wissenschaft & Technologie: Interesse und Information

Die weitaus überwiegende Mehrheit der EU-Bürger gibt an sich für Wissenschaft und Technologie zu interessieren, insbesondere für Umweltprobleme, für neue Entdeckungen in Medizin und Naturwissenschaften und für technologische Entwicklungen, fühlt sich aber nicht in gleicher Weise darüber informiert. Abbildung 1.

Abbildung 1: Wieweit sind die EU-Bürger im Durchschnitt an Wissenschaft und Technologie interessiert, wieweit informiert? Interessiert = Summe aus sehr hohem und mäßigen Interesse, informiert = Summe aus sehr gut und mäßig gut informiert. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Dabei ist aber zwischen großem Interesse und mäßigem Interesse (was immer das ist) zu unterscheiden. Großes Interesse zeigen im EU27-Schnitt i) an Umweltproblemen (inklusive Klimaschutz) 42 % der Befragten, ii) an Entdeckungen in der Medizin 38 % und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 33 %. (Dass an Umweltproblemen und medizinischen Entdeckungen ein so hohes Interesse besteht, ist zweifellos den derzeitigen Krisen geschuldet.)

Der Anteil der sehr Interessierten hat in allen 3 Gebieten seit 2010 um einige  Prozentpunkte zugenommen (siehe unten, Abbildung 5). Der Anteil der völlig Desinteressierten liegt in den drei Themen im EU27-Schnitt bei 11 %, 14 % und 18 %, allerdings ist in allen Themen eine sehr starke Zunahme des Desinteresses von Nordwest nach Südost zu beobachten. Dies soll am Beispiel des Interesses an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen aufgezeigt werden (Abbildung 2): In Ländern wie Italien, Rumänien, Bulgarien, Polen sind bis zu 37 % der Befragten daran desinteressiert. Noch geringer ist das Interesse der Beitrittskandidaten am Balkan und hier vor allem in Serbien (39 % desinteressiert); Serbien weist auch den höchsten Anteil Desinteressierter an medizinischen Entdeckungen (34 %) und an Umweltproblemen (29 %) auf.

Abbildung 2: Europa zeigt einen starken Nordwest - Südost-Trend im Interesse an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen. Auch in einigen (noch)Nicht-EU-Ländern ist ein beträchtlicher Teil der Bevölkerung (vor allem in Serbien) desinteressiert . XK: Kosovo, ME: Montenegro, BA: Bonien/Herzegovina, MK: N-Mazedonien, Albanien: Al, RS: Serbien. (Bild modifiziert nach [9]).

Auch in puncto Informiertheit ist zwischen sehr guter und mäßig guter Information zu unterscheiden. So fühlten sich im EU27-Schnitt i) über Umweltprobleme (inklusive Klimaschutz) nur 21 % der Befragten sehr gut, 61 % aber mäßig gut Informiert und ii) über neue Entdeckungen in der Medizin 13 % sehr gut, 54 % aber mäßig gut informiert. Auch ihren Informationsstand über Entdeckungen in den Naturwissenschaften und über technologische Entwicklungen empfanden nur 13 % als sehr gut und 53 % als mäßig gut (Abbildung 3). Die Angaben "sehr gut informiert" sind seit 2010 in allen drei Sparten nur um 2 % gestiegen (siehe unten, Abbildung 5).

Abbildung 3 zeigt als Beispiel die Informiertheit an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen der einzelnen EU-Länder. Besonders problematisch erscheint hier der sehr starke Nordwest-Südost-Trend: in Italien, Ungarn und Bulgarien bezeichnen sich 50 % bzw. 53 % der Befragten als schlecht informiert. Im Beitrittskandidaten Serbien sind es gar 57 % (ohne Abbildung).

Es besteht also dringender Handlungsbedarf für Maßnahmen zur Steigerung des Interesses und auch zur Bereitstellung von nötiger, leicht verständlicher Information!

Abbildung 3: Bis zur und über die Hälfte der EU-Bürger sind über wissenschaftliche Entdeckungen und technologische Entwicklungen schlecht informiert. (Bild modifiziert nach [9].)

Zur Situation in Österreich

Österreich zeichnet sich nicht durch besonders hohes Interesse an den drei Gebieten aus. Auch, wenn die Angaben "sehr interessiert" seit 2010 gestiegen sind, entsprechen die Zahlen in etwa nur dem EU27-Schnitt und liegen damit näher den südöstlichen als den nordwestlichen Ländern: sehr interessiert i) an Umweltproblemen sind 44 % der Befragten (um 6 % mehr als 2010), ii) an Entdeckungen in der Medizin 33 % (um 10 % mehr als 2010) und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 27 % (um 6 % mehr als 2010). Der Anteil der völlig Desinteressierten in den drei Sparten liegt bei 11 %, 16 % und 21 %.

Ein wesentlich niedrigerer Anteil der Befragten sieht sich als sehr gut informiert an: 27% über Umweltthemen, 14 % über medizinische und auch über naturwissenschaftliche Entdeckungen. Als schlecht informiert bezeichnen sich 16 % in Umweltfragen, 31 % in medizinischen Entdeckungen und mehr als 1/3 der Befragten (36 %) in neuen naturwissenschaftlichen Erkenntnissen.

Soziodemographische Unterschiede

Aufgeschlüsselt nach Alter, Geschlecht und Ausbildung sind deutliche Unterschiede im Interesse an Wissenschaft und Technologie erkennbar. Abgesehen von einem insgesamt niedrigeren Interesse folgt Österreich demselben Trend wie der EU27-Schnitt. Abbildung 4.

Befragte in jüngerem Alter zeigen höheres Interesse als ältere. Ein sehr großer Unterschied ist zwischen Männern und Frauen erkennbar - Männer geben sehr viel häufiger an, dass sie an Entwicklungen in Wissenschaft und Technologie sehr interessiert wären.

Bestimmend für das Interesse ist auch die Dauer der Ausbildung. Je länger diese dauerte, desto mehr Interessierte an Entwicklungen in Wissenschaft und Technologie gibt es.

Abbildung 4: Wer ist an wissenschaftlichen Entdeckungen und technologischen Entwicklungen sehr interessiert? Soziodemographische Aufschlüsselung. (Bild modifiziert nach: ebs_516_science and technology_Infographic.pdf)V

Wissenschaften versus Nicht-Wisssenschaften

Interesse und Informiertheit wurden auch zu 3 anderen Sphären des täglichen Lebens abgefragt: i) zu Kunst und Kultur, ii) zu Politik und iii) zu Sportnachrichten.

Erstaunlicherweise besteht ein höheres Interesse an den wissenschaftlichen Themen als an den nicht-wissenschaftlichen, für Letztere zeigten sich im EU27-Schnitt jeweils rund ein Viertel der Befragten sehr interessiert. Abbildung 5.

Der Anteil der an Kunst & Kultur und an Politik sehr Interessierten hat seit 2010 zugenommen (um 4 bzw. 6 %), der Anteil der Sportfans um 4 % abgenommen.

Der Anteil der sehr gut Informierten in Politik und Sport liegt etwas höher als  in Umweltproblemen; der Erstere hat seit 2010 um 4 % zugenommen und entspricht dem Anteil der an Politik sehr Interessierten. Parallel zum sinkenden Anteil der Sportbegeisterten ist auch der Anteil der sehr gut Informierten stark gesunken, der Anteil der schlecht Informierten auf 39 % gestiegen.

Ebenso hat der Anteil an sehr gut Informierten in Kunst & Kultur leicht zugenommen.

Abbildung 5: Im EU27-Schnitt zeigen mehr Menschen großes Interesse an wissenschaftlichen Themen als an nicht-wissenschaftlichen, sind aber nicht entsprechend gut informiert. Interessanterweise hat die Sportbegeisterung im letzten Jahrzehnt stark abgenommen. (Bild modifiziert nach [9].)

In Österreich punkten auch die nicht-wissenschaftlichen Themen: Im Vergleich zu den wissenschaftlichen Themen, an denen 27 - 44 % der Befragten großes Interesse äußerten (siehe oben), waren 28 % sehr an Politik interessiert (2010 waren es noch 18 %) und 32 % an Sport (2010: 30 %). Überraschend war allerdings, dass der Anteil der Kunst- & Kultur-Fans mit 22 % (2010: 15 %) unter allen Sparten am niedrigsten ausfiel (und das bei dem Anspruch Österreichs als Kulturland!).

Hinsichtlich Informiertheit fühlten sich 23 % (2010: 13 %) über Politik sehr gut informiert, 27 % über Sport (2010: 26 %) und 16 % (2010: 12 %) über Kunst & Kultur.

Woher stammen die Informationen über Wissenschaft und Technologie?

Den Befragten wurde eine Liste möglicher Informationsquellen für Wissenschaft und Technologie vorgelegt, aus der sie die zwei für sie wichtigsten Quellen nennen sollten.

Wie auch in der Vergangenheit ist für den Großteil der Europäer TV die wichtigste Informationsquelle (EU27-Schnitt 63 %, Österreich 53 %), mit großem Abstand folgen das Internet mit sozialen Netzwerken und Blogs und dann Tageszeitungen (online oder gedruckt), die 4.häufigste Quelle ist wieder das Internet mit Lexika wie Wikipedia. Die Präferenzen für diese Quellen sind in Abbildung 6 zusammengefasst.

Weitere Quellen wie Radio, Bücher, wissenschaftliche Fachzeitschriften werden von wesentlich kleineren Personenkreisen vorgezogen.

Abbildung 1: Die vier im EU27-Schnitt und in Österreich am häufigsten genannten Informationsquellen für Wissenschaft und Technologie. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Fazit

Das Interesse der Europäer an naturwissenschaftlichen und technologischen Themen ist seit 2010 gestiegen und im EU27-Schnitt höher als an den nicht-wissenschaftlichen Themen Kunst & Kultur, Politik und Sportnachrichten. Allerdings fühlen sich die Menschen über die wissenschaftlichen Themen als nicht sehr gut informiert und diese Situation hat sich seit 2010 nur schwach verbessert. Sowohl Interesse als auch Informiertheit fallen von Nordwest nach Südwest stark ab, wo sich bis zu 37 % der Befragten als desinteressiert und über 50 % als uninformiert bezeichnen.

Es wäre Aufgabe des Fernsehens, das als wichtigste Informationsquelle genannt wird und ebenso des Internets seriöse, leicht verständliche aber auch unterhaltsame naturwissenschaftliche Themen anzubieten, um sowohl das Interesse daran als auch das Wissen zu steigern.


[1] Eurobarometer 55.2 “Wissenschaft und Technik im Bewusstsein der Europäer” (2001)

[2] Spezial-Eurobarometer 340 „Wissenschaft und Technik“; Juni 2010 (175 p.)http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf

[3] Spezial- Eurobarometer 401 „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf

[4] Special Eurobarometer 419 “Public Perceptions of Science, Research and Innovation” (6.10.2014) http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf

[5] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [6]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[7] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[8] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[9] Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN


 

inge Mon, 04.10.2021 - 01:17

Wie Eiweißablagerungen das Gehirn verändern

Wie Eiweißablagerungen das Gehirn verändern

Do, 23.09.2021 — Irina Dudanova

Irina DudanovaIcon Gehirn

  Neurodegenerative Erkrankungen sind verheerende Krankheiten, deren grundlegende Mechanismen noch nicht ausreichend erforscht sind. Ein gemeinsames Merkmal sind Eiweißablagerungen im Gehirn. Fehlgefaltete Proteine, die vom Qualtitätskontrollsystem gesunder Zellen korrigiert oder entsorgt werden, überfordern dieses bei neurodegenerativen Erkrankungen. Dr. Irina Dudanova, Leiterin der Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinsried, D), untersucht mit ihrem Team die Auswirkungen dieser Eiweißablagerungen auf Nervenzellen. Dabei kommen histologische und biochemische Methoden, Verhaltensanalysen sowie mikroskopische Untersuchungen an lebenden Organismen (Invitralmikroskopie) zum Einsatz. Mit einem neuen Mausmodell kann das Team erstmals den Zustand der kontrollierten Funktion der Proteine - der Proteostase - in Säugetier-Nervenzellen sichtbar machen. Diese Studien sollen dabei helfen, die Entstehung neurodegenerativer Erkrankungen besser zu verstehen, um in Zukunft effiziente Therapien entwickeln zu können.*  

Manche Gehirnerkrankungen wie die Alzheimer-Krankheit, die Parkinson-Krankheit oder Chorea Huntington zeichnen sich durch fortlaufende Schädigung und Tod von Nervenzellen aus und sind als neurodegenerative Erkrankungen bekannt. Im Verlauf der Erkrankung bilden sich Ansammlungen von fehlgefalteten Eiweißen im Gehirn, die man als Einschlusskörperchen oder Plaques bezeichnet. Welche Wirkung haben diese Eiweißablagerungen auf die Nervenzellen, und wie beeinflussen sie die Gehirnfunktion? Um diese Fragen zu beantworten, forschen wir sowohl an Zellkulturen als auch an Mäusen, die als Modelle der humanen Erkrankungen dienen.

Störungen des Abwehrsystems von Eiweißfehlfaltung

Eiweißablagerungen sind eine Folge von Eiweißfehlfaltung, durch die sich die dreidimensionale Struktur der Eiweiße verändert. Jede Zelle ist mit einem Abwehrsystem gegen Eiweißfehlfaltung ausgestattet. Dazu gehören mehrere Faltungshelfer-Moleküle, die geschädigte Proteine erkennen und reparieren bzw. ihren Abbau fördern, um eine stabile Funktion der Proteine („Proteostase“) in der Zelle zu gewährleisten. Es wird angenommen, dass die Fähigkeiten dieses Abwehrsystems mit dem Alter nachlassen, was zu Proteostasestörungen und zur Eiweißablagerung führt und somit neurodegenerative Erkrankungen begünstigt.

Bisher war es jedoch nicht möglich, diesen Prozess im Mausgehirn im Krankheitsverlauf mikroskopisch zu beobachten. Durch den Einsatz eines fluoreszierenden Sensors ist es uns gelungen, den Proteostase-Zustand in Nervenzellen sichtbar zu machen. Mithilfe dieser Methode kann man nun die Proteostasestörungen bei verschiedenen Krankheiten genauer untersuchen. Wenn das Fehlfaltungsabwehrsystem überfordert ist, bildet der normalerweise diffus verteilte Sensor kleine Punkte innerhalb der Zellen (Abbildung 1). In der Zukunft kann der Sensor dabei helfen, die Wirksamkeit von möglichen Therapien einzuschätzen.

Abbildung 1: Oben: Funktionsweise des Proteostase-Sensors. In gesunden Nervenzellen (links) ist der Sensor gleichmäßig verteilt. Eine Proteostasestörung erkennt man daran, dass der Sensor sich in der Zelle umverteilt und kleine Punkte bildet (rechts). Unten: Proteostasestörung in einem Mausmodell der Alzheimer-Krankheit, das Ablagerungen des Tau-Eiweißes (rot) aufweist. Die Umverteilung des Sensors (grün) ist mit Pfeilen markiert. Nervenzellen sind blau gefärbt. © MPI für Neurobiologie / Dudanova, Blumenstock

Defekte Abfallentsorgung in Nervenzellen

Um die allgemeinen Vorgänge bei der Eiweißablagerung in Zellkultur nachzubilden, haben wir in Kooperation mit Kollegen vom Max-Planck-Institut für Biochemie künstlich erzeugte Proteine eingesetzt, die spontan Einschlusskörperchen bilden. Mithilfe von hochauflösender Elektronenmikroskopie untersuchten wir die Struktur der Nervenzellen mit solchen Ablagerungen im Detail. Dabei fanden wir Veränderungen der Lysosomen, den zellulären Strukturen, die für die Abfallentsorgung zuständig sind. In Anwesenheit von Eiweißablagerungen waren die Lysosomen angeschwollen, sie schienen unverdautes Material zu enthalten. Biochemische Analysen zeigten, dass in den betreffenden Zellen mehrere wichtige Proteine von den Ablagerungen „aufgefangen“ werden und an ihnen kleben bleiben, darunter auch ein Protein, das am Transport struktureller Komponenten der Lysosomen beteiligt ist. Vermutlich führt dies zu unzureichender Funktion der Lysosomen und folglich zu einem Stau im zellulären Entsorgungssystem. Mit unserer gemeinsamen Studie konnten wir somit eine neue Verbindung zwischen Eiweißablagerungen und Beeinträchtigung der Abbauvorgänge in Nervenzellen aufzeigen [1].

Veränderungen der neuronalen Aktivität

Eiweißablagerungen stören auch die Kommunikation der Nervenzellen untereinander innerhalb der neuronalen Netzwerke. Solche funktionellen Veränderungen durch neurodegenerative Erkrankungen sind bisher jedoch nur unzureichend erforscht. Mithilfe intravitaler Mikroskopie, bei der Veränderungen im lebenden Gewebe mikroskopisch sichtbar gemacht werden können, haben wir die Aktivität der Nervenzellen in der motorischen Hirnrinde von Mäusen, die an Chorea Huntington erkrankt waren, über mehrere Wochen hinweg wiederholt gemessen.

Abbildung 2: Die maximale Aktivität einzelner Nervenzellen in der motorischen Hirnrinde einer Kontrollmaus (links) und einer Huntington-Maus (rechts) während einer 15-minütigen Mikroskopie-Sitzung ist mithilfe der Farbskala dargestellt.© MPI für Neurobiologie / Dudanova, Burgold

Überraschenderweise konnten wir bereits vor dem Eintreten der krankheitsbedingten Verhaltensänderungen eine erhöhte Aktivität der Nervenzellen feststellen (Abbildung 2). Histologische Untersuchungen in Chorea Huntington-Mäusen und in humanem Chorea Huntington-Gehirngewebe sowie biochemische Analysen wiesen darauf hin, dass diese Hyperaktivität der Nervenzellen möglicherweise mit unzureichender synaptischer Hemmung im Zusammenhang steht [2]. In zukünftigen Studien wollen wir daher einzelne Typen von hemmenden Nervenzellen genauer unter die Lupe nehmen, die bisher im Kontext der Chorea Huntington-Erkrankung wenig erforscht wurden [3].

Ausblick

Bei jeder neurodegenerativen Erkrankung sind bestimmte Nervenzelltypen besonders früh und stark betroffen, während andere Nervenzellen in ihrer Nähe länger verschont bleiben [4]. Über die Ursachen dieser Unterschiede verbleiben noch viele Fragen. In zukünftigen Untersuchungen wollen wir die molekularen und funktionellen Merkmale der unterschiedlich stark betroffenen Zelltypen in Mausmodellen der Neurodegeneration weiter erforschen. Dies ist wichtig, um zu verstehen, welche von den vielen pathologischen Vorgängen, die im kranken Gehirn stattfinden, bei der Krankheitsentstehung eine entscheidende Rolle spielen.


[1]. Schaefer, T. et al., Amyloid-like aggregates cause lysosomal defects in neurons via gain-of-function toxicity. bioRxiv (2019).https://www.biorxiv.org/content/10.1101/2019.12.16.877431v3

[2]. Burgold, J. et al., Cortical circuit alterations precede motor impairments in Huntington’s disease mice. Scientific Reports 9(1), 6634 (2019). https://www.nature.com/articles/s41598-019-43024-w

[3]. Blumenstock, S.; Dudanova, I. Cortical and striatal circuits in Huntington’s disease. Frontiers in Neuroscience 14, 82 (2020). https://www.frontiersin.org/articles/10.3389/fnins.2020.00082/full

[4]. Fu, H.; Hardy, J.; Duff, K.E. Selective vulnerability in neurodegenerative diseases. Nature Neuroscience 21(10), 1350-1358 (2018). https://www.nature.com/articles/s41593-018-0221-2


* Der vorliegende Artikel von Irina Dudanova ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Wie Eiweißablagerungen das Gehirn verändern" (https://www.mpg.de/15932560/neuro_jb_2020?c=11659628) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden von uns nahezu unverändert übernommen.


Weiterführende Links

Webseite der Irina Dudanova- Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinried, D): https://www.neuro.mpg.de/dudanova/de

Fehlerhafte Qualitätskontrolle im Gehirn (19.08.2021): https://www.neuro.mpg.de/news/2021-08-dudanova/de?c=2742

.............................................................................................................

Zur Protein(fehl)faltung aus dem Max-Planck-Institut für Biochemie (Martinsried, D):

F.-Ulrich Hartl:Chaperone - Faltungshelfer in der Zelle.Video 9:11 min. https://www.biochem.mpg.de/4931043/03_Hartl-Chaperone copyright: www.mpg.de/2013

F.-Ulrich Hartl: Die Proteinfaltung. Video 4:38 min.https://www.biochem.mpg.de/4931164/07_Hartl-Proteinfaltung copyright: www.mpg.de/2013

...............................................................................................

Das Gehirn im ScienceBlog:

Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Ein Themenschwerpunkt Gehirn fasst diese Artikel zusammen.


 

inge Wed, 22.09.2021 - 23:10

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Do, 16.09.2021 — IIASA

IIASA Logo IconEnergie

Die Bekämpfung der Armut ist Ziel Nr. 1 der UN-Ziele für Nachhaltige Entwicklung. Um den Lebensstandard zu erhöhen, wäre für viele Menschen eine Zunahme in der Energieversorgung erforderlich. Gleichzeitig wäre aber für das Erreichen der aktuellen Klimaziele des Pariser Abkommens ein niedrigerer Energieverbrauch angezeigt. IIASA-Forscher haben abgeschätzt, wie viel Energie man braucht, um den Armen der Welt ein menschenwürdiges Leben zu ermöglichen und sie haben herausgefunden, dass dies mit Bemühungen zur Erreichung der Klimaziele vereinbar ist.*

Angemessene Lebensstandards (DLS)...

Um die weltweite Armut zu beseitigen und angemessene Lebensstandards ("Decent Living Standards", DLS , d.i. die materielle Grundlage des menschlichen Wohlbefindens) zu erreichen, ist eine ausreichende Energieversorgung die wesentliche Voraussetzung. Trotz internationaler Verpflichtungen wie den UN-Zielen für Nachhaltige Entwicklung (Sustainable Development Goals - SDGs; Anm. Redn.: siehe dazu [1]) gehen die Fortschritte bei der Verwirklichung von DLS weltweit in vielen Bereichen nur langsam voran. Dazu kommen auch Befürchtungen, dass ein besserer Zugang zu Energie zu höheren Emissionen von Kohlendioxid führen könnte, was mit den Zielen zur Eindämmung des Klimawandels interferieren würde.

In einer neuen Studie, die in der Zeitschrift Environmental Research Letters veröffentlicht wurde, haben IIASA-Forscher einen multidimensionalen Ansatz zur Armut angewandt, um eine umfassende globale Untersuchung zu angemessenen Lebensstandards durchzuführen. Die Forscher haben regionsweise (bei insgesamt 193 Ländern; Anm. Redn.) dabei Lücken in den DLS identifiziert und abgeschätzt, wie viel Energie notwendig ist, um sie zu schließen. Sie haben auch ermittelt, wie weit ein menschenwürdiges Leben für alle mit den Klimazielen vereinbar ist. [2]

..... materielle Voraussetzungen....

Armutsstudien verwenden häufig eine einkommensbasierte Definition zur Festlegung von Armutsgrenzen (Schwellenwert: 1,90 USD/Tag für arme Länder oder 5,50 USD/Tag für Länder mit mittleren/hohen Einkommen); dies verschleiert, dass andere Faktoren unmittelbarer zum menschlichen Wohlbefinden beitragen. Im Gegensatz dazu stellen DLS eine Reihe von materiellen Voraussetzungen dar, um für das Wohlbefinden die erforderlichen Dienstleistungen bereitzustellen, wie etwa eine angemessene Unterkunft, Ernährung, sauberes Wasser, sanitäre Einrichtungen, Kochherde und Kühlung sowie die Möglichkeit, sich physisch und sozial über Transport- und Kommunikationstechnologien verbinden zu können. Dies ermöglicht vor allem die Berechnung der Ressourcen, die für die Bereitstellung dieser Basisdienste erforderlich sind.

.... und Lücken in den DLS

Die größten Lücken in den DLS wurden in Afrika südlich der Sahara festgestellt, wo mehr als 60 % der Bevölkerung mindestens die Hälfte der Indikatoren für angemessenes Leben nicht erreichen. Die Forscher identifizierten auch einen hohen Mangel an DLS-Indikatoren wie beispielsweise an sanitären Einrichtungen und Wasserzugang, Zugang zu sauberem Kochen und Heizen in Süd- und Pazifikasien sowie moderatere Lücken in anderen Regionen. Eines der auffälligsten Ergebnisse der Studie war, dass die Zahl der Menschen, die nach DLS einen Mangel in ihren Grundbedürfnissen haben, in der Regel die Zahl der Menschen in extremer Einkommensarmut bei weitem übersteigt, sodass aktuelle Armutsgrenzen oft nicht mit einem menschenwürdigen Leben vereinbar sind.

Abbildung 1. Abbildung 1. Mittlerer Indikator für die Entbehrung angemessener Lebensstandards (DLS). Die Karte zeigt die durchschnittliche Entbehrung angemessener Lebensstandards (DLS) bezogen auf die Bevölkerungszahl von null bis eins. Der regionale Durchschnitt der Bevölkerung mit menschenwürdigem Lebensstandard (farbiger Balken) ist für jede DLS-Dimension (Ernährung bis Transport) von 0 bis 100 % dargestellt.

Auf die Frage, welche Komponenten der DLS die meisten Investitionen in Energie erfordern, haben die Forscher Unterkünfte und Transport identifiziert.

„Der Großteil der Weltbevölkerung verfügt derzeit über keinen angemessenen motorisierten Verkehr. Eine wichtige politische Erkenntnis für nationale Regierungen ist die weitreichende Auswirkung, die Investitionen in den öffentlichen Nahverkehr haben, um damit die Nutzung von Personenkraftwagen zu reduzieren, die im Allgemeinen einen viel höheren Energieverbrauch pro Person haben“, sagt Jarmo Kikstra, Hauptautor der Studie und Forscher im IIASA Energie-, Klima- und Umweltprogramm.

Energiebedarf für die DLS

Die im Voraus erforderliche weltweite Energie für den Bau neuer Häuser, Straßen und für andere Güter, um die Gewährleistung der DLS von 2015 bis 2040 für alle zu ermöglichen, beträgt etwa 12 Exajoule pro Jahr (1 Exajoule -1 EJ = 1018 Joule = ~ 278 TWh; Anm. Redn.). Dies ist nur ein Bruchteil des derzeitigen gesamten Endenergieverbrauchs, der 400 Exajoule pro Jahr übersteigt. Der mit der Zunahme der Dienstleistungen einhergehende Anstieg der jährlichen Betriebsenergie, einschließlich der Wartungskosten, ist substantieller und erhöht sich schließlich um etwa 68 Exajoule. Für einige Länder würde das Erreichen dieses Ziels nachhaltige Veränderungen in der Entwicklung erfordern, die insbesondere im Globalen Süden eine Herausforderung darstellen.

„Für die meisten Länder, insbesondere für viele arme Länder in Afrika, sind ein bislang nicht gekannter Anstieg des Energieverbrauchs sowie ein gerechter verteiltes Wachstum unerlässlich, um DLS vor der Jahrhundertmitte zu erreichen“, fügt Kikstra hinzu. „Daher wird die größte Herausforderung für die Politik darin bestehen, eine gerechte Verteilung des Energiezugangs weltweit zu erzielen, der derzeit noch außer Reichweite ist.“

Laut Studie beträgt die Energiemenge, die weltweit für ein angemessenes Leben benötigt wird, weniger als die Hälfte des gesamten Endenergiebedarfs, der unter den meisten zukünftigen Entwicklungspfaden, die den Temperaturanstieg unter 1,5 °C halten, prognostiziert wird (SSP-Szenarien: Shared Socioeconomic Pathways = gemeinsame sozioökonomische Entwicklungspfade; Anm. Redn.). Abbildung 2. Dies deutet darauf hin, dass das Erreichen der DLS für alle nicht mit den Klimazielen zu interferieren braucht. Während sich deren Verhältnis in verschiedenen Klimaschutzszenarien und je nach Region ändert, bleibt der Energiebedarf für die DLS auf der Stufe größerer globaler Regionen immer deutlich unter dem prognostizierten Energiebedarf.

Abbildung2. Energiepfade für ein menschenwürdiges Leben in einem Szenario, in dem bis 2040 allen Menschen ein menschenwürdiges Leben ermöglicht wird (DLE-2040), und in einem Szenario, in dem die Bereitstellung eines menschenwürdigen Lebens an das Wirtschaftswachstum gekoppelt ist (DLE-BIP). Verglichen wird mit dem Szenario SSP2 - dem „mittleren Weg“, d.i. die bisherige Entwicklung setzt sich in die Zukunft fort – und den mit einem Temperaturanstieg von 2 °C (SSP2-26) und 1,5 °C (SSP2-19) kompatiblen Pfaden. (Bild aus Jarmo S Kikstra et al 2021 [2], von der Redn.eingefügt)

„Um weltweit menschenwürdige Lebensbedingungen zu erreichen, müssen wir anscheinend den Energiezugang zu grundlegenden Dienstleistungen nicht einschränken, da es einen Überschuss an Gesamtenergie gibt. Was vielleicht unerwartet ist, ist, dass selbst unter sehr ambitionierten Armutsbekämpfungs- und Klimaschutzszenarien noch ziemlich viel Energie für Wohlstand zur Verfügung steht“, sagt Studienautor Alessio Mastrucci.

„Unsere Ergebnisse stützen die Auffassung, dass Energie zur Beseitigung der Armut im globalen Maßstab keine Bedrohung für die Eindämmung des Klimawandels darstellt. Um jedoch allen ein menschenwürdiges Leben zu ermöglichen, ist eine Energieumverteilung auf der ganzen Welt und ein bisher nicht dagewesenes Wachstum der Endenergie in vielen armen Ländern erforderlich“, schließt Studienautor Jihoon Min.


[1 ] IIASA, 14.10.2019; Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

[2] Jarmo S Kikstra et al 2021. Decent living gaps and energy needs around the world. Environ. Res. Lett. 16 095006. DOI: 10.1088/1748-9326/ac1c27 Die Arbeit ist open access und unter cc-by lizensiert.

[3] Carbon Brief, 23.08.2018: Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 2.September 2021 auf der IIASA Webseite unter dem Titel: "How much energy do we need to achieve a decent life for all?" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel und eine Abbildung aus [2] ergänzt.


 

Energie im ScienceBlog

Energie ist eines der Hauptthemen im ScienceBlog und zahlreiche Artikel haben sich bis jetzt mit deren verschiedenen Aspekten befasst. Das Spektrum der Artikel reicht dabei von Urknall und Aufbau der Materie bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel - derzeit rund 40 Artikel - ist in einem Themenschwerpunkt "Energie" zusammengefasst : Energie.


 

inge Thu, 16.09.2021 - 00:29

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

So 11.09.2021.... Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Ein vor 2 Wochen erschienener Artikel beschreibt, wie aus Stammzellen von Muskelgewebe, Fettzellen und gefäßbildenden Zellen (Endothelzellen) des Wagyu-Rindes erstmals Strukturen mit ähnlicher Konsistenz wie natürlich gewachsenes Fleisch erzeugt wurden. Das Drei-Stufen Verfahren begann mit der Isolierung und Vermehrung der Zellen im Labor. In einem zweiten Schritt wurden diese mittels einer speziellen 3D-Drucktechnik in ein Hydrogel-Stützgerüst pipettiert, wo sie zu Fleisch-typischen Fasern differenzierten, die sich in einem dritten Schritt schlussendlich zu Strukturen mit vergleichbarer Konsistenz wie gewachsenes, "marmoriertes" Fleisch zusammensetzen ließen. Es ist dies zweifellos ein sehr vielversprechender Ansatz! Allerdings müssen die methodischen Details - noch ist der Einsatz von speziellen Nährmedien, Antibiotika und diversen Wachstumsfaktoren unabdingbar - weiter entwickelt und optimiert werden, um zu einem erfolgreichen, leistbaren Massenprodukt zu gelangen, das vom nicht-vegetarisch lebenden Großteil der Menschheit als adäquater Fleischersatz akzeptiert wird.

Die Bekämpfung des Klimawandels und seiner Folgen und die Schaffung einer nachhaltigen Ernährungssicherheit für die weiterhin stark wachsende Erdbevölkerung gehören zweifellos zu den größten Herausforderungen unserer Zeit. Ernährung und Klimasituation können dabei nicht als voneinander unabhängig betrachtet werden: veränderte Klimabedingungen wirken sich unmittelbar auf landwirtschaftliche Erträge aus, das Ernährungssystem wiederum - von Landnutzung über Nahrungsproduktion, Transportkette bis hin zur Abfallwirtschaft - verursacht heute bereits rund ein Drittel der der globalen anthropogenen Treibhausgas-Emissionen (die anderen zwei Drittel stammen aus den Aktivitäten in Industrie, Verkehr und Wohnen )[1]. Ein Großteil der Emissionen kommt dabei aus der industriellen Tierproduktion.

Fleisch und Fleischprodukte

sind die weltweit am häufigsten konsumierten Nahrungsmittel. Der Anteil der vegetarisch/vegan sich ernährenden Menschen lag laut Statista 2020 in nahezu allen Staaten (weit) unter 10 % (selbst in Indien sind nur noch 38 % der Bevölkerung Vegetarier); in Deutschland, Österreich und Schweiz lag der Anteil bei 7 % [2]. Produktion und Konsum tierischer Nahrungsmittel werden nach den Schätzungen der FAO (United Nations Food and Agriculture Organization) bis 2050 noch weiter zunehmen. Abbildung 1.

Abbildung 1. Global wird die Produktion von Fleisch und tierischen Produkten weiter ansteigen. Daten bis2013 und Voraussagen bis 2050 basieren auf Schätzungen der FAO. Angaben in Tonnen. (Bild: https://ourworldindata.org/grapher/global-meat-projections-to-2050. Lizenz : cc-by)

Für die Zunahme werden nicht so sehr die reichen Staaten Nordamerikas oder der EU verantwortlich sein, da diese mit einem jährlichen pro-Kopf- Verbrauch von 70 kg Fleisch und mehr bereits "fleischgesättigt" sind. Es liegt einerseits am globalen Bevölkerungswachstum - nach Berechnungen der UN werden ausgehend von aktuell 7.8 Milliarden Menschen im Jahr 2050 zwischen 8,7 und 10,8 Milliarden Menschen die Erde bevölkern - und auch daran dass aufstrebende Staaten mit wachsendem Wohlstand zu einem erhöhten Fleischkonsum tendieren; insbesondere wird dies für asiatische Länder und hier vor allem für China zutreffen. Wie Analysen aus den letzten Jahrzehnten zeigen, ist der Fleischkonsum ja ein Gradmesser dafür, wie reich Staaten sind. Abbildung 2.

Abbildung 2. In den letzten Jahrzehnten hat die Fleischproduktion in asiatischen Ländern enorm zugenommen. (Bild: https://ourworldindata.org/grapher/global-meat-production. Lizenz : cc-by)

Mehr Nutztiere bedeuten steigende Treibhausgasemissionen. Die für Deutschland berechneten, bei der Produktion von Nahrungsmitteln anfallenden durchschnittlichen Emissionen betragen pro 100 g Rindfleisch 1,23 kg CO2-Äquivalente, pro 100 g eiweißreicher Feldfrüchte (Kartoffel, Hülsenfrüchte, Nüsse) dagegen bei 0,1 kg und weniger CO2-Äquivalente [3]. Mehr Nutztiere benötigen einen gesteigerten Platzbedarf, ein Mehr an Agrárflächen für die Produktion von Futtermitteln und ein Mehr an Wasserverbrauch. Um beispielsweise 1 kg Rindfleisch zu erzeugen, braucht es bis zu 9 kg Futter, bis zu 15 400 l Wasser und eine Fläche bis zu 50 m2 [4).. Von der bewohnbaren Erdoberfläche ( 104 Mio km2) wird heute bereits die Hälfte - 51 Mio km2 - landwirtschaftlich genutzt, davon 77 % (40 Mio km2) für Tierhaltung und Anbau von Tierfutter [5].

Eine zukünftige weitere Expansion von Weide- und Futteranbauflächen auf Kosten der Waldgebiete muss wohl gebremst, ein weiterer, durch Nutztierhaltung verursachter Anstieg von Treibhausgasen verhindert werden.

Fleischersatz

Dass bis 2050, d.i. innerhalb einer Generation, der Appetit auf Fleisch stark abnehmen und der Anteil der Vegetarier rasant steigen wird, ist ohne diktatorische Maßnahmen wohl kaum erreichbar. Eine Änderung der Konsumgewohnheiten ist nur denkbar, wenn gesunde alternative Ernährungsmöglichkeiten verfügbar sind, wenn ein von Textur und Geschmack akzeptabler, preiswerter Fleischersatz - "Laborfleisch" - angeboten wird.

Prinzipiell sind hier zwei Wege des Fleischersatzes möglich: i) Produkte, die auf eiweißreichen Pflanzen basieren, in ihren Inhaltsstoffen optimiert werden und mit Bindemitteln, Farben, Wasser und Aromen Aussehen und Geschmack von Fleischprodukten nachahmen und ii) Produkte, die aus den Muskelzellen unserer Nutztiere hergestellt werden. In den meisten Fällen wird auf beiden Wegen dabei unstrukturiertes Material mit der Textur von Hackfleisch erzeugt, die im Wesentlichen zu Burger und Wurstwaren verarbeitet werden.

Pflanzenbasierte Produkte - Ausgangsstoffe sind u.a. Soja, Erbsen, Bohnen, Getreide, Pilze - sind bereits auf dem Markt sind und erfreuen sich steigender Nachfrage. Hier sind vor allem die Produkte von Beyond Meat (das bereits in Fast-Food Ketten angeboten wird) und Impossible Meat zu nennen.

Fleischzucht im Labor ...........

Hier sind aus Muskel- und Fettgewebe von Tieren isolierte Stammzellen das Ausgangsmaterial, die mittels Zellkulturtechniken in Bioreaktoren vermehrt werden. Bereits 2013 wurde an der Universität Maastricht der erste aus solchen Zellen erzeugte Burger verkostet - auf Grund der teuren Nährmedien, Wachstumsfaktoren und anderer Zusätze belief sich damals sein Preis auf 250 000 €. Die Erwartung von Milliarden-Umsätzen hat seitdem mehr als 74 Unternehmen - große Konzerne wie Merck oder Nestle und auch viele kleine und mittelgroße Firmen - auf den Plan gerufen, die an der Entwicklung von leistbarem und geschmacklich akzeptierbaren in vitro-Fleisch für den Massenkonsum arbeiten. Dabei geht es vielfach - wie oben erwähnt - um unstrukturiertes Laborfleisch, also um Hackfleisch-artige Produkte und daraus erzeugte Wurstwaren. Strukturiertes Steak-ähnliches Fleisch ("whole cuts") entsteht aus einer Kombination von gezüchteten Fleischzellen und einem Gerüst aus Pflanzenprotein (z.B. Soya), in welches die tierischen Zellen hineinwachsen. Die Kosten konnten zwar bereits enorm gesenkt werden, u.a. durch den Einsatz von pflanzlichem Material und pflanzenbasierten Zusätzen, im Vergleich zu authentischem Fleisch sind sie aber noch viel zu hoch.

Im Juni 2021 hat nun die in Rehovot (Israel) ansässige Firma Future Meat die weltweit erste Firma eröffnet, die Laborfleisch in größerem Maßstab - das sind aber bloß erst 500 kg (d.i. 5 000 Burger) pro Tag - und zu einem Preis von US 40 $/kg herstellen will. Die Steaks vom Huhn oder Lamm sind, wie oben erwähnt, Hybride (50:50?) aus tierischem und pflanzlichen Material und noch immer erheblich teurer als normal gewachsenes Fleisch.. Gespräche mit der amerikanischen FDA zur möglichen Einführung auf dem US-Markt wurden begonnen.

........und ein Mini-Steak vom Wagyo-Rind

Die Erzeugung fleischtypischer Strukturen ausschließlich aus tierischen Zellen ist wesentlich komplizierter und aufwendiger. Eine japanische Forschergruppe von der Universitär Osaka hat hier nun offensichtlich einen Meilenstein gesetzt. Es wurden erstmals Stammzellen für alle wesentlichen Fleischkomponenten - Muskelfasern, Fettgewebe und Blutgefäße - isoliert, vermehrt, mittels 3D-Druck zu fleischtypischen Faserstrukturen gezogen und diese sodann zu Ministeaks - in diesem Fall zur für das Wagyo-Rind charakteristischen "marmorierten" Textur- zusammengebaut [6] . Das in drei Schritten ablaufende Verfahren ist in Abbildung 3 zusammengefasst.

Abbildung 3. IAus den Stammzellen des Muskel- und Fettgewebes des Wagyo-Rinds In 3 Schritten zum in vitro-Ministeak. Oben rechts: wie Fleisch in vivo aufgebaut ist. Schritt 1: Isolierung und Reinigung von Satelliten-Stammzellen des Muskels (bovine satellite cells - bSCs) und von Fettgeweben stammenden Zellen (bovine adipose-derived stem cells - bADSCs ). Schritt 2: 3D-Druck von bSCs und bADSCs um Muskel-, Fett- und Gefäßfasern zu erzeugen. Schritt 3: Zusammensetzung der Fasern und Verklebung mittels Transglutaminase zu einer für Steaks typischen marmorierten Struktur. (Bild modifiziert nach Kang et al,. (2021) [6], die Arbeit ist unter cc-by lizensiert.)

Schritt 1: Ein frisch geschlachtetes Wagyu-Rind lieferte das Ausgangsmaterial für 2 Sorten von Stammzellen; diese wurden aus Muskelgewebe (bovine satellite cells - bSCs) und aus Fettgewebe (bovine adipose-derived stem cells -bADSCs) isoliert. In speziellen Nährmedien kultiviert entstanden aus den bSCs Muskelzellen, die bADSCs differenzierten zu reifen Fettzellen (Adipozyten) und unter veränderten Kulturbedingungen zu Blutgefäß-Zellen (Endothelzellen). Die einzelnen Zelltypen wurden nun unter jeweils optimierten Kulturbedingungen vermehrt.

Schritt 2: Mittels einer speziellen 3D-Drucktechnik - dem "Sehnen Gel-Druck" (Tendon-Gel-imprinted Bioprinting - TIP) wurden Suspensionen der einzelnen Zelltypen ("bio-ink") in ein von senkrechten Kanälchen durchzogenes Hydrogel-Stützgerüst aus Gelatine pipettiert, wo begrenzende Kollagen-Gel-"Sehnen" (Tendon-Gel) sie dann zu Fleisch-typischen Muskelfasern, Fettzellsträngen und Blutkapillaren wachsen ließen (Abbildung 4).

Schritt 3: Die Fasern wurden schlussendlich zu Strukturen mit vergleichbarer Konsistenz und Struktur wie gewachsenes, "marmoriertes" Fleisch zusammengesetzt und durch Zugabe des auch in vivo präsenten Enzyms Transglutaminase miteinander "verklebt". Insgesamt ergaben 42 Muskelfasern, 28 Fettstränge und 2 Blutkapillaren ein etwa 1 x 1 x 0,5 cm marmoriertes Mini-Steak (Abbildung 4, unten).

Abbildung 4. Mittels einer speziellen 3D-Drucktechnik werden Muskel-, Fett- und Gefäßzellen zu fleischtypischen Strukturen geformt und zu einem etwa 1 cm langen, 0,5 cm dicken Steak zusammengebaut. Bild modifiziert nach Kang et al., (2021) [6]( Lizenz: cc-by). 3D-Printer und Fasern sind screenshots aus den Supplementary Movies 5, 6, 7 und 8. Der Zusammenbau im unteren Teil des Bildes stammt aus Figure 5: Die Anordnung der Fasern in kommerziellem Wagyu-Fleisch ist in der oberen Reihe links und Mitte (Färbung: Actinin dunkel, Laminin braun) gezeigt , darunter ist das Mini-Steak von oben und im Querschnitt (Muskelfleisch und Gefäße sind rot gefärbt, Fett ist ungefärbt; der weiße Balken ist 2mm lang).

Ein noch langer Weg bis zu einem ökonomisch akzeptablen Produkt

Das Mini-Steak kommt in Aussehen, Textur und Geschmack einem authentischen Fleischstück sicherlich sehr nahe und kann durch veränderte Relationen der Komponenten noch viel mehr an jeweilige Präferenzen angepasst werden. Ein solches zu 100 % aus Fleischzellen bestehendes Produkt könnte auch Akzeptanz bei vielen Fleischessern finden, denen pflanzenbasierter und/oder hybrider pflanzen- und tierbasierter Fleischersatz zu artifiziell erscheint.

Um derartiges Fleisch in industriellem Maßstab und zu einem akzeptablen Preis erzeugen zu können, ist allerdings noch ein sehr weiter Weg zu gehen, sehr viel an Entwicklungsarbeit zu leisten.

Nehmen wir an, dass das Upscaling vom Laborexperiment zur Produktion in größerem Maßstab bewältigt werden kann, so sind meiner Ansicht nach vor allem zwei massive Probleme hervorzuheben:

Zur Erzeugung des Wagyo-Steaks haben alle Prozesse, die zu Muskel-, Fett- und Endothelzellen, zu deren Vermehrung, Formgebung und schließlich Zusammenbau führten, in Nährlösungen stattgefunden, die neben Zell-spezifischen Wachstumsfaktoren und anderen Zusätzen immer auch fötales Kälberserum (FBS) und einen Mix aus Antibiotika (immer Penicillin, Streptomycin), in einigen Prozessen auch Amphotericin enthielten.

Fötales Kälberserum enthält eine Vielfalt von Hormonen und Wachstumsfaktoren, die für das Kultivieren von Zellen benötigt werden und ist enorm teuer (derzeit kosten 500 ml bei Sigma-Aldrich etwa 644 €). Es wird aus dem Blut von Kalbsföten gewonnen, die, aus dem Leib ihrer Mütter herausgeschnitten, durch Herzpunktion etwa 0,5 l Blut pro Fötus liefern. Um ausreichend Serum für eine großindustrielle Herstellung von Fleischersatz zur Verfügung zu haben, würden wohl Hunderttausende trächtige Rinder gebraucht. Es müssen also um Größenordnungen billigere, dennoch effiziente Nährmedien gefunden werden.

Ein weiteres Problem ist die doch längerdauernden Prozesse ohne Zusatz von Antibiotika/Antimykotika auszuführen (auch unter rigoroser Einhaltung antiseptischer Bedingungen plus Antibiotika Zugabe gab es in meinem Labor selten aber doch vor allem mit Mykoplasmen kontaminierte Zellkulturen).

Dazu kommt dann noch der Bedarf an speziellen kostspieligen Biomarkern, an Wachstumsfaktoren und vielen anderen Zusätzen, die zur Herstellung der Endprodukte benötigt werden und diese noch zunehmend verteuern.

Ist also eine industrielle Herstellung von derartigen Ministeaks möglich? Die Antwort ist: prinzipiell ja. Zuvor ist aber noch sehr viel an Entwicklungsarbeit zu leisten.


  [1] Crippa M. et al., (2021) Food systems are responsible for a third of global anthropogenic GHG emissions. Nature Food 2, 198 - 209

[2] Länder mit dem höchsten Anteil von Vegetariern an der Bevölkerung weltweit im Jahr 2020: https://de.statista.com/prognosen/261627/anteil-von-vegetariern-und-veganern-an-der-bevoelkerung-ausgewaehlter-laender-weltweit

[3] IFEU-Institut für Energie- und Umweltforschung Heidelberg: CO2-Rechner: https://www.klimatarier.com/de/CO2_Rechner

[4] Das steckt hinter einem Kilogramm Rindfleisch (2017)https://albert-schweitzer-stiftung.de/aktuell/1-kg-rindfleisch

[5]Global land use for food production. https://ourworldindata.org/environmental-impacts-of-food?country

[6] Kang, DH., Louis, F., Liu, H. et al. Engineered whole cut meat-like tissue by the assembly of cell fibers using tendon-gel integrated bioprinting. Nat Commun 12, 5059 (2021). https://doi.org/10.1038/s41467-021-25236-9


 

inge Sat, 11.09.2021 - 17:15

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Do, 02.09.2021 — Susana Coelho

Icon Biologie

Susana Coelho Braunalgen sind vielzellige Eukaryonten, die sich seit mehr als einer Milliarde Jahren unabhängig von Tieren und Pflanzen entwickelt haben. Sie haben eine faszinierende Vielfalt an Körpermustern und Fortpflanzungsmerkmalen erfunden, deren molekulare Basis noch vollkommen unerforscht ist. Dr.Susana Coelho, Direktorin am Max-Planck-Institut für Entwicklungsbiologie(Tübingen), und ihr Team nutzen den Reichtum an morphologischen und sexuellen Merkmalen dieser rätselhaften Organismen, um Licht in den Ursprung der Mehrzelligkeit und in die Evolution der Bestimmung des biologischen Geschlechts innerhalb des gesamten eukaryontischen Lebensbaums zu bringen.*

Vor der Küste gibt es magische Unterwasserwälder …

Eine Welt riesiger Braunalgen, bekannt als Kelp, lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen, alle als Seetang bezeichnet, und bietet ein Kaleidoskop an Farben und Mustern (Abbildung 1). Diese Unterwasserwälder sind eine der artenreichsten Umgebungen auf unserem Planeten, die eine Vielzahl unterschiedlicher Meereslebewesen beherbergen. Algen sind nicht nur wichtige Bestandteile der Ökosysteme unserer Erde, sondern sie produzieren auch die Hälfte des Sauerstoffs, den wir in Küstengebieten atmen, und spielen eine Schlüsselrolle bei der Kohlenstoffbindung im Meer. Seetang wurde zum Schlagwort für Futuristen und wird zunehmend als Nahrungsquelle und für die Kosmetik- und Pharmaindustrie sowie zur Herstellung biologisch abbaubarer Kunststoffe verwendet.

Abbildung 1. Abbildung 1. Eine Welt riesiger Braunalgen lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen und bietet ein Kaleidoskop an Farben und Mustern.© W. Thomas, Centre national de la recherche scientifique (CNRS), Frankreich

... aber wir wissen so wenig über diese erstaunlichen Organismen

Obwohl sie auf Sonnenlicht angewiesen sind, um Photosynthese zu betreiben, sind Braunalgen keine Pflanzen. Sie haben keine Wurzeln, Blätter oder Stängel, um Nährstoffe zu transportieren. Stattdessen bezieht jede Zelle das, was sie braucht, direkt aus dem Meerwasser. Braunalgen haben sich vor mehr als einer Milliarde Jahren unabhängig von Tieren und Landpflanzen entwickelt. Ihr letzter gemeinsamer Vorfahre war ein Einzeller, was bedeutet, dass Tiere, Pflanzen und Braunalgen die Mehrzelligkeit eigenständig erfunden haben.

Braunalgen sind die drittkomplexeste vielzellige Abstammungslinie auf unserem Planeten, wobei einige Arten eine Länge von mehr als 50 Metern erreichen und eine bemerkenswerte Vielfalt an Wachstumsgewohnheiten, Lebenszyklen und Geschlechtsbestimmungssystemen aufweisen. Während bisher enorme Anstrengungen unternommen wurden, die Entwicklungs- und Reproduktionsbiologie von Tieren und Landpflanzen zu verstehen, wurden Braunalgen fast vollständig ignoriert, und es ist nur sehr wenig darüber bekannt, wie diese Organismen auf molekularer Ebene funktionieren.

Meeresalgen helfen, grundsätzliche Fragen der Evolutions- und Entwicklungsbiologie zu beantworten

In unserer Abteilung widmen wir uns denjenigen Prozessen, die dem Übergang vom Einzeller zur komplexen Multizellularität zugrunde liegen - einem wichtigen evolutionären Ereignis, das bei Eukaryonten nur selten aufgetreten ist. Wir verwenden eine Reihe von computergestützten und experimentellen Ansätzen und nutzen die Vielfalt der morphologischen und reproduktiven Merkmale der Meeresalgen.

Wir haben Ectocarpus, eine kleine filamentöse Braunalge, als Modellorganismus gewählt, um die molekularen Grundlagen ihres Wachstumsprozesses zu untersuchen. Ectocarpus weist ein relativ einfaches Entwicklungsmuster mit wenig verschiedenen Zelltypen auf. Durch ultraviolette Bestrahlung wurden Entwicklungsmutanten erzeugt, und die betroffenen Gene wurden durch klassische genetische Analyse identifiziert. Danach wurden mehrere dieser Mutanten eingesetzt, um die Bildung bestimmter Entwicklungsmuster zu verstehen. So haben wir gefunden, dass Mutationen im Gen DISTAG (DIS) bei Dis-Mutanten zu architektonischen Anomalien in der keimenden Ausgangszelle führen, einschließlich einer Vergrößerung der Zelle, einer Desorganisation des Golgi-Apparats, einer Störung des Mikrotubuli-Netzwerks und einer anomalen Positionierung des Zellkerns. DIS kodiert TBCCd1, ein Protein, das eine zentrale Rolle bei der Zellorganisation auch bei Tieren, Grünalgen und Trypanosomen spielt - also über extrem entfernte eukaryotische Gruppen hinweg. Dieses Resultat könnte uns den Weg weisen, zu verstehen, wie der genetische Werkzeugkasten des letzten gemeinsamen Vorfahren aller Eukaryoten beschaffen war, und wie sich bestimmte Merkmale im vielzelligen Leben entwickelt haben.

Vögel tun es, Bienen tun es, und Algen tun es auch

Die Entwicklung des Geschlechts und geschlechtsbezogener Phänomene beschäftigt und fasziniert Biologen seit Jahrhunderten, und viele Fragen zur evolutionären Dynamik der sexuellen Fortpflanzung bleiben noch unbeantwortet. Wir verwenden unsere Braunalgen, um den Ursprung und die Entwicklung der Geschlechtschromosomen zu verstehen. Wir haben entdeckt, dass bei den meisten Braunalgen das weibliche Geschlecht durch ein einziges sogenanntes „U“-Geschlechtschromosom bestimmt wird, während das männliche Geschlecht durch ein einziges „V“-Geschlechtschromosom bestimmt wird. Diese Organisation steht im Gegensatz zum Geschlechtschromosomensystem vieler Tiere, bei dem die Männchen ein Y- und ein X-Chromosom und die Weibchen zwei X-Chromosomen tragen. Obwohl das U/V-System auf den ersten Blick sehr unterschiedlich zum tierischen – und menschlichen - XX/XY System scheint, hat unsere Arbeit gezeigt, dass alle diese Geschlechtschromosomen universelle Merkmale aufweisen, darunter die Unterdrückung der Rekombination, die Anhäufung repetitiver DNA, die Bewegung von Genen vom Geschlechtschromosom zu den anderen Chromosomen und das Vorhandensein eines Master-Switch-Gens, das das biologische Geschlecht innerhalb der sich nicht rekombinierenden Genomregion bestimmt.

Bei Eukaryonten wurden bislang nur wenige Hauptgene für die Bestimmung des biologischen Geschlechts identifiziert. Unter diesen Hauptgenen sind Proteine der High-Mobility-Group-(HMG)-Domäne in die Bestimmung des biologischen Geschlechts bei Wirbeltieren und Pilzen involviert. Bemerkenswerterweise haben wir ein HMG-Domänen-Gen auch im V-Chromosom von Ectocarpus und allen anderen männlichen Braunalgen, die wir untersucht haben, identifiziert. Dieses Gen ist daher ein Kandidat für das geschlechtsbestimmende Hauptgen in Meeresalgen, was wichtige Fragen über die Evolution der geschlechtsbestimmenden Gen-Netzwerke in den Eukaryonten insgesamt aufwirft.

Unsere Forschung an Braunalgen wird dazu beitragen, unser Wissen zu erweitern, wie Geschlechtschromosomen und die Bestimmung des biologischen Geschlechts funktionieren, indem sie evolutionären Modellen eine breitere phylogenetische Dimension verleiht.


*Der vorliegende Artikel von Susana Coelho ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung" (https://www.mpg.de/16324504/eb_jb_20201?c=151755)erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildung wurden unverändert übernommen.


Weiterführende Links

Max-Planck-Institut für Entwicklungsbiologie, Abteilung für Algen-Entwicklung und Evolution: https://www.eb.tuebingen.mpg.de/de/department-of-algal-development-and-evolution/home/

usoceangov: Underwater Kelp Forests (2009). Video 3:13 min. https://www.youtube.com/watch?v=GcbU4bfkDA4

The Nature Conservancy in California: Virtual Dive: Kelp Forests off the California Coast (2020). Video 2:15 min. https://www.youtube.com/watch?v=8LZz7DJyA10

Erlendur Bogason: The Seaweed Jungle (2014). Video 3:16 min; https://www.youtube.com/watch?v=hQ6tNi3FLhU

Wikipedia: Brown algae  https://seaiceland.is/what/algae/brown-algae

--------------------------------------------------------

Algen im ScienceBlog:

Georg Pohnert, 14.11.2019: Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Christian Hallmann, 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern


 

inge Wed, 01.09.2021 - 18:07

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Do, 26.08.2021 — Ricki Lewis

Ricki LewisIcon Medizin Vor wenigen Tagen ist ein Bericht über ein Popkonzert-Experiment erschienen, das vor einem Jahr stattgefunden hat; das Ziel war das Risiko einer SARS-CoV-2 Verbreitung bei Massenveranstaltungen in geschlossenen Räumen zu evaluieren und gegebenenfalls zu reduzieren. Die Genetikerin Ricki Lewis fragt hier, inwieweit die aus dem Experiment gewonnenen Ergebnisse und erstellten Modelle zu Belüftungs- und Hygienemaßnahmen auch noch in der Welt der ansteckenderen und sich rascher verbreitenden Delta-Variante gelten und wie man weiteren noch kommenden Varianten begegnen sollte.*

Ein "Popkonzert-Experiment“ simuliert Virusausbreitung

Heute früh (d.i. am 19.August 2021; Anm. Redn) habe ich mich über eine neue Veröffentlichung gefreut, die unter dem Titel „Das Risiko von Hallensport- und Kulturveranstaltungen für die Übertragung von COVID-19“ im Journal Nature Communications erschienen ist [1]. Stefan Moritz und Kollegen in Deutschland haben im August 2020 „ein Popkonzert-Experiment“ veranstaltet (Abbildung 1) und festgestellt, dass bei guter Belüftung und „geeigneten Hygienemaßnahmen“ die virusverbreitenden Aerosole und Tröpfchen in Grenzen gehalten werden können.

Abbildung 1: Rückkehr zu Massenveranstaltungen in geschlossenen Räumen. (Symbolfoto von Redn eingefügt, Quelle: Pixabay, c 0)

Die 1.212 Besucher haben Monitore getragen, die ihre Bewegungen registrierten und waren jeweils einem „Hygiene-Szenario“ zugeordnet:

  • ohne Einschränkungen - d.i. Szenario wie vor der Pandemie
  • mit moderaten Einschränkungen (Schachbrettbestuhlung und Verdopplung der Eingänge)
  • mit starken Einschränkungen (Sitzplatzabstand 1,5 m und Vervierfachung der Eingänge).

Im Durchschnitt hatte jeder Konzertbesucher Kontakte mit neun anderen, zumeist beim Hinein- und Herausgehen. Personen im Szenario "ohne Einschränkungen" hatten während der gesamten Veranstaltung Kontakte von mehr als 5 Minuten, im Vergleich dazu gab es in den anderen Szenarien wenige und kurze Begegnungen.

Basierend auf diesen anfänglichen Ergebnissen entwickelten die Forscher ein Modell mit der Annahme, dass sich in einem geschlossenen Raum unter 4.000 Besuchern 24 infektiöse Personen befinden, wobei zwei Belüftungsszenarien mit unterschiedlichen Luftaustauschraten und Luftströmungen und das Tragen von Masken in das Modell eingingen. Bei einem schnelleren Luftaustausch gab jede infizierte Person das Virus im Durchschnitt an 3,5 andere Personen weiter. Bei langsameren Luftaustausch wurde das Virus auf 25,5 Menschen verbreitet – d.i. mehr als eine siebenfache Steigerung. Das Tragen von Masken reduzierte die Übertragung .

Die Schlussfolgerung der Forscher: „Das Infektionsrisiko bei Massenveranstaltungen in geschlossenen Räumen hängt maßgeblich von der Qualität des Lüftungssystems und den Hygienepraktiken ab. Unter der Voraussetzung eines effektiven Belüftungssystems haben Massenveranstaltungen in Innenräumen bei geeigneten Hygienepraktiken - wenn überhaupt - einen sehr geringen Einfluss auf die Ausbreitung der Epidemie“.

Das aber war damals. Vor einem Jahr.

Die Delta-Variante und das Popkonzert-Experiment

Das Konzert-Experiment in Deutschland hat für das Virus eine zu optimistische Reproduktionszahl R0 = 1 verwendet, das heißt, ein Infizierter gibt das Virus im Durchschnitt an einen anderen weiter. Tatsächlich hatte das ursprüngliche SARS-CoV-2 einen R0-Wert von 2,3 bis 2,7, die Alpha-Variante, die in Großbritannien ihren Ausgang nahm, hatte ein R0 von 4 bis 5 und die Delta-Variante, die jetzt auf der ganzen Welt stark ansteigt, ein R0 von 5 bis 8. (Abbildung 2)

Abbildung2: Die Delta-Variante verursacht höhere Infektionszahlen und verbreitet sich rascher als frühere Formen des SARS-CoV-2- Virus. (Bild von Redn. eingefügt. Quelle: US-Center for Disease Control and Prevention, update vom 19.8.2021: https://www.cdc.gov/coronavirus/2019-ncov/variants)/delta-variant.html.

Die Zeiten haben sich geändert und die Millionen (in den USA) von Nichtgeimpften haben es dem Virus ermöglicht, ausreichend umherzufliegen, um zu einer höheren Übertragbarkeit zu mutieren.

Aber wie haben sich frühere Inkarnationen des Virus in Delta verwandelt? Es stellt sich heraus, dass hinter der schnelleren Übertragbarkeit die allerkleinste Veränderung steckt – es ist nur eine RNA-Base, die in einem entscheidenden Teil des Spike-Proteins gegen eine andere ausgetauscht wird. Eine einzelne, einfache Mutation, eine der neun, welche die Delta-Variante ausmachen, findet globales Echo. (https://www.cdc.gov/coronavirus/2019-ncov/variants/delta-variant.html.)

Wie die Delta-Variante die Welt so schnell erobert hat

Die Viren sind mit Stacheln dekoriert, die sich an unseren Zellen festsetzen, wie Seeigel, die sich in Sand graben. Jedes Spike-Protein besteht aus zwei Teilen: S1, das den Spike mit der menschlichen Zelle fusioniert, und S2, das das Virus in die Zelle bringt. S1 und S2 müssen allerdings auseinander geschnitten werden, um ihre Aufgaben zu erfüllen.

Die Mutation, die den Eintritt von Delta in unsere Zellen beschleunigt, genannt P681R, verformt die Schnittstelle von S1 und S2 auf eine Weise, die das Schnippseln beschleunigt, wodurch das Virus viel schneller mit der Zelle fusioniert und eindringt (ein bisschen so, wie wenn im deutschen Rockkonzert-Szenario die Türen weiter geöffnet werden, damit mehr Personen schneller eintreten können). Wie dies alles abläuft, hat ein Team an der University of Texas Medical Branch in einer eleganten Reihe von Experimenten gezeigt; die Ergebnisse sind als Preprint verfügbar (https://www.biorxiv.org/content/10.1101/2021.08.12.456173v1)  Genetische Anweisungen des Virus infiltrieren dann die Wirtszelle, sodass sie neue Viren herstellt, verpackt und mit diesen schlussendlich explodiert.

(Nebenbei notiert: P681R bezieht sich auf den Austausch eines Arginins (R) gegen ein Prolin (P) an Position 681 im Spike-Protein und resultiert aus einer einzelnen RNA-Basenänderung. Das Spike-Protein ist eine Kette von 1273 Aminosäuren – daher stammt der ursprüngliche Name des Moderna-Impfstoffs, mRNA- 1273.)

Abbildung3: Die Struktur des SARS-CoV-2 Spike-Proteins in einer Präfusions-Konformation (Code 6VSB). Strukturanalyse mittels Kryoelektronenmikroskopie bei 3,46 Angstrom Auflösung.(Bild von Redn. eingefügt, Quelle: Datenbank  https://www.rcsb.org/3d-view/6VSB/1,)

DiePosition 681 im Spike-Protein ist auch deshalb von Interesse, weil sie ein Ziel für ein proteinschneidendes Enzym namens Furin ist. Abbildung 3. Die „Furin-Spaltungsstelle“ ist von zentraler Bedeutung für die „Laborleck“-Hypothese zum Ursprung des Virus.

Die 4 Aminosäuren lange Stelle in der Spitze, an der Furin schneidet, bildet eine Signatur, die mittels Algorithmen zwischen den verschiedenen Spezies verglichen wird, um daraus die Entwicklung des neuartigen Coronavirus abzuleiten. Furin-Spaltungsstellen wurden in bestimmten Typen von Coronaviren gefunden, die von Nagetieren oder Fledermäusen stammten, aber nicht in den nächsten bekannten Verwandten von SARS-CoV-2; so kam die Idee eines im Labor hergestellten Fledermaus-Coronavirus auf, das dann zu SARS-CoV-2 führte. Oder aber: wir haben die nächsten verwandten Virustypen nur noch nicht identifiziert. Die Wissenschaft bietet nie einen festen Beweis und häuft selten Befunde zu umfassenden Theorien an. Stattdessen untersuchen wir alternative Hypothesen - eine nach der anderen -, um Wissen zu vermehren und neue Fragen zu stellen.

Fazit

Gelten die in in der heutigen Publikation in Nature Communications beschriebenen Ergebnisse des Popkonzert-Experiments, die ausreichende Belüftungs- und Hygienemaßnahmen zur Eindämmung der Virusausbreitung bei Massenversammlungen in Innenräumen proklamierten, auch in der Welt der Delta-Variante? Wie werden es Maßnahmen im Bereich der öffentlichen Gesundheit für noch kommende Varianten halten? Was werden ähnliche Simulationen ergeben, wenn das Publikum nach dem Impfstatus analysiert wird, etwas, das vor einem Jahr noch nicht möglich war?

Wir wissen es nicht. Aber eines wissen wir mit Sicherheit: Mutation und Evolution sind Naturgewalten, die wir nicht kontrollieren können. Neue Mutationen werden aus Replikationsfehlern entstehen, sich zu sogenannten Varianten kombinieren und Populationen positiver natürlicher Selektion durchlaufen, wenn sie für das Virus von Vorteil sind, wie es für die P681R-Mutation in der Delta-Variante der Fall ist.

Da wir die Kräfte der Natur nicht ändern können, müssen wir mit den Waffen, die wir bereits haben, alles einsetzen, was möglich ist – Impfstoffe, Distanzierung, Masken. Aber um gesund zu bleiben, denke ich, dass es gut ist, ab und zu einen Hauch von Normalität zu erleben.

--------------------------------------------------

[1] Stefan Moritz et al., The risk of indoor sports and culture events for the transmission of COVID-19. Nat Commun 12, 5096 (19.8.2021). https://doi.org/10.1038/s41467-021-25317-9.


* Der Artikel ist erstmals am 19.August 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "Returning to Live Music and How a Tiny Mutation Sent Delta All Over the World" https://dnascience.plos.org/2021/08/19/returning-to-live-music-and-how-a-tiny-mutation-sent-delta-all-over-the-world/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Passende Abbildungen und Legenden wurden von der Redaktion eingefügt.


Artikel zum Thema COVID-19 im ScienceBlog:

Vom Beginn der Pandemie an waren bis jetzt 36 Artikel (rund 50 % aller Artikel), darunter 5 Artikel von Ricki Lewis, diesem Thema gewidmet. Die Links zu diesen Artikeln finden sich im Themenscherpunkt Viren.


 

inge Thu, 26.08.2021 - 18:56

Klimawandel kann die Verbreitung von Pflanzenpathogenen steigern

Klimawandel kann die Verbreitung von Pflanzenpathogenen steigern

Do, 19.08.2021 — Redaktion

RedaktionIcon Klima

  Die globale Nahrungssicherung hängt in erster Linie von der Produktion von Kulturpflanzen und deren Ernteerträgen ab. Eine neue Studie untersucht die Auswirkungen des Klimawandels auf die Produktion wichtiger Pflanzensorten und findet zwar deren gesamthafte Intensivierung, zum Teil weil neue Anbaugebiete in höheren Breitegraden erschlossen werden. Allerdings deuten die Modelle auch darauf hin, dass die Erwärmung die Ausbreitung pathogener Erreger von Pflanzenkrankheiten (wie Pilzen und Oozyten) forcieren und damit potentielle Ertragssteigerungen beeinträchtigen wird.*

Prognosen zur landwirtschaftlichen Produktivität .......

Die Auswirkungen des Klimawandels auf die Landwirtschaft wären etwas weniger kompliziert, wenn sie sich in einer Welt abspielten, in der die Kulturpflanzen frei von ihren Mikroben wären. In solch einer hypothetischen Landschaft würden - laut einer eben veröffentlichten Studie - die steigenden globalen Temperaturen die gesamte landwirtschaftliche Produktivität intensivieren, zum Teil weil neue, den Polen nahe Anbaugebiete erschlossen werden, die zuvor zu kalt für die Landwirtschaft waren [1].

...müssen auch die Interaktion von Pflanzen mit ihren Krankheitserregern berücksichtigen

Die obige Folgerung vereinfacht aber zu stark, sagt Studienautor Dan Bebber, ein Ökologe an der University of Exeter in Großbritannien. Nach den Ergebnissen, die in derselben Studie im Journal Nature Climate Change veröffentlicht wurden, wird die globale Erwärmung auch die Ausbreitung von Pflanzenkrankheiten steigern [1]. Deren Erreger (d.i. Pflanzenpathogene) können potenzielle mit dem Klimawandel einhergehende Ertragssteigerungen beeinträchtigen. Abbildung 1.

Abbildung 1. Pilzinfektion einer Kaffeepflanze. Der Pilz Hemileia vastarix hat eine Pflanze auf der Kaffeeplantage in Costa Rica befallen. (Bild: Edwin Remsberg via Getty Images)

Die meisten Modell-Untersuchungen haben sich bis jetzt auf die Auswirkungen des Klimawandels auf landwirtschaftliche Produkte ohne deren ungebetene mikrobiellen Gäste beschränkt. Bebber und seine Kollegen haben die Verbreitung von 80 Arten virulenter Pilze und Oomyceten – Organismen, die als „Eipilze“ bekannt sind und Fäulnis und Verrottung verursachen - kartiert.

„Etwas, das (in den bisherigen Pflanzenmodellen) fehlt, ist die biologische Komponente – es sind die Schädlinge und Krankheitserreger“, sagt Bebber. „Es ist eines unserer langfristigen Ziele, eine Pathogen-Komponente einzubauen … so kommen wir zu einer besseren Einschätzung, wie die Zukunft wohl aussehen mag.“

Laut Jeremy Burdon, einem an der Studie unbeteiligten, pensionierten Evolutionsbiologen der Commonwealth Scientific and Industrial Research Organization (CSIRO) in Australien, bietet diese Studie den bisher umfassendsten Blick quasi aus der Vogelperspektive auf die Verbreitung von Krankheitserregern. „Dieses Studie ist meiner Meinung nach ein sehr wichtiger und wertvoller Beitrag zum … Verständnis der Interaktion zwischen Nutzpflanzen und ihren Krankheitserregern.“

Pflanzenkrankheiten gehören weltweit zu den Hauptursachen für Missernten. Schädlinge und Krankheitserreger verursachen schätzungsweise 10 bis 40 Prozent der landwirtschaftlichen Verluste bei fünf der weltweit wichtigsten Kulturpflanzen wie Weizen und Reis. Die Geschichte ist übervoll von Berichten über Hungersnöte, die durch Pflanzenkrankheiten verursacht wurden, wie die irische Hungersnot im 19.Jahrhundert (verursacht durch Kartoffelfäule, Anm. Redn.) und die bengalische Hungersnot in Indien, die im Jahr 1943 als Folge der Missernten von Reis ausgelöst wurde. Abbildung 2. Aufgrund eines sich ausbreitenden Pilzes steht aktuell die sonnengelbe Bananensorte Cavendish, die Dekoration von Lebensmittelgeschäften, am Rande einer Katastrophe [2].

Abbildung 2. Wie die durch die Kartoffelfäule ausgelöste Hungersnot die irische Bevölkerung im 19. Jahrhundert reduzierte (Bild von Redn. eingefügt aus: http://www.wesleyjohnston.com/users/ireland/maps/historical/pop_change_1841_1851.gif ; Lizenz: gemeinfrei)

 

Klimamodelle & Kulturpflanzenmodelle

Um die kollektive Bedrohung der landwirtschaftlichen Zukunft der Menschheit durch Pathogene angesichts des Klimawandels abzuschätzen, setzten Bebber und Kollegen vier verschiedene Klimamodelle und drei Kulturpflanzenmodelle ein. Die Forscher verglichen zunächst die prognostizierten Erträge von 12 Pflanzenarten zwischen 2011 und 2030 sowie zwischen 2061 und 2080. Die Modelle sagten für alle Pflanzen, von Zuckerrüben über Erbsen bis hin zu Sojabohnen, reichere Ernten in höheren Breitengraden voraus, während Regionen näher am Äquator entweder bescheidene Ertragssteigerungen oder -rückgänge erfahren würden. Gesamt gesehen haben die Ergebnisse gezeigt, dass der Klimawandel eine höhere landwirtschaftliche Produktivität für den gesamten Planeten bedeutet.

Simulierung von Infektionsraten

Werden allerdings Krankheitserreger in das Bild eingefügt, so ergibt dies ein düstereres Szenario. Um dies zu bewerkstelligen, haben die Forscher veröffentlichte Felddaten zur Temperaturtoleranz von Pilz- und Oomyceten-Erregern durchkämmt. Dann haben sie - basierend auf den vorhergesagten Temperaturen - das Risiko jedes Krankheitserregers, Pflanzen zu infizieren errechnet. Wie die Berechnungen zeigen, folgen Krankheitserreger, die einst an die wärmeren Zonen gebunden waren, nach, wenn sich die Grenze der Anbaugebiete polwärts verschieben. Dank des Klimawandels werden Länder, die näher an den Polen liegen, für Krankheitserreger schließlich ausreichend zuträglich sein, sodass sich mehr davon ansiedeln und die Pflanzen vernichten. Ernten weiter nördlich und südlich werden nicht nur anfälliger für Neuinfektionen sein als ihre äquatorialen Gegenstücke, sondern es wird mit höherer Wahrscheinlichkeit auch eine größere Vielfalt bösartiger Mikroben näher an den Polen auftauchen.

Ernteerträge kaum vorhersagbar

Derzeit kann Bebbers Team die Ernteertragszahlen aus den Infektionsraten mit den Krankheitserregern nicht vorhersagen, da der gleiche pathogene Stamm auf verschiedenen Böden ein unvorhersehbares Verhalten haben könnte. Als Beispiel nennt Bebber den Erreger des "plötzlichen Eichentods" – dieser hat die Eichenbestände an der US-Westküste dezimiert, britische Eichen jedoch unberührt gelassen; stattdessen hielt er sich an die japanischen Lärchen in Großbritannien. Darüber hinaus haben die Forscher nur die Temperatur als einzigen Treiber für die Ausbreitung von Krankheitserregern betrachtet; Die Realität hängt jedoch von einer Mischung verschiedener Faktoren ab, darunter die lokalen Veränderungen der Niederschläge, die Bereitschaft einer Gemeinde, neue Krankheiten zu bekämpfen, und Veränderungen in der künftigen Wahl der Pflanzen durch die Landwirte.

In den "Fängen des Klimawandels" könnten ortsansässige Bauern in Entwicklungsländern, die näher an den Tropen liegen, mehr leiden als andere, sagt Camille Parmesan, Klimabiologin am französischen National Centre for Scientific Research, die nicht an der Studie beteiligt war. „Diese Menschen werden jetzt schon sehr hart getroffen“, sagt sie. Aufgrund von Armut und veralteten Anbaumethoden dürften die Landwirte nicht darauf eingestellt sein, mit den neuen Folgen von Krankheitserregern umzugehen. Und diese lokalen Bauern können es sich möglicherweise nicht leisten, Lebensmittel aus dem globalen Norden oder Süden zu importieren. „Sie können nicht einfach plötzlich Lebensmittel aus Kanada kaufen“, sagt sie.

In Zukunft

muss sich die Gesellschaft darauf konzentrieren, Ernteverluste zu bekämpfen, um den ökologischen Fußabdruck der Landwirtschaft zu verringern, sagt Bebber. Die Landwirtschaft ist nach dem Energiesektor weltweit der zweitgrößte Verursacher von Klimaemissionen. „Die Bekämpfung von Schädlingen und Krankheiten ist eine Möglichkeit, die Landwirtschaft effizienter zu machen“, sagt er. Es wird jedoch kompliziert sein die Verbreitung von Parasiten einzudämmen. Gängige Strategien gehen oft mit Folgewirkungen einher, wie z. B. erhöhte Pilzresistenz durch übermäßigen Einsatz von Fungiziden. „Gesellschaften müssen Entscheidungen über die Bekämpfung von Krankheiten [und] Schädlingen treffen – was die Leute dafür auszugeben bereit sind und wie es bewerkstelligt werden soll“, sagt er.


 [1] T.M. Chaloner et al., Plant pathogen infection risk tracks global crop yields under climate change. Nature climate change (August 2021), 11: 710 - 715 (open access) https://doi.org/10.1038/s41558-021-01104-8

[2] Myles Karp: The banana is one step closer to disappearing. (12.8.2019). https://www.nationalgeographic.com/environment/article/banana-fungus-latin-america-threatening-future (abgerufen am 18.8.2021)


*Der vorliegende Artikel stammt von der Nanophysikerin und Journalistin Shi En Kim und ist unter dem Titel " New Study Shows Climate Change May Increase the Spread of Plant Pathogens" am 5. August 2021 im Smithsonian Magazin erschienen.https://www.smithsonianmag.com/science-nature/new-study-shows-climate-change-may-increase-spread-plant-pathogens-180978377/ Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch einige Untertitel und eine zusätzliche Abbildung (Abbildung 2) ergänzt.


 Im ScienceBlog zu dem Thema erschienen:

Redaktion, 12.08.2020: Handel und Klimawandel erhöhen die Bedrohung der europäischen Wälder durch Schädlinge


 

inge Thu, 19.08.2021 - 00:36

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Do, 12.08.2021 - — Vinzenz Kletzinsky

Vinzenz KletzinskyIcon Wissenschaftsgeschichte Am 23. November 1871 hat der Mediziner und Chemiker Vinzenz Kletzinsky im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" über die auch heute noch nicht eindeutig beantwortete Frage "Was ist Leben" gesprochen. Bereits in seinem 1858 erschienenen "Compendium der Biochemie"[1], das heute leider unter die forgotten books zählt, hatte er das Thema behandelt. Er hat damals als Erster den Begriff "Biochemie" geprägt und ist- bei dem mageren Wissensstand der damaligen Zeit - zu erstaunlichen Schlussfolgerungen gelangt. Wie im Compendium gliedert sich der Vortrag in zwei Teile: in die "Chemie der biochemischen Atome und in die Stofflehre der biochemischen Prozesse". Oder, wie es Kletzinsky auch ausdrückt: die Lehre vom Stoff des Lebens und die Lehre vom Leben des Stoffes. Der Artikel erscheint unter dem Namen des Autors, auf Grund der Länge aber in gekürzter Form*.

Vinzenz Kletzinsky, Compendium der Biochemie (1858), p.1

Die Chemie des Lebensprocesses

Ich habe die Ehre, den diesjährigen Zyklus der Vorträge mit der Chemie des Lebensprozesses zu eröffnen. Da tritt an uns die geheimnisvolle Frage heran:

               Was ist eigentlich Leben?

Das Leben im engeren Sinne des Wortes, nämlich das organische Leben, ist ein innerlicher Stoffwechsel unter äußerer Anregung im beharrenden Individuum. Jedes dieser Merkmale ist unerlässlich für den Begriff. Im weitesten Sinne des Wortes kann man Stoffwechsel überhaupt Leben nennen.

Abbildung 1. Vinzenz Kletzinsky (1826-1882), österreichischer Chemiker und Pathologe. Lithographie von Eduard Kaiser, 1861. (Bild:https://www.europeana.eu/en/item/92062/BibliographicResource_1000126190609). Rechts: Titelblatt des Vortrags im Jahrbuch in Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien, 12, 1 - 18. https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf)

Dieses organische Leben hat schon durch Jahrtausende immer mit denselben Atomen gearbeitet; das, was der eigentliche Stoff ist, bleibt unzerstörbar und wandelt sich nur. Die Elemente, in welchen sich das organische Leben vollzieht sind ziemlich beschränkter Zahl (Abbildung 2); von den Elementen überhaupt, die heute bekannt sind, wird vielleicht die fortschreitende Wissenschaft einige streichen, andere Elemente wieder hinzufügen, jedoch so viel ist gewiss, dass die Zahl derselben heutzutage 60 übersteigt.

Abbildung 2. Mit der Analytik von 1858 ("und nach neuesten Bestimmungen corrigirten Äquivalentzahlen") war der Großteil, der im Organismus vorkommenden Elemente bereits nachgewiesen.(Bild von Redn. eingefügt ausCompendium der Biochemie (1858), p.20)

Kohlenstoff

Vor allen ist ein Element näher zu bezeichnen, welches den eigentlichen Impuls zur organischen Bildung gibt und dieses Element ist der Kohlenstoff. Derselbe ist vor allen übrigen Elementen mit der bewunderungswürdigen Eigenschaft begabt, äußerst lang gegliederte Ketten zu bilden, während dies bei übrigen Stoffen in weit minderem Maße der Fall ist, annähernd höchstens noch bei Stickstoff und Sauerstoff. Da sich nun diese Ketten der Kohlenstoffatome mit Wasserstoff, Sauerstoff, Stickstoff verbinden, so entsteht dadurch eine ungeheure Fülle von Permutationen und ein zahlloses Heer von organischen Verbindungen.

Außer den genannten Körpern nehmen an organischen Verbindungen noch Teil „Schwefel und Phosphor", welche, obwohl in untergeordnetem Maße, doch in den wichtigsten Körpern und Verbindungen vorkommen: bei jenen Verbindungen, in welchen sich das Geheimnis des Lebensprozesses vollzieht, bei jenen, welche am allerzersetzlichsten sind. Je minder stabil eine Verbindung ist, desto energischer dient sie dem Leben und gerade die unverwüstbaren Stoffe der Mineralchemie sind dem Leben feind.

Oxydation - Reduktion - Gärung

Was geschieht nun mit diesen Elementen? In dieser Beziehung müssen wir das Leben in zwei große Prozesse auseinanderhalten.

  Das Leben ist entweder ein fortlaufender Oxydationsprozess oder ein  Reduktionsprozess. In beide Prozesse aber spielt die Gärung hinein.

Die Oxydation ist das Prototyp des tierischen Lebens, die Reduktion das Urbild des Pflanzenlebens; die Gärung ist in beiden zu Hause. Aus dieser eigenen Durchdringung von Oxydation und Gärung entsteht das tierische Leben, aus der Durchdringung von Reduktion und Gärung entsteht das Pflanzenleben. (Anm. Redn.: Unter Gärung ist eigentlich enzymatische Katalyse zu verstehen. Louis Pasteur hatte 1862 die für die Gärung verantwortliche "vitale Kraft = Fermente" in der Hefezelle nachgewiesen. 1877 hat Wilhelm Kühne für Ferment den aus dem Griechischen stammenden Begriff für "in der Hefe" = "Enzym" geprägt.)

Oxydation ist nun die Verbindung organischer Stoffe mit Sauerstoff, welche wir speziell Verwesung (d.i. Verbrennung; Anm. Redn.) nennen. Reduktion ist der entgegengesetzte Prozess; es ist die Loslösung des Sauerstoffes aus den Oxyden und die Rückgewinnung von sauerstoffärmeren Verbindungen.

Während also der eine Prozess webt, trennt der andere wieder auf und beide ergänzen sich.

Man könnte den Lebensprozess ganz leicht studieren,

wenn man ganz genau im Stande wäre, die richtigen Faktoren in Bezug auf Quantität und Qualität zu treffen.

Denkt man sich ein Aquarium, mit allem Nötigen versehen, mit Kalk, Bittererde, Eisenoxyd, damit alle zum Leben unentbehrlichen Stoffe vorhanden sind und mit einer Fülle von Wasser versehen, über welchem eine Schichte atmosphärischer Luft ist, welche wieder Kohlensäure, Ammoniak und außer Staub und Sporen noch Stickstoff und Sauerstoff enthält. Setzen wir nun in dieses Aquarium eine Wasserpflanze, die leicht, rasch und sicher gedeiht. Diese Pflanze trifft alles, was sie braucht; sie zieht aus der Atmosphäre Wasser, Kohlensäure, Ammoniak, welche Stoffe die organische Nahrung der Pflanze sind; die Pflanze nimmt dieselben auf und reduziert daraus Stoffe, die weniger Sauerstoff haben als Kohlensäure.

Bei diesem Leben der Pflanze wird unter dem Einfluss des Lichtes, welches zum Gedeihen der organischen Schöpfung unentbehrlich ist, aus der Kohlensäure Sauerstoff zurückgegeben und darum ist die Pflanze eine reduzierende Potenz. Die Pflanze ist also in unserem Aquarium für ihr erstes Gedeihen gesichert.

Setzen wir nun in dasselbe etwa eine Schnecke, welche bekanntlich diese Pflanzen abweidet, so wird dieselbe auch alle Bedingungen ihres Gedeihens vorfinden, sie hat Sauerstoff zum Atmen, sie hat die von der Pflanze bereiteten Eiweißstoffe, Zucker, Gummi, mit einem Wort Proteine und Kohlenhydrate zur Nahrung, dadurch entsteht ein neuer Leib des Tieres, eine Partie des alten Leibes geht zu Grunde, wird ausgeworfen und lässt sich unter dem Titel „kohlensaures Ammoniak" (Ammoniumcarbonat, Anm. Redn.) summieren.

Die pflanzenfressenden Tiere ersetzen uns also vollständig, was die Pflanze verbraucht und Pflanzen ersetzen uns, was das Tier veratmet. "Wir müssen aber die weitere Entwicklung des Tieres zur Pflanze im richtigen Verhältnis halten; da sich aber die Tiere zu schnell vermehren und mehr verbrauchen würden, als die Pflanze liefert, so setzen wir in das Aquarium einen Fleischfresser, der die übermäßige Entwicklung des Pflanzenfressers im Zaume hält; könnte man die richtigen Verhältnisse genau einhalten, so würde man im Kleinen das erzielen, was die Natur im Großen zeigt.

Wie gesagt: es muss von der Pflanzenwelt das von der gesamten Tierwelt erzeugte kohlensaure Ammoniak aufgenommen werden und umgekehrt verarbeiten in demselben Verhältnisse die Tiere den von den Pflanzen hergegebenen Sauerstoff. Dadurch ist es erklärlich, dass sich im Laufe von Jahrtausenden in der Atmosphäre nichts geändert hat. Wenn man bedenkt, wie viele tausend und abertausend Tier- und Menschengenerationen über die Erde gegangen, wie viele Atmungsprozesse stattgefunden, welch' ungeheure Quantitäten von Sauerstoff verzehrt wurden, wenn man ferner in Betracht zieht, dass trotz alledem doch kein Abgang bemerkbar ist, so ist dies nur dadurch erklärlich, dass die Pflanze es ist, welche das, was Feuer und Tiere verzehren, wieder ersetzt, welche die Atmosphäre rein erhält.

Vor einer ungeheuren Anzahl von Jahren muss die Luft sehr kohlensäurereich gewesen sein, was uns die damals entstandenen Riesentange beweisen, eben dadurch wurde aber auch die Luft ungeheuer sauerstoffreich und dieser eigentümliche Reiz des Freiwerdens des Sauerstoffes hat auf eine uns unbekannte Weise die Tierzelle geboren, erzeugt und gestaltet. So ist das Thier allmählich auf die Welt gekommen, als es bereits die Bedingungen zu seinem Lebensprozesse vorfand.

CO2-Assimilation, Photosynthese & Atmung

Wenn man reines kohlensaures Gas, gleichviel auf welche Weise bereitet, in einem dünnen, durchsichtigen Zylinder auffängt, über Quecksilber absperrt, durch dieses ein Büschel frisch gepflückter Blätter hineinsteckt und diese Vorrichtung 6—12 Stunden dem direkten Sonnenlichte aussetzt, kann man entschieden Sauerstoff nachweisen. Der Sauerstoff ist aus Kohlensäure durch Vermittlung des lebenden Pflanzengrün's unter dem Einflüsse des Sonnenlichtes entstanden. Nur das grüne, blaue, violette Licht besitzt diese Fähigkeit.

Dass sämtliche Tiere Sauerstoff atmen; ist heute evident bewiesen, gleichviel, ob die Tiere durch Lungen, Kiemen, Tracheen oder durch die Haut atmen, immer wird Sauerstoff aufgenommen und Kohlensäure abgegeben. Jede Stelle unserer lebenden Haut gibt fortwährend Kohlensäure ab und nimmt dafür Sauerstoff ein; selbst der losgelöste Muskel, der auf den Hacken des Fleischers hängt, dunstet Kohlensäure aus und nimmt Sauerstoff auf. Es ist dies die echte, tierische Erbsünde, die allen Tieren anklebt.

Diese Sättigung mit Sauerstoff ist das eigentliche Triebrad des tierischen Lebens.

Dieser Sauerstoff, der auf immer welchem Wege die innere Bahn des Körpers betritt, wird zunächst von eigentümlichen Zellen aufgenommen, die im Allgemeinen „Blutkörperchen" heißen, welche namentlich bei höheren Tierklassen in ihrer einzelnen Form studiert sind; diese Zellen verschlucken den Sauerstoff und sind dazu bestimmt, den Sauerstoff in die inneren Körperbahnen überall hinzuführen. Das Zucken einer Muskelfaser ist nicht denkbar ohne gleichzeitige Gegenwart von Sauerstoff; sobald ein Nerv nicht mit Sauerstoff in Berührung kommt, kann er nicht mehr der Leiter des Willens und der Rückleiter der Empfindungen sein. Nimmt man auch nur momentan den Sauerstoff weg, so ist der Nerv taub, das Glied ist tot.

Dadurch lernen Sie eine neue Klasse furchtbarer Gifte für das tierische Leben kennen, nämlich solche Körper, welche im Stande sind, allen Vorrat an Sauerstoff unserem Körper zu entziehen. Wir Alle haben jetzt in unserem Körper einen gewissen Vorrat an Sauerstoff, mit dem wir auch ohne zu atmen, eine gewisse Zeit hindurch leben könnten, 3 Minuten wird wohl jeder Mensch aushalten, besonders glücklich organisierte Naturen könnten auch 10 Minuten leben, ohne eine neue Zufuhr an Sauerstoff. Würde nun nicht nur der vorhandene Vorrat verbraucht, sondern auch zugleich die Möglichkeit, neuen Sauerstoff anzuschaffen, abgebrochen sein, dann ist es mit dem Leben aus und nun stehe ich vor der erschreckenden Wirkung der Blausäure.

Diese Säure ist sehr flüchtig, sie eilt sehr rasch auf der Wanderung durch die ganze Blutbahn mit dem Blute in alle Provinzen des Körpers, nimmt den Sauerstoff, wohin sie kommt, für sich in Beschlag und vernichtet zunächst mit heimtückischer Gewalt die Fähigkeit der Blutkörperchen, neuen Sauerstoff aufzunehmen. Ohne Sauerstoff-Aufnahme kann kein Nerv empfinden und den Willen leiten, kein Muskel kann zucken, keine Zelle arbeiten, keine Drüse Saft bereiten. Alles ist gelähmt.

Pflanzen betreiben Photosynthese und atmen

Es ist merkwürdig, dass mit dieser für alles tierische Leben maßgebenden Potenz, nämlich mit der Oxydation, auch die Pflanze ihr dunkles Leben im Mutterschoß der Erde beginnt; während die entwickelte Pflanze, die mit der Axe zum Licht strebt, unter dem Einfluss des Lichtes gerade das entgegengesetzte treibt, nämlich Sauerstoff rückgibt und Kohlensäure einhaucht, ist ihr Same in der feuchten, dunklen Erde dazu verurteilt Sauerstoff aufzunehmen, Kohlensäure rückzugeben. Dies geschieht jedoch wie gesagt nur im Dunkeln; das Keimen der Pflanzensamen ist ein analoger Akt, wie das tierische Leben: ein Oxydationsprozess. Die Oxydation bildet also im tierischen Leibe die Hauptbedingung des Lebens, die Reduktion im Pflanzenleibe. In beide Prozesse bohrt sich die Gärung ein.

Die Gärung ist eine Spaltung großer, vielgliedriger Atomketten in kleinere Bruchteile,

welche Spaltung unter dem Einfluss der sogenannten Hefe erfolgt, einer eigentümlichen Zelle, die den Trieb hat, weiter zu wachsen unter fortwährender Aufnahme von Kohlensäure (Gärung = enzymatische Katalyse, siehe Kommentar Redn. oben). Ein wunderschönes Beispiel einer solchen komplizierten Gärung liefert uns die Leber. Vor Allem macht es die Gärung klar, wie es möglich ist, dass aus einem und demselben Blute die verschiedenartigsten Organe ernährt werden - die Niere, das Gehirn, die Milz, die Leber. Ebenso kann man aus einer und derselben Zuckerlösung: Weingeist durch Zugabe von Presshefe, Buttersäure durch Zusatz von Quark, Milchsäure durch Zusatz von Pflanzeneiweiß erzeugen; je nach der Verschiedenheit der Hefe wird derselbe Zucker anders gespalten, dieselbe Atomkette wird anders zerrissen.

Die Ursache, warum aus demselben Blut ganz andere Stoffe entstehen, beruht auf der Verschiedenheit der Zelle. Die Gehirnzelle ist eine Hefe, die sich selbst wieder aus Blut erzeugt; befindet sich dasselbe Blut unter dem Einfluss der Milzhefe, erzeugt sich Milzzelle. Auch sind die Nebenprodukte dieser Prozesse andere. Die Leberzelle erhält eigentümliches, dunkles, dickes Blut zur Vergärung; das sogenannte Pfortaderblut. Diese Ader verästelt sich in der Schleimhaut des Darmes und saugt den gleichsam rohen Nahrungssaft auf; was von diesem Saft die Milchsaftgefässe nicht aufnehmen, nimmt die Pfortader auf und damit die Masse nicht roh in den allgemeinen Kreislauf gerät, wird sie in die Leber geworfen; der Zelleninhalt der Leberzelle kommuniziert mit dem Pfortaderblut; dasselbe vergärt unter dem Einfluss der Leberzelle.

In jedem Organ müssen fortwährend neue Zellen gebildet werden, weil die alten zu Dutzenden vergehen; die Leber ernährt sich; geschieht dies nicht, so erfolgt der Schwund der Leber, eine furchtbare Krankheit. Alles Organische muss ewig vergehen und neu entstehen; das Leben besteht im Wechsel.

Die Leber ist ein zuckerbildendes Organ, wenn auch Ihre Nahrung keine Spur von Zucker enthält; Zucker ist dennoch ein Gärungsprodukt der Leber; ferner entsteht die Galle, welche ebenfalls eine Absonderung der Leber ist, sie ist eine gefärbte Seife, die bei der Verdauung eine wesentliche Rolle spielt. Endlich wird das Leber-Venenblut durch die Lebervene abgeführt, während die von der Leber erzeugte Galle in die Gallenblase zusammensickert, welche einen Ausführungsgang besitzt, der sich in den Dünndarm ergießt, allwo die Galle die wichtige Rolle der Verdauung der Fettstoffe erfüllt.

Wenn man einem Hunde die Gallenblase entfernt, geht alles Fett seiner Nahrung unverändert ab; er ist nicht im Stande, Fett zu verdauen.

Der Kreislauf des organischen Lebens

Aus dieser wunderbaren Durchdringung des Oxydationsprozesses und der Gärung im Tierreich und der Reduktion und Gärung im Pflanzenreiche entwickelt sich der große Prozess des organischen Lebens, der in der Jugend der Entwicklung mit der Massenvermehrung einhergeht, dann sich eine Weile auf dem Normale konserviert, und endlich, dem Gesetze alles Organischen folgend, abnimmt, wobei endlich seine Masse zum Anorganismus zurückkehrt als Staub, sich verflüchtigt als kohlensaures Ammoniak und neuerdings dienstbar wird dem Pflanzenleben; die Pflanze tritt wieder auf, erzeugt neuerdings Stoffe für's Tierleben und in dieser Weise ergänzt sich von selbst der Kreislauf.

Man hat die Pflanze als einen im Anorganismus wurzelnden Apparat zu betrachten, welcher die Fähigkeit besitzt, Nahrungsstoffe für das Tierleben zu erzeugen. Es gilt für alle Tiere als Gesetz, dass sie fertige Eiweißstoffe aufnehmen müssen, da kein tierischer Körper solche erzeugen, sondern nur umbilden kann; die Pflanzen müssen diese Stoffe aus dem Anorganismus, aus Luft und Boden schaffen. Selbst die Gewebebildung im Tierleibe ist nur eine Oxydation; und so ist das ganze Tierleben eine fortlaufende Oxydation, die mit der Rückgabe von Kohlensäure und Ammoniak an die Luft endet, von wo die Pflanzen wieder beginnen und den ewigen Kreislauf der organischen Schöpfung vollenden.

 

[1] Vinzenz Kletzinsky, Compendium der Biochemie, 1858, in dem erstmals der Begriff "Biochemie" aufscheint. ((https://www.digitale-sammlungen.de/en/view/bsb10073084?page=4,5, open access, C0, keine kommerzielle Nutzung)


* Abbildungen in dem gekürzten Artikel und Untertitel wurden von der Redaktion eingefügt; die ursprüngliche Schreibform wurde in die jetzt übliche geändert. Der Originaltext kann nachgelesen werden unter: KLETZINSKY Vinzenz Prof. (1872): Die Chemie des Lebensprocesses. — Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 12: 1-18.https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf


 Zum Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien:

Der Paläologe und Geologe Eduard Suess war maßgeblich an der Gründung des auch heute noch existierenden Vereins im Jahre 1860 beteiligt und dessen erster Präsident. Im Rahmen dieses Vereins wurden frei zugängliche, populäre Vorträge gehalten; diese waren „lediglich naturwissenschaftlichen Fächern entnommen, der Kreis von Vortragenden hat fast ausschließlich aus jüngeren Fachmännern bestanden.“

Dazu im ScienceBlog:

Redaktion, 26.12.2014: Popularisierung der Naturwissenschaften im 19. Jahrhundert.


 

inge Thu, 12.08.2021 - 18:54

Erdoberfläche - die bedrohte Haut auf der wir leben

Erdoberfläche - die bedrohte Haut auf der wir leben

Do, 05.08.2021 — Gerd Gleixner

Icon Biologie

Gerd Gleixner Das Überleben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten, der „kritischen Zone“, ab. Im Anthropozän hat der Mensch durch sein Handeln in den Stoffaustausch zwischen Organismen und den Ökosystemsphären eingegriffen und bedroht dadurch die Funktionsweise der kritischen Zone. Wie verringern Biodiversitätsverluste die kontinentale Kohlenstoffspeicherung und beschleunigen so den Klimawandel? Die organische Bodensubstanz ist die letzte große Unbekannte im terrestrischen Kohlenstoffkreislauf. Prof. Dr. Gerd Gleixner, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie (Jena) untersucht Ursprung, Umsatz und Stabilität der organischen Substanz in Böden mit speziellem Fokus auf die Welt der Bodenmikroorganismen, da hier der molekulare Antrieb der globalen Stoffkreisläufe verborgen ist.*

Das Leben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten - ihrer Haut - ab. Sie reicht von den erdnahen Schichten der Atmosphäre über die verschiedenen Ökosysteme der Erdoberfläche bis hin zu den unterirdischen Grundwasserleitern und wird „kritische Zone“ genannt. In ihr geben sich die Kreisläufe der Bioelemente Wasserstoff, Kohlenstoff, Stickstoff, Sauerstoff, Phosphor und Schwefel ein Stelldichein. Angetrieben durch die Sonne, wird Wasser verdunstet und aufs Land transportiert, wo es als Grundlage allen Lebens benötigt wird.

Pflanzen nutzen die Sonne und das Wasser, um Kohlendioxid der Atmosphäre zu reduzieren und zusammen mit Nährstoffen wie Stickstoff und Phosphor Biomasse aufzubauen. Sie wird wieder durch Mikroorganismen zersetzt und steht so für einen neuen Kreislauf zur Verfügung. Der Mensch hat durch die Verbrennung fossiler Brennstoffe, Düngung, Landnutzung und Landnutzungsänderungen in die Kreisläufe der kritischen Zone eingegriffen. Die Folgen sind offensichtlich: Klimawandel und Biodiversitätsverlust sind zu Schlagworten unsere Zeit geworden. Erstmals in der langen Erdgeschichte tritt der Mensch als global entscheidender Faktor auf und leitet durch sein Handeln das neue Erdzeitalter des Anthropozäns ein. Wir untersuchen, wie die kritische Zone der Erde - ihre Haut - funktioniert, um ihre bedrohte Funktionsfähigkeit sicherzustellen.

Unsichtbare Helfer

Wie unsere menschliche Haut, ist auch die irdische kritische Zone von einer Gemeinschaft unterschiedlichster Mikroorganismen besiedelt. Während sie auf der menschlichen Haut vor Krankheiten schützen und wichtige Stoffumsetzungen durchführen, ist die Rolle der Mikroorganismen für Stoffkreisläufe in der kritischen Schicht der Erde bislang wenig untersucht. Den Mikroorganismen im Boden kommt jedoch eine entscheidende Rolle bei der Speicherung von Kohlenstoff als organische Bodensubstanz zu [1]. Bisher nahm man an, dass Mikroorganismen lediglich für den Abbau von organischer Bodensubstanz zuständig sind und die Speicherung von Kohlenstoff im Boden nur darauf beruht, dass er nicht vollständig abgebaut werden kann. Mithilfe natürlich vorkommender Isotope konnten wir nachweisen, dass aus den Resten der verdauenden Mikroorganismen organische Bodensubstanz gebildet wird. Der Boden funktioniert also wie das Verdauungssystem der kritischen Zone. Dabei werden die mikrobiellen Auf- und Abbauprozesse stark von den Bedingungen von Temperatur, Feuchte, Nahrungsangebot, Nährstoffangebot und Oberflächeneigenschaften der mineralischen Bodenbestandteile bestimmt. Ist zum Beispiel zu wenig Stickstoff im Boden vorhanden, wird dieser durch mikrobiellen Abbau aus organischer Bodensubstanz gewonnen. Wird aber zu viel davon erzeugt oder durch Düngung zugeführt, kann er mikrobiell in gasförmigen Stickstoff umgewandelt werden, der aus dem Boden entweicht und als Lachgas zur Erderwärmung beiträgt.

Dabei werden die Mikroorganismen durch Umweltreize aktiviert. Wir konnten zeigen, dass ein und derselbe Prozess von ganz verschieden Mikroorganismen durchgeführt wird [2]. Welcher Mikroorganismus und welche Kooperationspartner aktiviert werden, hängt von den Rahmenbedingungen ab. In unseren Versuchen wurden pflanzliche und mikrobielle Biomasse erwartungsgemäß von unterschiedlichen Bakterien abgebaut.

Abbildung 1. Mikrobielle Redundanz im System Pflanze-Mikroorganismen-Boden: Unterschiedliche Organismen stellen Stickstoff aus abgestorbenen Wurzeln, abgestorbenen Mikroorganismen und anorganischen Stickstoff für den Austausch mit pflanzlichem Kohlenstoff bereit, je nachdem, ob symbiontische Pilze oder saprophytische Pilze im System dominieren. AM: arbuskuläre Mycorrhiza - Pilze leben in Symbiose mit den Wurzelzellen; NM: Nicht-Mycorrhiza - Pilze leben saprophytisch = von abgestorbenen Material (© verändert nach Chowdhury et al. 2020; Lizenz: cc-by-nc-nd)

Je nachdem ob symbiotische oder nicht-symbiotische Pilze vorhanden waren (siehe Abbildung 1), waren unterschiedliche Bakterien bei demselben Abbauprozess involviert. Das funktionelle Zusammenspiel und die hier beschriebene funktionelle Redundanz der verschiedenen Mikroorganismen erklärt, warum Gemeinschaften von Bodenmikroorganismen in ihrer Funktionsweise kaum verstanden sind. Die Forschungslücke, welchen Einfluss diese unsichtbaren Helfer auf die kritische Zone haben, ist signifikant.

Ringelreihen, Tanz zu zweien, dreien, vielen

Nicht nur im Unsichtbaren spielen sich solche Interaktionen zwischen mikrobiellen Arten ab. Im weltweit größten Langzeit-Biodiversitätsexperiment, dem Jena Experiment, wurden im Jahr 2002 Versuchsflächen mit 1, 2, 4, 8, 16, 32 und 64 Pflanzen angelegt, um das Zusammenspiel zwischen Pflanzen, anderen Arten und den Stoffkreisläufen untersuchen. Das Experiment sollte klären, wie viele Arten notwendig sind, um die Funktionsfähigkeit des Systems aufrecht zu erhalten. Die Ergebnisse sind eindeutig:

    Mehr Arten sichern einerseits die Funktionsfähigkeit des Systems ab, da jede Art unterschiedliche Eigenschaften mitbringt. Diese helfen besonders nach extremen Ereignissen wie Überflutung oder Trockenheit bei der Regeneration des (Öko-)Systems.

    Andererseits ergänzen sich verschiedene Arten auch in ihren Funktionsweisen, und Artenmischungen erzeugen mehr Biomasse, speichern mehr Kohlenstoff und Stickstoff im Boden und erhalten größere Nahrungsnetzwerke als die entsprechende Summe aus Einzelkulturen ergeben würde (Buzhdygan et al. 2020).

Die Mischungen vieler Arten sind demnach nicht nur gefälliger, sie sichern auch die Funktionsweise der kritischen Zone ab.

Tiefer schauen, um mehr zu verstehen

Die fördernden Interaktionen zwischen den Arten finden im Verborgenen- unter der Erdoberfläche - statt und sind mit einfachen Methoden nicht zu ergründen. Mit ultrahoch-auflösender Massenspektrometrie verfolgten wir den Stoff- und Energieaustausch zwischen dem Boden, den Mikroorganismen und den Pflanzen.

Dank langjähriger Zusatzunterstützung durch Förderer der Max-Planck-Gesellschaft wie der Zwillenberg-Tietz Stiftung konnten wir neue Verfahren entwickeln (Roth et al. 2019) [4] und zeigen, dass gelöste organische Verbindungen im Bodenwasser – nicht wie bisher angenommen - Abfälle der Stoffumsätze sind, sondern ganz im Gegenteil das Kommunikationsmittel des Bodens darstellen und chemische Informationen über Pflanzen, Mikroorganismen und den Boden enthalten (siehe Abbildung 2). Derzeit verschneiden wir unsere und andere „omische“ Datensätze mit Stoffwechseldatenbanken, um den chemischen Code vollständig zu knacken.

Abbildung 2. Entschlüsselung des molaren Codes von gelöstem organischen Kohlenstoff: Die alte Theorie der Rekalzitranz ging vom Überbleib nicht abbaubarer Substanzen aus, wohingegen die neue Theorie der Persistenz von einem kontinuierlichen Ab-, Um- und Aufbau von Molekülen ausgeht. Identische Moleküle können aus verschieden Quellen wie Pflanzen oder Mikroorganismen stammen und so Stabilität beziehungsweise Rekalzitranz vortäuschen.© verändert nach (Roth et al. 2019).

Besondere Hoffnungen liegen auf Zusatzinformationen, die wir aus intakten Molekülen der mikrobiellen Zellmembranen gewinnen (Ding et al. 2020) [5], da sie, in Verbindung mit Isotopenuntersuchungen, Rückschlüsse auf die Beteiligung der einzelnen Arten am Stoff- und Energieaustausch ermöglichen und uns so erlauben, den Stoffwechsel der Kritischen Zone und seine Regulation zu verstehen.


Literaturhinweise

[1] Lange, M., et al., (2015) Plant diversity increases soil microbial activity and soil carbon storage. Nature Communications, 6: 6707. https://doi.org/10.1038/ncomms7707

[2] Chowdhury, S., et al., (2020) Nutrient Source and Mycorrhizal Association jointly alters Soil Microbial Communities that shape Plant-Rhizosphere-Soil Carbon-Nutrient Flows. bioRxiv:2020.2005.2008.085407.

[3] Buzhdygan, O. Y., et al., (2020) Biodiversity increases multitrophic energy use efficiency, flow and storage in grasslands.Nature Ecology & Evolution, 4, 393-405. https://doi.org/10.1038/s41559-020-1123-8

[4] Ding, S., et al., (2020) Characteristics and origin of intact polar lipids in soil organic matter. Soil Biology and Biochemistry, 151: 108045.  https://doi.org/10.1016/j.soilbio.2020.108045

[5]. Roth, V. N., et al., (2019) Persistence of dissolved organic matter explained by molecular changes during its passage through soil. Nature Geoscience, 12(9), https://doi.org/10.1038/s41561-019-0417-4


*Der vorliegende Artikel von Gerd Gleixner ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel "Die bedrohte Haut auf der wir leben" https://www.mpg.de/16312732/bgc_jb_2020?c=152885 erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und des Autors von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden unverändert übernommen (in der Legende zu Abbildung 1 wurde eine kleine Ergänzung von der Redaktion eingefügt).


Weiterführende Links

Max-Planck-Institut für Biogeochemie, https://www.bgc-jena.mpg.de/index.php/Main/HomePage/

W2 Forschungsgruppe Molekulare Biogeochemie (Gerd Gleixner)  https://www.bgc-jena.mpg.de/www/uploads/Groups/MolecularBiogeochemistry/FactSheets_Gleixner_de_July2013.pdf

Das Jena Experiment (2017), Video 8:50 min, https://www.youtube.com/watch?v=yQSe6a2LBYM

Klima – der Kohlenstoffkreislauf. MaxPlanck Society, Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c

------------------------------------------------------------------------------

Einige Artikel zu verwandten Themen im ScienceBlog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Knut Ehlers, 01.04.2016: Der Boden ein unsichtbares Ökosystem

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Rattan Lal, 04.12.2015: Der Boden – Grundlage unseres Lebens

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Thu, 05.08.2021 - 01:02

Biodiversität - Den Reichtum der Natur verteidigen

Biodiversität - Den Reichtum der Natur verteidigen

Do, 29.07.2021 — IIASA

IIASA Logo Icon Biologie

Mit den Fortschritten der Menschheit ist es zum Niedergang von Millionen anderer Spezies im Tier- und Pflanzenreich gekommen. An einem für die bedrängte Natur entscheidenden Zeitpunkt zeigen Forschungsergebnisse des IIASA, dass wir den Verlust der biologischen Vielfalt noch umkehren können. Dies wird allerdings einen groß angelegten Einsatz erfordern - darauf konzentriert, wo man den größten Nutzen erzielen kann. Zu dem enorm wichtigen Thema haben wir bereits im vergangenen September einen Bericht des IIASA gebracht [1]; hier folgt nun der aktualisierte Status zur Wiederherstellung der Biodiversität.*

Der Reichtum der Natur im Niedergang

Pflanzen und Tiere sind unsere Nahrung, sie stabilisieren das Klima, filtern Luft und Wasser, versorgen uns mit Treibstoff und Arzneimitteln. Abbildung 1.

Abbildung 1. Artenvielfalt und genetische Vielfalt in den Arten erhalten/wiederherstellen - fast alle Länder sind dem Übereinkommen über die biologische Vielfalt beigetreten, die Erfolge lassen auf sich warten.

 

Der Fortschritt der Menschheit hat den Rückzug von Millionen anderer Spezies mit sich gebracht. Lebensräume werden durchfurcht und zubetoniert; Umweltverschmutzung erstickt Ökosysteme; Überfischung durchkämmt die Meere; der Klimawandel bringt Dürren und durcheinander gebrachte Jahreszeiten. Selbst aus zynischer, menschenzentrierter Sicht zeichnet sich eine Katastrophe ab.

Jahrzehntelanger Einsatz für den Naturschutz hat nur begrenzten Erfolg erbracht. Fast jedes Land ist dem Übereinkommen über die biologische Vielfalt (Convention on Biological Diversity ; CBD) beigetreten, einem Vertrag, der 2010 zwanzig Biodiversitätsziele festlegte. Bis zum Stichtag 2020 wurden jedoch nur sechs dieser Ziele teilweise erreicht. Im 2019 IPBES Global Assessment Report on Biodiversity and Ecosystem Services heißt es: „Die Biodiversität ... nimmt schneller ab als je zuvor in der Geschichte der Menschheit.“

Die Kurve - den Trend - umdrehen

Die IIASA-Forschungsergebnisse lassen uns hoffen, dass wir die Dinge ändern können – allerdings wird dies nicht einfach sein. Eine richtungweisende Studie unter der Leitung des IIASA-Forschers David Leclère hat Modelle erstellt, wie verschiedene Strategien die Landnutzung verändern könnten und wie sich dies auf verschiedene Aspekte der biologischen Vielfalt, beispielsweise das Artensterben auswirken würde. Abbildung 2.

Ein Szenario nimmt an, dass die Schutzgebiete auf 40 % der Landfläche des Planeten (von aktuell 15 %) ausgeweitet und 5 Millionen km2 degradiertes Land wiederhergestellt sind. Laut Studie sollten sich die Trends der Biodiversität um die Mitte des Jahrhunderts verbessern – aber viele Regionen würden dann immer noch schwere Verluste und steigende Lebensmittelpreise verzeichnen und damit das Ziel der UN, den Hunger zu beenden, untergraben.

Ein optimistischeres Bild ergibt sich, wenn wir auch Angebot und Nachfrage nach Nahrungsmitteln einbeziehen, eine nachhaltige Steigerung der Ernteerträge und des Agrarhandels, sowie eine stärker pflanzenbasierte Ernährung und weniger Lebensmittelverschwendung einkalkulieren. Die Studie prognostiziert, dass dies die Biodiversitätstrends vor 2050 positiv verändern sollte, es würde mehr Land wieder hergestellt werden können, steigende Lebensmittelpreise verhindert, einschneidende Vorteile für das Klima erbracht und der Verbrauch von Wasser und Düngemitteln reduziert werden können.

Abbildung 2. Um den raschen Niedergang der terrestrischen Biodiversität umzukehren, bedarf es einer integrierten Strategie. Eine Abschätzung von gegenwärtigen und zukünftigen Trends der Biodiversität, die aus der Landnutzung resultieren; mit und ohne koordiniertem Einsatz von Strategien, um die Trends umzukehren. (Diese Abbildung wurde bereits in [1] gezeigt; Quelle: Leclère, et al. © Adam Islaam | IIASA.) >

Diese Informationen sind in erweiterter Form in einem Artikel aus dem Jahr 2020 zu finden [3]; Dutzende führende Forscher unter der Leitung von Sandra Diaz (Universität Cordoba, Argentinien) haben dazu beigetragen, darunter Piero Visconti, der die IIASA-Forschungsgruppe Biodiversität, Ökologie und Naturschutz leitet. Die Autoren schlagen unter anderem ergebnisorientierte Ziele für die Artenvielfalt und genetische Vielfalt innerhalb der Arten vor, zusammen mit Zielen, den Nettoverlust natürlicher Ökosystemflächen zu stoppen, deren Intaktheit sicherzustellen und, dass der Verlust eines seltenen Ökosystems nicht durch eine Zunahme in einem anderen Ökosystem ausgeglichen werden kann.

Plan B

Das Übereinkommen über die biologische Vielfalt (CBD) ist nun daran eine Strategie für das kommende Jahrzehnt zu entwickeln. Der Entwurf Global Biodiversity Framework (GBF) umfasst einige der Ideen, darunter ergebnisorientierte Biodiversitäts-Ziele, wie die Anzahl bedrohter Arten um einen bestimmten Prozentsatz zu reduzieren und die genetische Vielfalt zu erhalten. Fünf GBF-Aktionsziele für 2030 stimmen weitgehend mit den Maßnahmen im integrierten Szenario von Leclère überein [2]. Der GBF-Entwurf zitiert auch oft die Studie von Diaz et al.[3] – auch, wenn sich die Zielsetzungen noch nicht den Vorschlägen der Untersuchung entsprechend geändert haben, sagt Visconti. Laut Leclère muss der endgültige Rahmen, der im Oktober 2021 ratifiziert werden soll, sicherstellen, dass die nationalen Pläne mit den angestrebten globalen Zielen in Einklang stehen und Anstrengungen und Nutzen gerecht verteilt werden.

Der Entwurf könnte sich möglicherweise auch zu sehr auf gebietsbezogene Ziele stützen, wie etwa die Ausdehnung von Schutzgebieten auf 30 % der Land- und Meeresfläche. Geschützte Bereiche werden oft dort platziert, wo sie am wenigsten störend sind, anstatt dort, wo sie am effektivsten wären.

„Schauen Sie sich die durchschnittliche Höhenlage und Abgeschiedenheit der Nationalparks an. Diese tendieren dazu, hoch zu liegen und ausgedehnt zu sein; Fels und Eis“, bemerkt Visconti und fügt hinzu, dass für die Auswirkungen auf die biologische Vielfalt Qualität wichtiger als Quantität sei.

Konzentrierte Lösungen

Diese Einschätzung wird durch zwei aktuelle Studien unter Beteiligung von IIASA-Forschern bestätigt. Eine davon hat die Wiederherstellung von Ackerland und Weideland zurück in einen natürlichen Lebensraum untersucht [4]. Die Autoren haben umgewandeltes Land kartiert und die lokalen Auswirkungen der Renaturierung auf CO2 und das Risiko von Artensterben untersucht, wobei sie Felddaten von ähnlichen Standorten zugrunde legten. Anschließend haben sie die globalen Ergebnisse modelliert, wenn 15 % des gesamten umgewandelten Landes im Ausmaß von 4,3 Millionen km2 wiederhergestellt werden. Ein linearer Programmieralgorithmus hat die optimale Wahl von Standorten der Konversion bei verschiedenen Gewichtungen von Aussterberisiko, CO2 und Kosten getroffen. Das Szenario einer Renaturierung, das darauf abzielt, CO2 und Biodiversität zu optimieren, verhindert 60 % des ansonsten zu erwartenden Aussterbens und bindet fast 300 Gigatonnen CO2 - entsprechend etwa den globalen Emissionen von 7 Jahren bei der heutigen Rate.

Die zweite Studie unter der Leitung des IIASA-Forschers Martin Jung hat sich mit dem Naturschutz befasst und seine Auswirkungen auf die Artenvielfalt, den Kohlenstoff und die Bereitstellung von sauberem Wasser berechnet [5]. Im Gegensatz zu früheren Studien wurden hier nicht nur Tiere, sondern auch Pflanzen erfasst. Man kommt zu dem Schluss, dass die Bewirtschaftung von nur 10 % der weltweiten Landfläche den Erhaltungszustand von 46 % der Arten verbessern und 27 % des gespeicherten Kohlenstoffs und 24 % des sauberen Wassers bewahren kann. Eine detaillierte Karte der lokalen Vorteile zeigt, wo die Menschen den größten Nutzen aus ihrem Einsatz für den Naturschutz erzielen können. Abbildung 3.

Abbildung 3. Gebiete mit globaler Bedeutung für Biodiversität, CO2-Bindung und sauberes Wasser. Die drei Güter sind gleich gewichtet und nach höchster Priorität (1 - 10 %) bis niedrigster Priorität (90 -100 %) für die globale Erhaltung gereiht (Bild: Jung et al.,[5]; cc-by-nc-nd) >

Der Zustand der Natur

Daten zur Biodiversität sind für die Kampagne von wesentlicher Bedeutung, solche sind aber oft nur spärlich vorhanden. „Insbesondere für Afrika und Südamerika fehlt eine riesige Menge an Daten“, sagt Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability. Diese Gruppe will die Situation verbessern, unter anderem durch Einbeziehen neuer Datenquellen wie Citizen Science, Aufzeichnungen durch Drohnen und LIDAR-Daten von Satelliten und Flugzeugen.

„Wir verwenden statistische Techniken, um Daten zu harmonisieren, um alles zusammenzuführen“, sagt McCallum.

McCallum leitet auch das Vorhaben Interessensgruppen in das EU-Projekt EuropaBON (Europa Biodiversity Observation Network: integrating data streams to support policy) einzubinden; dieses europäische Rahmenwerk zur Überwachung der biologischen Vielfalt hat das Ziel, kritische Lücken in den Daten zu identifizieren [6]. Auch wenn Europa diesbezüglich besser erfasst ist als der Großteil der Welt, gibt es immer noch viele weiße Flecken – insbesondere in aquatischen Lebensräumen – und dieses Projekt will dazu beitragen, Methoden zur Eingliederung von Daten voranzutreiben.

„In datenreichen Gebieten kann man Techniken entwickeln, die dann ausgebaut und global genutzt werden können“, bemerkt er.

Wurzeln der Biodiversität

Ein solides theoretisches Verständnis könnte Datenlücken schließen und politikorientierte Modelle realistischer machen. Ein Ziel ist es zu verstehen, warum manche Ökosysteme so artenreich sind.

„Alle Fragen nach dem "Warum" in der Biologie finden eine Antwort in der Evolution“, erklärt Ulf Dieckmann, Senior Researcher im IIASA Advancing Systems Analysis Program; Diekmann hat 25 Jahre am IIASA damit verbracht die adaptive dynamische Theorie zu entwickeln, eine Form der Systemanalyse, die Ökologie und Evolution verbindet.

Ein bemerkenswerter Erfolg dieses Ansatzes besteht darin, zu zeigen, wieso die Pflanzen des Regenwalds so vielfältig sein können. Nach der Nischentheorie adaptiert sich jede Art, um in eine spezifische Rolle/Position eines Ökosystem zu passen. Tiere konkurrieren um verschiedene Nahrungsmittel, was viele Nischen schafft; alle Pflanzen haben aber nur eine Nahrungsquelle, das Sonnenlicht. Nischenmodelle hatten deshalb voraussagt, dass Regenwälder nur wenige Baumarten und nur eine schattentolerante Spezies haben sollten. Echte Wälder haben jedoch viele Schattenbewohner, was die Nischentheorie in Frage stellt.

Dieckmann hat an einem realistischeren Modell gearbeitet, das Pflanzenphysiologie, Ökologie und Evolution kombiniert [7]. Für Arten ist es möglich, zwei variable Merkmale zu haben (Höhe bei Reife und Blattdicke). Wenn Baumfällungen oder Feuer ein neues Waldstück erschließen, wandern schnell wachsende Besiedler ein, gefolgt von langsam wachsenden. Im Modell führt die Evolution zu einer Vielzahl von schattentoleranten Baumarten mit leicht unterschiedlichen Eigenschaften. Es zeigt auch eine realistische Pflanzenvielfalt in Wäldern der gemäßigten Zone, in Buschland und bewaldeten Flussufern. Diese Art von Einblicken könnte die Naturschutzarbeit beeinflussen.

„Man könnte fragen, welche ökologischen Prozesse intakt bleiben müssen, um die Biodiversität zu erhalten?“ sagt Dieckmann. Pflanzen konkurrieren auch um Wasser, und der IIASA-Forscher Jaideep Joshi untersucht, wie sich dies auf die Artenvielfalt auswirkt. „Noch ambitioniertere öko-evolutionäre Modelle werden Topografie, Bodenmikrobiome und andere Faktoren berücksichtigen“, fügt Dieckmann hinzu.

Integrierte Modelle der Zukunft

Biodiversität ist nicht nur ein wünschenswertes Ergebnis an sich, sondern beeinflusst auch andere Systeme wie beispielsweise die Widerstandsfähigkeit der Wälder, die erhalten bleibt und damit die Bindung von CO2 generiert. IIASA baut ein neues integriertes Biosphärenmodell, iBIOM, auf, das einige dieser Effekte erfassen könnte, beispielsweise die Rolle der Insektenbestäubung in Hinblick auf die Ernteerträge.

Als Teil eines umfassenden Modellierungsrahmens, der derzeit am IIASA in Entwicklung ist, wird iBIOM dazu verwendet werden, um das komplexe Zusammenspiel zwischen Klima und Biodiversität zu erforschen.

„Das ist eine gewaltige Herausforderung“, sagt Leclère.

Zum einen müssen die Modelle die Landnutzung sehr detailliert erfassen, beispielsweise welche Wirkung der Anbau verschiedener Pflanzenarten auf die Speicherung von CO2 hat. Aber der Nutzen könnte auch enorm sein und aufzeigen, welche Optionen zum Klimaschutz die besten in Hinblick auf Biodiversität sind – eine Hilfe für uns die Vision der CBD 2050 zu erfüllen, im Einklang mit der Natur zu leben.


[1] IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren

[2] Leclere, D., et al. (2020). Bending the curve of terrestrial biodiversity needs an integrated strategy. Nature 585 551-556. 10.1038/s41586-020-2705-y. (accepted version, Lizenz: cc-by-nc)

[3] Díaz, S. et al. (2020). Set ambitious goals for biodiversity and sustainability. Science 370 (6515) 411-413. 10.1126/science.abe1530

[4] Strassburg, B.B.N., et al. (2020). Global priority areas for ecosystem restoration. 10.1038/s41586-020-2784-9

[5] Jung, M.,  et al. (2020). Areas of global importance for terrestrial biodiversity, carbon, and water (Submitted)

[6] EuropaBON: Europa Biodiversity Observation Network: integrating data streams to support policy.  https://cordis.europa.eu/project/id/101003553/de

[7] Falster, D., et al., (2017). Multitrait successional forest dynamics enable diverse competitive coexistence. Proceedings of the National Academy of Sciences 114 (13) 2719-2728. 10.1073/pnas.1610206114 (accepted version, Lizenz: cc-by-nc)


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel von Stephen Battersby ist am 17. Juni 2021 im Option Magazin des IIASA unter dem Titel: "Defense of the natural realm" https://iiasa.ac.at/web/home/resources/publications/options/s21-defense-of-the-natural-realm.html erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

IIASA :  https://iiasa.ac.at/

Convention on Biological Diversity; homepage: https://www.cbd.int/

inge Thu, 29.07.2021 - 00:34

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Do, 23.07.2021 — Redaktion

RedaktionIcon Gehirn

  Seit den Anfängen von ScienceBlog.at gehört das Gehirn zu unseren wichtigsten Themen. Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Die bisherigen Artikel sind nun in einem Schwerpunkt zusammengefasst, der laufend ein Update erfahren soll.  

Vor Verletzungen, Stößen und Erschütterungen durch starke Schädelknochen und die Einbettung ins Hirnwasser (Liquor cerbrosinalis) geschützt, ist das empfindliche, weiche Gehirn ununterbrochen damit beschäftigt Wahrnehmungen und Reize aus der Umwelt und aus dem Körper zu verarbeiten. Rund 86 Milliarden unterschiedliche Neuronen (die meisten davon im Kleinhirn) sind über 1000 Billionen Synapsen verkabelt; die entsprechenden Nervenfasern weisen insgesamt eine Länge von über 5 Millionen km auf. Sie bestimmen was wir wahrnehmen, was wir fühlen, was wir denken, woran wir uns erinnern, wie wir lernen und wie wir schlussendlich (re)agieren.

Die zweiten zellulären Hauptkomponenten des Gehirns-zahlenmäßig etwa gleich viele wie Neuronen - sind unterschiedliche Typen sogenannter Gliazellen. Ursprünglich als inaktiver Kitt zwischen den Neuronen betrachtet, weiß man nun, dass Gliazellen wesentlich in die Funktion des Gehirns involviert sind - Oligodendrozyten in die Ausbildung der Myelinscheide, die als Isolator die Axone ummantelt, Mikroglia fungieren als Immunabwehr, Astrozyten regulieren u.a. das Milieu im extrazellulären Raum.

Neue Verfahren

haben in den letzten Jahrzehnten der Hirnforschung einen außerordentlichen Impetus gegeben. Mit Hilfe bildgebender Verfahren und hochsensitiver Färbetechniken ist es nun möglich, den Verlauf einzelner Neuronen samt aller ihrer Verbindungen und dies auch dynamisch zu verfolgen. (Dazu im ScienceBlog: Das Neuronengeflecht entwirren - das Konnektom)

Beispielsweise ist die Diffusions Tensor Traktographie ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern, d.i. in den Axonen, misst und so deren Position und Verlauf dreidimensional abbilden kann, also von wo nach wo Informationen fließen können. Das nicht-invasive Verfahren liefert sowohl der Grundlagenforschung (u.a. im Connectome-Projekt) als auch der medizinischen Anwendung - hier vor allem zur präoperativen Bildgebung von Gehirntumoren und Lokalisierung von Nervenschädigungen - grundlegende Informationen. Abbildung 1.

Abbildung 1. Reise durch das menschliche Gehirn - Visualisierung des Verlaufs von Nervenbahnen mittels Diffusions Tensor Traktographie (ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern misst). Oben: Nervenfaserbündel im Limbischen System (links) und visuelle Nervenfasern von den Augen zum Hinterhauptslappen (rechts).Unten: Nervenbündel des Corpus callosum (grün, links), die die Kommunikation zwischen den Hirnhälften ermöglichen und viele Nervenbündel, die kortikale und subkortikale Regionen verbinden (links, rechts). Screen Shots aus einem preisgekrönten Video. Die Farben zeigen den Verlauf der Nervenfasern(Hauptrichtung der Diffusion); rot: von links nach rechts, grün: von vorn nach hinten, blau: von oben nach unten. (Quelle: Francis S. Collins (2019) https://directorsblog.nih.gov/2019/08/20/the-amazing-brain-mapping-brain-circuits-in-vivid-color/*)

Optogenetik - von der Zeitschrift Nature als Methode des Jahres 2010 gefeierte Strategie - benutzt Licht und genetisch modifizierte, lichtempfindliche Proteine als Schaltsystem, um gezielt komplexe molekulare Vorgänge in lebenden Zellen und Zellverbänden bis hin zu lebenden Tieren sichtbar zu machen und zu steuern. (Dazu im ScienceBlog: Optogenetik erleuchtet Informationsverarbeitung im Gehirn)

Mit Hilfe der Positronenemissionstomographie (PET) kann nichtinvasiv der Hirnstoffwechsel dargestellt und krankhafte Veränderungen mittels der gleichzeitig durchgeführten Computertomographie (CT) lokalisiert werden.

Internationale Großprojekte

Eine enorme Förderung hat die Hirnforschung durch längerfristige internationale Initiativen erfahren wie das von 2013 bis 2022 laufende europäische Human Brain Project , für das rund 1,2 Milliarden € veranschlagt sind und an dem mehr als 500 Wissenschafter von über 140 Universitäten und anderen Forschungseinrichtungen zusammenwirken (https://www.humanbrainproject.eu/en/about/overview/). Das Ziel ist das gesamte Wissen über das menschliche Gehirn zusammenzufassen und es mittels Computermodellen auf allen Ebenen von Molekülen, Genen, Zellen und Funktionen nachzubilden. In der nun angelaufenen letzten Phase des Projekts sollen vor allem die Netzwerke des Gehirns, deren Rolle im Bewusstsein und künstliche neuronale Netzwerke im Fokus stehen.

Eine weiteres, mit 1,3 Milliarden $ gefördertes 10-Jahres Programm ist The Brain Initiative https://braininitiative.nih.gov/ . Es wird von den US National Institutes of Health (NIH) realisiert und läuft von 2016 bis 2025. In den ersten Jahren wurde hier der Fokus auf neue Technologien gelegt, die nun angewandt werden, um die Aktivitäten aller Zellen im lebenden Hirn zu erfassen, die biologische Basis mentaler physiologischer und pathologischer Prozesse zu verstehen und darauf aufbauend therapeutische Anwendungen für bislang unbehandelbare Hirnerkrankungen zu schaffen.

Abbildung 2. "Neuroscience Fireworks". Zur Feier des „Independence Day“ in den US am 4. Juli zeigt Francis S. ein Feuerwerk von Neuronen in verschiedenen Hirnarealen der Maus. Mittels Lichtscheibenfluoreszenzmikroskopie wird eine 3D-Auflösung in zellulärem Maßstab erreicht: man sieht die rundlichen Zellkörper und die davon ausgehenden Axone, welche die Signale weiterleiten. Links oben: Der Fornix - Nervenfasern, die Signale vom Hippocampus (Sitz des Gedächtnisses) weiterleiten. Rechts oben: Der Neocortex - Zellen im äußeren Teil der Großhirnrinde, die multisensorische, mechanische Reize weitergeben . Links unten: Der Hippocampus - die zentrale Schaltstelle des limbischen Systems. Rechts unten: Der corticospinale Trakt, der motorische Signale an das Rückenmark weiterleitet. (Quelle: Video von R. Azevedo, S. Gandhi, D. Wheeler in https://directorsblog.nih.gov/2021/06/30/celebrating-the-fourth-with-neuroscience-fireworks/*).

Francis S. Collins, Direktor der NIH, hat in seinem Blog kürzlich ein faszinierendes Video gepostet, das Lichtscheibenfluoreszenzmikroskopie anwendet (für hohe Auflösung werden dabei nur sehr dünne Gewebeschichten ausgeleuchtet), um Neuronen in verschiedenen Gehirnarealen der Maus darzustellen. Abbildung 2 zeigt einige Screenshots dieser "Neuroscience Fireworks" (Collins).

Ein Meilenstein wurde kürzlich im Allen Institute for Brain Science in Seattle erreicht: Ein Kubikmillimeter Mäusehirn mit rund 100 000 Neuronen und 1 Milliarde Synapsen wurde anhand von mehr als 100 Millionen Bildern digitalisiert und kartiert.

---------------------------------------------------------------------------

*Die Wiedergabe von im NIH Director’s Blog erschienenen Artikeln/Inhalten von Francis S.Collins wurde ScienceBlog.at von den National Health Institues (NIH) gestattet.


Das Gehirn - Artikel im ScienceBlog

Komponenten

Susanne Donner, 08.04.2016: Mikroglia: Gesundheitswächter im Gehirn

Reinhard Jahn, 30.09.2016: Wie Nervenzellen miteinander reden

Inge Schuster, 13.09.2013: Die Sage vom bösen Cholesterin

Inge Schuster, 08.12.2016: Wozu braucht unser Hirn so viel Cholesterin?

Nora Schultz, 24.12.2020: Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Hinein ins Gehirn und heraus

Redaktion, 06.02.2020: Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Redaktion, 19.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Informationsverarbeitung

Michael Simm, 06.05.2021: Das Neuronengeflecht entwirren - das Konnektom

Wolf Singer, 05.12.2019: Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Wolf Singer & Andrea Lazar, 15.12.2016: Die Großhirnrinde, ein hochdimensionales, dynamisches System

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Ruben Portugues, 22.04.2016: Neuronale Netze mithilfe der Zebrafischlarve erforschen

Nora Schultz, 20.02.2020: Die Intelligenz der Raben

Körper - Hirn

Francis S. Collins, 15.07.2016: Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis

Nora Schultz, 31.10.2019: Was ist die Psyche

Ilona Grunwald Kadow, 11.05.2017: Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Francis S. Collins, 17.10.2019: Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Jochen Müller, 19.11.2020: Warum essen wir mehr als wir brauchen?

Francis S. Collins, 25.01.2018: Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Nora Schultz, 02.06.2018: Übergewicht – Auswirkungen auf das Gehirn

Redaktion, 29.06.2017: Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Schmerz

Gottfried Schatz, 30.8.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

Nora Schultz, 10.11.2016: Vom Sinn des Schmerzes

Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffern

Susanne Donner, 16.02.2017: Placebo-Effekte: Heilung aus dem Nichts

Schlaf

Henrik Bringmann, 25.05.2017: Der schlafende Wurm

Niels C. Rattenborg, 30.08.2018: Schlaf zwischen Himmel und Erde

Sinneswahrnehmung

Dazu existiert ein eigenerSchwerpunkt: Redaktion, 25.04.2014: Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt

Susanne Donner, 11.01.2018: Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Michael Simm, 24.01.2019: Clickbaits - Köder für unsere Aufmerksamkeit

Erkrankungen

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

-----------------------------------------------

Redaktion, 22.03.2018: Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Ricki Lewis, 02.11.2017: Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Gottfried Schatz, 26.07.2012: Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?

Nora Schultz, 15.12.2017: Multiple Sklerose - Krankheit der tausend Gesichter

Francis S. Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Hans Lassmann, 14.07.2011: Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

Entwicklung, Evolution

Nora Schultz, 11.06.2020: Von der Eizelle zur komplexen Struktur des Gehirns

Susanne Donner, 05.08.2016: Wie die Schwangere, so die Kinder

Nora Schultz, 19.08.2017: Pubertät - Baustelle im Kopf

Redaktion, 03.08.2017: Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrag

Nora Schultz, 25.10.2018: Genies aus dem Labor

IngeSchuster, 12.12.2019; Transhumanismus - der Mensch steuert selbst siene Evolution

--------------------------------------------------

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur


 

Weiterführende Links

dasGehirn.info (https://www.dasgehirn.info/) eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Einige Videos von dieser Plattform:

  • Das Connectome. dasGehirnInfo. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto
  • Neuron ≠ Neuron. das Gehirn.info. Video 4:41 min. 1.12.2020. https://www.youtube.com/watch?v=fel3lOrPXpQ&t=252s
  • Die Welt der Gliazellen. das Gehirn.info. Video 3:37 min. https://www.youtube.com/watch?v=BGUpadTW3DE

.

The Brain Research Through Advancing Innovative Neurotechnologies® (BRAIN) https://braininitiative.nih.gov/  Initiative is aimed at revolutionizing our understanding of the human brain

 

inge Fri, 23.07.2021 - 18:30

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Do, 15.07.2021 — Martin Kaltenpoth Martin KaltenpothIcon Biologie

Das Unkrautvernichtungsmittel Glyphosat hemmt die Biosynthese der Aminosäuren Tyrosin, Phenylalanin und Tryptophan (den sogenannten Shikimatweg), die in Pflanzen und vielen Mikroorganismen, nicht aber in Tieren vorkommt. Insekten, die mit Bakterien in Symbiose leben, können von diese mit solchen Nährstoffen versorgt werden. In einer aktuellen Studie zeigt nun ein Team um Prof. Martin Kaltenpoth (Max-Plack-Institut für chem. Ökologie, Jena, Universität Mainz und AIST, Japan) am Beispiel des Getreideplattkäfers, dass Glyphosat indirekt über die Hemmung des bakteriellen Partners auch die Entwicklung des Insekts schädigt, dem nun die Bausteine zur Bildung des Außenskeletts (Kutikula) fehlen [1]. Auf diese Weise dürfte Glyphosat zum dramatischen Rückgang auch vieler anderer Insekten beitragen, die au f die Symbiose mit Bakterien angewiesen sind.* 

Zu Glyphosat: Fünf Fragen an Martin Kaltenpoth

Host Rösch: Herr Kaltenpoth, Sie haben in Ihrer Studie gezeigt, dass Glyphosat Getreideplattkäfern schadet. Einer anderen Studie zufolge wirkt sich die Substanz negativ auf Honigbienen aus. Welche Insekten konnten noch betroffen sein?

Martin Kaltenpoth: Im Detail wissen wir das noch nicht. Aber Glyphosat könnte vielen Insekten schaden, die auf Symbiosebakterien angewiesen sind. Dazu zählen Arten, die sich von Pflanzensäften ernähren, also zum Beispiel Blattläuse, Zikaden oder Wanzen. Aber auch viele Käfer-, Bienen- und Ameisenarten beherbergen Symbionten und könnten von Glyphosat betroffen sein.

H.R.: Glyphosat galt als ein reines Pflanzenvernichtungsmittel. Warum wirkt es auch auf Insekten?

M.K.: Es hemmt den sogenannten Shikimat-Stoffwechsel, mit dem Pflanzen unter anderem aromatische Aminosäuren herstellen. Abbildung 1.

Abbildung 1: Biosynthese der aromatischen Aminosäuren Tryptophan, Tyrosin und Phenylalanin ausgehend von Phosphoenolpyruvat (Metabolit der Glykolyse) und Erythrose-4-Phosphat (Metabolit des Pentosephosphatwegs) über den vielstufigen Shikimatweg. Links: Glyphosat blockiert den ersten Schritt dieses Wegs auf Grund seiner chemischen Ähnlichkeit mit Phosphoenolpyruvat. Rechts: der Wirtsorganismus liefert dem Symbionten Glukose-6-phosphat und versorgt diesen mit den aromatischen Aminosäuren (Bild von der Redn. eingefügt).

Aber nicht nur Pflanzen, sondern auch manche Bakterien und Pilze nutzen diesen Stoffwechselweg. Insekten, die ihren Bedarf an aromatischen Aminosäuren wie dem Tyrosin nicht mit ihrer Nahrung decken können, beherbergen Bakterien in speziellen Organen für die Aminosäure-Produktion. Sie leben mit diesen in Symbiose. Glyphosat wirkt auf diese Mikroben wie ein Antibiotikum: Nachdem die Insekten das Gift über die Nahrung aufgenommen haben, verteilt es sich im Körper und tötet die innerhalb der Zellen der Symbioseorgane lebenden Bakterien. Abbildung 2. Ohne ihre Partner fehlt den Insekten das Tyrosin für die Bildung des Außenskeletts. Die Folge ist, dass sie schneller austrocknen und leichter von Feinden gefressen werden können. Bei den Bienen schädigt das Mittel nicht Bakterien in Symbioseorganen, sondern in der Darmflora. Die Bienen werden dadurch anfälliger für Krankheitserreger.

Abbildung 2: Der Getreideplattkäfer (Oryzaephilus surinamensis), der in enger Symbiose mit Bakterien vom Stamm Bacteroidetes lebt. Unten: Längsschnitt durch die 5 Tage alte Puppe des Käfers zeigt Organe, welche die Symbionten enthalten (mit Fluoreszenzfarbstoff markiert, purpurfarben). Weiße Punkte: Dapi-markierte Zellkerne. (Bild von Redn, eingefügt; oben aus Wikipedia Clemson University - USDA Cooperative Extension Slide Series, Bugwood.org - http://www.insectimages.org/browse/detail.cfm?imgnum=1435099. Unten: aus [1], Kiefer et al., https://doi.org/10.1038/s42003-021-02057-6. Beide Bilder stehen unter cc-Lizenz).

H.R.: Glyphosat ist seit Jahrzehnten auf dem Markt. Worauf musste man in Zukunft bei der Zulassung von Pestiziden achten, um die Auswirkungen auf andere Organismen frühzeitig zu erkennen?

M.K.: Man sollte die Wirkung von Pestiziden in Zukunft an einer größeren Anzahl unterschiedlicher Arten testen. Insekten sind eben nicht alle gleich, und was die eine Art toleriert, kann der anderen massiv schaden. Außerdem wissen wir heute, dass die Fokussierung auf die mittlere letale Dosis – also die Konzentration, bei der die Hälfte der Testorganismen stirbt – nicht ausreicht. Die Hersteller von Pestiziden müssen Effekte stärker berücksichtigen, die nicht direkt zum Tod führen. Zum Glück findet diese Erkenntnis bei der Risikobewertung zunehmend Beachtung.

H.R.: Auch für uns Menschen sind die Mikroorganismen lebenswichtig. Welche Folgen könnten Rückstande des Pestizids für unsere Darmflora haben?

M.K.: Auch manche Bakterien im menschlichen Darm nutzen den Shikimat-Stoffwechsel. Sie könnten also durchaus von Glyphosat beeinträchtigt werden. Studien haben nachgewiesen, dass das Mittel die Darmflora von Mäusen und Ratten in für Menschen als akzeptabel angenommenen Konzentrationen beeinflussen kann. Ob eine Glyphosat-bedingte Veränderung der Darm-Mikrobiota möglicherweise auch für Menschen Folgen hat und, wenn ja, welche, ist noch unklar.

H.R.: Bislang ging man davon aus, dass sich Glyphosat allenfalls indirekt auf Insekten auswirkt, indem es zum Beispiel ihre Nahrungspflanzen vernichtet. Angesichts der neuen Erkenntnisse: Könnte das Mittel ein Grund für das grassierende Insektensterben sein?

M.K.; Das Insektensterben hat sicherlich verschiedene Ursachen. Klar ist aber, dass viele Insekten Symbiosebakterien zum Überleben brauchen. Ich befürchte daher, dass Glyphosat zum Rückgang der Insekten beitragen könnte. Deshalb halte ich den weiteren Einsatz auch für bedenklich. Wenn wir aber auf Pestizide verzichten wollen, dann müssen wir über Alternativen diskutieren, zum Beispiel über den Einsatz gentechnisch veränderter Pflanzen. Leider findet diese Diskussion derzeit kaum statt.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] Julian Simon Thilo Kiefer et al., Inhibition of a nutritional endosymbiont by glyphosate abolishes mutualistic benefit on cuticle synthesis in Oryzaephilus surinamensis. Communications Biology, https://doi.org/10.1038/s42003-021-02057-6


*Das Interview mit Martin Kaltenpoth ist im Wissenschaftsmagzin-MaxPlanckForschung 02/2021 https://www.mpg.de/17175805/MPF_2021_2 unter: „Fünf Fragen zu Glyphosat an Martin Kaltenpoth“ erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle von ScienceBlog.at weiterverbreitet werden. Der Text wurde unverändert übernommen, zwei Abbildungen (plus Legenden) wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Chemische Ökologie (ice.mpg; Jena): https://www.ice.mpg.de/ext/index.php?id=home0&L=1

Ergänzung des Interviews (ice.mpg): "Die Achillesferse eines Käfers: Glyphosat hemmt symbiotische Bakterien von Getreideplattkäfern" (11.Mai 2021) https://www.ice.mpg.de/ext/index.php?id=1686&L=1

inge Wed, 14.07.2021 - 23:55

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Do, 08.7.2021 — Redaktion

RedaktionIcon Medizin

  Die Entstehung von Antibiotika-resistenten Bakterien, die derzeit bereits rund 700 000 Menschen jährlich töten und der Mangel an neuen wirksamen Antibiotika hat das Interesse an einer Phagentherapie wieder aufleben lassen. Worum es dabei geht hat und dass diese Therapieform leider noch in den Kinderschuhen steckt, hat die renommierte Virologin Karin Moelling vor zwei Jahren im ScienceBlog berichtet [1, 2]. Nun entwickelt das französische Unternehmen Pherecydes Pharma - unterstützt durch das EU-Projekt PhagoProd – verbesserte qualitätskontrollierte Verfahren zur Selektion, Produktion und klinischen Anwendung von Phagen. Ein weiteres EU-Projekt BactiVax möchte Infektionen vorbeugen und Vakzinen gegen geeignete Zielproteine an der Bakterienoberfläche entwickeln.* 

Anlässlich seines Nobelpreisvortrags über die Entdeckung des Penicillins im Dezember 1945 hat Dr. Alexander Fleming davor gewarnt, dass Bakterien gegen das Medikament resistent werden könnten, sofern sie nicht tödlichen Mengen ausgesetzt würden. „Es ist nicht schwierig, Mikroben im Labor gegen Penicillin resistent zu machen, indem man sie Konzentrationen aussetzt, die nicht ausreichen, um sie abzutöten, und das gleiche ist gelegentlich im Körper passiert“, sagte er.

Seine Warnung erwies sich als weitblickend. Heutzutage sind viele Bakterien gegen mehrere Antibiotika resistent und damit infizierte Patienten daher schwer zu behandeln. Dies passiert, weil Bakterien bei Anwendung von Antibiotika Wege entwickeln, um deren Wirkung zu eliminieren, zu blockieren oder zu umgehen.

Die Folgen für die menschliche Gesundheit sind schwerwiegend. Jedes Jahr sterben schätzungsweise 700.000 Menschen an antibiotikaresistenten Keimen. Die Weltgesundheitsorganisation (WHO) prognostiziert, dass bis 2050 an die 10 Millionen Todesfälle pro Jahr erreicht werden, wenn sich nichts ändert [3].

Erschwerend kommt hinzu, dass wir neue Antibiotika nicht schnell genug entwickeln. Von 43 in der Entwicklung befindlichen Antibiotika handelt es sich laut einer aktuellen WHO-Überprüfung nicht um neuartige Medikamente, die eine Gruppe von prioritären arzneimittelresistenten Bakterien adäquat bekämpfen. Tatsächlich wurde seit den 1980er Jahren keine neue Klasse von Antibiotika auf den Markt gebracht, die die problematischsten Bakterien bekämpft, die meistens einer Gruppe von sogenannten Gram-negativen Bakterien angehören.

„Die niedrig hängenden Früchte sind bereits gepflückt. Jetzt wird es mehr und mehr schwierig neue Antibiotika zu entdecken“, sagte Dr. Guy-Charles Fanneau de la Horie, CEO von Pherecydes Pharma, einem Biotech-Unternehmen in Frankreich.

Eine Alternative zur Suche nach neuen Medikamenten ist die Verwendung von Viren, die als Bakteriophagen (oder Phagen) bezeichnet werden und deren Opfer Bakterien sind. Abbildung 1. Sobald Phagen auf Bakterien landen, injizieren sie diesen ihre DNA und replizieren sich in ihnen. Bald platzen daraus ganze Virushorden hervor, um weitere Bakterien zu infizieren.

Abbildung 1.Bakteriophagen (oder Phagen) erbeuten Bakterien. Sobald Phagen auf Bakterien landen, injizieren sie ihnen DNA und replizieren sich in ihnen. Bildnachweis - ZEISS Microscopy, lizenziert unter CC BY-NC-ND 2.0

Keimtötende Viren

Pherecydes, das Unternehmen von Dr. de la Horie, ist auf die Herstellung solcher Phagen fokussiert und deren Anwendung an Patienten, die mit arzneimittelresistenten Bakterien infiziert sind. Seine Phagen töten drei Bakterienarten, die für ihre Resistenz gegen sogenannte first-line Antibiotika bekannt sind – Staphylococcus aureus, Escherichia coli und Pseudomonas aeruginosa. Dies sind die Hauptverantworlichen für viele arzneimittelresistente Infektionen in Krankenhäusern, wo ja die gefährlichsten Keime leben, merkt Dr. de la Horie an.

Die Anwendung von Phagenviren an Patienten sollte absolut sicher sein, da diese menschliche Zellen ja nicht angreifen. Und im Gegensatz zu vielen Antibiotika, die gegen Massen von Bakterienarten wirken, sind Phagen gezielter und töten keine „freundlichen“ Mikroben in unserem Darm. „Sie sind sehr spezifisch“, sagt Dr. de la Horie. „Beispielsweise hat ein Phage, der S. aureus abtötet, keine Wirkung auf Pseudomonas.“

Damit er eine präzise Waffe zur Abtötung entsprechender Bakterien ist, muss ein passender Phage sorgfältig ausgewählt werden. Dementsprechend hat Pherecydes den Kriterien der Qualitätskontrolle unterliegende Labors ("GMP-Konformität) etabliert, um Patientenproben zu analysieren, Problemkeime zu prüfen und einen spezifischen Phagen auszuwählen, um diese abzutöten.

„Wir haben eine kleine Anzahl von Phagen entdeckt, die wir Superphagen nennen, weil sie gegen eine Vielzahl von Stämmen derselben Spezies aktiv sind“, sagt Dr. de la Horie. Wenn ein Patient Pseudomonas aeruginosa hat, einen bösartigen Keim, der Patienten an Beatmungsgeräten häufig infiziert, werden Phagen angewandt, die mehr als 80% der Stämme abtöten

Die Phagentherapie ist von der Europäischen Arzneimittel-Agentur (EMA) noch nicht zugelassen. Pherecydes hat allerdings Patienten nach der Option „compassionate use“ mit Phagen behandelt, die nach Knie- oder Hüftoperationen Infektionen mit arzneimittelresistenten Bakterien entwickelten und bei denen andere Behandlungsmöglichkeiten versagten. Es sind dies Infektionen, die besonders schwer mit Antibiotika zu behandeln sind und kein gerade kleines Problem darstellen. „Zwischen 2 % bis 5 % der Gelenkersatzteile für Hüfte und Knie infizieren sich“, erklärt Dr. de la Horie.

Bis jetzt hat das Unternehmen mehr als 26 Patienten mit Phagen behandelt, hauptsächlich im Hospices Civils de Lyon (der sehr großen, zweiten Universitätsklinik Frankreichs). Berichte zeigen beispielsweise, wie dort drei ältere Patienten mit einer S. aureus-Infektion der Knieprothesen sowie ein Patient mit persistierender Pseudomonas-Infektion behandelt wurden. Es ist geplant, noch in diesem Jahr eine Studie zu Gelenkinfektionen nach Hüft- und Knieoperationen zu starten.

Außerdem hat das Unternehmen – unterstützt durch das EU-Projekt PhagoProd  [4]– verbesserte Herstellungsverfahren für Phagen entwickelt. Nun werden Litermengen hergestellt, es ist aber geplant, dies auf Chargen von mehreren zehn Litern zu erhöhen. Ein Milliliter in einer Flasche kann 10 Milliarden Phagen enthalten.

Dazu kommt: Wenn Phagen einem Patienten injiziert oder auf infiziertes Gewebe aufgebracht werden, vermehren sie sich in den Zielbakterien, sodass später mehr von ihnen zum Abtöten von Bakterien zur Verfügung stehen. „Sobald man die Phagen mit Bakterien in Kontakt gebracht hat, braucht man keine Phagen mehr zuzufügen, da sie sich selbst vermehren“, sagt Dr. de la Horie.

Dr. de la Horie hofft, dass 2023 eine große Patientenstudie beginnen kann. „Wir glauben, dass unsere Produkte frühestens 2024 oder vielleicht 2025 auf den Markt kommen könnten“, sagt er.

Vorbeugen, nicht heilen

Mit der Herausforderung antibiotikaresistenter Infektionen befasst sich auch BactiVax [5], ein weiteres EU-Projekt, zu dessen Zielen u.a. einer der Problemkeime – Pseudomonas aeruginosa – gehört. Abbildung 2. Anstatt Phagen oder andere Methoden anzuwenden, um Infektionen in ihrer Entstehung zu behandeln, setzen die BactiVax -Forscher jedoch auf Impfstoffe.

Abbildung 2.Das EU-Projekt Bactivax - Impfungen gegen Problemkeime. https://www.bactivax.eu/the-project

Pseudomonas peinigt Patienten auf der Intensivstation, Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) und Patienten mit Mukoviszidose.

Pseudomonas kann chronische Infektionen und auch schwere Infektionen verursachen. „Es ist ein ziemlich häufig vorkommender Keim, der manchmal auch nicht wirklich Schaden zufügt", sagt Irene Jurado, Doktorandin am University College Dublin in Irland, „aber für Menschen mit Grunderkrankungen kann er ein Problem sein.“

Wenn ein Kind mit Mukoviszidose im Alter von 5 oder 6 Jahren mit einigen solcher Stämme infiziert wird, kann der Keim ein Leben lang in der Lunge verbleiben, die Atmung schwierig machen und schwer krank machen, fügt sie hinzu.

Pseudomonas besitzt ein großes Genom, das ihm viel Flexibilität verleiht  sich an verschiedene Herausforderungen anzupassen (darüber hat Jurado kürzlich berichtet). Dies macht Pseudomonas besonders gewandt, um Antibiotikaresistenzen zu entwickeln. So haben Forscher zwar jahrzehntelang versucht, Impfstoffe gegen Pseudomonas zu entwickeln, sind aber erfolglos geblieben.

Jurado untersucht nun die Proteine, mit denen sich das Bakterium an Lungenzellen anheftet. Dies könnte entscheidende Komponenten für einen Impfstoff liefern - genauso wie das SARS-CoV-2-Spike-Protein in Covid-19-Impfstoffen ein Target für unser Immunsystem darstellt. Abbildung 3.

Abbildung 3.Pseudomonas aeruginosa besitzt ein großes Arsenal an Virulenz-Faktoren (hier nicht näher erläutert), die in die Pathogenese der Lungeninfektion involviert sind. Die mit Spritzen gekennzeichneten Komponenten wurden bereits als Vakzinen-Antigene evaluiert. (Quelle: Maite Sainz-Mejíaset al., Cells2020,9, 2617; doi:10.3390/cells9122617. Lizenz: cc-by)

„Wir versuchen herauszufinden, welche Immunantworten erforderlich sind, um Menschen vor Infektionen zu schützen“, erklärt Dr. Siobhán McClean, Immunologin am University College Dublin, Irland, die BactiVax leitet. Die Proteine, mit denen Bakterien an unseren Zellen andocken, sind oft gute Ziele für Vakzinen. Beispielsweise verwendet der Keuchhusten-Impfstoff fünf verschiedene Proteine, mit denen sich die Bakterien an den Zellen in unserem Rachen anheften.

Leider ist Pseudomonas ein härterer Feind als das Covid-19-Virus, da das Bakterium Dutzende von Proteinen an seiner Oberfläche aufweist. Damit ist es weniger offensichtlich, was in einen Impfstoff Eingang finden sollte, als beim Pandemievirus, bei dem das Spike-Protein das Ziel der Wahl ist.

Die Forscher finden jedoch, dass ein Impfstoff den Aufwand lohnt. „Falls wir einen Impfstoff zur Prävention von Infektionen bekommen, ist diese unserer Meinung nach besser als ständig zu versuchen, (problematische Infektionen) mit Antibiotika zu behandeln“, sagt Dr. McClean. "Wir sind auf eine eiserne Reserve an Antibiotika angewiesen, und wenn diese aufgebraucht sind, stecken wir fest."


  1.  Karin Moelling, 29.08.2019: Ein Comeback der Phagentherapie?
  2. Karin Moelling, 4.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?
  3. WHO: https://www.who.int/news/item/29-04-2019-new-report-calls-for-urgent-action-to-avert-antimicrobial-resistance-crisis
  4. PhagoProd: GMP manufacturing & GLP diagnostic: Towards a personalised phage therapy against antimicrobial resistance. Project 01.11.2018 - 31.12.2021. https://cordis.europa.eu/project/id/811749  
  5.  BactiVax: anti-Bacterial Innovative Vaccine Training Network. Project 01.10.2019 - 30.09.2023.https://cordis.europa.eu/project/id/860325

* Dieser Artikel wurde ursprünglich am 28. Juni 2021 von Anthony King in Horizon, the EU Research and Innovation Magazineunter dem Titel "More bacteria are becoming resistant to antibiotics – here's how viruses and vaccines could help" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und 3 plus Beschriftungen wurden von der Redaktion eingefügt.


 

inge Thu, 08.07.2021 - 00:05

Comments

Rita Bernhardt (not verified)

Fri, 24.09.2021 - 09:11

Ein (wie immer) zukunftsweisender, spannender und kluger Beitrag der Autorin Inge Schuster

Hyaluronsäure - Potential in Medizin und Kosmetik

Hyaluronsäure - Potential in Medizin und Kosmetik

So 04.07.2021.... Inge Schuster Inge SchusterIcon Medizin

Chemisch betrachtet ist Hyaluronsäure ein ganz einfaches Molekül: ein natürliches, in unseren Organismen vorkommendes Biopolymer, das aus zwei miteinander verknüpften, sich wiederholenden Zuckerresten (d.i. einem Disaccharid) besteht, die enorm viel Wasser binden können. Als eine wesentliche Komponente des extrazellulären Raums hält Hyaluronsäure unsere Gewebe - Haut, Knorpel, Gelenke - feucht und straff, eine Fähigkeit, die aber mit zunehmendem Alter leider abnimmt. Unterschiedlichste Anwendungen in der Medizin und vor allem im Kosmetiksektor boomen derzeit; für 2027 wird global ein Umsatz von mehr als16 Milliarden US $ prognostiziert.

Seit ihrer Entdeckung im Glaskörper von Kuhaugen vor fast 90 Jahren ist das Interesse an Hyaluronsäure und ihren möglichen Anwendungen in Medizin und Kosmetik enorm gestiegen. Unter dem Stichwort "hyaluronic acid" verzeichnet PubMed.gov - die US-Amerikanische Datenbank für Biomedizinische Publikationen - aktuell insgesamt 31 350 wissenschaftliche Artikel , wobei mehr als 2 000 Artikel jährlich dazukommen, die globale Datenbank https://clinicaltrials.gov/ nennt 519 klinische Studien, die von ästhetischer Medizin über Arthrosen bis hin zu Wundheilung reichen und Google schließlich listet unüberschaubare 50,9 Millionen Einträge und nahezu 2 Millionen Videos, die meisten davon bewerben Cremen, Seren und Haut-Füller, die eine faltenfreie jugendliche Haut versprechen. Sie lassen den an seriöser Information interessierten Laien einigermaßen ratlos zurück.

Hyaluronsäure boomt - dies spiegelt sich im Marktgeschehen wider. Neben zahlreichen kleineren Unternehmen sind auch "Big Player" in Pharma - beispielsweise Allergan, Galderma und Sanofi - am Hyaluron-Business beteiligt. Laut dem Marktforschungsunternehmen Grand View Research dürfte 2020 der globale Markt für medizinische Hyaluronsäure(produkte) bei etwa US $ 9,6 Mrd. liegen und bis 2027 wird eine Steigerung auf US $ 16,5 Mrd erwartet. Unter den Anwendungen dominieren derzeit Osteoarthritis (rund 41 % des Markts) und "Hautfüller" (rund 30 % des Markts). Die prognostizierten hohen Wachstumsraten sind auf den stark ansteigenden Anteil der älteren/geriatrischen Bevölkerung zurückführen, die sich von Hyaluronsäure, angewandt mit minimal invasiven Methoden, eine Besserung ihres Bewegungsapparats und eine Verjüngung ihres äußeren Erscheinungsbildes erhofft.

Was ist Hyaluronsäure?

Es ist ein langkettiges, lineares Biopolymer, das in allen Wirbeltieren produziert wird und in nahezu allen Teilen des Körpers vorhanden ist (s.u.). Hyaluronsäure setzt sich aus zwei sich wiederholenden, von Glukose abgeleiteten Einheiten, sogenannten Disacchariden - Glukuronsäure und Acetylglukosamin - zusammen. Die Säuregruppen der Glukuronsäure machen das Polymer zum Polyanion. Die Fülle an hydrophilen (d.i. mit Wasser wechselwirkenden) Gruppen (Hydroxyl-, Caboxyl- und Acetamidgruppen) kann über Wasserstoffbrücken in der Molekülkette selbst miteinander interagieren und im wässrigen Milieu enorme Mengen an Wassermolekülen anlagern (Abbildung 1). Das hochflexible Polymer bildet mit steigender Kettenlänge Knäuel ("random coils"), die über Wasserstoffbrücken temporäre netzförmige Strukturen ausbilden und ein bis zu mehr als Tausendfaches ihres Gewichts an Wasser zu speichern vermögen (1mg Hyaluronsäure bis 6 g Wasser).

Abbildung 1.Hyaluronsäure setzt sich aus sich wiederholenden Disaccharideinheiten - Glukuronsäure und N-Acetylglukosamin - zusammen. Das Disaccharid zeigt die Fülle an hydrophilen Gruppen - -OH-, COO--, C=O-, NH-, - die über Wasserstoffbrücken mit Gruppen in der Kette und auch mit H2O wechselwirken (unten). Rechts: Röntgenstruktur der linearen aus 3 Disacchariden bestehende Kette mit 3 Na-Ionen (lila) und einigen Wassermolekülen (rot). (Quelle links: modifiziert nach T.Kobayashi et al., Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525; Lizenz cc-by und rechts: https://www.rcsb.org/3d-view/1HYA/1).

Diese netzförmigen Strukturen zeichnen sich durch hohe Viskoelastizität aus, d.i. sie können sich schnell neu konfigurieren und so an räumliche Gegebenheiten anpassen (Elastizität) aber auch zu ursprünglichen Konfigurationen zurückkehren (Viskosität). Von der Kettenlänge und Konzentration hängen die physikalischen, chemischen und physiologischen Eigenschaften der Hyaluronsäure ab und diese variieren in den unterschiedlichen Geweben. Die Kettenlänge reicht dabei von Oligomeren, die aus bis zu 20 Disacchariden (Molekulargewicht bis zu 7 600 Da) bestehen, bis hin zu hochmolekularen Polymeren mit über 10 000 Disaccharideinheiten (MW über 4 000 000 Da), wie sie beispielsweise in der Gelenksflüssigkeit (Synovia) vorkommen. Die lange Kettenlänge und hohe Konzentration in der Gelenksflüssigkeit (Abbildung 2) macht Hyaluronsäure zu einem hervorragenden Schmiermittel der Gelenke und bewirkt viskoelastische Eigenschaften bei Bewegungen.

Wo kommt Hyaluronsäure vor?

Insgesamt enthält der Körper eines Erwachsenen (mit rund 70 kg Körpergewicht ) etwa 15 g Hyaluronsäure, die einem raschen Turnover unterliegt: täglich wird etwa ein Drittel abgebaut und wieder neu synthetisiert. Hohe Konzentrationen finden sich (abgesehen von der Nabelschnur) in der Gelenksflüssigkeit, im Glaskörper des Auges und in der Haut (vor allem in der Dermis). Auf Grund ihrer Größe enthält die Haut etwa die Hälfte der im Körper vorhanden Hyaluronsäure. Abbildung 2.

Abbildung 2.Konzentration von Hyaluronsäure (in µg/g) in einigen Geweben des menschlichen Körpers. Angaben beziehen sich auf maximal gemessene Konzentrationen. Daten stammen aus P. Snetkov et al., Polymers 2020, 12, 1800; doi:10.3390/polym12081800 (Artikel steht unter cc-by Lizenz).

Hyaluronsäure ist ein Hauptbestandteil des extrazellulären Raums

und findet sich in nur geringen Mengen in den Körperzellen. In stark hydratisierter Form bildet sie - zusammen mit anderen Polysacchariden, Glykoproteinen und Proteoglykanen (s.u.) - die sogenannte Grundsubstanz, ein viskoses, gelartiges Milieu , das die Zellen umgibt, Wasser im extrazellulären Raum speichert und so die Diffusion von Nährstoffen und Stoffwechselprodukten von und zu den Zellen ermöglicht. Strukturiert durch Kollagenfasern und elastische Fasern wird die Grundsubstanz zur sogenannten extrazellulären Matrix. Aus Grundsubstanz, Faserproteinen und relativ wenigen darin lose liegenden und anhaftenden Zellen setzen sich dann die verschieden Arten der Bindegewebe zusammen. In straffen und lockeren Bindegewebstypen sind Fibroblasten die hauptsächlichen Zelltypen, daneben gibt es auch verschiedene (patrouillierende) Zelltypen des Immunsystems. Abbildung 3.

Abbildung 3.Zwei Typen des Bindegewebes unter dem Mikroskop. Links: Lockeres Bindegewebe, wie es in diversen Zwischenräumen im Körper vorkommt und auch das Gerüst vieler Organe bildet. Es überwiegt hier häufig die Grundsubstanz, die von Kollagenfasern (orangerot gefärbt) und elastischen Fasern (dunkelblau)durchzogen wird. Vereinzelte Zellen (dunkle Kerne) sind lose eingebettet. Rechts: Straffes Bindegewebe mit einem hohen Anteil an Kollagenfasern und weniger Grundsubstanz. Durch die parallele Anordnung in Sehnen und Bändern wird deren Zugfähigkeit erhöht. (Bild: https://en.wikipedia.org/wiki/Connective_tissue#/media/File:Illu_connective_tissues_1.jpg; gemeinfre).

Bindegewebe halten Körperorgane an ihren Positionen, stellen die Verbindung zwischen Blutgefäßen, Lymphgefäßen und Zellen und zwischen verschiedenen Gewebetypen her. Darunter fallen so unterschiedliche Typen wie man sie in der Haut - hier vor allem in der Dermis - findet, im Knorpel, im Gallertkern der Bandscheiben, in der Gelenksflüssigkeit, in den Sehnen, Knochen, in Muskel- und Fettgeweben, im Zahnfleisch, im Auge (Glaskörper), in den Hirnhäuten und im Gehirn. In all den verschiedenen Bindegeweben spielt Hyaluronsäure eine wesentliche Rolle, verleiht diesen (nicht komprimierbares) Volumen, Elastizität, viskoses Verhalten und fungiert u.a. als Stoßdämpfer und als Schmierung. Hyaluronsäure liegt dabei nicht nur als unmodifiziertes Polymer vor, sondern kann auch mit Glykoproteinen verknüpft sein und riesige Aggregate - sogenannte Proteoglykane - bilden (beispielsweise Aggrecan im Knorpel). Hirngewebe zeichnet sich durch geringe Steifigkeit aus - hier enthält die extrazelluläre Matrix nur geringe Mengen an Faserproteinen und hohe Konzentrationen an Hyaluronsäure und Proteoglycanen.

Physiologische Eigenschaften

Über lange Zeit beschränkte sich die Hyaluronsäure-Forschung im wesentlichen auf die biomechanischen, hydrodynamischen und chemischen Eigenschaften des Polymers. Hyaluronsäure vermag wesentlich mehr. Durch spezifische Bindung an Rezeptoren an Zelloberflächen aktiviert sie in den Zellen Signale, welche die dynamischen Eigenschaften von Zellen - wie Motilität, Adhäsion und Proliferation - regulieren können. Hyaluronsäure kann damit in physiologische Prozesse - von Wundheilung bis Morphogenese - involviert sein aber auch zu pathologischen Auswirkungen - Entzündung bis Tumorwachstum - beitragen. Der erste derartige, vor rund 30 Jahren charakterisierte Rezeptor - CD44 -, der auf vielen Zelltypen exprimiert wird aber auch durch einige andere Biomoleküle (z.B. Osteopontin) aktiviert werden kann, spielt u.a. eine wichtige Rolle in der Aktivierung von Lymphozyten. Daneben trägt CD44 wesentlich zum Abbau der Hyaluronsäure bei. Diese wird im Komplex mit CD44Komplex von den Zellen internalisiert ("receptor-mediated endocytosis") und in den Lysosomen enzymatisch von sogenannten Hyaluronidasen zu kleinen, niedermolekularen Bruchstücken abgebaut, die in den zellfreien Raum sezerniert werden. Derartige Abbauprodukte sind biologisch durchaus aktiv und können beispielsweise in Fibroblasten der Dermis und auch in Keratinocyten (den Hauptzellen der Epidermis) die Synthese neuer Hyaluronsäure stimulieren.

In der Folge wurden und werden weitere Rezeptoren für Hyaluronsäure identifiziert wie der Rezeptor für Hyaluronsäure-vermittelte Mobilität (RHAMM), der Endothelzell-Rezeptor der Leber, der Lymphendothelzell-Rezeptor (LYVE-1) u.a.m.

Das an und für sich einfach gestrickte Polymer zeigt eine mehr und mehr komplexe Fülle an Eigenschaften und physiologisch wichtigen Funktionen. Diese sind derzeit Gegenstand intensiver Forschung, versprechen sie doch ein tieferes Verstehen dieser Regulationsvorgänge und damit neue Konzepte und /oder verbesserte Voraussetzungen für medizinische Anwendungen.

Anwendungen

Molekülgröße und Konzentration der Hyaluronsäure sind für die Eigenschaften der extrazellulären Matrix in den verschiedensten Geweben ausschlaggebend und werden durch Synthese und Abbau feinreguliert. Innerhalb von 2 - 3 Tagen erfolgt so ein kompletter Austausch der gesamten Hyaluronsäure.

Mit zunehmendem Alter wird allerdings die Balance zwischen Synthese und Abbau gestört: die Synthese verlangsamt sich (reduzierte Enzymaktivitäten) und der Abbau (enzymatisch aber auch , durch bestimmte Umweltfaktoren verursacht) nimmt zu. Davon betroffen sind die Gelenksflüssigkeit ebenso wie Knorpel, Bandscheiben, Sehnen, Haut, etc. Um die gestörte Balance in der extrazellulären Matrix/ in den Bindegeweben wieder herzustellen, wird versucht die spärlich vorhandene Hyaluronsäure durch Präparate zu substituieren, die häufig biotechnologisch aus Streptokokken -Kulturen produziert werden. Da Hyaluronsäure auf natürliche Weise im Menschen vorkommt, ist mit guter Verträglichkeit zu rechnen.

Hyaluronsäure wird in verschiedensten medizinischen Indikationen eingesetzt, u.a. bei trockenen Augen und Schleimhäuten, in der Wundheilung und bei Verbrennungen. Am weitesten verbreitet sind Behandlungen von Arthrosen, vor allem Arthrosen des Kniegelenks.

Behandlung von Arthrosen

Wie weiter oben beschrieben verschaffen hohe Konzentrationen von hochmolekularer Hyaluronsäure die erforderlichen viskoelastischen Eigenschaften in den Gelenken. Nimmt altersbedingt die Hyaluronsäure in Gelenksflüssigkeit und Knorpeln ab, so führt dies zu Steifheit der Gelenke, eingeschränkter Beweglichkeit und Schmerzen. Eine von der FDA bereits seit den 1990er Jahren zugelassene Anwendung der Hyaluronsäure erfolgt bei Arthrosen, vor allem bei Kniearthrosen. Die Hyaluronsäure wird dabei mehrmals direkt ins Gelenk injiziert und soll über mehrere Monate (vielleicht auch ein ganzes Jahr) die Symptome lindern (auch wenn sie nur Stunden bis wenige Tage am Applikationsort verbleibt). Wie Metaanalysen zeigen, sind die Behandlungsergebnisse allerdings nicht durchgehend überzeugend, reichen von mangelnder Wirksamkeit in älteren Untersuchungen bis zu temporärer Schmerzhemmung bei milden/moderaten Arthrosen in neueren Analysen. Bei der Injektion ins Gelenk kann es zudem zu unerwünschten Nebenwirkungen kommen wie Beschädigungen des Knorpels, Infektionen im Gelenk - kommen.

Hautalterung

Im Vergleich zu einem Baby mit einer ganz prallen, faltenfreien Haut enthält die Dermis einer 50 Jahre alten Person im Mittel nur mehr halb so viel Hyaluronsäure und diese nimmt mit zunehmendem Alter noch weiter ab. Neben veränderten Synthese/Abbauaktivitäten sind vor allem Schäden durch Umwelt und Sonnenlicht (UV-Licht) für die Reduktion verantwortlich.

Abbildung 4 zeigt schematisch die Folgen der Sonneneinstrahlung. Die Hyaluronsäure ist reduziert und teilweise abgebaut, damit sinkt der Wassergehalt in der extrazellulären Matrix der Dermis, Wechselwirkungen mit den Kollagen- und Elastinfasern werden dezimiert und der Abbau der Fasern erleichtert. Die vormals straffe Haut ist nun erschlafft und zeigt Falten.

Abbildung 4.Vergleich einer lichtgeschützten Haut mit einer lichtgealterten Haut. Beschreibung im Text (Bild modifiziert nach: Hiroyuki Yoshida & Yasunori Okada, Int. J. Mol. Sci. 2019, 20, 5804; doi:10.3390/ijms20225804. Lizenz: cc-by).

Um dem Wunsch nach jugendlicher, faltenfreier Haut zu begegnen, verwenden Firmen seit rund 20 Jahren Hyaluronsäure als Feuchtigkeitsspender und Faltenglätter in ihren kosmetischen Produkten. Die meisten Hautcremen und Seren enthalten Hyaluronsäure in niedermolekularer bis hochmolekularer Form und auch in Form von Nanopartikeln. Werden diese Produkte aufgetragen, so dringen sie größenabhängig zwar unterschiedlich weit in die Haut ein, erreichen aber nicht die tieferen Schichten der Dermis, die ja zu wenig Hyaluronsäure enthält und zur Hauterschlaffung führt. Große Moleküle (Kettenlänge über 1 000 Disaccharideinheiten) bleiben auf der obersten Schichte - der Hornhaut - liegen, bilden eine Barriere, die Feuchtigkeit zurückhält und die Hornhaut etwas aufquellen lässt. Niedermolekulare Hyaluronsäure bringt Feuchtigkeit in die dichten Zellschichten der rund 0,15 mm tiefen Epidermis. Wie oben erwähnt hofft man an, dass kurzkettige Bruchstücke der Hyaluronsäure dort in den Keratinocyten die Synthese neuer Hyaluronsäure stimulieren können. Das Ergebnis ist bestenfalls eine geschmeidigere Haut und etwas flachere Fältchen.

Will man feinere Falten an Lippen und Augenpartien auffüllen, tiefe Falten, wie Nasolabialfalten, Zornesfalten und Augenpartien korrigieren, so wird Hyaluronsäure in unterschiedlicher Dichte als "Hautfüller" in die Dermis injiziert. Einige dieser Präparate wurden von der FDA zugelassen . Hautfüller kommen auch zur Schaffung von Volumen, Wiederherstellen von Gesichtskonturen in der plastischen Chirurgie zur Anwendung. Die Ergebnisse dieser minimal invasiven Behandlung sind sofort sichtbar und im Allgemeinen recht gut. Allerdings können Hautreizungen, Verformungen und Klumpenbildung und damit ein unerwünschtes Erscheinungsbild auftreten. Die straffende Wirkung ist allerdings nicht von Dauer; nach einem halben Jahr (vielleicht auch etwas später) sind Nachspritzungen erforderlich.

Fazit

Die physikalisch - chemischen und physiologischen Eigenschaften der im Menschen natürlich vorkommenden Hyaluronsäure weisen auf ein enormes Potential für gut verträgliche, minimal invasive medizinische Anwendungen und Korrekturen des äußeren Erscheinungsbildes hin. Einige dieser Anwendungen sind bereits etabliert und haben ein großes, stark steigendes Marktvolumen. Verbesserungen sind aber auch hier notwendig - beispielsweise in den Techniken und Produkteigenschaften der bis jetzt unbefriedigenden Therapie von Arthrose oder in der Verlängerung der Wirksamkeitsdauer. Die Forschung zu diesen Problemen aber auch zu völlig neuen Aspekten der Hyaluronsäure-Funktionen und -Anwendungen boomt und lässt auf innovative Produkte und Techniken nicht nur im Anti-Aging Sektor hoffen.


Literatur (open access), die dem Artikel zugrundeliegt, u.a.:

A.Fallacara et al., Hyaluronic Acid in the Third Millennium, Polymers 2018, 10, 701; doi:10.3390/polym10070701.

P. Snetkov et al., Hyaluronic Acid: The Influence of Molecular Weight on Structural, Physical, Physico-Chemical, and Degradable Properties of Biopolymer. Polymers 2020, 12, 1800; doi:10.3390/polym12081800

T. Kobayashi et al., Hyaluronan: Metabolism and Function. Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525

A. Kaul et al., Hyaluronidases in Human Diseases. Int. J. Mol. Sci. 2021, 22, 3204. https://doi.org/10.3390/ijms22063204


Artikel zu verwandten Themen im ScienceBlog:

Georg Wick, 22.11.2012: Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick

Inge Schuster, 06.09.2018: Freund und Feind - Die Sonne auf unserer Haut

 

inge Sun, 04.07.2021 - 12:10

ScienceBlog.at ist 10 Jahre alt!

ScienceBlog.at ist 10 Jahre alt!

Do, 01.07.2021 — Redaktion

Redaktion

Wir feiern Geburtstag!

inge Sun, 04.07.2021 - 17:07

Comments

Karl L. Brunnbauer (not verified)

Mon, 19.07.2021 - 13:11

Herzliche Gratulation an die Herausgeber dieser wichtigen Webseite!
Besonders an Frau Dr. Inge Schuster!
Information auf aller höchstem Niveau!

Alles Gute und weiterhin viel Erfolg,
Karl

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Do, 24.06.2021 IIASA

IIASAIcon Politik & Gesellschaft Änderungen des Lebensstils , die zur Eindämmung des Klimawandels beitragen können, gewinnen mehr und mehr an Bedeutung und Aufmerksamkeit. Eine neue , von IIASA-Forschern geleitete Studie hat sich zum Ziel gesetzt, das volle Potential von Verhaltensänderungen zu erfassen und was Menschen weltweit zu solchen Änderungen veranlasst. Die Studie basiert auf Daten von fast zwei Milliarden Facebook-Profilen.*

Moderne Konsumgewohnheiten und - insbesondere in der Landwirtschaft - die Tierproduktion zur Deckung des weltweit wachsenden Appetits auf tierische Produkte tragen dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten und sich beschleunigen. Unsere derzeitige Lebensweise ist einfach nicht nachhaltig. Es ist klar, dass Verhalten und Konsumgewohnheiten sich deutlich ändern müssen, wenn wir sicherstellen wollen, dass unsere Nachkommen noch einen gesunden Planeten vorfinden, der das Leben erhält und den sie ihr Zuhause nennen können. Es ist allerdings kein einfaches Unterfangen, eine große Zahl von Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, ihre Konsumgewohnheiten und ihre Verhaltensweisen zu ändern.

Wenn viele frühere Studien untersucht haben, was die treibenden Kräfte zu einer CO2-reduzierten Lebensweise im Allgemeinen und zu einer nachhaltigen Ernährung im Besonderen sind, so beruhten die darin verwendeten Daten häufig auf einer limitierten Anzahl von Ländern oder einer begrenzten Anzahl von Umfrageteilnehmern, deren Angaben zuweilen von ihrem tatsächlichen Verhalten abwich. Nun haben die IIASA-Forscherin Sibel Eker und ihre Kollegen Online-Daten der Social Media, speziell anonyme Besucherdaten in Facebook, als eine globale Datenquelle genutzt, um das Online-Verhalten von Milliarden von Menschen aufzuzeigen und die eher traditionellen empirischen Untersuchungen zu ergänzen. Studien. Die Studie wurde im Journal Environmental Research Letters veröffentlicht [1].

„Wir wollten wissen, ob wir imstande wären anhand der auf der Social-Media-Plattform Facebook verfügbaren Daten das Interesse an nachhaltigen Ernährungsweisen, wie der vegetarischen Ernährung, in verschiedenen Ländern der Welt zu quantifizieren und feststellen könnten, ob die Online-Aktivitäten tatsächlich eine echtes Interesse an Vegetarismus und Konsumverhalten anzeigen“, erklärt Eker. „Darüber hinaus wollten wir sehen, welche anderen Faktoren wie Bildungsstand, Alter, Geschlecht oder das Pro-Kopf-BIP das Interesse der Menschen an einer nachhaltigen Ernährung in verschiedenen Ländern mitbestimmen.“

In diesem Zusammenhang erstellte das Team um Eker einen Datensatz von täglich und monatlich aktiven Nutzern, die ein Interesse an nachhaltigen Lebensstilen, insbesondere des Vegetarismus, bekundeten. Der Begriff Vegetarismus wurde auf Grund seiner Breite - verglichen mit anderen Begriffen wie „pflanzliche Ernährung“ oder „nachhaltige Ernährung“- gewählt und auch weil er als vordefinierte Interessenauswahl auf der Facebook-Werbeplattform vorhanden war.

„Unsere Wahl von Vegetarismus und nachhaltigem Lebensstil als Selektionsmöglichkeiten, die für einen CO2-armen Lebensstil von Relevanz sind, basiert auf einer Keyword-Suche in der Facebook Marketing API (API = application programming interface, Programmierschnittstelle; Anm.Redn.); dabei gingen diese Keywords unter den vorhandenen Selektionsmöglichkeiten als diejenigen mit der weltweit höchsten Größe an Zielgruppen hervor. Das Interesse einer Person am Vegetarismus kann von einer Reihe von Dingen herrühren, die vom Tierschutz über Gesundheit bis hin zu Religion reichen. Im Rahmen dieser Studie sahen wir den Vegetarismus insbesondere als Indikator für die Verbreitung von fleischloser Ernährung; dies hat für die Abschätzung des Nahrungsbedarfs mehr Relevanz, als für das Interesse der Menschen an einer an einer vegetarischen Lebensweise allein aus Gründen des Umweltschutzes“, bemerkt Eker.

Abbildung 1. Anteil der Facebook Zielgruppen in 115 Ländern, die sich für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessieren. Die Farben geben den Prozentsatz (siehe Block rechts) der Interessierten in den jeweiligen Zielgruppen an. Länder, aus denen Daten fehlen, sind grau gefärbt. (Abbildung und Legende wurden von der Redaktion aus Ekers et al., 2021, [1] eingefügt; Die Abbildung steht unter einer cc-by- Lizenz)

Die öffentlich zugänglichen und anonymen Daten vom Facebook Marketing Application Programming Interface (API) wurden zwischen September 2019 und Juni 2020 zu mehreren Zeitpunkten für Keywords, Alter, Geschlecht, Bildungsniveau und Land jedes Benutzers abgerufen. Der verwendete Datensatz umfasst insgesamt 131 Länder und rund 1,9 Milliarden Menschen, von denen 210 Millionen ein Interesse an Vegetarismus und 33 Millionen ein Interesse an einer nachhaltigen Lebensweise bekundeten. Abbildung 1 gibt einen Überblick über den Anteil des an "nachhaltigem Leben" und an "Vegetarismus" Interessierten Facebook Publikums in den einzelnen Ländern. Eine interaktive Version dieser Karte ermöglicht den Vergleich der Facebook Daten mit der Häufigkeit der Suchanfragen zu den Keywords in Google Trends (https://trends.google.com/trends/?geo=AT) und vorhandenen Umfrageergebnissen zur tatsächlich vegetarisch lebenden Population. Abbildung 2 zeigt dazu einige Beispiele.

Abbildung 2.Vergleich der für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessierten Facebook-Nutzer mit der Häufigkeit der Aufrufe dieser Keywords in Google Trends und der aus Umfrageergebnissen festgestellten vegetarischen Population in USA, China, Indien und Deutschland. (Interaktive Karte aus Ekers et al., 2021, [1] https://sibeleker.github.io/map.html und Legende von der Redaktion eingefügt. Lizenz cc-by)

Die Ergebnisse weisen darauf hin, dass der Anteil des an Vegetarismus interessierten Facebook-Publikums positiv mit der Rate des Rückgangs des Fleischkonsums auf Länderebene (in den Ländern mit hohem Vegetarismus-Interesse) korreliert – mit anderen Worten, je mehr Menschen an vegetarischer Ernährung interessiert sind, desto mehr nimmt der Trend zum Fleischkonsums in dem Land ab. Insgesamt war der Fleischkonsum in Ländern mit hohen Einkommen größer als in Ländern mit niedrigen Einkommen; allerdings scheint in diesen Ländern das Interesse an einer nachhaltigen Ernährung - soweit dies online geäußert wird - auch stärker zu sein. Nach Meinung der Forscher gibt dies Hoffnung auf Trends zu einem nachhaltigeren und faireren Fleischkonsum.

Bildung hat sich zuvor als Katalysator zur Erreichung der SDGs (Ziele der nachhaltigen Entwicklung) erwiesen und könnte auch hier ein Katalysator sein (sofern sie nicht durch ein hohes Einkommensniveau überlagert wird), da sie sich als der wichtigste Faktor herausgestellt hat, der das Interesse am Vegetarismus beeinflusst. Dieser Effekt war in Ländern mit niedrigem Einkommen stärker ausgeprägt. Auch das Geschlecht hat sich als sehr starkes Unterscheidungsmerkmal herausgestellt, wobei Frauen zu einem höheres Interesse am Vegetarismus tendieren als Männer. Das Pro-Kopf-BIP und das Alter folgten diesen beiden Indikatoren in Bezug auf ihre Wirkung auf das Interesse der Menschen an einem vegetarischen Lebensstil.

„Unsere Studie zeigt, dass Daten von Online-Social-Media tatsächlich nützlich sein können, um Trends beim Lebensmittelkonsum zu analysieren und abzuschätzen. Während aufgrund lokaler Studien die Bedeutung von Bildung, Einkommen und Geschlecht dafür bisher bekannt war, haben wir nun erstmals auf globaler Ebene eine Einstufung gemacht“, sagt Eker. „Maßnahmen, die darauf abzielen, eine nachhaltige Ernährung zu fördern, insbesondere auf Kommunikationsebene, sollten die soziale Heterogenität und bestehende Trends (diese könnten durchaus " niedrig hängende Früchte" sein) berücksichtigen. Auch die länderübergreifende Heterogenität spielt eine wichtige Rolle, und Studien wie unsere helfen, internationale Unterschiede zu verstehen und lokale maßgeschneiderte Maßnahmen zu entwerfen.“


[1] Eker, S., Garcia, D., Valin, H., van Ruijven, B. (2021). Using social media audience data to analyze the drivers of low-carbon diets. Environmental Research Letters 10.1088/1748-9326/abf770


*Die am 22.Juni 2021 erschienene Pressemiiteilung "What Facebook can tell us about dietary choices"  https://iiasa.ac.at/web/home/about/210622-facebook-and-sustainable-diets.html wurde von der Redaktion übersetzt und mit zwei Abbildungen aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Kommentar der Redaktion

Die Anzahl der vegetarisch und vegan lebenden Menschen ist langsam im Steigen begriffen und wird - auf Umfragen basierend - auf etwa 8 - 10 %  der Weltbevölkerung geschätzt (mehr als die Hälfte dieser Menschen lebt in Indien). https://en.wikipedia.org/wiki/Vegetarianism_by_country#Demographics.

Wenn in der Facebook-Studie aus 131 Ländern mit rund 1,9 Milliarden Menschen rund 210 Millionen ein Interesse an Vegetarismus bekundet haben, so entspricht das grob den obigen Schätzungen der tatsächlich so Lebenden. Bemerkenswert ist das geringe Interesse in den bevölkerungsreichsten Ländern - der Chinesen, aber vor allem der indischen Facebook-Nutzer, von denen nur 5 % interessiert sind, obwohl der Subkontinent den höchsten Anteil (29 %) an Vegetariern aufweist.

Es ist anzuzweifeln, ob intensivere/maßgeschneiderte Maßnahmen in den meisten Ländern kurzfristig eine wesentliche Änderung in den Ernährungsgewohnheiten bewirken können. Dass damit - zumindest im nächsten Jahrzehnt - nur marginal auf die Klimapolitik eingewirkt werden kann, erscheint offenkundig.

inge Thu, 24.06.2021 - 00:33

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Do, 17.06.2021 — Francis S. Collins

Francis S. CollinsIcon MedizinZur Behandlung von COVID-19 sind derzeit bereits mehrere monoklonale Antikörper (dabei handelt es sich um identische Kopien eines in großer Zahl hergestellten therapeutischen Antikörpers) von den Behörden zugelassen worden. Im Kampf gegen die schlimme Seuche gibt es viel Raum für weitere Verbesserungen zur Behandlung von SARS-CoV-2-Infektionen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über einen erfreulichen Fortschritt: mit NIH-Unterstützung wurde ein speziell designter therapeutischer Antikörper entwickelt, der sich mittels Nasenspray verabreichen lässt. Präklinische Studien deuten darauf hin, dass mit diesem neuen Antikörper sogar bessere Wirksamkeit gegen COVID-19 erzielt werden könnte als mit den bereits bestehenden Antikörper-Therapien und dies insbesondere in Hinblick auf die nun ansteigenden „besorgniserregende Varianten“ von SARS-CoV-2. *

Design eines neuen Antikörpers vom IgM-Typ

Es sind dies Ergebnisse, die von Zhiqiang An (Health Science Center der University of Texas; Houston), und Pei-Yong Shi (University of Texas Medical Brach, Galveston) und deren Kollegen stammen [1]. Das von den NIH unterstützte Team hat begriffen, dass alle derzeit verwendeten monoklonalen Antikörper eine zeitaufwendige, intravenöse Infusion in hohen Dosierungen erfordern, wodurch ihre Anwendung an Grenzen stößt. Dazu kommt, dass die Antikörper - da sie ja erst über den Blutkreislauf verteilt werden müssen - die primären Orte der Virusinfektion im Nasen-Rachenraum und in der Lunge nicht direkt erreichen können. Zudem mehren sich auch zunehmend Andeutungen, dass einige dieser therapeutischen Antikörper gegen die nun aufkommenden neuen SARS-CoV-2-Varianten weniger wirksam werden.

Von Antikörpern gibt es verschiedene Typen. Immunglobulin-G (IgG)-Antikörper sind beispielsweise die im Blut am häufigsten vorkommenden Antikörper und sie haben das Potential eine anhaltende Immunität zu verleihen. Immunglobulin-A (IgA)-Antikörper finden sich in Tränen, Mukus (Schleim) und anderen Körpersekreten, wo sie in unseren Körpern die feuchte innere Auskleidung (Mukosa, Schleimhaut) von Atemwegen und Magen-Darm-Trakt schützen. Immunglobulin-M (IgM)-Antikörper sind ebenso wichtig um die Oberflächen der Schleimhäute zu schützen und sie werden als Erste im Kampf gegen eine Infektion gebildet. Abbildung 1.

Abbildung 1.Verschiedene Typen von Antikörpern. Das Grundprinzip (IgG) besteht aus zwei schweren Ketten und zwei leichten Ketten, wobei variable Regionen an der Spitze der schweren und leichten Ketten selektiv ein Antigen nach dem "Schlüssel-Schloss-Prinzip" umschließen (links) . IgA besitzt 2 der IgG-Einheiten, das IgM der Säugetiere 5 IgG- Einheiten, die über Disulfidbrücken und eine verbindende Peptidkette miteinander verbunden sind. Verglichen mit IgG-Antikörpern können IgA-Antiköper somit mit der doppelten Anzahl von viralen Antigenen, IgM-Antikörper mit der fünffachen Anzahl reagieren.(Bild modifiziert nach https://commons.wikimedia.org/wiki/File:2221_Five_Classes_of_Antibodies_new.jpg. License cc-by. Bild und Text von der Redaktion eingefügt.)

IgA- und IgM-Antikörper unterscheiden sich zwar strukturell, können aber beide in einem inhalierten Spray verabreicht werden. Monoklonale Antikörper, wie sie derzeit zur Behandlung von COVID-19 verwendet werden, sind allerdings vom IgG-Typ, der intravenös infundiert werden muss.

In der neuen Studie haben die Forscher nun IgG-Fragmente mit bekannter Affinität zu SARS-CoV-2 zu den zuerst auftretenden IgM-Antikörpern zusammengesetzt. Der so designte IgM-Antikörper (sie bezeichnen ihn mit IgM-14) kann SARS-CoV-2 mehr als 230-mal besser neutralisieren als der IgG-Antikörper, von dem sie ursprünglich ausgegangen sind.

Wichtig ist, dass IgM-14 auch exzellente Aktivität in der Neutralisierung von besorgniserregenden SARS-CoV-2-Varianten besitzt. Dazu gehören die B.1.1.7 „Großbritannien“ Variante (jetzt auch Alpha genannt), die P.1 „brasilianische“ Variante (genannt Gamma) und die B.1.351 „südafrikanische“ Variante (genannt Beta). IgM-14 wirkt auch gegen 21 andere Varianten, die Veränderungen in der Rezeptorbindungsdomäne des besonders wichtigen viralen Spikeproteins aufzeigen. Dieses Protein, das es SARS-CoV-2 ermöglicht in menschliche Zellen einzudringen und diese zu infizieren, ist die hauptsächliche Zielstruktur für Antikörper. Man rechnet damit, dass viele dieser Veränderungen das Virus resistenter gegen die monoklonalen IgG-Antikörper machen, die jetzt von der FDA für den Notfallgebrauch zugelassen sind.

Wirksamkeit im Tierversuch

Würde der designte IgM-14 Antikörper ein lebendes Tier vor einer Coronavirus-Infektion schützen können? Die Forscher haben dies in einem Tierversuch an Mäusen geprüft. Dazu haben sie eine Einzeldosis des IgM-14-Antikörpers in die Nase von Mäusen gesprüht entweder prophylaktisch sechs Stunden vor einer Exposition mit SARS-CoV-2 oder als therapeutische Behandlung sechs Stunden nach der Infektion mit den Varianten P.1 (Gamma) oder B.1.351 (Beta).

Abbildung 2.Ein erfolgsversprechendes intranasales Spray zur Prävention und Therapie von COVID-19? Der pentavalente IgM - Antikörper (gelb) kann das Spikeprotein an der Virusoberfläche effizient abblocken. (Text von der Redn eingefügt.)

In allen Fällen erwies sich der so angewandte Antikörper als wirksam: zwei Tagen nach der Applikation war - im Vergleich zu den Kontrollgruppen - die Menge an SARS-CoV-2 in der Lunge drastisch reduziert. Dies ist ein wichtiger Befund: schwere Verläufe von COVID-19 und Todesfälle sind ja eng mit der Virusmenge im Atmungstrakt von Infizierten korreliert. Falls sich der neue therapeutische Antikörper beim Menschen als sicher und wirksam erweist, könnte er zu einem wichtigen Mittel werden, um die Schwere von COVID-19 zu reduzieren oder vielleicht sogar eine Infektion ganz zu verhindern. Abbildung 2.

Die Forscher haben diesen neuen Antikörper bereits an einen Biotechnologie-Partner namens IGM Biosciences, Mountain View, CA, für die weitere Entwicklung und künftige Tests in einer klinischen Studie auslizenziert. Wenn alles gut geht, können wir hoffen damit ein sicheres und wirksames Nasenspray zu haben, um als zusätzliche Verteidigungslinie im Kampf gegen COVID-19 zu dienen.


[1]Nasal delivery of an IgM offers broad protection from SARS-CoV-2 variants. Ku Z, Xie X, Hinton PR, Liu X, Ye X, Muruato AE, Ng DC, Biswas S, Zou J, Liu Y, Pandya D, Menachery VD, Rahman S, Cao YA, Deng H, Xiong W, Carlin KB, Liu J, Su H, Haanes EJ, Keyt BA, Zhang N, Carroll SF, Shi PY, An Z. Nature. 2021 Jun 3


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 15. Juni 2021) im NIH Director’s Blog unter dem Titel: "Could a Nasal Spray of Designer Antibodies Help to Beat COVID-19?"  https://directorsblog.nih.gov/2021/06/15/could-a-nasal-spray-of-designer-antibodies-help-to-beat-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH: Covid-19 Research  https://covid19.nih.gov/

Zhiqiang An (The University of Texas Health Science Center at Houston)

Pei-Yong Shi (The University of Texas Medical Branch at Galveston)

IGM Biosciences (Mountain View, CA)

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog

inge Thu, 17.06.2021 - 17:27

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Do, 10.06.2021 — Redaktion

RedaktionIcon Medizin

 Nachdem Arzneimittel den Körper eines Patienten passiert haben, wird das, was noch an Wirkstoffen und daraus entstandenen Metaboliten vorhanden ist, in die Kanalisierung ausgeschieden und trägt damit wesentlich zur Wasserverschmutzung bei. Nur von einer Handvoll der insgesamt etwa 1900 Wirkstoffe ist das damit verbundene Risiko für Tierwelt und menschliche Gesundheit untersucht. Zwei neue Projekte wollen nun dazu wichtige Informationen erarbeiten. i) Das EU-finanzierte REMEDI-Projekt ist auf Röntgen-Kontrastmittel fokussiert, die gegen herkömmliche Abwasserbehandlung resistent sind; diese sollen herausgefiltert und - wenn möglich - einer Wiederverwendung zugeführt werden. ii) Das IMI-Projekt PREMIER hat zum Ziel Dossiers zur Risikobewertung der meisten - zum Teil schon recht alten - pharmazeutischen Wirkstoffe zu erstellen.*

In den letzten zwei Jahrzehnten ist die Besorgnis über die vielen Arzneimittel angestiegen, die mit dem Abfall in die Kanalisation gespült werden und in die Abwassersysteme gelangen. Abbildung 1.Zum Großteil stammen diese Substanzen aus dem Urin und dem Kot von Patienten, die Medikamente eingenommen haben. Auch wenn die Substanzen den menschlichen Körper und danach die Kläranlagen passiert haben, kann man sie noch in Flüssen und Seen und möglicherweise sogar in unseren Böden nachweisen. Arzneimittel wie u.a. Cholesterin-Senker, Betablocker, Antiepileptika, Entzündungshemmer und Antibiotika sowie illegale Substanzen wurden alle in Abwasserkanälen und nahegelegenen Wasserstraßen gefunden.

Abbildung 1: .Über die letzten zwei Jahrzehnte macht man sich zunehmend Sorgen über all die Medikamente, die über die menschlichen Ausscheidungen in die Kanalisation und von dort in die Gewässer und das Grundwasser gelangen (Bild: pixabay)

 

„Viele Menschen sind der Ansicht, dass Kläranlagen das Wasser sauber machen, allerdings wurden solche Anlagen gebaut, um Stickstoff und Phosphate zu entfernen, nicht aber Arzneimittel“, sagt Professor Ad Ragas, Umweltwissenschaftler an der Radboud University in den Niederlanden und Koordinator des PREMIER-Projekts (s.u.). „Diese Arzneimittel gelangen zusammen mit anderen Mikroverunreinigungen in die Umwelt.“

Mehr als 600 pharmazeutische Substanzen wurden weltweit in Gewässern identifiziert, weitere finden ihren Weg in terrestrische Ökosysteme. Zumindest von einigen dieser Verbindungen ist bekannt, dass sie unerwünschte Auswirkungen auf lebende Organismen haben.

Berühmt-berüchtigt ist das Beispiel, das sich Ende des letzten Jahrhunderts in Indien ereignete. Bis Ende der 1980er Jahre kreisten dort Millionen Geier am Himmel und hielten nach Kadavern Ausschau. In den 1990er Jahren brachen die Geierzahlen aber auf mysteriöse Weise ein, in einigen Populationen um mehr als 99%. Die Wissenschaftler waren vorerst ratlos, dann aber wurde 2004 entdeckt, dass die Vögel durch Diclofenac ("Voltaren", siehe dazu [1]; Anm. Redn.) getötet wurden, einem Arzneimittel, das routinemäßig aber auch an indische Nutztiere verfüttert wurde. Bei Rindern ist Diclofenac ein billiges entzündungshemmendes Mittel, bei Geiern verursachte es dagegen Nierenversagen und den Tod.

„Dieser Vorfall hat viele Diskussionen über die Auswirkungen von Arzneimitteln auf Tierwelt und Umwelt ausgelöst“, sagt Prof. Ragas. 2006 wurde die Verwendung von Diclofenac im Veterinärgebiet in Indien verboten. Nun, 15 Jahre später nimmt weltweit die Sorge um die Freisetzung von Arzneimitteln und deren Abbauprodukten in die Umwelt zu – und das aus gutem Grund.

Alljährlich steigt der Verbrauch von Arzneimitteln sowohl im Humansektor als auch im Veterinärgebiet, jedoch sind viele Fragen zu den Auswirkungen der nachgewiesenen Verunreinigungen mit Arzneimitteln sowohl auf die menschliche Gesundheit als auch auf die Ökosysteme unseres Planeten ungeklärt.

2013 haben das Europäische Parlament und der Rat der Europäischen Union eine Reihe von Arzneimitteln, darunter auch einige Antibiotika, auf eine Watchlist von Stoffen gesetzt, die in Gewässern der EU sorgfältig überwacht werden sollten. Dies war das erste Dokument, das Stoffe von unbestrittenem medizinischen Wert enthält, die eine potenzielle Bedrohung für empfindliche Ökosysteme darstellen.

Bildgebende diagnostische Verfahren

Krankenhäuser sind ein wesentliche Quelle von pharmazeutischen Wirkstoffen, und - wie Studien ergeben haben - werden viele der aus Krankenhäusern stammenden Chemikalien von Kläranlagen nicht vollständig entfernt. Abbildung 2. Besonders problematisch sind jodierte Röntgenkontrastmittel (iodinated contrast media - ICMs), die häufig vor einem diagnostischen Scan wie einem CT oder MRT in den Blutkreislauf eines Patienten injiziert werden, damit sich das Weichteilgewebe vom Untergrund abhebt.

Abbildung 2: Aus Krankenhäusern stammende Chemikalien können von Kläranlagen nicht vollständig entfernt werden. (Bild: Ivan Bandura/Unsplash)

ICMs werden im Körper nicht abgebaut (über 95 % verbleiben unmetabolisiert), so ausgeschieden und in das Abwassersystem gespült. Forscher sind der Ansicht, dass ICMs wesentlich zur Belastung durch persistierende Chemikalien im Abwasser beitragen. ICM-Nebenprodukte (wie sie beispielsweise in Gegenwart des Desinfektionsmittels Chlor entstehen, Anm. Redn) hat man – oft in erhöhten Konzentrationen – in Flüssen, Seen, Grundwasser und sogar im Trinkwasser gefunden. Sie kommen auch im Boden vor und stellen dort, wo landwirtschaftliche Flächen kontaminiert sind, ein potenzielles Risiko sowohl für den Menschen als auch für die Tierwelt dar. Organische Halogenverbindungen sind Nebenprodukte von Kontrastmitteln. Lässt man zu, dass sich diese Chemikalien im Boden und im Wasser in hohen Konzentrationen anreichern, so können sie toxische Wirkungen auslösen.

Professor Alberto Guadagnini vom Department für Bau- und Umweltingenieurwesen der Polytechnischen Universität Mailand sagt: „Wir haben noch keine Ahnung, wie groß das Risiko ist, wenn sich diese Stoffe in hohen Konzentrationen im Grundwassersystem anreichern.“

Die Daten zur Ausbreitung von ICMs – und dazu, was man tun kann, um sie sicher zu entfernen – sind lückenhaft. Mit dem steigenden Alter der Bevölkerung erwartet man eine Zunahme von chronischen und komplexen Begleiterkrankungen; dementsprechend wird die Zahl der weltweit durchgeführten Diagnosen mittels bildgebender Verfahren wahrscheinlich auch steigen. Aktuelle Schätzungen gehen davon aus, dass weltweit mehr als 45.000 klinische CT-Scanner in Betrieb sind. Allein in einem italienischen Krankenhaus – dem San Raffaele in Mailand – werden jährlich 30.000 solcher diagnostischer Tests durchgeführt.

Recyceln

Prof. Guadagnini hofft einige der Wissenslücken durch das kürzlich gestartete vierjährige EU-Projekt REMEDI (https://cordis.europa.eu/project/id/956384/de) zu schließen; das Projekt zielt darauf ab, neue Techniken zum Abfangen und Entfernen von Röntgenkontrastmitteln aus Wasser und Boden zu prüfen.

„Kontrastmittel herauszufiltern ist nur ein Teil der Herausforderung – wir möchten sie auch recyceln“, sagt Prof. Guadagnini. „Jod und Barium (die in Kontrastmitteln verwendet werden) sind wertvolle Substanzen. Es wäre vorzuziehen, dass sie von der Industrie wieder verwendet würden anstatt sich in der Umwelt anzureichern.“

Das Team von Prof. Guadagnini konzentriert sich auf Eisenoxide, deren Fähigkeit Kontrastmittel zu binden nachgewiesen ist. Eisenoxide können jedoch nicht direkt in Seen und Flüssen eingesetzt werden, um ICMs zu binden, da sie das Wasser saurer machen. Stattdessen werden die Forscher versuchen mit diesen Verbindungen ICMs abzufangen, bevor diese natürliche Gewässer erreichen.

"Die Grundidee Kontrastmittel aufzufangen besteht darin ein poröses Material zu entwickeln, welches das Sediment des Flussbettes nachahmt und Teil des Filtersystems ist, das Flusswasser filtert, um es trinkbar zu machen", sagt er. „Eine solche feste Matrix soll die Kontrastmittel abfangen. Sobald sie abgebunden sind, können wir sie herausholen und die Möglichkeit für eine Wiederverwendung prüfen.“

Aber auch mit diesen Maßnahmen wird ein Teil der ICM in Fließgewässer und damit ins Grundwasser gelangen. Wie gravierend diese unvermeidliche Einfließen für natürliche Gewässer sein wird, wollen die REMEDI-Forscher bestimmen. In einem parallelen Arm des Projekts wird versucht, die damit verbundenen Risiken zu bewerten und zu quantifizieren.

Auch wenn das Projekt noch ganz am Anfang steht, sieht sich Prof. Guadagnini durch eine wachsende öffentliche Diskussion über Verunreinigungen durch Pharmaka bestärkt. „Die Leute beginnen, dies als ein Problem zu sehen, das man angehen muss“, sagt er. „Sie sind besorgt, weil man über die Risiken für die Umwelt noch zu wenig weiß; auf Grund der wirtschaftlichen Vorteile, die Rückgewinnung und Wiederverwendung einiger dieser Verbindungen bringen könnten, gewinnt das Thema auch für die Industrie an Bedeutung.“

Risiken

Seit 2006 wird ein neues Arzneimittel in der EU nur noch zugelassen, wenn es mit einer Umweltrisikobewertung – einem Dossier zur Quantifizierung des voraussichtlichen Umweltrisikos eines Wirkstoffs – versehen ist. Dies kann für Krankenhäuser ein wichtiger Anstoß sein herauszufinden, wie die Risiken von Medikamenten und anderen Verbindungen, die sie Patienten verabreichen, am besten verringert werden können. Beispielsweise könnte entschieden werden, den Harn eines Patienten zu sammeln, anstatt ihn in die Toilette zu spülen.

Die Erstellung solcher Risikobewertungen ist jedoch kostspielig (etwa 500.000 € /Bewertung), und obwohl dies nur ein winziger Bruchteil der Gesamtkosten für die Markteinführung eines neuen Arzneimittels ist, summiert es sich zu den Gesamtkosten von Forschung und Entwicklung neuer Therapien. Das Gesetz gilt auch nur für neue Medikamente.

„Vor 2006 waren unserer Schätzung nach bereits zwischen 1.000 und 1.800 Medikamente auf dem Markt“, sagt Prof. Ragas. „Arzneimittel wie Paracetamol (im Jahr 2016 konsumierten die Europäer davon 48.400 Tonnen) sind nie systematisch auf ihre Umweltauswirkungen untersucht worden.“

Das vorrangige Ziel des PREMIER-Projekts ist es Dossiers zur Risikobewertung retrospektiv zu erstellen (PREMIER: Prioritisation and risk evaluation of medicines in the environment - Projekt der Innovative Medicines Initiative - IMI; https://www.imi.europa.eu/projects-results/project-factsheets/premier; Anm. Redn.). Die Forscher des Projekts verwenden Computermodelle, um intelligente und erschwingliche Vorhersagen sowohl über die Toxizität eines Arzneimittels als auch über die Wahrscheinlichkeit einer Exposition mit negativen Auswirkungen auf aquatische Ökosysteme zu treffen.

„Durch die Entwicklung kluger Verfahren wollen wir vermeiden, alle Medikamente testen zu müssen“, sagt Prof. Ragas. „Wenn wir ein Molekül und seine Eigenschaften kennen – zum Beispiel wie gut es abgebaut wird und in Wasser löslich ist – können wir Modelle erstellen, die vorhersagen, wie schnell es (aus der Umwelt) verschwinden wird.

„Wir hoffen, von unseren Modellen sagen zu können: „Diese 50 Chemikalien sind höchstwahrscheinlich die riskantesten“. Mit diesen Chemikalien können wir dann kostspieligere Tests durchführen und Schlussfolgerungen ziehen.

Prof. Ragas und sein Team wollen auch herausfinden, wie sich ein bestimmtes Arzneimittel auf verschiedene Spezies auswirkt. „Beispielsweise auf Fische“, so Prof. Ragas. „Wenn bekannt ist, dass ein Arzneimittel auf ein Molekül in menschlichen Nervenzellen abzielt, werden wir anhand einer genetischen Datenbank untersuchen, ob dieses Zielmolekül (Target) auch in Fischen vorhanden ist. Ist das Gen, das beim Menschen für das Zielmolekül kodiert, auch in Fischen vorhanden, wissen wir, dass Fische wahrscheinlich auf dieselbe Chemikalie empfindlich reagieren.“

Prof. Ragas hofft, dass diese Informationen die Bewertung der Risiken, die sowohl alte als auch neue Medikamente für die Umwelt darstellen, erleichtern können, und so Schritte unternommen werden können, um die schädlichsten zu kontrollieren.

„Wir müssen ein Gleichgewicht zwischen dem gesundheitlichen Nutzen von Arzneimitteln für den Menschen und den Folgen für die Umwelt finden“, sagt er. „Meine größte Hoffnung ist, dass wir den gesamten Bereich von Arzneimittelverbrauch und -entwicklung in eine Richtung lenken können, in der Menschen von den positiven gesundheitlichen Auswirkungen von Medikamenten profitieren können, ohne einen Schaden für die Umwelt zu verursachen.“


[1] Inge Schuster, 07.08.2020: Voltaren (Diclofenac) verursacht ein globales Umweltproblem


* Dieser Artikel wurde ursprünglich am 27. Mai 2021 von Vittoria D'Alessio in Horizon, the EU Research and Innovation Magazine unter dem Titel " Recovering drugs from sewers could reduce harm to wildlife" https://horizon-magazine.eu/article/recovering-drugs-sewers-could-reduce-harm-wildlife.html publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch einige Anmerkungen (Anm. Redn.) ergänzt.


Weiterführende Links

Horizon: The EU Research and Innovation Magazine

imi - Innovatve Medicines Initiative - Europe’s partnership for health: https://www.imi.europa.eu/

Christian R. Noe, 09.01.2015: Neue Wege für neue Ideen – die „Innovative Medicines Initiative“

 

inge Thu, 10.06.2021 - 16:56

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Do, 3.06.2021 - — Robert W. Rosner

Robert W. RosnerIcon Wissenschaftsgeschichte Das preisgekrönte monumentale, dreibändige Werk des erst 28-jährigen Joseph Wilhelm Knoblauch ist eine unglaubliche Pionierleistung. Einige Abschnitte erscheinen im Sinn der Systemwissenschaften auch heute hochaktuell ; auch, dass der Text für Laien nicht nur verständlich, sondern von diesen auch direkt anwendbar sein sollte, erfüllen bislang nur die wenigsten wissenschaftlichen Publikationen. Darüber hinaus gibt das Werk einen hervorragenden Einblick in die wissenschaftlichen Theorien der Zeit der Aufklärung. Der Chemiker und Wissenschaftshistoriker Robert Rosner fasst im Folgenden wesentliche Aspekte der Schrift zusammen, die auf der Europeana-website* frei zugänglich ist. Es lohnt sich drin zu schmökern!

Joseph Wilhelm Knoblauch, 1810

Die erste wissenschaftliche Gesellschaft im Habsburgerreich.....

Die Königlich Böhmische Gesellschaft der Wissenschaften war die erste wissenschaftliche Gesellschaft im Habsburgerreich. 1770 auf Initiative von Ignaz von Born in Prag als Privatgesellschaft gegründet , wurde sie 1785 in eine öffentliche Einrichtung umgewandelt. Ignaz von Born war Freimaurer und ebenso einige der anderen Gründungsmitglieder. Die Freimaurer waren zu der Zeit Vorkämpfer der Aufklärung im Kaiserreich. Sie interessierten sich nicht nur für theoretische wissenschaftliche Fragen, sondern diskutierten auch praktische Fragen, um Mittel und Wege zu finden, die bei der Modernisierung des Landes helfen könnten. So veröffentlichte die Gesellschaft 1800 ein Memorandum, in dem sie die Verwendung von Kohle anstelle von Holz als Energiequelle forderte und vor der Gefahr der Entwaldung Böhmens infolge der fortgesetzten Verwendung von Holz warnte.

Abbildung 1:Die Königlich Böhmische Gesellschaft der Wissenschaften in Prag, Festliche Sitzung mit Kaiser Leopold II, 1790 (Bild: Autor unbekannt; gemeinfrei)

..... setzt einen Preis für einen Bericht zur Verbesserung der Lebensmittelqualität aus

Auf Initiative des Prager Chemikers Johann Andreas Scherer (1755-1844) setzte die Gesellschaft 1804 einen Preis von 500 Gulden für die beste Veröffentlichung zur Verbesserung der Lebensmittelqualität aus. (Scherer interessierte sich u.a. für Fragen, die man heute als Umweltprobleme ansehen würde und hatte mehrere Bücher veröffentlicht, die gegen die zu dieser Zeit unter deutschen Chemikern noch weit verbreitete Phlogiston-Theorie auftraten). Dieser Bericht sollte so abgefasst werden, dass er normalen Bürgern und Bauern helfen würde, die Probleme der Verfälschung von Lebensmitteln zu verstehen und die Lebensmittelqualität zu kontrollieren, ohne selbst Experten zu sein.

Vorerst erhielt die Böhmische Gesellschaft der Wissenschaften keinen Bericht, der diese Anforderungen erfüllte, und so wurde der Preis 1806 auf 700 Florin erhöht (700 Fl. entsprachen der aktuellen Kaufkraft von etwa 14 000 €; Anm. Redn.). Dies führte dazu, dass nun zehn Berichte ankamen, von denen aber nur die Arbeit von Joseph Wilhelm Knoblauch in den meisten Punkten die strengen Anforderungen der Böhmischen Gesellschaft erfüllte - allerdings auch erst nachdem dieser einige Teile entsprechend abgeändert hatte.

... und vergibt ihn für die dreibändige Schrift des Joseph Wilhelm Knoblauch

Joseph Wilhelm Knoblauch (1789 - 1819) war als Apotheker ausgebildet mit einem Master-Abschluss in Philosophie und einem Bachelor-Abschluss in Medizin. Seine preisgekrönte Schrift mit dem Titel “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ wurde 1810 in Leipzig veröffentlicht. Abbildung 2.

Abbildung 2:Joseph Wilhelm Knoblauch: Deckblatt von Teil 2 der preisgekrönten, dreibändigen Schrift (links) und Titel der 3 Bände (rechts) (Quelle: Národní knihovna České republiky, https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs. cc: nc)

 

Wie der Autor einleitend betont, besteht das Hauptziel des Buches darin, dem Bauern, der die Lebensmittel produziert, und dem Händler, der diese lagert und transportiert, zu helfen die richtigen Mittel zu verwenden und jegliches Material zu vermeiden, das eine Verfälschung verursachen kann.

Der Begriff Verfälschung bezieht sich dabei nicht nur auf profitorientierte Manipulationen, die zur Verschlechterung von Lebensmitteln führen oder diese sogar giftig machen, sondern auch auf den Gebrauch von Werkzeugen oder Gefäßen, die zur Erzeugung eines Lebensmittels nicht geeignet sind oder auf eine Lagerung unter untauglichen Bedingungen.

Für Knoblauch erscheint es daher unumgänglich, dass der Leser nicht nur alle möglichen Vorgänge verstehen sollte, die Auswirkungen auf Lebensmittel haben könnten, sondern auch alle Faktoren kennen sollte, die das Leben auf der Erde beeinflussen, wie Licht, Wärme, Elektrizität, die verschiedenen Gase in der Luft und die Schwerkraft.

Da das Buch von normalen Bürgern und nicht von Wissenschaftlern gelesen werden sollte, beschrieb Knoblauch wiederholt Experimente, die jeder zu Hause ausführen konnte, um die Aussagen zu den von ihm erörterten Phänomenen zu untermauern. Um beispielsweise die Bedeutung des Lichts für das Wachstum von Pflanzen klar zu machen, zeigt er, dass aus Samen, die in einem dunklen Keller keine Änderung erfahren, Blätter sprießen, sobald sie etwas Sonnenlicht ausgesetzt wurden.

Aus all dem entstand ein äußerst umfangreiches Buch mit mehr als 2000 Seiten in 3 Bänden. Als eine Art populärwissenschaftlicher Schrift erhält man darin einen guten Überblick über die wissenschaftlichen Theorien dieser Zeit , welche zweifellos auch die wissenschaftlichen Ideen der damals wichtigsten Gelehrten-Gesellschaft der Monarchie und der den Preis verleihenden Juroren widerspiegeln.

"Von der wechselseitigen Einwirkung"

In einer 96 Seiten langen Einführung beschreibt Knoblauch die verschiedenen Faktoren, die das Leben von Menschen, Tieren und Pflanzen beeinflussen und wie diese Faktoren miteinander wechselwirken.

Dazu führt er verschiedene Lebensvorgänge an, einige davon recht ausführlich.

So zeigt er, dass Blut mit Hilfe von Eisen Sauerstoff aufnimmt, sich dabei hellrot färbt und hilft, den Körper warm zu halten.

In der Verdauung der Nahrung und der Gärung sieht er verwandte Vorgänge. Die Gärung in Gegenwart von Hefe vergleicht er wird mit der Gärung ohne Hefe etwa bei der Weinherstellung.

Ausführlich beschreibt er die Keimung von Samen, zeigt, wie man gekeimte Gerstensamen von nicht gekeimten Samen unterscheiden kann, da gekeimte Samen mehr wasserlösliche Inhaltsstoffe enthalten als nicht gekeimte Samen.

Dazu gibt es eine Reihe von Experimenten, die helfen sollen die Wirkung von Sauerstoff, Licht und Feuchtigkeit auf Grünpflanzen zu beobachten.

Eingehend untersucht Knoblauch Faktoren, die einen Einfluss auf den Zersetzungs- und Fäulnisprozess von Pflanzen und Fleisch haben. Nach seiner Meinung zersetzen sich Lebensmittel, die viel Stickstoff und viel Phosphor enthalten, schneller und riechen stärker. Dies gilt insbesondere für Lebensmittel mit hohem Phosphorgehalt wie Fisch.

Was sind Lebensmittel?

Knoblauch erweitert eingangs die Bedeutung des Wortes „Lebensmittel“. Es umfasst jetzt nicht nur Nahrung, sondern alles, was laut Autor für das Leben auf der Erde benötigt wird.

So wird also das Leben von drei Hauptfaktoren beeinflusst:

1. vom sogenannten "Dunstkreis "

2. von Getränken

3. von Nahrung

Das Wort "Dunstkreis" oder synonym Atmosphäre benutzt er für alle unsichtbaren Dämpfe und Kräfte, die uns umgeben.

Von der Atmosphäre

Atmosphäre (Dunstkreis) ist für Knoblauch alles, was die Erde umgibt und immer noch als Teil davon gesehen werden kann. Es besteht aus schwereloser Materie - d.i. Licht, Wärme, Elektrizität und Magnetismus - und Materie mit einem Gewicht - dies sind die Gase Sauerstoff, Stickstoff, Wasserdampf, Kohlendioxid und unter besonderen Umständen Wasserstoff. Schließlich zählt er auch Schwerkraft und Elastizität zur Atmosphäre.

In den Kapiteln, in denen Knoblauch sich mit „schwereloser“ Materie, Licht, Wärme und Elektrizität befasst, konzentriert er sich darauf, zu beschreiben, wie und wo diese Materie erzeugt wird und welche Auswirkungen sie auf die Umgebung hat, ohne aber detailliertere Erklärungen zu geben .

In den Abschnitten, die sich mit Licht befassen, erwähnt er nicht nur die bekannten Eigenschaften wie Brechung, Spektrum, Reflexion, Fokussierung usw., sondern erörtert auch die Bedeutung von Licht für die Absorption von CO2 durch grüne Blätter und das Wachstum von Pflanzen.

Wärme betrachtet er als eine Art Strahlung, die eng mit dem Licht verbunden ist, insbesondere mit dem roten Lichtspektrum.

Knoblauch spricht von „nicht wahrnehmbarer Wärme“, wenn er sich auf die Verdampfungswärme oder die Schmelzwärme bezieht.

Elektrizität gehört für ihn zum schwerelosen Teil der Atmosphäre und hat einen positiven und einen negativen Pol. Durch Reiben von Glas oder Bernstein kann positive Elektrizität, durch Reiben von Harzen negative Elektrizität erzeugt werden. Knoblauch erörtert die Unterschiede zwischen leitendem Material und Nichtleitern und beschreibt er verschiedene Verfahren zur Stromerzeugung, von denen einige leicht getestet werden könnten. Um zu zeigen, wie eine galvanische Batterie funktioniert, schlägt er vor, einen silbernen Löffel unter die Zunge zu legen und einen Zinkstab darauf zu legen.

Hinsichtlich der Gase werden mehrere Experimente beschrieben, die zeigen, wie Sauerstoff, Stickstoff und Kohlendioxid das Leben beeinflussen. Der Autor schildert auch Methoden zur Herstellung von Schwefelwasserstoff und Phosphin, um sie mit Gasen zu vergleichen, die im Fäulnisprozess von lebendem Material entstehen.

Wie bereits erwähnt, wird auch die Schwerkraft als Teil der Atmosphäre betrachtet. Es wird darauf hingewiesen, dass der Luftdruck, der einen großen Einfluss auf alle lebenden Materialien hat, auf die Schwerkraft zurückzuführen ist. Nach Knoblauch ist Elastizität eine der Schwerkraft entgegengesetzte Kraft. Er definiert Elastizität als Kraft, mit der Material in einem bestimmten Dichtezustand oder in seiner ursprünglichen Form bleiben will. Als Beispiele für Elastizität erwähnt er nicht nur, dass Druckluft versucht, sich auszudehnen, sondern auch, dass eine Metallfeder oder menschliches Haar bei Verformung wieder in ihre ursprüngliche Form zurückkehrt.

Nahrungsmittel - von der Quelle der Verfälschungen

Nach mehr als 300 Seiten in denen Knoblauch allgemein die verschiedenen Faktoren, die das Leben von Pflanzen, Tieren und Menschen beeinflussen, behandelt, beginnt er die Faktoren, die zu einer Verfälschung der Lebensmittel führen können, ausführlich zu erörtern.

Zur Zubereitung und Lagerung von Lebensmitteln werden unterschiedlichste Arten von Gefäßen benötigt, daher werden die verschiedenen Materialien untersucht, aus denen diese Gefäße bestehen.

Knoblauch beginnt mit möglichen Gefahren, wenn man Holzgefäße zur Lagerung von Lebensmitteln verwendet. So können giftige Pilze auf dem Holz wachsen und die in diesen Gefäßen gelagerten Lebensmittel schädigen. Um das Pilzwachstum zu verhindern empfiehlt er, die Oberfläche des Gefäßes zu verkohlen und zitiert dazu ein Testergebnis des französischen Chemikers Berthollet (1748 - 1822): dieser verglich Wasser, das unter identen Bedingungen 4 Monate in einem Holzgefäß mit einer verkohlten Innenfläche und einer naturbelassenen Oberfläche gelagert wurde. Nur das Wasser in dem Gefäß mit der karbonisierten Oberfläche erwies sich als trinkbar.

Verfälschungen durch schädliche metallene Werkzeuge

Im weiteren geht Knoblauch auf Gefahren ein, die die durch verschiedene Metalle in Koch- und Lagergefäßen verursacht werden, insbesondere von solchen, die Kupfer und Blei enthalten. Auch andere gefährliche Metalle wie Zink, Zinn, Antimon, Kobalt und Arsen finden sich gelegentlich In Legierungen.

Die Eigenschaften von Kupfer werden ausführlich diskutiert, zahlreiche Beispiele von Kupfervergiftungen erörtert und mehrere Tests zum Nachweis von Kupfer beschrieben.

Der einfachste Test besteht darin, ein Stück reines Eisen in einem Gefäß mit Wasser zu erhitzen; ist Kupfer anwesend, tritt Oxydation des Eisenstücks ein (roter Überzug; Redn.). Ein besserer Test ist es eine Ammoniaklösung zu verwenden (blaue Flüssigkeit. Anm. Redn.), der beste Test ist der sogenannte Hahnemann-Weintests, der aus einer verdünnten Lösung von Calciumsulfid in Weinsäure besteht, aus der Kupfer als schwarzbrauner Niederschlag ausfällt. Dieser Test wurde 1788 von Samuel Hahnemann, dem Begründer der Homöopathie, eingeführt, um zu überprüfen, ob der Wein mit dem sogenannten Bleizucker (Bleiacetat) gesüßt worden war. Dies muss ziemlich oft vorgekommen sein, da der Hahnemann-Weintest in allen Apotheken verfügbar sein musste.

Knoblauch diskutiert die Art der Vergiftung durch die verschiedenen Metalle in den Legierungen und wie die Legierungen mit dem Hahnemann-Weintest getestet werden können, die Farbe der verschiedenen Metallsulfide und wie die Sulfide unterschieden werden können. Das einzige Metall, das für Gefäße empfohlen wird, die zur Zubereitung von Speisen dienen, ist Eisen, glasbeschichtetes Eisen und mit einigen Vorbehalten verzinntes Eisen. Da dieses mit Blei kontaminiert sein könnte, wird empfohlen, verzinnte Gefäße auf das Vorhandensein von Blei zu prüfen.

Das Kapitel schließt mit einer Diskussion möglicher Gefahren durch die Verwendung von Gefäßen aus Ton - d. i. Keramik, Porzellan - oder Glas. Obwohl das Material allgemein zur Lagerung empfohlen wird, wird darauf hingewiesen, dass der Ton manchmal Bleioxide enthalten kann. Daher wird empfohlen, es nach der 1795 vom deutschen Chemiker Westrumb beschriebenen Methode zu überprüfen. Wasser oder Essigsäure wird nach Zugabe des Hahnemann-Weintests in Gegenwart von Bleioxid trüb.

Von thierischen Lebensmitteln

Der nächste Abschnitt befasst sich mit Lebensmitteln tierischer Herkunft und erörtert Gefahren, die durch falsche Lagerung verursacht werden. Dabei wird versucht, die chemischen Prozesse zu erklären, die zur Zersetzung von Fleisch infolge schlechter Lagerung führen. Es werden mehrere Tests beschrieben, die zeigen, wie der Fäulnisprozess abhängig von Temperatur und Feuchtigkeit fortschreitet. Knoblauch meint, dass Gallerte (Kollagen) - er nennt es Zellgewebe - der Teil des Fleisches ist, der sich am schnellsten zersetzt.

Da Gelatine durch Abkühlen einer Kollagenlösung erhalten wird, gibt die Menge der erhaltenen Gelatine einen Hinweis auf die Menge an Kollagen, die im Fleisch vorhanden ist.

Ausführlich wird beschrieben, wie der Chemiker Berthollet den Fäulnisprozess untersuchte, indem er Rindfleisch im Wasser erhitzte und das Filtrat auf das Vorhandensein von Gelatine überprüfte. Dies wurde solange wiederholt, bis das Filtrat keine Gelatine mehr aufwies. Dann wurde das feuchte Rindfleisch in einem geschlossenen Gefäß mit Luft erwärmt, um zu prüfen, ob der Fäulnisprozess weitergehen würde. Nach einigen Tagen konnte festgestellt werden, dass eine Reaktion stattgefunden hatte, der Sauerstoff war im geschlossenen Gefäß durch CO2 ersetzt worden und es wurde wieder Gelatine im Filtrat gefunden. Nach mehrmaligem Wiederholen des Vorgangs hatte das Material die Struktur von Fleisch verloren und enthielt viel weniger Stickstoff als das ursprüngliche Material. Dies wurde als Beweis dafür angesehen, dass das Material, das die Gelatine bildet, ursprünglich nicht Teil des Fleisches war, sondern ein Ergebnis der Fäulnis war.

In weiterer Folge werden Vor- und Nachteile verschiedener Methoden zur Lagerung von Fleisch wie Trockenräuchern, Einfrieren, Salzen, Beizen usw. diskutiert und erklärt, auf welche Weise diese den Zersetzungsprozess hemmen.

Von Nahrungsmitteln aus dem Pflanzenreiche

Wie man das Problem der Lagerung schaffen kann, ist auch Hauptthema bei den aus dem Pflanzenreiche stammenden Lebensmittel, Knoblauch führt eine Reihe von Methoden - Trocknen, Einsalzen, Einzuckern, Beizen - an und kommt dann auf Gärungsvorgänge zu sprechen, die er in vier unterschiedliche Arten einteilt:

  1. Zuckerfermentation, die Stärke in Zucker umwandelt
  2. Gärung des Weins
  3. Saure Gärung
  4. Die Fäulnis, die in Gegenwart von Proteinen stattfinden kann.

Ein weiteres Thema in diesem Abschnitt ist die Beschreibung von Giftpflanzen (beispielsweise von Schierling).

Von den Methoden der Prüfungskunde

Im letzten Band der Schrift werden die verschiedenen Tests zur Überprüfung der Lebensmittelqualität erörtert. Hierin versucht Knoblauch aufzuzeigen, wie viel Information zur Qualität man mit einfachen Methoden erhalten kann, dass aber zur endgültigen Sicherheit chemische Methoden erforderlich sind. Er schreibt: "Die chemische Untersuchung ist der ultimative Test, um die beste Sicherheit über die Qualität des zu untersuchenden Materials zu erhalten."

Er warnt jedoch vor den Schwierigkeiten der Interpretation und fordert: „Die erste Pflicht eines jeden, der den Mut hat, in das heilige Feld der Chemie einzutreten, ist Pünktlichkeit, Ruhe, eine Haltung, die frei von Vorurteilen und hoher Moral ist.“ Er fährt fort, indem er einige Vorgänge beschreibt, die für die qualitative Analyse erforderlich sind, und einfache Prozesse wie Fällungslösung usw. erklärt und die Herstellung der wichtigsten Reagenzien für verschiedene Tests beschreibt.

In dem Kapitel, in dem verschiedene Tests beschrieben werden, diskutiert Knoblauch die Giftstoffe, die häufig in verschiedenen Arten von Lebensmitteln vorkommen. Nicht nur Wein muss mit dem Hahnemann-Weintest überprüft werden, auch rote Fruchtsäfte können manchmal Kobaltsalze enthalten, um die Farbe zu intensivieren, oder Arsen kann in Suppen aus Kohl oder anderem Gemüse gefunden werden. Verschiedene Methoden beschreiben, wie die Metalle in Form ihrer Sulfide identifiziert werden. Quecksilbersulfid kann mit Kohle zum elementaren Quecksilber reduziert werden, Arsen-Sulfid kann in Gegenwart von Luft in Arsenoxid umgewandelt werden, das sublimiert.

Die detaillierte Beschreibung der Prüfung von Lebensmitteln auf giftige Metalle scheint darauf hinzudeuten, dass die Zugabe solcher Metalle zu Lebensmitteln zu Beginn des 19. Jahrhunderts ein häufig anzutreffendes Verbrechen war. Der Schwerpunkt, der auf die Erörterung des besten Materials für die Lagerung und den Transport von Lebensmitteln aller Art gelegt wurde, kann aber auch zeigen, dass zu einer Zeit, als es nicht mehr möglich war, die Bevölkerung in den wachsenden Städten mit Lebensmitteln aus den benachbarten landwirtschaftlichen Gebieten zu versorgen Die Verschlechterung der Lebensmittel während des Transports und der Lagerung zu einem immer wichtigeren Thema wurde.


* Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten, und wo möglich wieder aufzuheben. Europeana-Website: https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs (cc 0, nc).Passende  Ausschnitte aus dieser Schrift (in Fraktur) wurden von der Redaktion eingefügt.


Artikel zu verwandten Themen im ScienceBlog

An der Schnittstelle von Naturwissenschaften und Geschichte:Robert W. Rosner im ScienceBlog

 

inge Wed, 02.06.2021 - 22:35

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

Do, 27.05.2021 — Redaktion

RedaktionIcon Medizin

 Um im Laborexperiment herauszufinden ob ein Medikament oder ein Impfstoff die Vermehrung von SARS-CoV-2 stoppen kann, benötigt man große Mengen des Virus, die üblicherweise in Zellkulturen hergestellt werden. Als Standard dienen hier häufig sogenannte Vero-Zellen der Grünen Meerkatze, an die sich das Virus allerdings durch Mutationen und Deletionen im essentiellen Spike-Protein anpasst. Bei den so entstehenden neuen Varianten können sich Pathogenität, Übertragungseigenschaften und Empfindlichkeit gegenüber antiviralen Arzneimitteln und Antikörpern von denen des Wildtyp-Virus unterscheiden und damit die Testergebnisse ungültig machen.. Eine eben im Journal e-Life erschienene Studie stellt eine aus dem menschlichen Atemwegstrakt hergestellte Zelllinie (Calu-3) vor, die zu keinen derartigen Veränderungen des Spike-Proteins führt und somit ein verbessertes System für die Produktion eines für Wirksamkeitstestungen dringend benötigten möglichst authentischen Virus darstellt .*

Rastlos sind Forscher auf der ganzen Welt bestrebt die Biologie verschiedener SARS-CoV-2-Varianten zu verstehen, um neue Therapeutika zu entwickeln und der COVID-19-Pandemie ein Ende zu setzen. Der Prozess beginnt im Labor mit sorgfältigen Experimenten, um zu beurteilen, ob ein Medikament die Replikation von SARS-CoV-2 in Zellen, die in Kulturflaschen angesetzt sind, stoppen kann oder ob ein Impfstoff die Krankheit in einem Tiermodell verhindern kann. Solche Experimente erfordern jedoch große Mengen des SARS-CoV-2 Virus und die Authentizität dieser Stamm-Menge an Virus (das normalerweise in tierischen Zelllinien kultiviert wird) ist von größter Bedeutung, um die Gültigkeit der Testergebnisse sicherzustellen.

Herstellung von SARS-CoV-2 in großen Mengen...........

Die Standard-Prozedur zur Herstellung von SARS-CoV-2-Beständen nützt die  Vero-Zelllinie (aus Nierenzellen, die vor fast 60 Jahren von einer afrikanischen Grünen Meerkatze isoliert wurden). Diese Zellen sind sehr anfällig für Viren, da ihnen sogenannte Interferon-Zytokine vom Typ I fehlen, d.i. einer wichtigen Gruppe von Signalproteinen, die von Zellen in Gegenwart von Viren freigesetzt werden. Verozellen werden bevorzugt für die Isolierung und Vermehrung vieler Viren gewählt, da sie gut charakterisiert und leicht zu halten sind, adhärente Kulturen bilden (d.i. an Kulturschalen haften) und bei Infektionen sichtbare strukturelle Veränderungen aufweisen. Wie Viren, die auf natürliche Weise in menschlichen Populationen zirkulieren, neigen allerdings auch im Labor gezüchtete Viren dazu, sich zu verändern und an die jeweilige Umgebung anzupassen, in der sie sich gerade befinden.

...........in Vero-Zellen kann zu Mutationen und Deletionen im Spike-Protein führen.......

Eine frühe Studie, die seitdem auch von Anderen repliziert wurde, hat ergeben, dass Stamm-Mengen von SARS-CoV-2, die in von Vero-Zellkulturen kultiviert wurden, häufig Mutationen oder Deletionen im Spike-Gen aufweisen (das entsprechende Spike-Protein ist für das Andocken des Virus an die Wirtszellen und das nachfolgende Eindringen in die Zellen verantwortlich; Anm. Redn). Diese Deletionen entfernen eine wichtige Region auf dem Spike-Protein, die als mehrbasige Spaltstelle bezeichnet wird und die Fähigkeit des Virus beeinflusst, menschliche Atemwegszellen zu infizieren. Derartige Viren verhalten sich daher in mehrfacher Hinsicht nicht wie ein authentisches SARS-CoV-2: Sie weisen eine niedrigere Pathogenität auf, sind nicht übertragbar und zeigen eine veränderte Empfindlichkeit auf die Hemmung durch antivirale Interferon-stimulierte Gene und Antikörper von Patienten.

.........und damit zu veränderten Sensitivitäten gegen Medikamente und Antikörper

Diese Eigenschaften können die Interpretation von Laborexperimenten erschweren, in denen von Vero-Zellen produzierte Viren zur Bestimmung der Wirksamkeit von experimentellen Arzneimitteln oder Impfstoffen verwendet werden. Bei Impfstoffen mit inaktiviertem SARS-CoV-2, das in Vero-Zellen hergestellt wurde, könnte die Fähigkeit zur Stimulierung richtiger Antikörperreaktionen ebenfalls teilweise beeinträchtigt sein (auch, wenn es dafür noch keine formelle Bestätigung gibt).

Nun berichten im Journal eLife Bart Haagmans und Kollegen vom Erasmus Medical Center (Rotterdam) und der Universität Illinois (Urbana-Champaign) mit Mart Lamers als Erstautor [1] über einfache Methoden zur Herstellung von SARS-CoV-2 Stamm-Mengen in menschlichen Zellen, die Mutationen und Deletionen im für das Spike-Protein kodierenden Gen verhindern (Abbildung 1).

Abbildung 1: Schematische Darstellung einer von einem Patienten stammenden SARS-CoV-2-Pprobe, die unter Verwendung der Vero-Zelllinie (die vor fast 60 Jahren aus einem afrikanischen Grünen Meeraffen isoliert wurde; oben) oder der Calu-3-Zelllinie (die eine menschliche Zelllinie ist; s.u.) passagiert wurde. Den Verozellen fehlt eine Serinprotease namens TMPRSS2, die benötigt wird, damit das Virus über die Plasmamembran in die Wirtszellen eindringen kann. Bestimmte SARS-CoV-2-Varianten mit Deletionen im Spike-Protein (rot dargestellt) können jedoch über einen anderen Weg in Vero-Zellen eindringen. Für diese Varianten wird daher selektiert und sie beginnen die Viruspopulation zu dominieren. Die Pathogenität, Übertragungseigenschaften und Empfindlichkeit der Varianten gegenüber antiviralen Arzneimitteln und Antikörpern unterscheiden sich von denen des Wildtyp-Virus. Calu-3-Zellen weisen keinen Mangel an TMPRSS2 auf, so dass die Authentizität des Spike-Gens erhalten bleibt, und Studien mit solchen Virusbeständen ahmen die Biologie des menschlichen Virus genauer nach. (Bild: aus [1], erzeugt mittels BioRender.com).

Vorerst haben Lamers et al. eine Methode namens Deep Sequencing verwendet, um zu bestätigen, dass wiederholtes Passagieren (Umsetzen) von SARS-CoV-2 in Vero-Zellen zu einer Zunahme von viralen Genomen führt, die Mutationen oder Deletionen in der wichtigen Region des Spike-Gens aufweisen. Werden weniger empfindliche Sequenzierungsmethoden benutzt oder verlässt man sich auf „Konsensus-Sequenzen“, so kann dies den falschen Eindruck erwecken, dass solche Deletionen fehlen.

In Folge haben Lamers et al. dann festgestellt, wie diese Spike-Deletionen für bestimmte SARS-CoV-2-Varianten einen replikativen Vorteil in Vero-Zellen verschaffen, der es ihnen ermöglicht, die Viruspopulation zu dominieren. Vero-Zellen fehlt eine Serinprotease, die SARS-CoV-2 aber benötigt, um durch die Plasmamembran in Zellen des menschlichen Atemwegs einzudringen. SARS-CoV-2-Varianten mit Deletionen im Spike-Gen nutzen jedoch einen anderen Weg (Endozytose genannt), um in Vero-Zellen einzudringen. Offenbar ermöglicht die Fähigkeit der Varianten diese zweite Eintrittsroute zu nutzen, dass sie dominieren, wenn Vero-Zellen verwendet werden.

Die Calu-3-Zelllinie, eine bessere Alternative

Als nächstes stellte sich die Frage, ob eine Zelllinie des menschlichen Atemwegs, Calu-3, eine bessere Alternative zur Kultivierung von SARS-CoV-2 sein könnte, da diese Zelllinie die notwendige Protease besitzt. Tatsächlich stellte es sich heraus, dass ein wiederholtes Passagieren von SARS-CoV-2 in Calu-3-Zellen die Akkumulation von Mutationen und Deletionen im Spike-Gen von SARS-CoV-2 verhinderte. (Dies war auch in Vero-Zellen der Fall, wenn sie durch genetische Manipulation zur Expression der Serinprotease befähigt wurden). Darüber hinaus eigneten sich Calu-3-Zellen genauso gut wie Vero-Zellen, um die für nachfolgende Experimente erforderlichen, großen Virusmengen zu produzieren. Dass durch deep sequencing die Authentizität der auf diese Weise hergestellten Stamm-Mengen von SARS-CoV-2 bestätigt wird, lässt die Interpretation nachfolgender Experimente verlässlich erscheinen.

Fazit

Die Ergebnisse dieser Studie sind ein überzeugendes Argument für SARS-CoV-2-Forscher, dass sie die Genomsequenzen der von ihnen produzierten Stamm-Mengen des Virus gründlich charakterisieren (und eine Sequenzierung von Konsensus-Sites vermeiden). Darüber hinaus sollten Forscher die Zellen, die Wachstumsmedien und die für die Virusproduktion verwendeten Additive berücksichtigen, um artifizielle Anpassungen von SARS-CoV-2 an die Kulturbedingungen zu verhindern, die sich auf die Beurteilung der Wirksamkeit von Arzneimitteln oder Impfstoffen auswirken könnten.

Zellkultursysteme zur Vermehrung von Viren sind der Dreh- und Angelpunkt der Virologie, dennoch haben sie seit den Anfängen des Fachgebiets keine wirkliche Abänderung erfahren. Die Anwendung moderner technologischer Neuerungen wie rationale Geneditierung in Zellen oder die Verwendung von in vivo-ähnlichen organoiden Gewebemodellen verspricht diesen kritischen Aspekt der Virologie zu transformieren. Dies sollte es Forschern ermöglichen, ihre Methoden auf den aktuellen Stand zu bringen, um Authentizität n ihren Experimenten beizubehalten.


[1] Mart M. Lamers et al., Human airway cells prevent SARS-CoV-2 multibasic cleavage site cell culture adaptation. eLife 2021;10:e66815. DOI: https://doi.org/10.7554/eLife.66815


*Der vorliegende Artikel von Benjamin G. Hale ist am 18. Mai 2021 unter dem Titel "COVID-19: Avoiding culture shock with the SARS-CoV-2 spike protein" im Journal eLife erschienen: https://doi.org/10.7554/eLife.69496, Der unter einer cc-by 4.0 stehende Artikel wurde möglichst wortgetreu von der Redaktion übersetzt.


Das Spike-Protein im ScienceBlog


inge Thu, 27.05.2021 - 18:38

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Do, 20.05.2021 — Christina Beck Christina BeckIcon Gehirn

Der vor mehr als drei Millionen Jahren in Ostafrika lebende Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein, von dem sich vermutlich alle späteren Homininen - einschließlich des Menschen - herleiten. Dieser Vorfahr (zu dieser Art gehörte auch die bekannte Lucy) ging aufrecht und hatte ein etwa 20 Prozent größeres Gehirn als Schimpansen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft berichtet über den Fund und die Erforschung eines mehr als drei Millionen Jahre alten, weitgehend vollständig erhaltenen kindlichen Skeletts des Australopithecus afarensis ("Dikika-Kind), das neue Erkenntnisse zur Entwicklung des Gehirns und zur Humanevolution ermöglicht.*

Unser Studiengelände liegt im Nordosten Äthiopiens in der Region Dikika. Die weite, karge Landschaft von Dikika birgt Jahrmillionen altes Gebein. Seit fünf Jahren suchen wir die Böschungen entlang eines ausgetrockneten Flussbeckens ab und durchsieben den Boden nach Knochen, die das Wasser, das einst durch das Becken floss, bergab gespült hat. Mittagstemperaturen bis 50° Celsius lassen die Arbeit zur Qual werden; nirgends gibt es ein schattiges Plätzchen. Bisher besteht unsere Ausbeute aus einer Fülle fossiler Säugetiere, darunter Elefanten, Flusspferde und Antilopen. Menschliche Überreste sind nicht dabei.

Doch im Dezember 2000 wurden die Paläoanthropologen endlich fündig: In einer dicken Sandsteinlage stoßen sie auf die Teile eines Kinderskeletts. Das winzige Gesicht lugt aus einem staubigen Hang hervor. Es handelt sich um die fossilen Überreste eines Homininen: ein Australopithecus afarensis, wie die Forschung später feststellen wird. Damit gehört das Kind zur gleichen Art wie „Lucy“, jenes weltberühmte, rund 3,2 Millionen Jahre alte weibliche Skelett, das 1974 in der gleichen Region Afrikas ausgegraben wurde. Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein – der heutige Mensch und die ausgestorbenen Vorfahren der Gattung Homo zählen zu dieser Gruppe – denn alle späteren Homininen stammen vermutlich von dieser Art ab.

Der neue Skelettfund ist der älteste und vollständigste, der jemals von einem kindlichen menschlichen Vorfahren gemacht worden ist, denn im Gegensatz zu „Lucy“ hat das Kind auch Finger, einen Fuß und einen vollständigen Rumpf. Und vor allem: es hat ein Gesicht (Abbildung 1).

Abbildung 1: Der Schädel gehört zu einem 3,3 Millionen Jahre alten Skelett eines 3-jährigen Mädchens, das im Jahr 2000 in der Region Dikika im äthiopischen Hochland gefunden wurde. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0

„Wir können die Milchzähne sehen und die bleibenden Zähne, die noch im Kiefer stecken. Wir haben fast alle Wirbel, Rippen und die Schulterblätter. Und wir haben Ellbogen, Hände, Beinknochen und fast einen kompletten Fuß, bei dem nur die Zehenspitzen fehlen“, beschreibt der aus Äthiopien stammende und zum damaligen Zeitpunkt in Leipzig arbeitende Projektleiter Zeresenay Alemseged den Fund. Sämtliche Knochen des oberen Skelettteils des Dikika-Kindes, von den Forschenden „Selam“ genannt, waren in einem kompakten Sandsteinblock eingeschlossen. Mit Hilfe eines Zahnarztbohrers wurde der harte Sandstein Korn für Korn aus den Rippenzwischenräumen und aus der Wirbelsäule entfernt.

Auf den Zahn gefühlt

Es dauerte mehr als vier Jahre, bis das gesamte Skelett geborgen werden konnte. Zahlreiche Forscherinnen und Forscher, u.a. vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, und mehr als 40 Feldforschungsassistierende waren an der Ausgrabung beteiligt. Beim Dikika-Kind liegen die Kronen der bleibenden Zähne noch im Knochen, sind aber teilweise schon voll ausgebildet. „Wir können heute mit biochemischen Methoden, Gensequenzanalysen und Computertechnik immer mehr aus fossilen Knochen herauslesen und so etwas über die Lebensweise, die Lebensbedingungen und den Lebensverlauf der Frühmenschen erfahren“, erklärt Jean-Jacques Hublin, Direktor am Leipziger Max-Planck-Institut, die weitreichenden methodischen Umwälzungen in seinem Forschungsgebiet. So erlaubt die computertomografische Untersuchung von Zähnen zuvor unzugängliche Entwicklungsmerkmale virtuell freizulegen, ohne das Fundstück dabei zu zerstören. Zähne gehören zu den häufigsten und am besten erhaltenen fossilen Belegen und können über das Alter und das Geschlecht des Fossilienfundes Auskunft geben.

Die Größe des ersten Backenzahnes zeigt: bei dem Dikika-Kind handelte es sich wohl um ein kleines Mädchen. Die Zahnentwicklung beginnt bei Menschen und Menschenaffen vor der Geburt und dauert während des Heranwachsens an. Entwicklungsgeschwindigkeit und -zeit werden dabei fortwährend als Wachstumslinien – ähnlich wie die Jahresringe von Bäumen – im Zahnschmelz und im Zahnbein gespeichert und bleiben darin unverändert über Millionen von Jahren erhalten. Mit hochauflösender Synchrotron-Mikrotomographie am Europäischen Synchrotron (ESRF) im französischen Grenoble wurde so das Sterbealter des Dikika-Kindes ermittelt: Es wurde nur 861 Tage alt, also nicht einmal zweieinhalb Jahre. Vermutlich hat eine Flutwelle es vor etwa 3,3 Millionen Jahren mitgerissen und dann sehr schnell unter Kies und Sand begraben, so dass es vor Aasfressern und der Witterung geschützt war.

Auf dem Weg zu einer langen Kindheit

Aufgrund der versteinerten Schädelknochen (Abbildung 2) konnte das Team am Max-Planck-Institut dem Dikika-Kind auch Geheimnisse über die Evolution der Gehirnentwicklung entlocken.

Abbildung 2: Puzzle-Spiel für Anthropologen. Über mehrere Jahre arbeiteten die Forscher an der Rekonstruktion von fossilen Schädeln der Art Australopithecus afarensis. Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Entgegen früheren Behauptungen fanden Forscher in keinem Australopithecus afarensis Gehirnabdruck Hinweise auf eine menschenähnliche Neuorganisation des Gehirns. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0.

Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Basierend auf Abgüssen des inneren Schädels konnten die Leipziger das Gehirnvolumen schätzen und aus den sichtbaren Gehirnwindungen wichtige Aspekte der Gehirnorganisation ableiten. „Nach sieben Jahren Arbeit hatten wir endlich alle Puzzleteile, um die Evolution des Gehirnwachstums zu untersuchen“, erzählt der Max-Planck-Forscher Philipp Gunz: „Das Sterbealter des Dikika-Kindes und sein Gehirnvolumen, die Gehirnvolumina der am besten erhaltenen erwachsenen Australopithecus afarensis-Fossilien sowie Vergleichsdaten von mehr als 1600 modernen Menschen und Schimpansen.” Die Ergebnisse werfen ein neues Licht auf zwei viel diskutierte Fragen: Gibt es Hinweise auf eine menschenähnliche Organisation des Gehirns bei Australopithecus afarensis? Und: War das Muster des Gehirnwachstums bei Australopithecus afarensis dem von Schimpansen oder dem von Menschen ähnlicher?

Herunter von den Bäumen

Entgegen früheren Annahmen weisen die Gehirnabdrücke von Australopithecus afarensis auf eine affenähnliche Gehirnorganisation hin und zeigen keine menschenähnlichen Merkmale (Abbildung 3).

Abbildung 3: Wer hat was im Kopf? Ein markanter Unterschied zwischen den Gehirnen von Menschenaffen und Menschen ist die Lage des primären visuellen Kortex. Bei allen Affengehirnen liegt dieser am Rand einer gut sichtbaren halbmondförmigen Furche (rechtes Bild, rot eingefärbte Struktur). Bei Gehirnabdrücken moderner Menschen gibt es diese Furche nicht. Der Gehirnabdruck im fossilen Schädel des Australopithecus afarensis-Kindes besitzt eine affenähnliche Furche (linkes Bild, weiße Linien in der rot eingefärbten Struktur). © P. Gunz, MPI für evolutionäre Anthropologie / CC BY-NC-ND 4.0

„Weil die Gehirne von Australopithecus afarensis Erwachsenen etwa 20 Prozent größer waren als die von Schimpansen, deutet das kleine Gehirnvolumen des Dikika-Kindes auf ein längeres Gehirnwachstum als bei Schimpansen hin“, so Gunz. Bei Primaten hängen das Wachstumsmuster und die Fürsorge-Strategie für die Jungtiere miteinander zusammen. Die verlängerte Wachstumsphase des Gehirns bei Australopithecus afarensis könnte also möglicherweise auf eine lange Abhängigkeit der Kinder von den Eltern hindeuten. Alternativ könnte sie auch eine Anpassung an Umweltbedingungen sein: Bei Nahrungsmangel würde der Energiebedarf abhängiger Nachkommen so über viele Jahre verteilt. In beiden Fällen bildete das lange Gehirnwachstum bei Australopithecus afarensis eine Grundlage für die spätere Evolution des Gehirns und des Sozialverhaltens bei Homininen, und für die Evolution einer langen Kindheit.

Der Oberschenkelknochen, das Schienbein und der Fuß liefern den Beweis, dass Australopithecus afarensis aufrecht gegangen ist – jedoch auf eine andere Art und Weise als wir (erst Homo erectus entwickelt vor 1,7 Millionen Jahren eine Art des aufrechten Gangs, die im Wesentlichen mit der Fortbewegungsweise der modernen Menschen übereinstimmt). Die beiden vollständig erhaltenen Schulterblätter des Dikika-Kindes ähneln denen eines jungen Gorillas und erleichterten wahrscheinlich das Klettern. „Wir gehen davon aus, dass sich diese frühen Vorfahren noch gut in Bäumen fortbewegen konnten“, erklärt Gunz. Was auch nicht weiter verwundert: Verschiedene Strukturen und Organe evolvieren in der Regel unterschiedlich schnell, sodass ein Mosaik von ursprünglichen und abgeleiteten Merkmalen entsteht. Jene Selektionskräfte, die den aufrechten Gang hervorbrachten, haben zuerst auf die Hinterbeine und das Becken gewirkt; die Arme und die Schulterpartie waren zunächst weniger bedeutsam, „deshalb passt die untere Körperhälfte des Australopithecus gut zum aufrechten Gang, während Oberkörper und Arme altmodischer wirken“, sagt Jean-Jacques Hublin.

Ein besonders seltener und aufregender Teil des Dikika-Fundes ist das Zungenbein. Dieser zarte Knochen hält Zunge und Kehlkopf in Position. Er spielt vermutlich eine wichtige Rolle bei der Produktion menschlicher Sprache und könnte den Forschenden helfen, die Konstruktion und Evolution des menschlichen Sprechapparates besser zu verstehen. Die Beschaffenheit dieses Knochens bei ausgestorbenen Homininen-Arten ist weitgehend unbekannt. Das einzige bislang gefundene Neandertaler-Zungenbein sieht menschlich und nicht Schimpansen-ähnlich aus. Der Zungenbeinknochen des Dikika-Mädchens ähnelt dagegen dem afrikanischer Menschenaffen. Damit bestätigt dieser Fund Berechnungen der britischen Anatomin Margaret Clegg und ihrer Kollegin, der Anthropologin Leslie Aiello, die 2002 mittels statistischer Analyse von Affen- und Menschenschädeln versucht haben, Indikatoren für die Form des Zungenbeins zu finden. Ihren Voraussagen zufolge haben die Australopithecinen eine ähnliche Zungenbeinform wie Schimpansen und Gorillas gehabt. Doch schon bei den anatomischen Übergangsformen zwischen Australopithecus und der Gattung Homo soll sich das Zungenbein in die menschliche Richtung verändert haben – ein Hinweis dafür, dass der frühe Urmensch seinen Stimmapparat anders verwendete als seine Ahnen.

Homo sapiens - Fortschritt oder Anpassung?

Australopithecus afarensis gehört zu den Wurzeln des Stammbaumes von Homo sapiens – doch zwischen diesen frühen Homininen vor mehr als drei Millionen Jahren und den ersten bekannten Vertretern unserer eigenen Art vor ungefähr 300.000 Jahren liegt ein langer Zeitraum. Die Fossilüberlieferung beweist, dass in dieser Zeitspanne viele verschiedene Menschentypen gleichzeitig nebeneinander existierten (Abbildung 4). Der größte Teil der bekannten fossilen Frühmenschen gehörte nicht einem einzelnen, sich entwickelnden Stamm an. Es gab eine ganze Reihe getrennter Evolutionszweige, die meisten von ihnen waren Seitenzweige und Sackgassen, von denen keine Spur in die moderne Welt führt. So gleicht der menschliche Stammbaum einem sich verzweigenden Busch mit vielen abgestorbenen Zweigen. Dass die Entwicklung zum Homo sapiens nicht linear verlief, muss nicht erstaunen. Denn der zentrale Punkt bei der Evolution ist nicht der Fortschritt zu Höherem, sondern das Hervorbringen verschiedenartiger Formen, Varietäten wie Darwin sie nannte. „Die heutige Situation, dass wir seit dem Aussterben der Neandertaler vor etwa 30.000 Jahren die einzige Homininenart auf diesem Planeten sind, ist die Ausnahme“, sagt Philipp Gunz.

Abbildung 4: Ein bunter Haufen - die Homininen-Familie. Obere Reihe von links: Australopithecus afarensis, Kenyanthropus platyops, Paranthropus boisei, Homo neanderthalensis, H. habilis; untere Reihe von links: A. africanus, H. erectus, A. anamensis, H. rudolfensis. © W. Schnaubelt & N. Kieser – Atelier WILD LIFE ART für das Hessische Landesmuseum Darmstadt

Bei vielen Tiergruppen ist die stammesgeschichtliche Verzweigung in den unterschiedlichen Gattungen und Arten heute noch sichtbar, zum Beispiel bei den paarhufigen Wiederkäuern mit Hörnern, den Bovidae. Afrika ist ihr Hauptverbreitungsgebiet, aber sie sind auch auf allen anderen Kontinenten (mit Ausnahme von Australien) anzutreffen. Zu dieser Familie zählen die winzigen Dikdiks ebenso wie der massige Kaffernbüffel. Wollte man ihre Entwicklung als fortschreitende Stufenleiter betrachten, so käme man in erhebliche Schwierigkeiten. Denn die Merkmale der verschiedenen Bovidae sind keineswegs Kennzeichen einer evolutionären Weiterentwicklung, sondern resultieren aus der Anpassung an die jeweiligen Anforderungen der unterschiedlichen Lebensräume und des damit verbundenen Nahrungsangebots. Die meisten Tiergruppen sind insbesondere in den frühen Abschnitten ihrer Evolutionsgeschichte sehr unterschiedlich ausgestaltet, und es gibt keinen Grund, warum dies ausgerechnet bei der Humanevolution anders gewesen sein sollte.

So mancher sieht im aufrechten Gang viel lieber einen Fortschritt als eine Alternative zur vierfüßigen Fortbewegungsweise. Aber wir sollten uns fragen, ob nicht beispielsweise die unterschiedliche Gehirngröße bei den Homininen schlichtweg eine Anpassung an verschiedene Lebensräume sein könnte. Die Fossilienüberlieferung zeigt, was es mit der angeblichen Weiterentwicklung auf sich hat: Tatsächlich lebten, z.B.im Osten und Süden Afrikas zeitgleich Vertreter der Homininengattung Paranthropus mit ihren relativ kleinen Gehirnen zur gleichen Zeit wie Vertreter der menschlichen Gattung Homo mit ihren größeren Gehirnen. Die verschiedenen Homininen stellen nichts anderes dar als alternative Antworten auf die vielfältigen Umweltbedingungen (adaptive Radiation).

Und wenn sie überlebt hätten?

Vergegenwärtigt man sich dieses Muster, so drängt sich die Frage auf, welche Rolle dann noch die menschliche Einzigartigkeit spielt. Bei der Betrachtung von Menschen und Menschenaffen klafft eine vermeintlich große Lücke zwischen uns und unseren nächsten Verwandten. Doch dieser evolutionäre Raum war in der Vergangenheit kein Vakuum, sondern enthielt zahlreiche weitere Homininenformen. Hätten die robusten Paranthropus-Arten in Afrika überlebt, hätten sich die Neandertaler in Sibirien oder der Homo erectus auf Java erhalten, dann würden uns die Unterschiede zwischen Menschen und Schimpansen längst nicht so beeindrucken.


* Der Artikel ist erstmals unter dem Titel: " Virtueller Blick in alte Knochen. Dem Leben unserer Urahnen auf der Spur" in BIOMAX Ausgabe 24, Neuauflage Frühjahr 2021 erschienen. https://www.max-wissen.de/Fachwissen/show/5599  und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Abteilung für Human Evolution im Max-Planck-Institut für evolutionäre Anthropologie (MPI EVA)http://www.eva.mpg.de/evolution/index_german.htm

Lucy had an ape like brain | Science Snippet. MPI für Evolutionäre Anthropologie. Video 0,45 min. https://www.youtube.com/watch?v=auuxhsfUxbg

The Story of Selam: Discovery of the Earliest Child. Video 10:32 min. https://www.youtube.com/watch?v=8_qRSkzzDbU

Evolution des Gehirns http://www.geo.de/GEO/natur/tierwelt/das-gehirn-evolution-des-gehirns-57...

 

Artikel im ScienceBlog:

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Philip Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung


 

inge Wed, 19.05.2021 - 23:41

Die Sonne im Tank - Fusionsforschung

Die Sonne im Tank - Fusionsforschung

Do, 13.05.2021 — Roland Wengenmayr

Icon Physik

Roland WengenmayrDer globale Energieverbrauch - derzeit zu 85 % aus fossilen Energieträgern gedeckt - wird trotz verschiedenster Sparmaßnahmen bei wachsender Erdbevölkerung weiter ansteigen. Ein Umstieg auf ein neues Energiesystem ist vor allem auf Grund des Klimawandels, aber auch wegen der limitierten Brennstoff-Ressourcen und der politischen Abhängigkeiten unabdingbar. Mit einer Nutzung der Kernfusion, d.i. der Quelle, aus der die Sonne ihre Energie speist, könnte die Menschheit eine fast unerschöpfliche Energiequelle erschließen, die keine gefährliche Treibhausgase freisetzt. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr gibt einen Überblick über die Grundlagen der Kernfusion und den Status der Kernfusionsforschung.*

Ohne Sonne gibt es kein Leben – das wussten schon unsere Vorfahren. Für die antiken Griechen schwang sich morgens ihr Gott Helios auf seinen Sonnenwagen, um für Licht und Wärme zu sorgen. Doch was lässt nun wirklich das Sonnenfeuer scheinbar ewig brennen? Darüber zerbrachen sich lange die klügsten Denker vergeblich den Kopf. 1852 kam Hermann von Helmholtz zu dem entsetzlichen Schluss, dass die Sonne schon nach 3021 Jahren ausgebrannt sein müsse. Dabei ging der berühmte Physiker von der Knallgasreaktion als Energiequelle aus, in der Wasserstoff chemisch mit Sauerstoff zu Wasser verbrennt. Erst 1938 löste der deutsch-amerikanische Physiker und spätere Nobelpreisträger Hans Bethe das Rätsel: Nicht chemische Verbrennungsprozesse sind die Quelle solarer Glut, sondern die Verschmelzung von Atomkernen – und zwar überwiegend von Wasserstoffkernen zu Heliumkernen. Abbildung 1.

Abbildung 1: Die Energieproduktion der Sonne erfolgt aus der Verschmelzung von Atomkernen. © SOHO-Collaboration, ESA & NASA

Diese Kernfusion setzt pro beteiligtem Wasserstoffatom rund vier Millionen mal mehr Energie frei als die Knallgasreaktion. Dank dieser enormen Effizienz wird die Sonne mit ihrem Brennstoffvorrat zum Glück noch weitere 4,5 Milliarden Jahre auskommen.

In ihrem Inneren laufen mehrere Fusionsreaktionen des leichten Wasserstoffs ab. Dabei dominiert eine Reaktion, die als „Proton-Proton-Reaktion 1“ bezeichnet wird (Abbildung 2): Vier Wasserstoff-Atomkerne, also Protonen, verschmelzen über Zwischenschritte zu einem Heliumkern aus zwei Protonen und zwei Neutronen. Die Neutronen entstehen aus Protonen. Dabei tragen Positronen, die Antimaterie-Gegenspieler der Elektronen, die überschüssige positive elektrische Ladung davon.

Abbildung 2: Die "Proton-Proton-Reaktion 1" in der Sonne. (Protonen: rot, Neutronen: blau).© R. Wengenmayr / CC BY-NC-SA 4.0

Diese Verschmelzungsreaktion braucht allerdings enorme Temperaturen. Für die Sonne kein Problem: In ihrem Zentrum herrschen etwa 15 Millionen Kelvin. Dabei trennen sich die Kerne der leichten Atome völlig von ihren Elektronen. Sie formen ein heißes Gas aus elektrisch geladenen Teilchen, ein Plasma. Zudem existiert im Sonneninneren aufgrund der gewaltigen Gravitation ein enormer Druck: Umgerechnet 200 Milliarden Erdatmosphären pressen das Plasma so zusammen, dass ein Kubikzentimeter davon auf der Erde fast so viel wiegen würde wie 20 gleich große Würfel aus Eisen.

Nur unter so extremen Bedingungen überwinden die Protonen ihren Widerstand gegen die Fusionshochzeit. Normalerweise stoßen sie sich nämlich wegen ihrer gleichen elektrischen Ladung gegenseitig stark ab. Doch im heißen Sonneninneren flitzen die Protonen so schnell umher, dass sie trotzdem kollidieren können – Wärme ist in der Mikrowelt nichts anderes als Bewegungsenergie. Sie nähern sich dabei bis auf 10–15 Meter an (d.i. ein Femtometer oder ein Billionstel von einem Millimeter), und an diesem „Umschlagspunkt“ beginnt die Kernkraft zu dominieren. Diese stärkste Kraft der Physik hat zwar nur eine geringe Reichweite, übertrifft innerhalb dieser jedoch die elektrische Kraft. Die Kernkraft kann deshalb auch die widerspenstigen Protonen zu Atomkernen verbinden; ohne sie gäbe es also weder Atome noch uns. Die Dichte des gepressten Sonnenplasmas sorgt überdies für ausreichend viele Zusammenstöße und hält so den solaren Fusionsofen warm.

In der griechischen Mythologie stahl ein gewisser Prometheus das Feuer von Helios’ Sonnenwagen, um es den Menschen zu schenken. Zu den modernen Nachfahren des Prometheus gehören Forscher wie der inzwischen verstorbene Lyman Spitzer. In einem Vortrag am 11. Mai 1951 umriss der amerikanische Astrononom von der Princeton University, wie sich das Sonnenfeuer auf die Erde holen ließe. Er hatte die entscheidende Idee, wie man das viele Millionen Grad heiße Plasma auf der Erde so einschließen kann, dass darin eine kontrollierte Kernfusion möglich wird. Denn der Kontakt mit einer materiellen Gefäßwand wäre fatal: Das Plasma würde schlagartig auskühlen und die empfindliche Fusionsreaktion sofort erfrieren. Spitzer schlug vor, das Plasma in einem magnetischen Käfig schweben zu lassen. Da Plasma aus elektrisch geladenen Teilchen besteht, ist das möglich, denn Magnetfelder üben auf elektrische Ladungen Kraft aus. Damit skizzierte Spitzer das Grundprinzip zukünftiger Fusionsreaktoren. Magnetische Kräfte haben allerdings den Nachteil, dass sie ziemlich schwach sind. Sie können nur ein extrem dünnes Plasma gefangen halten, etwa 250.000-fach dünner als Luft auf Meereshöhe. Deswegen wird das heiße Plasma auch in großen Reaktoren nie mehr Druck aufbauen als Luft in einem Fahrradreifen. So einfach lässt sich die Sonne also nicht kopieren.

Angeheizte Wasserstoffkerne

Das gilt auch für die Fusionsreaktion. In einem künstlichen Reaktor würde die solare Proton-Proton-Reaktion viel zu langsam ablaufen. Aber zum Glück erlaubt die Natur alternative Fusionsreaktionen, und eine davon eignet sich besonders gut für den technischen Einsatz. Damit gelang es Plasmaphysikern bereits in den 1990er-Jahren, die kontrollierte Kernfusion anlaufen zu lassen, und zwar an der europäischen Forschungsanlage JET, Joint European Torus, im englischen Abingdon und am Tokamak Fusion Test Reactor (TFTR) der amerikanischen Princeton University. Diese alternative Fusionsreaktion braucht zwei Arten von schwerem Wasserstoff als Brennstoffkomponenten: das ist das Wasserstoffisotop Deuterium, dessen Kern neben dem Proton ein Neutron enthält, und das noch schwerere Tritium mit einem Kern aus einem Proton und zwei Neutronen. Je ein Deuterium- und ein Tritiumkern verschmelzen zu einem Heliumkern (Abbildung 3).

Abbildung 3: Im Fusionsreaktor verschmilzt je ein Deuterium-Kern mit einem Tritium-Kern zu einem Heliumkern (Protonen: rot, Neutronen: blau). Dabei wird ein Neutron mit einer Energie von 14,1 Milliarden Elektronenvolt frei. © R. Wengenmayr / CC BY-NC-SA 4.0

Allerdings funktioniert das erst oberhalb von 100 Millionen Kelvin, ideal sind 300 Millionen Kelvin. Erst dann sind die schweren Wasserstoffkerne genügend in Fahrt, um effizient zu verschmelzen. Zehn bis zwanzigmal höhere Temperaturen als in der Sonne scheinen ein verrücktes Ziel zu sein. Doch sie sind in heutigen Plasmaexperimenten längst Routine geworden. Die Forschungsanlage ASDEX Upgrade am Max-Planck-Institut für Plasmaphysik in Garching erreichte schon über 250 Millionen Kelvin.

Bei der Fusion von Deuterium mit Tritium bekommt der entstehende Heliumkern rund zwanzig Prozent der freiwerdenden Energie mit. Damit heizt er das von Auskühlung bedrohte Plasma nach. Die restlichen achtzig Prozent der Fusionsenergie trägt das Neutron davon. Als elektrisch neutrales Teilchen entkommt es dem Magnetkäfig und trifft auf die Wand des Reaktorgefäßes. In einem zukünftigen Kraftwerk werden die Neutronen dort den überwiegenden Teil der Fusionswärme auf ein Kühlmittel übertragen, zum Beispiel Wasser oder Helium. Das befördert die Wärmenergie dann zu einer Turbinenanlage mit elektrischen Generatoren, genau wie bei konventionellen Kraftwerken (Abbildung 4).

Abbildung 4: Fusionskraftwerk © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Energie des Neutrons entspricht 14,1 Millionen Elektronenvolt oder umgerechnet 2,3 x 10–12 Joule. Dieser scheinbar winzige Wert ist im Vergleich zur chemischen Verbrennung gigantisch: Ein Gramm Brennstoff kann in einem Fusionsreaktor rund 90 Megawattstunden Wärmeenergie produzieren. Dafür muss man acht Tonnen Erdöl oder elf Tonnen Kohle verfeuern.

Aber nicht nur die winzigen Brennstoffmengen wären ein Vorteil der Kernfusion: Sie setzt vor allem kein Klima schädigendes Kohlenstoffdioxid frei. Und ihre „Asche“ ist nur ungefährliches Helium.

Das Neutron hat aber noch eine Aufgabe: Es soll in der Wand des Reaktorgefäßes die zweite Brennstoffkomponente Tritium erbrüten. Tritium ist radioaktiv mit einer Halbwertszeit von 12,3 Jahren. Deshalb soll es der zukünftige Fusionsreaktor in einem geschlossenen Kreislauf herstellen und gleich wieder verbrauchen. Der „Rohstoff“ für das Tritium ist Lithium. Dieses dritte Element im Periodensystem und leichteste aller Metalle wird in die Reaktorwand eingebracht. Trifft dort ein Neutron den Kern des Lithium-6-Isotops, dann zerfällt dieser zu einem Heliumkern und dem erwünschten Tritiumkern.

Wettrennen um das beste Konzept

Abbildung 5: Die elektrisch geladenen Teilchen des Plasmas bewegen sich entlang der Magnetfeldlinien (schwarzer Pfeil) auf Spiralbahnen.; Der Radius der Spirale hängt von der Masse der Teilchen ab: Die schwereren Protonen umschreiben größere Spiralen als die Elektronen.© R. Wengenmayr / CC BY-NC-SA 4.0

Die große Herausforderung ist ein effizienter magnetischer Einschluss des aus den beiden Wasserstoffsorten Deuterium und Tritium bestehenden Plasmas. Beim Bau des Magnetfeldkäfigs für das Plasma nutzen die Fusionsforscher aus, dass die geladenen Plasmateilchen – die Protonen und Elektronen – von elektromagnetischen Kräften auf Spiralbahnen um die magnetischen Feldlinien gezwungen werden (Abbildung 5). Von einem geeignet geformten Magnetfeld wie auf Schienen geführt, können die Teilchen so von den Wänden des Plasmagefäßes ferngehalten werden. Für einen „dichten“ Käfig müssen die Feldlinien innerhalb des ringförmigen Plasmagefäßes geschlossene, ineinander geschachtelte Flächen aufspannen – wie die ineinander liegenden Jahresringflächen eines Baumstamms (Abbildung 6). Auf diesen Flächen ist der Plasmadruck jeweils konstant, während er von Fläche zu Fläche – vom heißen Zentrum nach außen – abnimmt.

Diese ineinander geschachtelten „Magnetröhren“ würden nun jedoch die Plasmateilchen an ihren Enden verlieren – mitsamt der kostbaren Wärmenergie. Deshalb werden sie zu einem Ring geschlossen. Allerdings wird dadurch das Magnetfeld auf der Innenseite des Rings stärker als auf der Außenseite, weil sich die Feldlinien dort dichter zusammendrängen. In der Folge würde das Plasma nach außen aus dem Ring schleudern. Um das zu verhindern, verdrillen die Physiker das Magnetfeld nochmals in sich.

Abbildung 6: Die magnetischen Flächen sind sauber ineinander geschachtelt – wie die Jahresringflächen eines Baumstammes. So werden nach außen weisende Feldkomponenten vermieden, die die Plasmateilchen auf die Wände führen würden. Die hohen Zündtemperaturen wären dann unerreichbar. © MPI für Plasmaphysik / CC BY-NC-ND 4.0 V

Die Feldlinien schrauben sich um die „Jahresringe“ herum: So führen sie die Plasmateilchen immer wieder vom schwächeren Magnetfeld auf der Ringaußenseite zurück ins dichtere Magnetfeld innen – das Plasma bleibt gefangen. Das erfordert jedoch eine komplizierte Anordnung der Magnetfeldspulen. Die Stellaratoren, die „Sternenmaschinen“ (lat. stella für Stern), an denen die Fusionsforscher in den 1950er- und 1960er-Jahren arbeiteten, scheiterten zunächst daran. Erst heute können Supercomputer die Geometrie der Spulen so genau berechnen, dass der Stellarator wieder im Rennen um das beste Konzept für einen Fusionsreaktor ist (Abbildung 7). Am Teilinstitut Greifswald des Max-Planck-Instituts für Plasmaphysik ging Ende 2015 der Stellarator Wendelstein 7-X in Betrieb. Er soll zeigen, dass Stellaratoren das heiße Plasma zuverlässig einschließen können.

Abbildung 7: (links): Stellarator; (rechts): Tokamak. © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Nase vorn hat derzeit noch ein konkurrierendes Prinzip: der Tokamak (Abbildung 7). Der Name kommt aus dem Russischen „Toriodalnaya kamera s magnetnymi katuschkami“ und bedeutet auf Deutsch „ringförmige Kammer mit magnetischen Spulen“. Während Stellaratoren den Magnetfeldkäfig ausschließlich mit Hilfe äußerer Spulen aufbauen, stellen Tokamaks einen Teil dieses Feldes durch einen im Plasma fließenden elektrischen Strom her. Dieser „verdrillt“ das Magnetfeld, damit es das Plasma wie ein Schlauch zusammenhält. Zudem heizt er das Plasma auf. Der Tokamak ist einfacher aufgebaut als ein Stellarator. Deshalb verhalf er der Fusionsforschung zu hohen Temperaturen im Plasma und schließt es auch gut ein. Als Transformator induziert er im Plasma allerdings nur Strom, solange sich die Stromstärke in seiner Primärspule ändert. Er muss also im Gegensatz zum Stellarator mit Pulsen arbeiten. Für einen Kraftwerksbetrieb ist das nicht sehr praktisch, auch wenn sich ein Puls über Stunden ausdehnen lässt. Deshalb forschen die Plasmaphysiker an einer alternativen Betriebsweise: Zusätzliche elektromagnetische Hochfrequenzfelder sollen das Auf und Ab der Pulse so ausgleichen, dass im Plasma ein Gleichstrom fließt.

Wenig Radioaktivität

Entscheidend ist ein perfekter magnetischer Einschluss, der das heiße Plasma möglichst gut isoliert und nicht auskühlen lässt. Einige wichtige Ideen dazu haben die Garchinger Max-Planck-Wissenschaftler entwickelt. Sie fließen nun ein in den Bau des großen internationalen Forschungsreaktors ITER (lat. „der Weg“), der in Cadarache, Südfrankreich, entsteht. 2025 soll ITER das erste Plasma erzeugen, später „zünden“ und erstmals mehr Fusionsenergie erzeugen als seine Plasmaheizung verbraucht – und zwar zehnmal soviel. Im Anschluss könnte DEMO folgen: Dieser Prototyp eines Kraftwerks soll aus der Fusionswärme bereits elektrischen Strom erzeugen. Ab Mitte dieses Jahrhunderts wären die ersten kommerziellen Fusionskraftwerke möglich. Die Menschheit hätte sich dann eine fast unerschöpfliche Energiequelle erschlossen. Sie könnte den weltweit rasch wachsenden Bedarf an elektrischer Energie decken, ohne gefährliche Treibhausgase freizusetzen. Der Brennstoffvorrat wäre gigantisch, denn schon 0,08 Gramm Deuterium und 0,2 Gramm Lithium würden genügen, um den heutigen Jahresbedarf einer Familie an elektrischem Strom zu erzeugen. Das Deuterium steckt in schwerem Wasser (D2O), das in allen Ozeanen natürlicherweise vorkommt. Lithium ist Bestandteil von Mineralien, die fast überall in der Erdkruste existieren. Die Energieversorgung wäre kein Anlass mehr für geopolitische Konflikte.

Doch jede Form der Energiegewinnung hat ihren Preis: Kernkraftwerke enthalten sehr stark radioaktiv strahlende Brennelemente, der Einsatz fossiler Brennstoffe dreht gefährlich an der Klimaschraube, große Wasserkraftwerke oder Windparks verändern Landschaften. Bei der Kernfusion ist das Innere des Reaktorgefäßes radioaktiv. Die Brennstoffmengen sind jedoch vergleichsweise winzig, und die empfindliche Fusionsreaktion kann nicht „durchgehen“. Sie ist also anders als die Kettenreaktion der Kernspaltung selbstsichernd: Bricht das Magnetfeld zusammen, dann berührt das Plasma die Wand, kühlt schlagartig aus und die Fusionsreaktion stoppt. Die Wand übersteht das aufgrund der geringen Plasmadichte fast ohne Schaden. Der schlimmste denkbare Unfall wäre ein Entweichen des Tritiums aus dem Reaktor. Die Menge wäre zwar sehr klein, doch das schnell zerfallende Tritium kann Krebs verursachen. Diese Möglichkeit eines Unfalls nehmen die Planer eines zukünftigen Kraftwerks sehr ernst, auch wenn seine Folgen nicht im Entferntesten mit einem Kernkraft-GAU zu vergleichen wären. Der jahrelange Neutronenbeschuss wird allerdings einen Teil des Reaktorgefäßes radioaktiv „aktivieren“. Das gilt vor allem für bestimmte Stahllegierungen, in denen Spurenelemente sich in radioaktive Isotope umwandeln. Teile der Reaktorwand müssten einige hundert Jahre lang gelagert werden, bis diese Radioaktivität abgeklungen ist. Dieses Problem will die Forschung durch die Entwicklung neuer Materialien entschärfen. Und dafür hat sie ja noch einige Jahre Zeit.


 * Der Artikel ist erstmals unter dem Title: "Wie die Fusionsforschung das Sternenfeuer einfängt . Die Sonne im Tank " in TECHMAX 9 (aktualisiert 07. 2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/Fachwissen/show/5415 und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Blaupause für ein Fusionskraftwerk - Am 21. März 1991 erzeugte die Experimentieranlage Asdex Upgrade am Max-Planck-Institut für Plasmaphysik in Garching das erste Plasma 18.3.2021. https://www.mpg.de/16606538/30-jahre-asdex-upgrade

Energiequelle Fusion: https://www.ipp.mpg.de/7332/energiequelle

Fusionsreaktor ITER: https://www.iter.org/ ITER construction is underway now. On the ITER site, buildings are rising; abroad, machine and plant components are leaving factories on three continents. In the years ahead, over 4,000 workers will be required for on-site building, assembly and installation activities

 

Schwerpunkt Energie im ScienceBlog:

Energie zählt im ScienceBlog von Anfang an zu den Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen.Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel (derzeit sind es 40) ist nun im Themenschwerpunkt Energie zusammengefasst.

inge Wed, 12.05.2021 - 23:59

Comments

Kleines Detail am Rande: Die 15 Mio ° im Sonneninneren reichen an und für sich nicht aus, um zwei Kerne verschmelzen zu lassen! Rechnet man die kinietische Energie aus, so findet man schnell, dass sie nircht genügt, um die Abstoßung durch das elektrische Potenzial zu überwinden!

Und doch leuchtet die Sonne?!

Der Grund liegt in der Heisenbergschen Unschärferelation, derzufolge nicht nur der Physiker niemals Position und Impuls eines Teilchens gleichzeitig exakt feststellen kann, sondern auch die Natur selbst: Die Unschärferelation ist eine absolut universelle Gesetzmäßigkeit. Und hier begründet sich der "Tunneleffekt": Dann und wann kann ein Teilchen ein Potenzial überwinden, für das es zu wenig kinietische Energie hat. Es braucht dazu "nur" eine Position "hinter" dem Potenzial einnehmen. Im Klartext: Mitten in den Kern rein, und fertig ist die Fusion.

(Und wen es interessiert: Lyman Spitzer ist der Namensgeber des Spitzer-Weltraumteleskops.)

Das Neuronengeflecht entwirren - das Konnektom

Das Neuronengeflecht entwirren - das Konnektom

Do, 06.05.2021 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Für die Verbindungen zwischen den Zellen des Nervensystems interessierten sich bereits vor 140 Jahren Anatomen, aber erst raffinierte Färbetechniken ermöglichten es, den Verlauf und die Verbindungen einzelner Neurone nachzuzeichnen. Um Nervenbahnen und Netzwerke im Gehirn zu verfolgen, bedarf es ausgeklügelter Technologien, vor allem aber viel Geduld und Liebe zum Detail. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm beschreibt im folgenden Artikel welche Methoden und Geräte es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen bedarf.*

Die Aufgabe: Wir entwirren einen Haufen Spaghetti. Die Spielregeln: Die Lage jeder einzelnen Nudel und deren Verlauf sind feinsäuberlich zu erfassen, außerdem müssen alle Kontaktstellen mit den Nachbarn exakt kartiert werden.

Was bei einem kleinen Teller bereits eine gewaltige Herausforderung wäre, würde bereits bei einem Topf zur Strafe. Und wenn der Haufen nicht wie der Inhalt einer typischen Packung aus 500 oder 600 Spaghetti bestünde, sondern gleich ein ganzer Berg wäre?

Der Berg, um den es hier geht, ist das menschliche Gehirn mit seinen geschätzt 86 Milliarden Nervenzellen – was in etwa 15 Millionen Packungen Spaghetti entspricht. Was die Sache noch komplizierter macht: Wir haben nicht nur eine Sorte von Nervenzellen im Kopf, sondern Dutzende oder gar Hunderte verschiedene Typen. Wie also soll das gehen? Welche Methoden, welche Geräte braucht es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen?

Unendliche Geduld, Liebe zum Detail, künstlerische Begabung und auch ein wenig Glück brachte der spanische Mediziner und Histologe Santiago Ramón y Cayal als Startkapital ein. Jeder Student der Neurowissenschaften kennt die Zeichnungen, die Cayal vor etwa 140 Jahren angefertigt hat: Ästhetisch und präzise zugleich zeigen sie Hirnzellen von Hühnern, Spatzen oder Tauben mit nie zuvor gesehenen Details. Abbildung 1.

Abbildung 1. Zeichnung des primären Sehzentrums (Tectum opticum) des Sperlings von von Santiago Ramón y Caja (Estructura de los centros nerviosos de las aves, Madrid, 1905.Das Bild ist gemeinfrei)

Was bis dato nur eine verschwommene Masse war, offenbarte sich dank einer von Cayals Konkurrenten, Camillo Golgi, entwickelten Technik zur „Versilberung“ von Nervenzellen unter dem Mikroskop als Ansammlung faszinierender und klar unterscheidbarer Strukturen.

Unsichtbare Verbindungen

Niemand weiß, warum die eingesetzten Silbersalze nur einzelne Nervenzellen sichtbar machten und aus der Masse der gleich gestalteten Nachbarn hervorhoben. Baumartig erschienen die Zellen aus einer Hirnregion, spinnenförmig die einer anderen. Manche sind mehr, andere weniger stark verästelt. Doch wie hängt das alles zusammen?

Während Golgi ein durchgängig miteinander verknüpftes Netzwerk zu sehen glaubte, postulierte Cayal, dass es zwar Kontaktstellen gäbe, diese aber nicht beständig seien und nur bei der Kommunikation genutzt würden. Cayal sollte recht behalten. Sehen konnte man dies damals allerdings nicht, da die Auflösung der Lichtmikroskope dafür nicht ausreichte. So erhielten beide Konkurrenten 1906 gemeinsam den Nobelpreis für Medizin „in Anerkennung ihrer Arbeit über die Struktur des Nervensystems“ .

Die Leistungsfähigkeit der Mikroskope hat sich seitdem beständig verbessert. Abbildung 2. Mit der Einführung der Elektronenmikroskopie vor etwa 75 Jahren stieg die Auflösung um das 1000-fache: auf etwa ein Zehnmillionstel Millimeter (0,1 Nanometer). Es folgten Laserstrahlen zur Verfolgung fluoreszierender Moleküle im Gewebe und Computer, mit denen diese Informationen in digitale Bilder und Datenbanken umgewandelt werden.

Abbildung 2.Sichtbarmachen von Nervenbahnen und Vernetzungen im Gehirn mittels Mikroskopie. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Buchstäblich für mehr Durchblick sorgt heute auch die bereits 1914 in Leipzig von Werner Spalteholz entwickelte Technik zum Durchsichtigmachen von großen Gewebestücken oder ganzen Organen (CLARITY), die Spalteholz´ Nachfolger für hochaufgelöste 3D-Darstellungen nutzen.

Lange Zeit jedoch blieb das Gewirr der Nervenzellfortsätze (Neuropil) für Neuroanatomen und Histologen undurchdringlicher als jeder Dschungel. Gesucht wurde eine Methode, um einzelne Nervenzellfortsätze oder ganze Nervenstränge zu verfolgen. Die kam in den späten 1960er Jahren, als Zellbiologen mit radioaktiv markierten Aminosäuren arbeiteten, die sie in die Zellkörper von Neuronen injizierten. Als Bestandteil neu synthetisierter Proteine wanderten einige der Aminosäuren entlang der Axone zu den Nervenenden – und hinterließen eine schwarze Spur, wenn man die entsprechenden Gewebeschnitte mit Fotopapier bedeckte. Die Zellbiologen hatten somit nicht nur den schnellen axonalen Transport mit Geschwindigkeiten von bis zu einem Meter am Tag dokumentiert, sondern den Neuroanatomen auch ein neues Werkzeug an die Hand gegeben, so genannte Tracer, mit denen sich Nervenbahnen im Gehirn wie Spuren verfolgen lassen.

Meerrettich und Herpesviren

Auch der Gegenverkehr – also der retrograde axonale Transport – lässt sich verfolgen. Dazu wird das Enzym Meerrettich-Peroxidase ins Gehirn gespritzt, wo es von den Enden der Axone aufgenommen und zum Zellkörper transportiert wird. Später wird das Versuchstier geopfert, und die Meerrettich-Peroxidase in den Gewebeschnitten bildet unter Zugabe bestimmter Chemikalien bunt-farbige Reaktionsprodukte. So wird unter dem Mikroskop schließlich der Verlauf der Fasern durch das Gehirn und ein möglicher Zusammenhang einzelner Neurone sichtbar. Auch Herpesviren können – beispielsweise an Mund und Lippen – in Axone eindringen und wandern von dort zum Zellkörper. In Tierversuchen lassen sich bestimmte Stämme in ausgewählte Hirnregionen spritzen. Deren Wanderung durch benachbarte Neurone können Forscher dann nach einigen Tagen mit Hilfe von Antikörpern sichtbar machen . Ebenso wie die Gerätschaften wurden auch diese Tracer ständig weiterentwickelt, sodass den Laboren eine ganze Palette von synthetischen Molekülen für die verschiedensten Einsatzzwecke zur Verfügung steht, darunter die Carbozyanine, biotyniliertes Dextranamin und Fluorogold.

Abbildung 3.Das erste Konnektom: Sidney Brenner erstellte es 1986 im Fadenwurm C. elegans für dessen 302 Nervenzellen und deren rund 7000 Verbindungen. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz.)

Tatsächlich gelang es den Pionieren des Neurotracings Jahrzehnte bevor der Begriff „Konnektom“ überhaupt erfunden wurde, einige wenige neuronale Schaltkreise darzustellen. In den 1980er Jahren erreichten einige sehr geduldige Doktoranden einen Meilenstein, indem sie erstmals das vollständige Nervensystem eines Organismus kartierten. Es handelte sich dabei um das „Nervenkostüm“ des Fadenwurms Caenorhabditis elegans mit seinen rund 7.000 Verbindungen zwischen exakt 302 Nervenzellen. Abbildung 3.

Damit waren dann allerdings sowohl die Grenzen der damaligen Technik erreicht als auch der menschlichen Leidensfähigkeit, denn es ist eine furchtbare Arbeit, jeden Tag stundenlang durchs Mikroskop zu schauen und kaum sichtbare Details nachzuzeichnen.

Schnelle Computer und scharfe Messer

Klar war: Um selbst kleinste Gehirne komplett zu erfassen, bedurfte es völlig neuer Methoden. Und statt Hunderten von Doktoranden stupide Handarbeiten abzufordern, sollten diese Methoden möglichst weitgehend automatisiert werden. Nach Schätzungen liefert bereits ein Kubikmillimeter Hirngewebe eine Informationsmenge von mehreren Petabytes, also etwa das Tausendfache des Speichers eines modernen Heimcomputers. Dies zu verarbeiten, erfordert nicht nur Rechner mit entsprechend gewaltiger Geschwindigkeit und Speicherkapazität, sondern auch spezielle Programme, deren Algorithmen sowohl Muster in der Datenflut erkennen können, als auch diese Daten in anschaulicher Form darstellen.

Ebenfalls Teil des Geräteparks sind die wohl leistungsfähigsten Messer der Welt. Sie wurden von Kenneth J. Hayworth am Harvard Center for Brain Science entwickelt und haben Klingen aus synthetischen Diamanten. Die fortschrittlichsten dieser Schneidegeräte (Ultramikrotome) trennen Hirngewebe in Scheiben von weniger als 3 Millionstel Millimeter (30 Nanometer) Dicke und verfügen auch noch über einen Mechanismus, um die Schnitte automatisch einzusammeln und anzuordnen, sodass sie von Elektronenmikroskopen abgetastet werden können. Abbildung 4.

Abbildung 4. 3-Dimensionale Darstellung von Nervenbahnen und Vernetzungen im Hirngewebe. Die Oberfläche der Gewebeprobe wird mit dem Raster-Elektronenmikroskop abgetastet und ein 2D-Bild erstellt, sodann wird mit dem Ultramikrotom eine äußerst dünne Scheibe des Gewebes abgelöst, ein 2D-Bild der neuen Oberfläche erzeugt und dieser Vorgang über den gesamten Gewebeblock wiederholt. Die 2D-Bilder werden dann digital zu einem dreidimensionalen Bilddatensatz zusammengebaut. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Elektronenmikroskopie am Fließband

Dieses Prinzip der Serien-Block-Elektronenmikroskopie (SBEM) bekam in den letzten Jahren Konkurrenz durch eine weitere Variante, bei der die Dünnschnitte entfallen. Stattdessen werden kleine Blocks von Hirngewebe direkt im Gerät montiert und schichtweise von oben erfasst. Ein Ionenstrahl trägt die oberste Schicht ab, und das Gerät analysiert die nächste Schicht. Der Vorgang kann an einem einzigen Präparat mehrere Tausend Male wiederholt werden. Die „FIB-SBEM“ abgekürzte Methode liefert also auf direkterem Wege perfekt ausgerichtete Stapel digitaler Elektronenmikroskopien, mit denen sich der Verlauf neuronaler Fortsätze verfolgen lässt. Fehler darf man dabei allerdings nicht machen. Schließlich wird jeder Schnitt nach der Aufnahme verdampft, sodass man ihn kein zweites Mal aufnehmen kann.

Geht alles gut, ist die Auflösung der FIB-SBEM jedoch besser als bei der „einfachen SBEM und die Schichtdicke sinkt nochmals um den Faktor 10 auf kaum vorstellbare zwei Nanometer. Der Preis dafür ist allerdings ein Sichtfeld, das wesentlich kleiner ist als bei der „Diamantmesser-SBEM“. Doch schon haben die zahlreichen Tüftler unter den Konnektom-Forschern die nächste Stufe erdacht, die die Ionen-Schichtmikroskopie mit den Diamantmessern kombiniert. Hier werden nun die Miniblocks von Hirngewebe mit Schwermetallen gefärbt und in Epoxidharz eingebettet. Erhitzte und mit einer speziellen Schmierflüssigkeit benetzte Diamantmesser vermögen diese harten Brocken zu schneiden – und die Vorteile beider Methoden zu kombinieren.

Auch die Lichtmikroskopie ist beim Konnektom-Projekt mit an Bord. Hier wurden ebenfalls technische Verbesserungen mit neuen Methoden kombiniert, um tiefer ins Gewebe einzudringen, Unschärfen zu eliminieren und die Auflösung zu verbessern. So liefert die Lichtscheibenmikroskopie eine Auflösung von 100–300 Nanometern. In Kombination mit den Klarifizierungstechniken, die dem Gewebe Lipide entziehen, um es durchsichtiger zu machen, reicht das aus, um nicht nur Zellen und Neurone zu erfassen, sondern sogar einzelne Synapsen.

Dennoch: Es würde mehrere tausend Jahre in Anspruch nehmen, wollten Wissenschaftler auf diese Weise die Daten eines Spatzen- oder Mäusehirns sammeln. Aber auch für dieses Problem gibt es eine Lösung: So arbeiten manche neuere Elektronenmikroskope statt mit einem einzigen Elektronenstrahl mit einer Vielzahl identischer Einheiten im gleichen Gehäuse. Bis zu 91 Einheiten sind es bei der jüngsten Gerätegeneration – und entsprechend viele Schnitte können sie in einem Arbeitsgang fotografieren und die Daten zur Weiterverarbeitung an den Rechner übergeben. Da man auch diese Maschinen wiederum gleich reihenweise ins Labor stellen könnte, wird Geld zum wichtigsten limitierenden Faktor.

Heiße Diamanten und neuronale Netze

Liegen die Daten erst einmal auf dem Computer, gilt es, diese auch richtig zu interpretieren. Hier kommen Forscher wie Winfried Denk ins Spiel, der mit seinen Kollegen am Max-Planck-Institut für Biomedizinische Forschung in Heidelberg eine Methode ersonnen hat, um miteinander verbundene Neurone zu erkennen und zu markieren. Und im Labor von Sebastian Seung am Massachussetts Institute of Technology haben die beiden Studenten Viren Jain und Srini Turaga ein Programm auf Basis der künstlichen Intelligenz (KI) geschrieben, das lernen kann, Synapsen zu erkennen, wenn es die Neurowissenschaftler eine Zeitlang bei der Arbeit verfolgt. Beide Wissenschaftler sind dem Konnektom treu geblieben und leiten inzwischen ihre eigenen Forschergruppen – Jain bei der KI-Abteilung von Google, und Turaga am berühmten Janelia Research Campus des Howard Hughes Medical Institute.

Die Software zur Rekonstruktion der Schaltkreise aus den Daten beruht ironischerweise selbst auf dem Prinzip neuronaler Netze. Hier könnten die besten Algorithmen es bezüglich der Fehlerquote mit durchschnittlich motivierten Forschern aufnehmen, schrieben der mittlerweile ans Max-Planck-Institut für Neurobiologie (bei München) umgezogene Winfried Denk und sein Postdoc Jörgen Kornfeld bereits 2018 in einer Übersichtsarbeit . Aber der Teufel steckt oftmals im Detail. Während nämlich menschliche Fehler zufällig passieren, und sich dadurch „ausmitteln“, sind Fehler in der Software systematischer Art. Die Maschinen scheitern häufig an einander ähnlichen Strukturen, die nur unter Einbeziehung der Umgebung und von Kontext-Wissen unterschieden werden können. „Zum Glück gibt es hochgradig motivierte und gebildete Menschen wie fortgeschrittene Studenten und Postdocs, die fast alle diese Fehler korrigieren können“, so Denk.

Mehrere Meilensteine hat Denk bereits erreicht, und – zusammen mit seinem Kollegen Moritz Helmstaedter – einige der bislang größten „Brocken“ von Hirngewebe mit den feinsten Details erfasst. Abbildung 5.

Abbildung 5.Nervenzellverschaltung der Großhirnrinde (Cortex). Von einer 500 000 µm3 (0,0005 mm3) großen Probe aus dem primären somatosensorischen Cortex einer Maus wurden 3420 Schnitte und daraus 30 780 2D- Bilder erstellt. Die 3D-Darstellung zeigt 89 Neuronen in einer extrem dichten Packung mit Axonen und Dendriten. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Rekordhalter ist vermutlich das Allen Institute for Brain Science in Seattle, wo im April 2019 der erste Kubikmillimeter Mäusehirn gefeiert wurde. Etwa 100.000 Neuronen und 1 Milliarde Synapsen stecken in dem Gebilde, das etwa die Größe eines Sandkorns hat und anhand von mehr als 100 Millionen Bildern digitalisiert wurde. Das kartierte Volumen entspricht zwar nur einem Fünfhundertstel des Mäusegehirns, doch Denk ist Optimist: In der Summe seien die Fortschritte so groß, dass man erwarten dürfe, binnen zehn Jahren das Gehirn eines kleinen Säugers oder Vogels vollständig zu erfassen.

Der eingangs erwähnte Berg von Spaghetti wäre damit zwar erobert, doch der Hunger der Wissenschaftler ist längst nicht gestillt. Schon sprechen sie vom Synaptom – der Welt der Synapsen. Die liegt mehrere Größenordnungen unterhalb des eigentlichen Konnektoms, ist aber doch zu dessen Verständnis unentbehrlich, heißt es. Und wenn man alle Verbindungen hat, ist die Arbeit längst noch nicht getan, argumentierte bereits 2014 eine Gruppe Mathematiker von der Universität Boston. Das „Dynom“ müsse nämlich ebenfalls verstanden werden, indem man Momentaufnahmen der Aktivität des kompletten Nervensystems erstellt, sagten sie – und veröffentlichten auch gleich einen Forschungsrahmen mit Arbeitsvorschlägen für die Kollegen. Mehr als 100 Fachartikel verweisen bereits auf diesen Anstoß, und man darf gespannt sein, welches „…om“ das nächste Großprojekt der Hirnforschung sein wird.

-------------------------------------------------------------------------------------------

 [1] dasGehirnInfo: Das Connectome. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto Der Inhalt steht unter einer cc-by-nc-Lizenz © 2021 www.dasGehirn.info


 * Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 30.04.2021 zum Thema "Konnektom" unter dem Titel "Das Neuronengeflecht entwirren" erschienen,https://www.dasgehirn.info/grundlagen/das-konnektom/das-neuronengeflecht-entwirren. Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch einige Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 Links

  • Moritz Helmstaedter: Connectomics Video 36:01 min. 5.2019. https://www.youtube.com/watch?v=3BFynIPHnd0  Biologische Gehirne sind Computern an Effizienz und Komplexität ihrer Vernetzung deutlich überlegen. In der Analyse dieser Netzwerke ist noch viel zu tun und Moritz Helmstaedter ist einer der Pioniere dieses faszinierenden Forschungsfelds der Connectomics. Hier gibt er eine sehr gelungene und nachvollziehbare Einführung., einer Kooperation (in diesem Fall) mit dem Max-Planck-Institut für Hirnforschung, Frankfurt. Der Inhalt steht unter einer cc-by-nc-Lizenz © 2019 www.dasGehirn.info
  • Moritz Helmstaedter: Department of Connectomics, MPI Hirnforschung (Frankfurt/Main) https://brain.mpg.de/research/helmstaedter-department.html
  • Allen Institute for Brain Science https://alleninstitute.org/what-we-do/brain-science/research/research-highlights/
  • MICrONS Explorer: A virtual observatory of the cortex. https://microns-explorer.org/
  • Mapping the Brain: Johns Hopkins APL's CIRCUIT Program. video 2,11 min. https://www.youtube.com/watch?v=5u7N0Gq9q3w&t=124s  Researchers from the Johns Hopkins University Applied Physics Laboratory (APL) partnered with Johns Hopkins University students this summer on a pilot program called CIRCUIT (Connectomics Institute for Reconstructing Cortex: Understanding Intelligence Together).
inge Wed, 05.05.2021 - 23:36

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Do, 22.04.2021 — Ricki Lewis

Ricki LewisIcon MedizinSeit Beginn der COVID-19 Pandemie versuchen Forscher herauszufinden, woher das SARS-CoV-2-Virus ursprünglich kommt und wie es auf den Menschen übersprungen ist. Nahe verwandte Vorläufer stammen offensichtlich von Fledermäusen, wurden aber auch in Schuppentieren gefunden und die geographische Verbreitung dieser Viren erstreckt sich über weite Teile Südostasiens. Die Genetikerin Ricki Lewis diskutiert hier drei mögliche Szenarien zu Ursprung und Entwicklung des Virus. Die Evolution geht weiter - um den Wettlauf zwischen Impfstoffen und neuen, möglicherweise gefährlicheren Varianten nicht zu verlieren, muss man die Evolution nachverfolgen und ihr ein Stück voraus sein.*

"Virusausbruch: Untersuchungen zufolge ist COVID-19 wahrscheinlich synthetisch entstanden", orgelte die Schlagzeile in der Taipei Times am 23. Februar 2020. Die Idee, dass das neuartige Coronavirus SARS-CoV-2 in einem Virenlabor in China entstand - durch Zufall oder als Biowaffe - hat seitdem eine Welle von Schuldzuweisungen und Erklärungen ausgelöst.

Das neueste Kapitel ist ein "offener Brief" in der New York Times vom 7. April 2021, in dem "eine umfassende Untersuchung der Ursprünge von COVID-19" gefordert wird. Die zwei Dutzend Wissenschaftler, die den Brief unterzeichnet haben, zitieren das kontinuierliche Fehlen eines „robusten Prozesses“ zur Untersuchung kritischer Aufzeichnungen und biologischer Proben. Ihr Argument reagiert auf die Presseveranstaltung der WHO am 20. März, bei der kaum ein anderer Ursprung als ein natürlicher Überlauf berücksichtigt wurde.

Zwei Arten neuer Informationen können jedoch der Hypothese eines aus dem Labor freigesetzten Virus entgegenwirken: das Füllen der Lücken von Säugetieren, die möglicherweise als „fehlende Glieder“ bei der Entwicklung der Krankheitsübertragung gedient haben, und der rasche Anstieg von Virusvarianten, welche eine Tendenz zur Mutation widerspiegeln, die dem plötzliche Auftauchen von SARS-CoV-2 aus dem Nichts zugrunde liegt.

Als Genetikerin möchte ich meine Ansicht zu drei möglichen Szenarios für den Ursprung von SARS-CoV-2 darlegen:

1. Szenario Biologischer Kampfstoff - ein gentechnisch veränderter Erreger oder die Freisetzung eines natürlichen Kandidaten aus dem Labor

2. Szenario Evolution - schrittweise evolutionäre Veränderung über zwischengeschaltete Tierwirte, wobei laufend Mutationen auftreten und das Virus virulenter werden lassen

3. Szenario "Mutator"-Gene - Gene, die Mutationen in anderen Genen auslösen und den Evolutionsprozess beschleunigen

Szenario Biowaffe

Die Vorstellung, dass SARS-CoV-2 als Biowaffe zurechtgemacht wurde, ging bis vor kurzem auf ein Vorgängervirus namens RaTG13 zurück, das in der Hufeisennase Rhinolophus affinis gefunden wurde. 2013 haben Forscher dieses RaTG13 im Fledermauskot in einem verlassenen Minenschacht in der Nähe einer Höhle in Yunnan (China) entdeckt, kurz nachdem sechs Bergleute erkrankt und drei von ihnen an einer nicht näher bezeichneten Lungenentzündung gestorben waren. (Fledermäuse beherbergen viele Viren, ohne krank zu werden [1])

Etwa 96,1% der Genomsequenz von RaTG13 stimmt mit der von SARS-CoV-2 überein. Zum Vergleich: das SARS-CoV-2-Genom weist nur etwa 80% Ähnlichkeit mit dem des ursprünglichen SARS-Coronavirus aus dem Jahr 2003 auf.

Ein wesentlicher Unterschied zwischen RaTG13 und SARS-CoV-2 besteht in einem Teil der Bindungsdomäne (RBD), mit der das Spike-Protein an menschliche Zellen bindet. Dieser unterschiedliche Teil entspricht nun der RNA-Sequenz von Coronaviren des malaiischen Schuppentiers, das ein Zwischenwirt zwischen Fledermäusen und Menschen in der Infektionskette sein könnte. Die Übertragung von Fledermaus zum Schuppentier könnte in der Nähe der Mine oder auf einem Nassmarkt ("wet market") mit rohem Fleisch oder an vielen anderen Orten stattgefunden haben, an denen Menschen in Gebiete anderer Tiere eindringen und wir einfach nicht hingeschaut haben.

Hinweise auf den Übergang vom Fledermausvirus RaTG13 zum menschlichen Virus SARS-CoV-2 können innerhalb der 4% der divergierenden Genomsequenzen liegen. Unter Annahme der bekannten natürlichen Mutationsraten viraler Genome schätzen Evolutionsbiologen, dass es mindestens 50 Jahre gedauert hätte, bis das Fledermausvirus zu SARS-CoV-2 mutiert wäre. Vermutlich ließe sich eine Biowaffe viel schneller herstellen (ebenso wie es schneller ist, ein neues Auto zu kaufen, als ein altes Teil für Teil zu reparieren). Allerdings haben wir gelernt, dass wir uns nicht auf das verlassen können, was wir über frühere Viren wissen. In anderen Worten, die Mutationsrate des Neulings könnte viel schneller sein als das, was wir zuvor gesehen haben.

Eine Veröffentlichung ("Yan-Bericht") behauptet, dass RaTG13 nie existiert hat [2]. Stattdessen argumentieren die Autoren, dass der angebliche SARS-CoV-2-Vorgänger eine fiktive RNA-Sequenz ist, die in die Gen-Datenbank hochgeladen wurde, um eine plausible natürliche Erklärung für den Ursprung zu liefern und die Aufmerksamkeit von der Idee einer Biowaffe abzulenken. Das Papier (es gibt eine erste und aktualisierte Version) fragt, warum über RaTG13, wenn es 2013 entdeckt wurde, erst am 3. Februar 2020 im Journal Nature berichtet wurde. Der Yan-Bericht hat es nie über den Status des Preprints (d.i . nicht überprüft) hinaus geschafft, Forscher haben ihn filetiert - Wikipedia bringt dazu Details (https://en.wikipedia.org/wiki/Li-Meng_Yan).

Ein kurzer Bericht, auf den ich immer wieder zurückkomme, erschien am 17. März 2020 in Nature erschienen, als die weltweite Zahl der an/durch COVID-Verstorbenen bei nur 4.373 lag: „Der proximale Ursprung von SARS-CoV-2.“ Die Autoren des „proximalen Ursprungs“ (Kristian G. Andersen et al.,) vergleichen wichtige Teile des neuen Pathogens mit entsprechenden Teilen anderer Coronaviren und schließen daraus „unsere Analysen zeigen deutlich, dass SARS-CoV-2 kein Laborkonstrukt oder ein gezielt manipuliertes Virus ist.“ Ein Teil ihrer Argumentation ist der gesunde Menschenverstand: Für eine Erfindung bindet das Virus nicht stark genug an unsere Zellen. Es ist eine unvollkommene Waffe. (Warum sollte ein neues iPhone schlechter funktionieren als seine Vorgänger? ) Es ist wahrscheinlicher, argumentieren sie, dass das neue Virus mit seinen Unterscheidungen (wie ein Dutzend zusätzliche RNA-Basen, die in den Bereich eingefügt wurden, der der Anlagerung der beiden Teile des Spike-Proteins entspricht) aus natürlicher Selektion entstanden ist. Das Virus hatte einen natürlichen Vorteil, so wurde es perpetuiert - nicht erfunden.

Was auch immer passiert ist, vorausblickend kamen die Forscher des „proximalen Ursprungs“ bereits im März 2020 zum Schluss: „Obwohl kein tierisches Coronavirus identifiziert wurde, das hinreichend ähnlich ist, um als direkter Vorläufer von SARS-CoV-2 zu dienen, ist die Vielfalt der Coronaviren bei Fledermäusen und anderen Arten viel zu wenig erfasst."

Das ändert sich nun. Langsam.

Evolution in einer Fäkaliensuppe

Ein Sprung vom 2013 im Fledermauskot gefundenen RaTG13-Virus zum Auftauchen von SARS-CoV-2 im Jahr 2019 ist wie das Lesen des ersten und letzten Kapitels eines Romans: Es gibt nicht genug Handlung, um eine Geschichte zu rekonstruieren . Aber, da nun weitere Kapitel enthüllt werden, sieht es so aus, als ob SARS-CoV-2 aus einer Kot-Suppe von Viren entstanden ist - und sich weiter entwickelt.

Es stellt sich heraus, dass RaTG13 nicht die einzige Station auf dem Evolutionspfad zu SARS-CoV-2 war. China war auch nicht die einzige Heimat neuartiger Coronaviren, obwohl sie dort weiterhin identifiziert werden. Betrachten Sie aktuelle Berichte:

Kambodscha, 26. Januar 2021. Exkremente und Speichel von zwei Hufeisennasen, die 2010 in Kambodscha gesammelt wurden, wiesen Coronaviren auf, die in ihren Genomsequenzen zu 92,6% mit SARS-CoV-2 übereinstimmten und sich an einem Ende des für das Spike-Protein kodierenden Gens unterscheiden. Fazit eines Vorabdrucks in bioRxiv: „Die Entdeckung dieser Viren in einer in China nicht vorkommenden Fledermausart, zeigt, dass SARS-CoV-2-verwandte Viren eine viel größere geografische Verbreitung aufweisen als bisher angenommen, und legt nahe, dass Südostasien ein Schlüsselgebiet darstellt, das in der weiteren Suche nach dem Ursprung von SARS-CoV-2 und der künftigen Beobachtung von Coronaviren berücksichtigt werden muss.“

Thailand, 9. Februar 2021. Blut von fünf Fledermäusen in einer Thailändischen Höhle wies Coronaviren auf, die einem in Yunnan, China, gefundenen Typ ähnlich waren sowie Antikörper gegen SARS-CoV-2. Laut einem Bericht im Fachjournal Nature wurden solche Antikörper auch in einem Schuppentier nachgewiesen [3]. Wenn auch diese Studie den Vorläufer von SARS-CoV-2 nicht aufzeigte, so erweitert sie doch das Gebiet von SARS-CoV-2-ähnlichen Viren über China hinaus. Abbildung 1.

Abbildung 1: Entdeckung von SARS-CoV-2-verwandten Coronaviren in Asien (links) und Verbreitung von Fledermäusen in diesen Regionen (rechts). Darunter die Hufeisennase (Bilder aus S. Wacharapluesadee et al., Nature Comm. https://doi.org/10.1038/s41467-021-21240-1; Lizenz cc- by)

 

China, 8. März 2021. Ein weiterer bioRxiv-Preprint beschreibt Genomsequenzen von 411 Coronavirus-Proben von 23 Fledermausarten, die von Mai 2019 bis November 2020 auf einem über 1000 Hektar großen Gebiet in der Provinz Yunnan gesammelt wurden. Der engste Verwandte von SARS-CoV-2, genannt RpYN06, stimmt mit diesem zu 94,5% überein. Die generelle Genomähnlichkeit ist jedoch nicht so wichtig wie die Entsprechung in einzelnen Genen, woraus die Wirkung eines neuartigen Virus auf den menschlichen Körper besser vorhergesagt werden kann.

RpYN06 ist tatsächlich der nächste, bis jetzt identifizierteVerwandte von SARS-CoV-2, basierend auf Schlüsselgenen, welche Werkzeuge zur Replikation (ORF1ab), zum Eindringen in unsere Zellen und zum Einklinken in unsere Proteinsynthesemaschinerie (ORF7a und ORF8) darstellen und für die Nucleocapsid (N) -Proteine kodieren, die das virale genetische Material schützen. Die Studie fand 3 weitere Coronaviren, deren Genome sehr ähnlich sind und denen in Schuppentieren ähneln.

Ist SARS-CoV-2 nun fröhlich in verschiedenen Arten von Fledermäusen herumgelungert, wer weiß wie lang, hat es sich mit anderen Coronaviren vermischt und sich dabei nicht verändert, weil das Genom ihm gut gedient hat? Erst nach dem Sprung zu einem neuen Wirt - uns - traten spontan Mutationen zur Anpassung auf und blieben bestehen, sofern sie von Vorteil waren. Dann begannen Mutationen in einzelnen Genen die Virusvarianten hervorzurufen, die jetzt über den Planeten fluten. Der Titel eines kürzlich erschienenen Artikels in PLoS Biology fasst die Kräfte zusammen, die das neuartige Coronavirus geformt haben: „Die natürliche Selektion im Evolutionsprozess von SARS-CoV-2 in Fledermäusen hat einen Generalisten und hochgradigen Erreger für den Menschen hervorgebracht.“ Abbildung 2.

Abbildung 2: Evolution der Coronagruppe (nCoV), die schlußendlich zur Variante SARS-CoV-2 führte auf den Menschen überging. Schematische Darstellung (Quelle: O.A. McLean et al., 2021, https://doi.org/10.1371/journal.pbio.3001115.g003 [3]; Lizenz: cc-by)

 

Die Mutator-Hypothese

Ein dritter Weg, wie SARS-CoV-2 schnell entstehen könnte, besteht darin, dass ein oder mehrere Gene als „Mutator“ fungiert haben und andere Gene zur Mutation provozieren.

Ich erinnere mich an dieses Phänomen aus meiner Ausbildung zur Drosophila-Genetikerin. Fruchtfliegen mit einer mutierten gelben Augenfarbe können Nachkommen haben, die zur normalen roten Farbe zurückkehren, nicht aufgrund einer Mutation in einem Augenfarbengen, sondern aufgrund einer Mutation in einem Gen, das als Mutator bezeichnet wird. Es bewirkt die Zerstörung anderer Gene. Und die Arten von Mutationen, die es mit sich bringt, ähneln denen der neuen Varianten von SARS-CoV-2.

Die Hälfte der Mutationen, die das Gen des Fruchtfliegen-Mutators verursacht, sind Deletionen - d.i es fehlen Genstücke. Eine solche Deletion findet sich bei der erstmals in Großbritannien nachgewiesenen Virusvariante B.1.1.7 : es fehlen zwei Aminosäuren im Spike-Protein In diesem Fall repliziert ein PCR-COVID-Test nicht die RNA, die für das Spike-Protein codiert, da zwei Aminosäuren fehlen, während die anderen viralen Gene repliziert werden.

Bei Fruchtfliegen verfünffacht der Mutator auch die Rate der Veränderungen der einzelnen Basen, die als Punktmutationen bezeichnet werden. Diese kommen auch in den neuen viralen Varianten vor.

Ich behaupte nun nicht, dass ein Fliegengen in Viren Amok gelaufen ist, aber könnte ein Mutator-ähnliches Gen die schnelle Diversifizierung von SARS-CoV-2 in eine Reihe von Varianten vorantreiben? In diesem Fall könnte schnelle Mutation erklären, wie das Virus entstanden ist und dann zu einem Gestaltwandler wurde, ohne sich das Szenarios eine verrückten Wissenschaftlers vorstellen zu müssen, der eine Biowaffe erschafft, oder eine Reihe unglückseliger Tiere, die einen Krankheitserreger weitergeben, der jährlich Millionen Menschen töten könne.

Die Identifizierung eines Mutators würde die Aufklärung von Gen-Gen-Interaktionen erfordern - dies hatte selbst bei der Analyse menschlicher Genome keine große Priorität. Vielleicht hat ein gut untersuchtes Gen von SARS-CoV-2 eine zweite Funktion, welche die Mutation eines anderen herbeiführt? Auch wenn mehr als eine Million SARS-CoV-2-Genomsequenzen in die Datenbank GISAID (https://www.gisaid.org/) hochgeladen wurden, weiß ich nicht, inwieweit Forscher untersuchen, wie die Gene miteinander interagieren.

Schlussbetrachtung

Wenn man über den Wettlauf zwischen Impfstoffen und Varianten spricht, so kehrt das diesen nicht um. Derzeit lösen die Impfstoffe eine ausreichend vielfältige Antikörperantwort aus, um die zirkulierenden Viren in den Griff zu bekommen. Aber die Evolution hört nie auf. Wenn Varianten entstehen, die geimpfte Körper befallen, sich festsetzen und dann verbreiten, werden diese Impfstoffe dann die älteren Varianten ausmerzen und gleichzeitig Nischen für die neuen schaffen? Das ist es, was die Experten derzeit beunruhigt. Und mich.

Deshalb müssen wir die Evolution voraussehen und ihr zuvorkommen - etwas, woran die Impfstoffhersteller bereits seit Monaten arbeiten. Wenn es in diesen verrückten Zeiten etwas Konstantes gibt, dann ist es, dass SARS-CoV-2 uns immer wieder überrascht. Im Moment erleichtert es mich über Alternativen nachzudenken, Alternativen zu der unvorstellbaren Idee, dass das Virus geschaffen wurde, um uns zu zerstören


 [1] Ricki Lewis, 20.08.2020: Wie COVID-19 entstand und sich über die Kette der Fleischversorgung intensivierte

[2] Ricki Lewis, 11.03.2021: On the Anniversary of the Pandemic, Considering the Bioweapon Hypothesis. https://dnascience.plos.org/2021/03/11/on-the-anniversary-of-the-pandemic-considering-the-bioweapon-hypothesis/

[3] S. Wacharapluesadee et al., Evidence for SARS-CoV-2 related coronaviruses circulating in bats and pangolins in Southeast Asia. Nature Comm. https://doi.org/10.1038/s41467-021-21240-1

[4] O.A. Mclean etal., Natural selection in the evolution of SARS-CoV-2 in bats created a generalist virus and highly capable human pathogen. 12.03.2021. https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001115#sec002


 * Der Artikel ist erstmals am 15.April 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "3 Possible Origins of COVID: Lab Escapee, Evolution, or Mutator Genes?" https://dnascience.plos.org/2021/04/15/3-possible-origins-of-covid-lab-escapee-evolution-or-mutator-genes/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Die beiden Abbildungen und Legenden wurden von der Redaktion aus den im Artikel zitierten Publikationen [3] und [4] eingefügt.


COVID-19 im ScienceBlog

Vom Beginn der Pandemie an ist COVID-19 das dominierende Thema im ScienceBlog. 33 Artikel (mehr als 50 % aller Artikel) sind dazu bereits erschienen - von der Suche nach geeigneten Zielstrukturen für die Impfstoffentwicklung, nach möglichen Arzneimitteln zur Therapie Erkrankter bis zu ersten vielversprechenden klinischen Erfolgen mit innovativen Impfstoffen und schlussendlich deren Registrierung. 

Die Links zu diesen Artikeln sind im Themenschwerpunkt Viren zusammengefasst.

 

Daraus weitere Artikel von Ricki Lewis zu COVID-19:

 

A

inge Thu, 22.04.2021 - 01:23

Comments

Weißer als weiß - ein Farbanstrich, der die Klimaanlage ersetzen kann

Weißer als weiß - ein Farbanstrich, der die Klimaanlage ersetzen kann

Fr, 29.04.2021 — Redaktion

Redaktion

Icon Chemie

Forscher an der Purdue University haben eine neue ultraweiße Wandfarbe entwickelt, die 98,1 Prozent des einfallenden Sonnenlichts reflektiert und in der Mittagshitze Oberflächen um bis zu 4,5oC kühler als ihre Umgebung halten kann. Diese neue Farbe , die wahrscheinlich in den nächsten ein oder zwei Jahren auf den Markt kommen wird, könnte - auf den Fassaden aufgebracht - die urbanen Hitzeinseln mildern und dabei die Abhängigkeit von elektrisch betriebenen Klimaanlagen reduzieren. Im Smithonian Magazin berichtet Xiulin Ruan, der Leiter des Forschungsteams, über diese spektakuläre Erfindung, die einen Beitrag zur Energiewende und zum Kampf gegen die globale Erwärmung leisten wird können.*

Ein neuer Anstrich ist eine einfache Möglichkeit ein Haus attraktiver aussehen zu lassen. Demnächst kann ein solcher Anstrich aber auch dazu verhelfen, das Haus kühl zu halten.

Ein Durchbruch

Kürzlich hat ein Team von Wissenschaftlern an der Purdue-Universität (West Lafayette, Indiana, US) die Ergebnisse seiner Farbenforschung in der Zeitschrift ACS Applied Materials & Interfaces veröffentlicht [1]; finanziert wurden die Untersuchungen vom Forschungszentrum für Kühltechnologien der Purdue-Universität und vom Militärischen Forschungsinstitut der United States Air Force.

Unser Anstrich absorbiert nur 1,9 Prozent des einfallenden Sonnenlichts, kommerzielle Wandfarben dagegen 10 bis 20 Prozent des Sonnenlichts“, sagt Xiulin Ruan, Professor für Maschinenbau an der Purdue-Universität und einer der Koautoren der Studie. Abbildung 1.

Abbildung 1.Xiulin Ruan, Professor für Maschinenbau an der Purdue Universität zeigt eine Probe der weißesten Farbe. (Foto: Purdue University/Jared Pike)

Der Anstrich bedeutet eine markante Verbesserung gegenüber den derzeit auf dem Markt erhältlichen wärme-reflektierenden Farben. Trifft Sonnenlicht auf Oberflächen, die mit den heute verfügbaren weißen Farben beschichtet sind, so werden diese wärmer und nicht kühler. Solche wärme-abweisenden Farben können bestenfalls 80 bis 90 Prozent des Sonnenlichts reflektieren, sagt Ruan.

Reflexion der Sonneneinstrahlung und Emission von Infrarotwärmestrahlung

Die neue ultraweiße Farbe - nach Angaben der Forscher ist sie die kühlste von allen - reflektiert fast alle Sonnenstrahlen und sendet Infrarotwärme von der Oberfläche weg; daraus ergibt sich eine durchschnittliche Kühlleistung von 113 Watt pro Quadratmeter. Werden rund 90 m2 eines Hausdachs damit eingestrichen, so bedeutet dies eine Kühlleistung von 10 Kilowatt - dies ist leistungsfähiger als bei einer zentralen Klimaanlage, wie sie in den meisten Häusern verwendet werden, sagt Ruan.

In Untersuchungen, die während der Mittagshitze auf dem Dach eines Campusgebäudes in West Lafayette, Indiana, durchgeführt wurden, hielt der Farbanstrich die Außenflächen um 4,5oC kühler als die Umgebungstemperaturen. Nachts hielt die Farbe die Oberflächen 10,5oC kühler als ihre Umgebung. Abbildung 2.

Abbildung 2.Eine Infrarotkamera zeigt, wie eine Probe der weißesten weißen Farbe die umgebende Fläche abkühlt. Links: die an einer Wand angebrachte Probe. Rechts: mit der Infrarotkamera aufgenommen wird die Farbe dunkler je tiefer die Temperatur ist; die Probe - das dunkellviolette Quadrat in der Mitte - kühlt die Platte tatsächlich unter Umgebungstemperatur ab. Kommerzielle „wärmeabweisende“ Farben können das nicht. (Foto: Purdue University / Joseph Peoples)

„Unsere Farbe kann durch ihre eigene Emission Wärme verlieren - sie gibt Wärme an den Weltraum ab“, sagt Ruan. „Bei so geringer Absorption der Sonneneinstrahlung verliert unsere Farbe mehr an Wärme als sie absorbiert. Das ist für uns tatsächlich überaus aufregend. Bei Sonneneinstrahlung kühlt die beschichtete Oberfläche unter die Umgebungstemperatur ab und das ist schwer zu erreichen."

"Kommerzielle wärmeabweisende weiße Farben werden derzeit üblicherweise aus Titandioxid hergestellt; dieses reflektiert bestimmte Wellenlängen des Sonnenlichts - hauptsächlich das sichtbare Spektrum und Wellenlängen im nahen Infrarot - absorbiert aber die ultravioletten Strahlen des Sonnenlichts, was zur Erwärmung der Oberflächen führt," sagt Ruan.

"Kommerzielle weiße Farben sind kühler als die anderen, dunkleren Farben, aber sie sind immer noch wärmer als die Umgebungstemperatur", sagt Ruan.

Weißer als weiß durch winzige Bariumsulfatpartikel

Diese derzeit erhältlichen Farben sind sicherlich besser als gar nichts. Die Forscher wollten aber mit Materialien experimentieren, welche die UV-Strahlen der Sonne reflektieren aber nicht absorbieren können. In den letzten sieben Jahren haben sie mehr als 100 verschiedene Materialien getestet und schließlich ihre Auswahl auf Bariumsulfat eingeschränkt, eine bekannte UV-reflektierende Verbindung, die bereits in Kosmetika, reflektierendem Fotopapier, Ölfarben, Röntgenuntersuchungen und anderen Anwendungen eingesetzt wird. (In dem Versuchsprotokoll hatten sie zuvor bereitseine ultraweiße Farbe aus Kalziumkarbonat entwickelt, die 95,5 Prozent des Sonnenlichts reflektierte.)

Mit Bariumsulfat war zweifellos ein guter Ansatz gegeben; die Forscher inkludierten zwei neue Aspekte, um die Fähigkeit des Anstrichs zu erhöhen Licht zu reflektieren und Wärme zu emittieren: i) Der Anstrich enthielt eine hohe Konzentration an Bariumsulfatpartikeln - im Vergleich zu den typischen 10 Prozent in derzeitigen Anstrichen enthielt der neue Anstrich 60 % - und ii) die Partikel waren von unterschiedlicher Größe. Abbildung 3.

Abbildung 3.Die ultraweiße Bariumsulfatfarbe besteht zu 60 % aus winzigen 0,27 - 0,53 Mikrometer kleinen Bariumsulfatpartikeln, die einfallendes Sonnenlicht zu 98,1 % reflektieren und zudem Wärmestrahlung (Infrarotwärme) über die Atmosphäre hinaus abgeben. (Bild von Redaktion eingefügt)

„Wenn man unterschiedliche Partikelgrößen in den Anstrich einbringt, so kann - wie wir festgestellt haben, - jede Partikelgröße unterschiedliche Wellenlängen streuen und reflektieren. Insgesamt spiegeln sie das gesamte Wellenlängenspektrum des Sonnenlichts wider“, sagt Ruan.

Reduzierung urbaner Hitzeinseln

Die ultraweiße Farbe bietet zwei mögliche Vorteile. Indem Oberflächen kühl gehalten werden und der Einsatz von Klimaanlagen, die normalerweise mit Strom (u.a. aus nicht-erneuerbaren Quellen; Anm. Redn) betrieben werden, reduziert wird, kann die Farbe dazu beitragen, die Verbrennung fossiler Brennstoffe zu verringern. Darüber hinaus arbeiten Klimaanlagen in der Regel so, dass sie Wärme aus Innenräumen abführen und nach draußen leiten, ein Vorgang, der als Konvektion bezeichnet wird. Diese Wärmeübertragung kann zusammen mit anderen Ursachen zu urbanen Hitzeinseln beitragen, einem Phänomen, das auftritt, wenn Städte heißer als die umliegenden Gebiete werden und daher noch mehr Klimaanlagen erfordern. Die ultraweiße Farbe hingegen verwendet Strahlung, um Wärme wegzuleiten, elektromagnetische Wellen, die durch die Atmosphäre hindurch in den Weltraum gelangen können.

"Klimaanlagen können Ihr Haus kühlen, aber sie leiten die Wärme bloß von innen nach außen - die Wärme bleibt immer noch in der Stadt, immer noch auf der Erde, immer noch in unserer Luft", sagt Ruan. "Auch wenn ihnen die dafür zu bezahlenden Stromrechnungen egal sein mögen, es wird dennoch dadurch die Erde aufgewärmt. Unsere Farbe verbraucht keine Energie, aber was noch wichtiger ist, sie leitet die Wärme in den Weltraum. Die Hitze bleibt nicht auf der Erde, so dass damit ein Beitrag geleistet wird, um die Erde abzukühlen und den Erwärmungstrend zu stoppen".

Mithilfe statistischer Modelle haben die Forscher abgeschätzt, dass ihre ultraweiße Farbe den Bedarf an Klimaanlagen in heißen Städten wie Reno, Nevada und Phoenix, Arizona, um bis zu 70 Prozent reduzieren könnte. Ein ganz extremes Modell zeigt auf, dass eine Beschichtung von 0,5 bis 1 Prozent der Erdoberfläche - Gebäude, Straßen, ungenutztes Land, fast alles - mit der ultraweißen Farbe ausreichen würde, um den globalen Erwärmungstrend zu stoppen.

"Es ist sehr viel Fläche, aber sollten wir eines Tages diesen Ansatz nutzen müssen, um den Erwärmungstrend umzukehren, ist er immer noch erschwinglich - die Farbe ist nicht teuer", sagt Ruan.

Wie geht es weiter?

Die Forscher haben ein Patent angemeldet und führen nun weitere Untersuchungen durch, um die Langzeitbeständigkeit und Sicherheit der Farbe im Freien zu ermitteln sie wollen ja die Farbe den Verbrauchern zur Verfügung zu stellen. Derzeit haben sie noch keinen genauen Preis für die Farbe festgelegt, aber Ruan geht davon aus, dass die Farbe einen ähnlichen Preis wie die derzeit auf dem Markt befindlichen Farben haben wird - ungefähr 30 bis 40 US-Dollar pro Gallone (rund 3,8 l).

Welche zukünftigen Auswirkungen diese Erfindung haben kann, ist für Experten des nachhaltigen Bauens leicht auszumalen.

"Als ich zum ersten Mal davon hörte, dachte ich mir 'Wow, dies könnte sich für die unterschiedlichsten urbanen Bedingungen in den USA und auch international nutzen lassen' ", sagt Elizabeth Thompson, Vizepräsidentin des US-amerikanischen Green Building Council. „Es bietet so große und überzeugende Möglichkeiten. Es wird wunderbar sein die Entwicklung zu verfolgen und zu sehen wie die Forscher die Anwendungen erarbeiten können."

Das US-amerikanische Green Building Council , eine gemeinnützige Organisation, die das LEED-Bewertungssystem (Leadership in Energy and Environmental Design) für nachhaltige Gebäude entwickelt hat, bietet einen Wärmeinsel-Reduzierungs-Bonus für Gebäude an, die auf LEED-Zertifizierungsstufen hinarbeiten.

Eine Möglichkeit, wie Gebäude diesen Bonus erhalten können, besteht darin, Materialien oder Geräte mit einem anfänglichen Sonnenreflexionsgrad von 33 Prozent bei der Installation oder von 28 Prozent über drei Jahre zu verwenden, sagt Thompson. Mit einer Sonnenreflexion von 98,1 Prozent übertrifft die ultraweiße Farbe diese Anforderungen bei weitem.

"Dies ist eine ganz andere Dimension des Kühlens und sehr aufregend", sagt Thompson. "Dies stimmt zuversichtlich. Es ist genau das, was wir alle von Wissenschaftlern und Forschern erhoffen: dass sie uns helfen neue Möglichkeiten für ein nachhaltigeres Leben zu entdecken".


  [1] Xiangyu Li, Joseph Peoples, Peiyan Yao, Xiulin Ruan, Ultrawhite BaSO4 Paints and Films for Remarkable Daytime Subambient Radiative Cooling. ACS Appl. Mater. Interfaces 2021. https://doi.org/10.1021/acsami.1c02368


*Der vorliegende Artikel von Sarah Kuta ist unter dem Titel "This Ultra-White Paint May Someday Replace Air Conditioning" am 21. April 2021 im Smithsonian Magazin erschienen. https://www.smithsonianmag.com/innovation/ultra-white-paint-may-someday-replace-air-conditioning-180977560/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch mehrere Untertitel und eine zusätzliche Abbildung (Abbildung 3) ergänzt.


Links

Prof. Xiun Ruan, homepage: https://www.purdue.edu/discoverypark/birck/directory/profile.php?resource_id=29343

US-Green Building Council: https://www.usgbc.org/

Anton Falkeis & Cornelia Falkeis-Senn, 30.01.2020: Nachhaltige Architektur im Klimawandel - das "Active Energy Building


 

inge Thu, 29.04.2021 - 01:43

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Fr 16.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Um effizient die COVID-19 Pandemie bekämpfen zu können, sollten Impfstoffe sowohl vor schweren COVID-19 Erkrankungen schützen als auch die Infektion mit dem Virus selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte möglichst unterbinden. Wie die initiale Infektionsphase abläuft, ob sie zu Symptomen führt oder asymptomatisch bleibt, ist noch ungeklärt. Neue Befunde weisen auf eine überragende Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna gegen die durch die derzeit dominierende Virusvariante B.1.1.7 ausgelösten - symptomatischen und asymptomatischen Infektionen hin. Der AstraZeneca Impfstoff zeigt dagegen nur geringe Wirkung gegen asymptomatische Infektionen mit B.1.1.7. Geimpfte Personen können somit ansteckend sein.

Unsichtbare Gefahr

Bereits zu Beginn der COVID-19 Pandemie war es offensichtlich, dass das Virus auch von infizierten Personen übertragen wurde, die selbst (noch) keine Krankheitssymptome zeigten, also von asymptomatischen Menschen oder von präsymptomatischen Menschen, die knapp vor dem Ausbruch der Erkrankung eine fast schon maximale Viruslast aufweisen. Ohne Schutzmaßnahmen konnte also jeder für jeden ansteckend sein. Dies gilt auch heute noch - die üblichen Antigen-Tests können ja nur für einen stark limitierten Zeitraum Unbedenklichkeit bescheinigen.

Wieviele SARS-Infizierte bleiben nun symptomlos?

Trotz einer Fülle epidemiologischer und klinischer Untersuchungen und Laborexperimenten gibt es dazu keine klaren Antworten. Hatten frühe Studien angenommen, dass bis zu 80 % der SARS-CoV-2-Infektionen asymptomatisch verlaufen, so tendieren neuere Untersuchungen zu einem Anteil von 17 - 30 % [1]. In diesem Bereich liegen auch die Werte eines rezenten umfassenden PCR-basiertes Screening-Programms des Klinikpersonals am Cambridge University Hospital: von 3 252 nicht geimpften Personen wiesen 0,8 % einen positiven PCR-Test auf, blieben aber symptomlos und 1,7 % mit positivem PCR-Test zeigten Symptome von COVID-19 [2]. In anderen Worten: Der Großteil der SARS-Infizierten erkrankt an COVID-19, ist aber davor schon infektiös.

Wie erfolgt die Übertragung - welche Virusmenge löst eine Infektion aus?

Es sind dies Fragen, die für das Verstehen von COVID-19 von fundamentaler Bedeutung sind, bis jetzt aber unbeantwortet blieben. Erste Informationen soll eine in England von Dr.Chris Chiu (Imperial College London) geleitete, ethisch umstrittene "Human Challenge Studie" bringen. Es sollen insgesamt 90 junge gesunde Probanden mit dem SARS-CoV-2-Virus inokuliert werden und die frühesten Phasen der Infektion verfolgt werden. Das Virus wird dabei in Tröpfchen auf die Nasenschleimhaut aufgebracht und die niedrigste Virusmenge eruiert, die im Nasen/Rachenraum gerade noch eine Infektion auslöst. Verfolgt wird, wie das Virus sich in der Nase vermehrt, wie das Immunsystem darauf reagiert, wer Symptome entwickelt und wer nicht, d.i. wie es schließlich zu COVID-19 kommt. Die Studie findet in der Klinik unter Quarantänebedingungen statt, die Probanden bleiben rund um die Uhr unter medizinischer Aufsicht und werden danach noch ein Jahr lang auf ihre Gesundheit getestet [3].

Ein spezielles Research Ethics Committee hat im Feber die Studie gestattet, diese hat im März begonnen und die ersten drei Probanden haben bereits die Klinik verlassen [3]. In weiterer Folge denkt man daran einige Probanden mit vorhandenen Vakzinen zu impfen und dann mit neuen Virusvarianten zu inokulieren, um die jeweils wirksamsten Vakzinen herauszufinden

Generelle Forderungen an Impfstoffe…

Um gegen die Pandemie erfolgreich vorgehen zu können, sollte ein Impfstoff zwei Forderungen erfüllen:

  • er sollte zuverlässig gegen schwere, durch SARS-CoV-2 ausgelöste COVID-19 Erkrankungen schützen und
  • er sollte die Infektion selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte und Weiterverbreitung des Virus möglichst unterbinden

…klinische Studien…

Das Ziel der klinischen Studien, die der Zulassung der Impfstoffe zugrunde liegen, war der Schutz vor COVID-19 Erkrankungen. In sehr großen, randomisierten Doppelblind-Studien wurde die Wirksamkeit einer Vakzine versus Plazebo an Hand der Inzidenz von charakteristischen COVID-19 Symptomen (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test festgestellt.

Darüber ob eine Vakzine bereits Infektionen unterdrücken kann, konnten diese Studien nichts aussagen.

…PCR-basierte Screening-Programme…

Erst in den letzten Wochen haben neue umfassende PCR-basierte Screening-Programme an tausenden Geimpften versus Nicht-Geimpften erstmals Aussagen über die Wirksamkeit von Vakzinen gegen asymptomatische Infektionen ermöglicht.

Demnach zeigen die mRNA-Impfstoffe von Pfizer und Moderna über 90 % Wirksamkeit nicht nur bei der Reduktion der COVID-19-Inzidenz, sondern auch bei der Verhinderung asymptomatischer Infektionen [2]. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können

…und Wirksamkeit der AstraZeneca-Vakzine (AZD1222) gegen asymptomatische Infektionen

Praktisch zeitgleich mit den überaus positiven Befunden zu den mRNA-Vakzinen ist auch eine neue Analyse zu den in den England gelaufenen Phase 2/3 klinischen Studien erschienen [4]. (Anlässlich der Zulassung der Vakzine durch die EMA wurde über diese Studien bereits in [5] berichtet). Das Studienprotokoll hatte vorgesehen, dass die Probanden wöchentlich Abstriche aus dem Nasen/Rachenraum nahmen - ob sie nun Symptome einer COVID-19 Erkrankung hatten oder nicht - und einschickten. Abstriche, die positiv auf das Virus testeten, wurden sequenziert und auch in Hinblick auf die britische Virus-Variante B.1.1.7 evaluiert, die in England ab Dezember 2020 stark anstieg und derzeit die in vielen europäischen Ländern dominierende Form ist.

In Hinblick auf diese B.1.1.7-Variante und bei Probanden nach 2 Standarddosen des Impfstoffs zeigte dieser eine Wirksamkeit gegen symptomatische Infektionen von 66,7 % (95% CI 29,2 – 84,3). Die Wirksamkeit gegen asymptomatische Infektionen mit 8 Fällen in der Vakzine-Gruppe und 11 Fällen in der Placebo-Gruppe betrug dagegen nur 28,9 % (CI 95 -77 - 71,4). Zweifellos können diese Daten mit ihrem viel zu weitem Konfidenzintervall (CI) nur als Näherung einer sehr geringen klinischen Wirksamkeit angesehen werden. Sollte es zu einer weiten Normalisierung des öffentlichen Lebens und einer Rücknahme der Maßnahmen - Social Distancing, Mund/Nasenschutz, etc. - kommen, so können asymptomatische Virenträger das Virus weiter verbreiten und dabei neue Varianten auftauchen, die das Infektionsgeschehen wieder anfachen.


[1] AL Rasmussen & SV Popescu, SARS-CoV-2 transmission without symptoms. (19 March 2021) Science 371 (6535) 1207

[2] I.Schuster, 01.04.2021: Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

[3] Ryan O'Hare, 25.03.2021: First volunteers on COVID-19 human challenge study leave quarantine. https://www.imperial.ac.uk/news/218294/first-volunteers-covid-19-human-challenge-study/

[4] KRW Emary et al., 30.03,2021: Lancet, Efficacy of ChAdOx1 nCoV-19 (AZD1222) vaccine against SARS-CoV-2 variant of concern 202012/01 (B.1.1.7): an exploratory analysis of a randomised controlled trial

[5] I.Schuster, 01.02.2021: Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

inge Fri, 16.04.2021 - 01:50

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

Do, 08.04.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Der 3D-Druck von Kunststoffteilen ist in vielen Bereichen Standard, bei Metallen ist noch einiges an Forschungsarbeit zu leisten. Es ist aber offensichtlich, dass die additive Fertigung, wie der Fachausdruck für diese Technik lautet, das Potenzial hat, die Metallverarbeitung zu revolutionieren und neue Anwendungsbereiche zu eröffnen. Eine Gruppe um Prof.Dr. Eric A. Jägle vom Max-Planck-Institut für Eisenforschung (Düsseldorf) entwickelt Verfahren, um das Design der Metalllegierungen für und durch den 3D-Druck zu verbessern. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr hat Dr. Jaegle in seinem Düsseldorfer Labor einen Besuch abgestattet.*

Das dreidimensionale (3D) Drucken von Kunststoffen ist längst Alltag, das 3D-Drucken von Metallen keine Zukunftsvision mehr, sondern industrielle Realität. Wer kürzlich eine Krone als Zahnersatz bekam, beißt sehr wahrscheinlich mit einem 3D-gedruckten Metallteil unter der Keramik ins Brötchen. Immer, wenn es um Einzelanfertigungen oder kleine Stückzahlen geht, ist das 3D-Drucken von Metallteilen interessant. Vor allem kann es beliebig kompliziert geformte Werkstücke in einem Durchgang herstellen. Das ist auch ideal für verschachtelte Bauteile, die bislang aus vielen Einzelteilen zusammengeschweißt werden müssen. Anwendungsgebiete sind neben der Medizin die Luft- und Raumfahrt, Kraftwerksturbinen, Motorsport, Ersatzteile für Oldtimer, auch die Bahn nutzt diese Technik.

Gedruckte Raketen-Brennkammern

Da sich beliebige Formen 3D-drucken lassen, wird extremer Leichtbau möglich. Wie bei verästelten Pflanzenstrukturen befindet sich in solchen Leichtbauteilen nur dort Material, wo es Kräfte aufnehmen muss. „Deshalb kommen heute auch zum Beispiel komplette Raketen-Brennkammern für die Raumfahrt aus dem Drucker“, erklärt Jägle. Der Werkstoffwissenschaftler beantwortet zudem die Frage, warum das „3D-Drucken“ hier in Anführungszeichen geschrieben ist. Industrie und Forschung sprechen lieber von „Additiver Fertigung“ als vom Drucken. Es gibt nämlich viele verschiedene Verfahren, computergesteuert dreidimensionale Objekte aus Metall aufzubauen.

Als erstes erklärt Jägle, warum diese Technik „additiv" heißt, im Gegensatz zu „subtraktiv". „Subtraktiv ist zum Beispiel die Bildhauerei", erklärt er, „so wie Michelangelo seinen berühmten David aus einem Marmorblock herausgearbeitet hat." In der Industrie entspricht das dem computergesteuerten Herausfräsen eines Teils aus einem Metallblock. Additiv heißt hingegen, dass man etwas hinzufügt statt wegnimmt, also aufbaut. Allerdings trifft das auch auf das Gießen von geschmolzenem Metall in eine Gussform zu, was die Menschen seit der Bronzezeit beherrschen. Also fehlt noch etwas in der Definition. „Das Ganze muss man auch noch computergesteuert machen", zählt Jägle weiter auf, „und das ohne Werkzeug!"

Bei der Additiven Fertigung geht es also darum, ein im Computer entworfenes, dreidimensionales Teil möglichst formgetreu aus einem Material aufzubauen. Sie soll vollkommen flexibel beliebige Formen produzieren können. Heute gibt es verschiedene additive Techniken für Metalle, die unterschiedlich weit entwickelt sind. Am weitesten verbreitet sind die sogenannten Pulverbett-Verfahren, bei denen ein starker Infrarotlaser oder ein Elektronenstrahl Metallpulver verschweißt. Der Laserdrucker im Düsseldorfer Labor gehört dazu.

Abbildung 1: Bei der LPBF-Technik des 3D-Druckens von Metall verschweißt ein Laserstrahl feines Metallpulver zu einem Bauteil. Links und rechts von dem Volumen, in dem das Bauteil heranwächst, befinden sich Behälter für das Metallpulver (1). Schicht für Schicht fährt der Hubtisch (2) unter dem oben wachsenden Bauteil nach unten. Jedes Mal streicht ein Schieber oder eine Bürste (3) eine neue Pulverschicht aus einem der beiden Reservoirs über das Werkstück. Danach schweißt der Laser (4) über einen computergesteuerten Scannerspiegel (5) die für diese Schicht nötige Form auf.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Prinzip ist einfach zu verstehen. Als Baumaterial dient feines Metallpulver, weshalb dieses Verfahren Laser Powder Bed Fusion, kurz L-PBF, heißt— also auf Deutsch Laser-Pulverbett-Schmelzen. Das Pulver erzwingt strenge Sicherheitsvorkehrungen, wenn der Drucker geöffnet wird. Schließlich kann das Pulver, wenn es sich als Staubwolke in der Luft verteilt, explodieren. Ursache ist die riesige Gesamtoberfläche aller Metallpartikel zusammengenommen, die im Kontakt mit dem Sauerstoff der Luft schlagartig oxidieren kann. Außerdem ist das Einatmen gefährlich. Deshalb darf man den Drucker nur öffnen, wenn man Schutzanzug und Atemmaske trägt, und man muss sehr sauber arbeiten.

Bauteil aus dem Pulverbett

Das L-PBF-Verfahren, bietet zwei Vorteile. Erstens kann es besonders feine Strukturen herstellen. Zweitens sind die damit gedruckten Metallteile enorm fest. Ihre Festigkeit entspricht der höchsten Qualitätsstufe, dem Schmiedestück. Metalle bestehen aus feinen Körnern, und das Schmieden presst diese besonders dicht und fest zusammen. Ein Schmiedestück ist damit viel zäher und härter als ein Gussteil.

Im L-PBF-Drucker befindet sich das Metallpulver in einem Pulverbett (Abbildung 1). Eine Schutzatmosphäre aus dem Edelgas Argon verhindert die Oxidation beim Verschweißen. Im ersten Schritt schiebt eine Bürste eine sehr dünne Schicht Pulver über eine Grundplatte. Dann schweißt der Laser die erste Schicht des Bauteils ins Pulver (Abbildung 2). Sein Strahl wird dafür von einem extrem schnell und präzise gesteuerten Scannerspiegel umgelenkt. Im Lichtfokus fährt ein kleines mobiles Bad aus geschmolzenem Metall durch das Pulver, das außerhalb des Fokus schlagartig abkühlt und fest wird. Ist eine Schicht fertig, fährt ein Hubtisch unter der Platte das Bauteil um exakt eine Schichthöhe nach unten, und die Prozedur wiederholt sich. Es gibt auch Geräte, die mit mehreren Laserstrahlen arbeiten, um schneller zu sein.

Abbildung 2: Der rasende Laserstrahl schweißt die neue Schicht eines Bauteils ins Metallpulver. ©Foto: Fraunhofer ILT Aachen / Volker Lannert

Die Höhe einer Schicht hängt davon ab, wie fein die Details sein sollen. Typisch sind zwanzig bis vierzig Mikrometer (Tausendstel Millimeter), was grob dem Durchmesser eines feinen Kopfhaars entspricht. Ein Werkstück kann so aus einigen Tausend Schichten aufgebaut sein. Der Laserstrahl bewegt sich wie ein Stift beim Schraffieren einer Fläche. Deshalb kann ein Bauteil am Ende aus mehreren Millionen kurzer Schweißbahnen mit vielen Kilometern Gesamtlänge bestehen. Wenn das Teil fertig ist, muss es aus dem Pulver herausgeholt, gereinigt (Abbildung 3) und von der Grundplatte abgetrennt werden.

Der Werkstoffwissenschaftler Jägle interessiert sich für die Vorgänge, die dabei tief im Inneren der geschmolzenen und wieder erstarrten Metalle ablaufen. Das ist Grundlagenforschung, also genau die Max-Planck-Welt. Deshalb sieht das, was Jägles Gruppe druckt, auch nicht so cool aus wie viele Beispiele im Netz. „Wir drucken Würfel", sagt Jägle und lacht: „Die schneiden wir auseinander und untersuchen sie."

Schwierige Metall-Legierungen

Beim Einsatz von Metalllegierungen in der Additiven Fertigung können nämlich viele grundlegende Probleme auftreten, und die wollen die Werkstoffwissenschaftler verstehen. Metallische Legierungen bestehen aus mindestens zwei chemischen Elementen, damit sie die gewünschten Eigenschaften bekommen. Die verschiedenen chemischen Elemente in einer Legierung reagieren aber auch unterschiedlich, wenn diese verflüssigt wird. Das erinnert an eine Schokolade, die einmal angeschmolzen wurde und danach nicht mehr so schön cremig-zart auf der Zunge zergeht: Das Erhitzen hat ihre „Mikrostruktur" verändert.

Abbildung 3: Das fertige Bauteil wird aus dem Metallpulver herausgeholt. © Foto: Fraunhofer ILT Aachen / Volker Lannert

Schwierige Metall-Legierungen

Beim Einsatz von Metalllegierungen in der Additiven Fertigung können nämlich viele grundlegende Probleme auftreten, und die wollen die Werkstoffwissenschaftler verstehen. Metallische Legierungen bestehen aus mindestens zwei chemischen Elementen, damit sie die gewünschten Eigenschaften bekommen. Die verschiedenen chemischen Elemente in einer Legierung reagieren aber auch unterschiedlich, wenn diese verflüssigt wird. Das erinnert an eine Schokolade, die einmal angeschmolzen wurde und danach nicht mehr so schön cremig-zart auf der Zunge zergeht: Das Erhitzen hat ihre „Mikrostruktur" verändert.

Jägle zählt die beim 3D-Drucken von Metalllegierungen auftretenden Probleme auf: „Manche Materialien lassen sich gar nicht verarbeiten, andere sind voller Risse. Manche kommen zwar als Festkörper aus dem Pulverbett, sind aber sehr spröde." Einige 3D-gedruckte Werkstoffe ermüden bei mechanischer Belastung viel schneller als sie sollten. In der Hitze des Laserfokus können auch flüchtigere chemische Elemente aus der Legierung verdampfen, was deren Eigenschaften verschlechtert. Es kann zudem passieren, dass ein gedrucktes Werkstück in einer Zugrichtung fester ist als senkrecht zu dieser Richtung.

Eric Jägles Forschungsgruppe untersucht deshalb ihre gedruckten Würfel mit ausgeklügelten Methoden. Sie wollen damit enträtseln, was bei dem Aufschmelzen des Pulvers und anschließenden Erstarren zum Metallteil auf der mikroskopischen Skala passiert. Darauf sind die Düsseldorfer spezialisiert, und die Industrie ist an dieser Grundlagenforschung stark interessiert.

Risse in der Superlegierung

Jägle erzählt von einem aktuellen Forschungsprojekt, an dem mehrere größere und kleinere Unternehmen und verschiedene Universitäten und Forschungsinstitute beteiligt sind. Auch das Max-Planck-Institut für Eisenforschung ist dabei. „Warum kommen bestimmte Nickel-Basis-Superlegierungen mit Rissen aus dem L-PBF-Prozess heraus?", schildert Jägle die Fragestellung des Projekts. Solche Speziallegierungen werden für Turbinenschaufeln in Kraftwerken, Hubschraubern oder Flugzeugen verwendet. Beim Betrieb können diese Schaufeln über Tausend Grad Celsius heiß werden. Das dann fast weißglühende Metall darf aber nicht ermüden oder korrodieren. Genau das leisten Nickel-Basis-Superlegierungen.

Hinzu kommt, dass diese Turbinenschaufeln durch feine Kanäle gekühlt werden. Deshalb erfordert die Herstellung aufwändige Gießformen. Sie mit den Kanälen in einem Stück drucken zu können, wäre also attraktiv. Das wäre nicht nur billiger, man könnte die Schaufeln nach Bedarf drucken, auch als Ersatzteile.

„Deshalb nehmen mehrere Firmen Millionen in die Hand, um das spannende Projekt zu finanzieren", erzählt Jägle: „Ziel ist die Entwicklung einer neuen Legierung, die dieses Rissproblem nicht mehr hat." Solche Nickel-Basis-Superlegierungen werden in einer komplizierten Rezeptur mit bis zu 15 chemischen Elementen zusammengemixt und dann in speziellen Schmelz¬verfahren hergestellt. Grob die Hälfte der Mixtur entfällt auf Nickel, hinzu kommen Chrom, Kohlenstoff, Molybdän, Niob, Titan, Aluminium und weitere Elemente. Jedes Element hat eine bestimmte Funktion im Werkstoff.

Abbildung 4: Das Elektronenmikroskopbild zeigt die polierte und angeätzte Oberfläche einer Nickel-Legierung. Die Kristall¬körner sind gut erkennbar. © MPI für Eisenforschung

Um das Entstehen der feinen Risse verständlich zu machen, erklärt Jägle, wie eine Metalllegierung unter einem Lichtmikroskop aussieht. Wenn man sie poliert und mit einer Säure anätzt, dann sieht man so etwas wie metallisch glänzende Körner (Abbildung 4). „Das sind Kristalle", erklärt der Forscher, „und dass Metalle aus Kristallen bestehen, ist für viele eine Überraschung, schließlich denkt man erst mal an so etwas wie Diamant oder Bergkristall".

In der Regel sind die Kristalle mikroskopisch klein, in additiv gefertigten Legierungen sogar extrem fein. Typisch sind dann Abmessungen von einigen Hundert Nanometern (Milliardstel Meter). Sind die Legierungen so komplex wie eine Nickel-Basis-Superlegierung, dann sind die einzelnen Kristalle auch chemisch unterschiedlich zusammengesetzt. Das erinnert entfernt an ein Körnerbrot, in dessen Teig verschiedene Körnersorten stecken. Kühlt eine solche Legierung außerdem aus der Schmelze ab und geht in den festen Zustand über, dann werden ihre chemischen Bestandteile auch nicht alle zur gleichen Zeit fest. Für einen gewissen Moment des Abkühlens überzieht ein hauchdünner Flüssigkeitsfilm die Oberflächen der schon fest gewordenen Kristallkörner.

Überflüssige Übeltäter

Und dieser dünne Flüssigkeitsfilm kurz vor dem Erstarren ist der Übeltäter, der die Risse verursacht. Wenn die Kristallkörner abkühlen, schrumpfen sie nämlich. Metalle reagieren auf Temperaturänderungen durch relativ starkes Ausdehnen oder Zusammenziehen. Solange sich zwischen den Körnern in der Legierung flüssiges Material befindet, kann ein schrumpfendes Korn an seiner Kontaktfläche zum Nachbarkorn abreißen. Beim weiteren Schrumpfen klafft dann an dieser Stelle ein Riss auf (Abbildung 5). Das Forschungsziel der Düsseldorfer ist deshalb eine kleine, aber wirksame Änderung in der Rezeptur. Sie soll in Zukunft diesen schädlichen Flüssigkeitsfilm beim Abkühlen verhindern.

Abbildung 5: Das Elektronenmikroskopbild zeigt die Bruchstelle eines 3D-gedruckten Werk¬stücks aus einer Nickel-Legierung. Die dunklen Löcher sind unerwünschte Risse, die das Bauteil schwächen. © MPI für Eisenforschung

Allerdings würde es viel zu lange dauern, wenn Jägles Forschungsgruppe einfach herumprobieren würde. Mit einer Mischung aus Erfahrung, Computerprogrammen und der genauen Analyse der zersägten Würfel versuchen die Forscher, die beste Rezeptur möglichst effizient aufzuspüren. Eine Spezialität des Max-Planck-Instituts für Eisenforschung sind sogenannte Atomsonden. Damit können die Forscher im Extremfall bis auf Atome genau entschlüsseln, wie die Körner des gedruckten Materials räumlich aufgebaut sind.

 

An der Additiven Fertigung fasziniert, wie eng die Grundlagenforschung mit der industriellen Anwendung verknüpft ist. Jägle zitiert eine berühmte Feststellung von Max Planck, dem Namensgeber der Max-Planck-Gesellschaft: „Dem Anwenden muss das Erkennen vorausgehen." Das klingt fast so, als hätte Planck schon vor Jahrzehnten die Welt des 3D-Druckens vorausgesehen.


 * Der Artikel ist erstmals unter dem Title: " Drucken in drei Dimensionen. Wie Forscher filigrane Formen aus Metall produzieren" in TECHMAX 27 (Frühjahr2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/320185/3-d-druck-metalle und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde leicht gekürzt.


Weiterführende Links

Max-Planck-Institut für Eisenforschung https://www.mpie.de

D3-Metalldruck lockt Investoren | Wirtschaft. Video 2:48 min. https://www.youtube.com/watch?v=eZJHjEE5CDg

Damaszener Stahl aus dem 3D-Drucker: https://www.mpg.de/15017328/damaszener-stahl-3d-druck

inge Wed, 07.04.2021 - 21:15

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Do 01.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Schützt die Corona-Impfung bereits vor einer Ansteckung mit SARS-CoV-2 oder bloß vor der durch das Virus ausgelösten COVID-19 Erkrankung? Ergebnisse aus drei großen Studien in England, Israel und den US zeigen, dass die Impfstoffe auch einen sehr hohen Schutz vor asymptomatischen Infektionen bieten. Geimpfte können somit andere Personen nicht mehr anstecken, die Ausbreitung des Virus wird eingedämmt.

Basierend auf einer guten Verträglichkeit und auf ausgezeichneten Daten zur Wirksamkeit haben die mRNA-Impfstoffe von Pfizer/BioNTech und Moderna/NIAID bereits im Dezember 2020 die Notfall-Zulassung der US-Behörde FDA erhalten und kurz darauf hat die Europäische Behörde (EMA) die bedingte Zulassung beider Vakzinen empfohlen. Die Vakzinen nutzen dabei eine neue Technologie: die mRNA für das essentielle virale Spikeprotein wird als Bauanleitung in unsere Zellen injiziert, diese produzieren das Fremdprotein und unser Immunsystem reagiert darauf u.a. mit der Bildung von Antikörpern. Kommt es später zum Kontakt mit dem ganzen Virus, so soll dieses durch das aktivierte Immunsystem daran gehindert werden unsere Körperzellen zu infizieren.

Symptomatische Infektionen

In den klinischen Phase 3-Studien [1, 2] wurde die Wirksamkeit der Vakzinen an der Inzidenz der durch das Virus ausgelösten COVID-19- Erkrankungen gemessen, d.h. am Auftreten charakteristischer Symptome (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test.

Symptomatische Infektionen: Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. Nach der zweiten Dosis erreicht der Impfschutz rund 95 % der Probanden. (Bild aus [3], Daten aus [1] und [2], Lizenz cc-by)

Sowohl bei der Pfizer- als auch bei der Moderna-Vakzine zeigte sich eine ausgeprägte Wirkung bereits rund 12 Tage nach der ersten Dosis - das entspricht dem Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt: während die COVID-19 Fälle in der Placebogruppe ungebremst weiter anstiegen, flachte die Kurve bei den Geimpften stark ab und erreichte nach der 2. Impfung einen Schutz von 95 %. Abbildung 1 zeigt den sehr ähnlichen Zeitverlauf der Wirksamkeiten der beiden Vakzinen (eine ausführlichere Darstellung findet sich in [3], woraus auch die Abbildung stammt).

Asymptomatische Infektionen

Die für die behördliche Zulassung erhobenen exzellenten Wirksamkeiten geben keine Auskunft über symptomlos verlaufende Infektionen mit SARS-CoV-2 . Solcherart Infizierte können jedoch andere Personen anstecken und das Virus so weiter und weiter verbreiten. Eine ganz wesentliche Frage stellt sich daher: sind die Impfstoffe in der Lage auch vor symptomlosen Infektionen zu schützen? Drei groß angelegte Studien in den US, in UK und in Israel bejahen diese Frage eindeutig.

Die US-Studie der CDC

In einer am 29. März 2021 erfolgten Aussendung bestätigen die Centers for Disease Control and Prevention (CDC), - eine Behörde des US-amerikanischen Gesundheitsministeriums -, dass die Impfstoffe von Pfizer und Moderna auch vor symptomlosen Ansteckungen mit SARS-VCoV-2 schützen. Die Aussendung nennt zwar noch keine Details, die Aussagen sind dennoch äußerst ermutigend.

Die Studie: Es waren 3950 Personen involviert, die aus 6 Bundesstaaten stammten und auf Grund ihrer Tätigkeit (medizinisches Personal, Ersthelfer , essentielle Arbeitnehmer) stärker dem Virus ausgesetzt waren als die allgemeine Bevölkerung. Über einen Zeitraum von 13 Wochen (14. 12. 2020 bis 13. 3. 2021) sammelten die Teilnehmer jede Woche selbst Nasenabstriche für RT-PCR-Labortests, gleichgültig ob sie nun Krankheitssymptome entwickelt hatten oder nicht. Die Forscher der CDC konnten so mittels der PCR-Tests auch auf symptomlos verlaufende Infektionen mit SARS-CoV-2 prüfen.

Das Ergebnis: Zwei oder mehr Wochen nach der ersten Dosis des Pfizer- oder des Moderna-Impfstoffes hat sich das Risiko einer SARS-CoV-2 Infektion um 80 Prozent reduziert, zwei oder mehr Wochen nach der zweiten Impfstoffdosis um 90 Prozent. Die Studie zeigt, dass die beiden mRNA-Impfstoffe das Risiko aller SARS-CoV-2-Infektionen verringern können, nicht nur symptomatischer Infektionen.

Die Cambridge Studie in UK

In England hatten bereits am 8. Jänner 2021 Massenimpfungen mit der Pfizer-Vakzine begonnen, prioritär von Beschäftigten im Gesundheitswesen, die ein erhöhtes Risiko für eine SARS-VoV-2 Infektion haben und damit in gesteigertem Maße Patienten und Kollegen anstecken können. Ein umfassendes PCR-basiertes Screening-Programm des Klinikpersonals am Cambridge University Hospital hatte zuvor bereits während der ersten COVID-19-Pandemiewelle auf das häufige Auftreten von asymptomatischen und nur gering symptomatischen SARS-CoV-2- Infektionen hingewiesen. Nun hat ein Team des Cambridge University Hospitals die Auswirkung einer ersten Dosis des Pfizer-Impfstoffs auf das Auftreten asymptomatischer Infektionen mittels PCR-Test untersucht.

Die Studie: Während einer zweiwöchigen Zeitspanne (18 - 31.Jänner 2021) wurden vergleichbar viele Personen von geimpftem und nicht-geimpftem Krankenhauspersonal, das sich nach eigenen Angaben gesund fühlte, auf das Vorhandensein des Virus mittels PCR getestet (es waren ca. 4 400 PCR-Tests/Woche). Es wurde dabei die Zahl der positiven PCR-Tests von nicht-geimpften Personen mit den Zahlen von geimpften nach weniger als 12 Tagen nach der Impfung und länger als 12 Tage nach der Impfung verglichen (12 Tage sind etwa der Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt; s.o.) [5].

Das Ergebnis: Es zeigte sich, dass 26 von 3 252 (0,8 %) nicht-geimpften, symptomlosen Personen einen positiven PCR-Test hatten. Weniger als 12 Tage nach der Impfung sank die Zahl der symptomlos Infizierten auf 13 von 3 535 (0,37 %) und länger als 12 Tage nach der Impfung testeten nur mehr 4 von 1 989 (0,2 %) positiv.

Abbildung 2.Wie viele Krankenhaus- Mitarbeiter im haben zwar keine Symptome von COVID-19, zeigen im PCR-Test aber Infektion mit dem Virus? Nach der ersten Dosis der Pfizer-Vakzine sank die Zahl der positiv Getesteten rasch auf die Hälfte ab und mehr als 12 Tage später - nachdem die Antikörperabwehr einsetzte - auf ein Viertel. Die cycle times (ct) auf der rechten Achse zeigen einen Trend zu höheren Werten, d.i. zu niedrigeren Viruslasten. (Bild aus Michael Weekes et al.,[5] Lizenz cc-by).

Bei Personen, die COVID-19 Symptome zeigten, lag die Inzidenz der Nicht-Geimpften höher bei 1,7 % und sank nach mehr als 12 Tagen nach der Impfung auf 0,4 %. PCR-Tests geben nicht nur die Antwort positiv oder negativ. An Hand der zur Detektion nötigen Zahl an Amplifíkationen (cycle times =ct) zeigt sich auch ein Trend zu höheren cycle times, d.i. zu niedrigeren Viruszahlen.

Die Israel-Studie

In diesem Land läuft wohl sicherlich die derzeit größte Studie zur Wirkung von Impfungen auf symptomatische und asymptomatische Infektionen mit SARS-CoV-2. Mit dem Ziel möglichst schnell alle Einwohner gegen COVID-19 zu immunisieren, hatten bis 5. März bereits rund 56 % der Bevölkerung eine Impfdosis erhalten und etwa 44 % die vollständige Immunisierung mit 2 Dosen. Geimpft wurde ausschließlich mit dem Pfizer/BionTech- Impfstoff ; der damals bereits dominierende Virusstamm war die britische Variante B .1.1.7.

Die Studie: Zur Auswertung kamen Daten zu allen Geimpften und zu nachfolgenden Infektionen im Zeitraum 17. Januar bis 6. März. Untersucht wurden PCR-Tests hinsichtlich der "cycle times", die ein Maß für die Virenlast im Organismus sind. Die Daten wurden vom israelischen Gesundheitsministerium erhoben, das regelmäßig Infektionen, Tests und den Impfstatus erfasst.

Das Ergebnis: Der Pfizer-Impfstoff bietet bereits 12 Tage nach der ersten Dosis einigen Schutz vor einer COVID-18 Erkrankung und erhöht diesen 7 Tage nach der zweiten Impfung auf 95 %. Asymptomatische Infektionen, die 12 - 28 Tage nach der ersten Impfung zu positiven PCR-Tests führen, zeigen bereits eine 4-fach reduzierte Virenlast auf und weisen damit auf eine niedrigere Infektiosität und damit Verbreitung des Virus hin.

Fazit

Die Impfstoffe von Pfizer und Moderna zeigen über 90 % Wirksamkeit bei der Verhinderung asymptomatischer Infektionen. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können.


[1] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[2] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389

[3] Inge Schuster, 21.01.2021: COVID-9-Impfstoffe - ein Update

[4] CDC Real-World Study Confirms Protective Benefits of mRNA COVID-19 Vaccines. 29.03.2021  https://www.cdc.gov/media/releases/2021/p0329-COVID-19-Vaccines.html

[5]Michael Weekes , Nick K Jones, Lucy Rivett, et al. Single-dose BNT162b2 vaccine protects against asymptomatic SARS-CoV-2 infection. Authorea. February 24, 2021. DOI: 10.22541/au.161420511.12987747/v1

[6]Matan Levine-Tiefenbrun et al., Decreased SARS-CoV-2 viral load following v accination, medRxiv preprint doi https://doi.org/10.1101/2021.02.06.21251283

 

inge Thu, 01.04.2021 - 19:05

Comments

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Do, 25.03.2021 - 13:14 — Christina Beck Christina BeckIcon Biologie

Mao Zedong, Chinas „Großer Vorsitzender“, hatte den Spatz als einen von vier Volksschädlingen ausgemacht. Die Vögel, so verkündete er, seien Schädlinge, die dem Menschen Krankheiten brächten und Nahrung nähmen. Daher gehörten sie vernichtet. Millionen Menschen beteiligten sich an dieser landesweiten Jagd. Drei Tage lang scheuchten die Menschen in China mit Geschrei, Trommeln und bunten Fahnen die Spatzen in ihrem Land auf und ließen sie nicht zur Ruhe kommen, sodass sie tot oder erschöpft vom Himmel fielen. Zwei Milliarden Vögel, nicht nur Spatzen, fielen der Kampagne 1958 zum Opfer – von kleinen Meisen und Finkenvögeln bis hin zu großen Reihern, Kranichen, Greifvögeln. Die Auswirkungen auf das ökologische Gleichgewicht waren fatal: Der nahezu flächendeckenden Ausrottung der Vögel folgte im ersten „spatzenlosen“ Sommer eine Heuschreckenplage mit verheerenden Ernteausfällen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, spannt einen weiten Bogen vom Vogelsterben und dem Verlust der für uns Menschen lebensnotwendigen Artenvielfalt bis hin zu Konzepten einer Renaturierung.*

Heute steht der Spatz in China auf der Liste der bedrohten Arten. Für „Wilderei bedrohter Vögel“ kann man jetzt sogar ins Gefängnis gehen. „Die „große Spatzen-Kampagne“ wirkt in China bis heute nach“, erzählt Peter Berthold, emeritierter Direktor am Max-Planck-Institut für Verhaltensbiologie. „Bei meinen Besuchen in China in den 1990er Jahren haben wir z. B. in Kunming in einer ganzen Woche gerade einmal zwei Feldsperlinge, zwei Haustauben und eine Bachstelze beobachten können, an manchen Tagen keinen einzigen Vogel.“ Um die Artenvielfalt der Vögel wieder zu erhöhen, werden in China immer noch Wiederansiedlungsprojekte mit Sperlingen, Trauerschnäppern und weiteren Arten durchgeführt.

Aber auch bei uns in Deutschland sieht es nicht gerade rosig aus für den Spatz, oder genauer den Haussperling (Passer domesticus). Und dabei begleiten uns die Vögel als sogenannte Kulturfolger schon seit über 10.000 Jahren. Sie haben sich dem Menschen angeschlossen, als dieser sesshaft wurde und die ersten Anfänge des Ackerbaus entwickelte. Seine Vorliebe für Getreidekörner hat ihm in der Vergangenheit den Ruf eines Schädlings eingebracht. Aber Spatzen jagen auch Insekten, insbesondere wenn sie ihre Jungen aufziehen. Im Zuge der Besiedlung anderer Kontinente durch die Europäer wurde der Spatz nahezu auf der ganzen Welt heimisch. Sein weltweiter Bestand wird auf etwa 500 Millionen Individuen geschätzt. Man sollte also meinen, so schnell kommt der Spatz nicht in Bedrängnis.

Am Bodensee beobachten Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für Verhaltensbiologie und die ehrenamtlichen Mitarbeitenden der Ornithologischen Arbeitsgruppe seit 1980 die Bestandsentwicklungen der dort brütenden Vogelarten. Die Studie ist eine der wenigen in Deutschland, die die Brutvogelbestände über einen so langen Zeitraum mit derselben Methode dokumentiert. Bei der Datenerhebung von 2010 bis 2012 wurden sämtliche Vögel auf einer Fläche von rund 1.100 Quadratkilometern rund um den Bodensee gezählt. Die nächste Zählung soll von 2020 bis 2022 stattfinden.

Solche Langzeitstudien liefern einen wertvollen Datenschatz. Denn anders als bei der „großen Spatzenkampagne“ in China sind Veränderungen in einer Population oft schleichend und es fällt viel zu spät auf, wie dramatisch die Entwicklung bereits ist: Lebten am Bodensee 1980 noch rund 465.000 Brutpaare, waren es 2012 nur noch 345.000 – das heißt, jeder vierte Brutvogel ist verschwunden.

Und auch unser Hausspatz ist vom Rückgang betroffen. In Deutschland steht er schon seit einigen Jahren auf der Vorwarnliste der Roten Liste. Darauf kommen Arten, deren Bestand in den kommenden zehn Jahren gefährdet sein könnte. Zum Problem wird für den Spatz heute gerade seine Nähe zum Menschen und dessen Siedlungen: die dichte Bebauung, der Mangel an insektenfreundlichen Bäumen und Sträuchern, fehlende Fassadenbegrünung – Stadt und Dorf verändern sich so stark, dass ihm Nahrungs- und Nistmöglichkeiten genommen werden. Am Bodensee ist sein Bestand um fast die Hälfte eingebrochen (Abbildung 1).

Abbildung 1: Vogelbestände unter Druck. Der Studie am Bodensee zufolge gehen die Vögel vor allem in Landschaften zurück, die vom Menschen intensiv genutzt werden. Dazu gehört besonders die Agrarlandschaft: Das dort einst häufige Rebhuhn ist inzwischen ausgestorben. Das frühe und häufige Abmähen großer Flächen, der Anbau von Monokulturen, der frühzeitige Aufwuchs des Wintergetreides, Entwässerungsmaßnahmen und das Fehlen ungenutzter Brachflächen zerstören den Lebensraum. Hinzu kommt, dass die heutigen effizienten Erntemethoden kaum mehr Sämereien für körnerfressende Arten übrig lassen. Das wiederum trifft auch den Spatz. (Bild: © dpa für MPG )

Vogelsterben am Bodensee

Viele weitere Vogelarten kommen nur noch in geringen, oft nicht mehr überlebensfähigen Populationen und an immer weniger Orten rund um den Bodensee vor. Gerade die auf Wiesen und Feldern lebenden Arten verzeichnen zum Teil drastische Bestandseinbrüche. Das einst in der Agrarlandschaft häufige Rebhuhn ist rund um den Bodensee inzwischen ausgestorben (Abbildung 1). Sein Lebensraum wurde immer knapper, Insekten für die Aufzucht der Jungen fehlten. 75 Prozent der Vogelarten, die sich von Insekten ernähren, sind in ihrem Bestand rückläufig. „Dies bestätigt, was wir schon länger vermutet haben: das durch den Menschen verursachte Insektensterben wirkt sich massiv auf unsere Vögel aus“, sagt Peter Berthold.

Der Artenschwund tritt nicht nur bei uns in Deutschland auf, er ist ein weltweites Phänomen. Der Living Planet Index 2020 dokumentiert seit 1970 einen durchschnittlichen Rückgang um 68 Prozent der weltweit erfassten Bestände von Säugetieren, Vögeln, Amphibien, Fischen und Reptilien (und dabei sind die noch nicht beschriebenen oder wenig untersuchten Arten gar nicht berücksichtigt). Dieser Rückgang verläuft laut Weltbiodiversitätsrat (IPBES) bisher ungebremst. Nun ist der Verlust von Arten per se kein neues Phänomen. Im Verlauf der Erdgeschichte tauchten ständig neue Arten oder Gruppen verwandter Arten auf, während andere ausstarben. Die Evolution neuer Arten ist die Grundlage für biologische Vielfalt. Neu beim derzeitigen Artensterben ist aber, dass eine einzelne biologische Art unmittelbar oder mittelbar Ursache dieses dramatischen Rückgangs ist: der Mensch.

Sorge um die Natur

Biotopzerstörung oder -veränderung, übermäßige Bejagung und Befischung, chemische und physikalische Umweltbelastungen sowie der Eintrag invasiver Arten durch die wachsende globale Mobilität – all das trägt zum Rückgang der Artenvielfalt bei. In den 1980er Jahren hat die Wissenschaftsgemeinde aus Sorge um den Erhalt der Natur und das menschliche Überleben zunehmend intensiver darüber debattiert. Auf einer Konferenz der National Academy of Sciences (NAS) und der Smithsonian Institution 1986 in Washington wurde der Begriff Biodiversität erstmals öffentlichkeitswirksam eingeführt und in der Folge nicht zuletzt durch die Umweltkonferenz von Rio de Janeiro im Juni 1992 und die dort beschlossene „Konvention über die Biologische Vielfalt“ (CBD) zum Allgemeingut einer globalen Umweltpolitik. Biodiversität war daher nie ein rein naturwissenschaftlicher, sondern immer auch ein politischer Begriff.

In der Konvention heißt es: „biologische Vielfalt bedeutet [...] die Variabilität unter lebenden Organismen jeglicher Herkunft, darunter unter anderem Land-, Meeres- und sonstige aquatische Ökosysteme und die ökologischen Komplexe, zu denen sie gehören. Dies umfasst die Vielfalt innerhalb der Arten und zwischen den Arten und die Vielfalt der Ökosysteme.

Diese Definition umfasst so viel, dass wenig in der lebendigen Welt nicht unter sie fällt. Tatsächlich ist Vielfalt eine inhärente Eigenschaft des Lebens. Dabei sind Gene die kleinsten grundlegenden Einheiten, auf denen biologische Vielfalt fußt – sie sind der Motor der Evolution. Denn alle Arten benötigen eine gewisse, über eine Population verteilte Vielfalt an Genen, sollen sie ihre Fähigkeit beibehalten, sich an sich verändernde Umweltbedingungen anzupassen. Ein Gen, das zwar selten, aber dennoch vorhanden ist, könnte genau das richtige sein, wenn sich die Umgebung für eine Population maßgeblich verändert – es ist eine „Überlebensversicherung“.

Gene als Lebensversicherung

Ein hervorragendes Beispiel dafür liefert der Vogelzug: Dabei handelt es sich um ein polygenes, also durch eine Vielzahl von Genen gesteuertes Verhalten. So ist der Hausspatz in Europa fast ausschließlich Standvogel, in geringem Ausmaß auch Kurzstreckenzieher. Lediglich im Alpenraum verlässt er nicht dauernd von Menschen bewohnte Siedlungen im Spätherbst oder Winter. Bei einer Unterart des Hausspatz, Passer domesticus bactrianus, handelt es sich hingegen um einen Zugvogel, der bevorzugt in Zentralasien (Kasachstan, Afghanistan usw.) brütet und bei Zugdistanzen bis zu 2000 Kilometern in Pakistan und Indien überwintert. Die im Himalaya beheimatete Unterart Passer domesticus parkini wiederum ist Teilzieher. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher, d.h. nur ein Teil der Population verlässt im Winterhalbjahr das angestammte Brutgebiet und zieht gen Süden, während der Rest vor Ort bleibt. Teilzug ist eine ausgesprochen erfolgreiche, weil anpassungsfähige Lebensform. Beim Übergang von reinen Zugvögeln bis hin zu Standvögeln nimmt sie eine Schlüsselstellung ein. Unter extremen Bedingungen können Teilzieher, das haben Experimente von Wissenschaftlern des Max-Planck-Instituts für Verhaltensbiologie gezeigt, innerhalb weniger Generationen zu phänotypisch fast reinen Zug- oder Standvögeln selektiert werden (Abbildung 2). Der Temperaturanstieg in unseren Breiten infolge des Klimawandels wird – so die Prognose der Forscher – dazu führen, dass Vogelarten, die heute noch Teilzieher sind, bei uns zu Standvögeln werden.

Abbildung 2: Mikroevolution. In den 1990er Jahren konnten Peter Berthold (oben) und sein Team durch Untersuchungen an Mönchsgrasmücken nachweisen, dass die verschiedenen Formen des Vogelzugs tatsächlich unmittelbar genetisch gesteuert werden. Aus einer Population von 267 handaufgezogenen Vögeln konnten sie innerhalb von nur drei bis sechs Generationen (F3- F6) durch experimentelle Selektion – die der gerichteten Mikroevolution in der freien Natur entspricht – nahezu reine Zug- bzw. Standvögel züchten. Die Ausgangspopulation bestand zu 75 Prozent aus Zugvögeln und zu 25 Prozent aus Standvögeln. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher. Die Forscher vermuten jedoch, dass auch die restlichen 40 Prozent, die derzeit sehr hohe Zugvogelanteile besitzen, zumindest genotypische Teilzieher sind. Das heißt, die Vögel besitzen in ihrem Genom nach wie vor auch jene Gene, die Nichtziehen bewirken können.(Bild: © P. Berthold, MPI für Verhaltensbiologie/ CC BY-NC-SA 4.0)

Wer braucht biologische Vielfalt?

Die biologische Vielfalt ist Basis für vielfältige Leistungen der Natur, die als Ökosystemleistungen bezeichnet werden. Intakte Ökosysteme stellen dem Menschen lebenswichtige Güter und Leistungen zur Verfügung: Erdöl, Erdgas und Kohle liefern Energie. Holz, Leder, Leinen und Papier sind wichtige Werkstoffe. Wir ernähren uns von Tieren und Pflanzen, die angebaut, gehalten oder in freier Natur gesammelt oder gejagt werden. Unser kultureller Wohlstand (z. B. Erholung, Freizeitgestaltung) wie auch technische Entwicklungen sind in der einen oder anderen Art von Naturprodukten abhängig. Und diese hängen von natürlichen Prozessen ab, die ihrerseits von biologischer Vielfalt beeinflusst werden. Der Verlust an biologischer Vielfalt trifft also auch uns.

Könnte Technologie natürliche Vielfalt ersetzen?

Könnten wir beispielsweise aus einzelnen DNA-Abschnitten das Erbgut ausgestorbener Arten rekonstruieren und diese wieder zum Leben erwecken, um Artenvielfalt wiederherzustellen?

Die Fortschritte in der genomischen Biotechnologie lassen erstmals solche Gedankenspiele zu, seit langem ausgestorbene Arten – oder zumindest „Ersatz“-Arten mit Merkmalen und ökologischen Funktionen ähnlich wie die der ausgestorbenen Originale – wieder zum Leben zu erwecken. Aber die Hürden sind enorm [1]. Darüber hinaus profitiert der Mensch von mehreren tausend Heilpflanzen, die schon seit Jahrtausenden Wirkstoffe für Arzneien und Medikamente liefern. Können wir diese Vielzahl an Naturstoffen biotechnologisch herstellen? Acetylsalicylsäure, ein schmerzstillender Wirkstoff aus der Weidenrinde, wird heute tatsächlich technisch hergestellt. Bei anderen pharmazeutischen Wirkstoffen bleibt das aber schwierig. Und was noch viel entscheidender ist: Innerhalb der biologischen Vielfalt warten möglicherweise noch zahlreiche medizinische oder technologische Vorbilder für etwaige Heilmittel auf ihre Entdeckung, die in Jahrmillionen Evolution entwickelt wurden.

Es kommt also nicht von ungefähr, dass im Rahmen der „Konvention über Biologische Vielfalt“ auch Fragen der globalen Gerechtigkeit diskutiert werden: Wie kann der „Mehrwert“, der aus dem Schutz und der Nutzung von biologischer Vielfalt entsteht, fair verteilt werden, zwischen armen, aber biodiversitätsreichen und den wohlhabenden, aber biodiversitätsarmen Staaten?

Ein Beispiel einer solchen Nutzung sind die tropischen Regenwälder, die als Lieferant von aus Pflanzen gewonnenen Medikamenten oder als Kohlenstoffsenke zur CO2-Reduktion infrage kommen. Überhaupt zählt der tropische Regenwald zu den so genannten Biodiversitäts-Hotspots.

Begünstigt durch optimale Klimabedingungen und langes Bestehen bei gleichzeitig großer struktureller Vielfalt, hat hier die Evolution die größten Artenzahlen hervorgebracht. So findet sich in der Hotspot-Region Peru bei Säugetieren, Vögeln und höheren Pflanzen verglichen mit Deutschland eine fünf- bis siebenfache Artenzahl (Zahlen nach IUCN 2006). Die US-amerikanische Organisation Conservation International hat 34 Biodiversitäts-Hospots auf Kontinenten, Inseln und im Meer definiert, wo besonders viele endemische, also nur dort heimische Arten vorkommen und gleichzeitig eine besondere Bedrohungssituation vorliegt.

Zu diesen Hotspots gehört auch der seit Jahrtausenden dicht besiedelte und bewirtschaftete Mittelmeerraum, wo rund 11.500 endemische Pflanzenarten wachsen. Europa hat sich im Rahmen der Biodiversitätskonvention bis zum Jahr 2030 vorgenommen, jeweils 30 Prozent der Land- und Meeresgebiete unter Naturschutz zu stellen. Biolandwirtschaft und strukturreiche landwirtschaftliche Flächen mit ungenutzten Bereichen sollen Ökosysteme stärken. Der Verlust von Insekten soll gestoppt, Pestizide um 50 Prozent reduziert werden. Fließgewässer in der EU sollen auf mindestens 25.000 Kilometern wieder frei fließen und drei Milliarden Bäume angepflanzt werden. Eine Simulationsstudie zeigt, dass der Verlust an Biodiversität weltweit nur mit erheblichen Anstrengungen abzuschwächen ist. Dabei müssen Naturschutzmaßnahmen mit nachhaltiger Landnutzung und nachhaltigem Konsum kombiniert werden, um den rückläufigen Trend bis zum Jahr 2050 umzukehren (Abbildung 3).

Abbildung 3: Artenschutz. Naturschutzmaßnahmen (orange Kurve) wie die Flächen von Schutzgebieten zu vergrößern, reichen nicht aus, um den negativen Trend der terrestrischen Biodiversität (graue Kurve) zu stoppen. Hinzukommen müssen eine nachhaltige Land-, Forst- und Fischereiwirtschaft, nachhaltiger Handel und eine Ernährungsweise, die z. B. weniger Nahrung verschwendet und einen höheren pflanzlichen Anteil besitzt (grüne Kurve). (Bild: © Adam Islaam, IIASA).

Kehren wir noch einmal zurück zum Bodensee: Schon 1988 hat Peter Berthold einen neuen Weg zur Rettung der Artenvielfalt vorgeschlagen: Die Renaturierung von für die Landwirtschaft wenig ergiebigen Flächen auf den Gemarkungen aller rund 11.000 politischen Gemeinden Deutschlands. Neben den menschlichen Siedlungen könnte so Lebensraum für Tiere und Pflanzen auf rund 15 Prozent der Gemeindeflächen geschaffen werden. Auf diese Weise würde ein deutschlandweiter Biotopverbund entstehen. Die Abstände der einzelnen Lebensräume würden rund zehn Kilometer betragen – eine Distanz, die die meisten Tiere und Pflanzen überbrücken können, um vom einen zum anderen zu gelangen. Dadurch könnten sich stabile Populationen mit hoher genetischer Vielfalt bilden. Ein solcher Biotopverbund für Deutschland würde etwa 3000 Renaturierungsmaßnahmen erforderlich machen.

Jeder Gemeinde ihr Biotop

Im nördlichen Bodenseeraum wurden seit 2004 mit Unterstützung der Heinz Sielmann Stiftung über 131 Biotope an 44 Standorten neu geschaffen oder bestehende aufgewertet. Eine Vielzahl neu angelegter Weiher, Tümpel, Feuchtgebiete sowie aufgewerteter Viehweiden, Streuobstwiesen und Trockenrasen zeigt eine geradezu verblüffende Wiederbelebung der Artenvielfalt. Der Großversuch Biotopverbund Bodensee hat besonders eines ganz klar gemacht: Noch lohnt sich der Einsatz für den Erhalt von Biodiversität – viele der verbliebenen Restbestände wildlebender Pflanzen und Tiere sind noch regenerationsfähig. Aber: „Eile und enormer Einsatz sind dennoch geboten – denn mit jedem Tag verringert unsere derzeitige Raubbau-Gesellschaft die Regenerationsfähigkeit der Artengemeinschaft weiter“, sagt Peter Berthold.

Abbildung 4. Hilfe für den Spatz (Bild: © Robert Groß / animal.press; HN //)

Naturschutz ist darüber hinaus auch eine Investition in das menschliche Wohlbefinden, wie eine Untersuchung von Forschern u.a. des Senckenberg Museums auf Basis von Daten des 2012 European Quality of Life Survey bei mehr als 26.000 Erwachsenen aus 26 europäischen Ländern zeigt. Demnach steigern zehn Prozent mehr Vogelarten im Umfeld die Lebenszufriedenheit der Befragten mindestens genauso stark wie ein vergleichbarer Einkommenszuwachs. Dem Spatz können wir übrigens recht einfach helfen: durch die Anpflanzung heimischer Stauden und Sträucher in den Gärten, eine Ganzjahresfütterung sowie den Erhalt von Nischen und Mauerspalten als Nistplätze (Abbildung 4).


[1] Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


* Der Artikel ist erstmals unter dem Titel: "Vom Wert der biologischen Vielfalt –oder was uns die Spatzen von den Dächern pfeifen" in BIOMAX 14, Neuauflage Frühjahr 2021 erschienen https://www.max-wissen.de/348103/biomax-14-2021-web.pdf und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

Max-Planck-Geselllschaft: Themenseite Biodiversität: https://www.mpg.de/biodiversitaet.html

Artenschutz - Biotopverbund Bodensee: https://www.mpg.de/1163524/

EU-Biodiversitätsstrategie für 2030: https://ec.europa.eu/info/strategy/priorities-2019-2024/european-green-deal/actions-being-taken-eu/eu-biodiversity-strategy-2030_de

Living Planet Report 2020: https://www.wwf.de/living-planet-report

IIASA, 08.11.2018: Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus.

IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren

inge Wed, 24.03.2021 - 23:45

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Do, 18.03.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die CRISPR-Gen-Editing-Technologie bietet enorme Möglichkeiten, um nicht vererbbare Veränderungen der DNA zu generieren, mit denen eine Vielzahl verheerender Erkrankungen - von HIV bis hin zu Muskeldystrophie - behandelt oder sogar geheilt werden kann. Kürzlich wurde nun in Tierexperimenten eine Studie durchgeführt, die auf ein andere Art der CRISPR-Genschere abzielt, nämlich auf eine, die virale RNA anstatt menschlicher DNA zerschneidet. Eine derartige Genschere könnte als ein zu inhalierendes antivirales Therapeutikum wirken, das vorprogrammiert werden kann, um potenziell fast jeden Grippestamm und viele andere Viren der Atemwege, einschließlich SARS-CoV-2, das Coronavirus, das COVID-19 verursacht, aufzuspüren und deren Auswirkungen zu vereiteln. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über neue Ergebnisse, die eine Revolution in der Therapie von Atemwegsinfektionen einläuten könnten.*

Die CRISPR/Cas13a-Genschere…

Andere CRISPR-Geneditierungssysteme basieren auf einer sequenzspezifischen Leit-RNA (Guide-RNA), mit deren Hilfe ein scherenartiges bakterielles Enzym (Cas9) genau an die richtige Stelle im Genom gelenkt werden kann, um dort krankheitsverursachende Mutationen auszuschneiden, zu ersetzen oder zu reparieren. Das neue antivirale CRISPR-System basiert ebenfalls auf einer solchen Leit-RNA. Allerdings wird hier nun ein anderes bakterielles Enzym namens Cas13a an die richtige Stelle im viralen Genom geleitet, um sodann an die virale RNA zu binden, diese zu spalten und damit die Vermehrung von Viren in Lungenzellen zu verhindern.

Die Ergebnisse solcher Versuche wurden kürzlich in der Zeitschrift Nature Biotechnology [1] veröffentlicht und stammen aus dem Labor von Philip Santangelo, Georgia Institute of Technology und der Emory University, Atlanta. Untersuchungen anderer Gruppen hatten schon früher das Potenzial von Cas13 aufgezeigt die RNA von Influenzaviren in einer Laborschale abzubauen [2,3]. In der aktuellen Arbeit haben Santangelo und Kollegen nun Mäuse und Hamster eingesetzt, um zu prüfen, ob dieses Enzym Cas13 tatsächlich im Lungengewebe eines lebenden Tieres wirken kann.

…eingeschleust in die Lunge von Versuchstieren…

Interessant ist, wie das Team von Santangelo dabei vorgegangen ist. Anstatt das Cas13a-Protein selbst in die Lunge zu transferieren, wurde eine Messenger-RNA (mRNA) mit der Bauanleitung zur Herstellung des antiviralen Cas13a-Proteins geliefert. Es handelt sich dabei um die gleiche Idee, die auch bei den auf mRNA basierenden COVID-19-Impfstoffen von Pfizer und Moderna realisiert ist: diese steuern die Muskelzellen vorübergehend in der Weise, dass diese virale Spike-Proteine produzieren, welche dann eine Immunantwort gegen diese Proteine auslösen. In aktuellen Fall übersetzen die Lungenzellen des Wirts die Cas13a-mRNA und produzieren das Cas13-Protein. Mit Hilfe der an dieselben Zellen abgegebenen Guide-mRNA baut Cas13a die virale RNA ab und stoppt die Infektion.

Da die mRNA nicht in den Zellkern gelangt, gibt es keine Interaktion mit der DNA und damit auch keinerlei mögliche Bedenken hinsichtlich unerwünschter genetischer Veränderungen.

Die Forscher haben Guide-RNAs entworfen, die für einen gemeinsamen, hochkonservierten Teil der Influenzaviren spezifisch waren, welche in der Replikation ihres Genoms und der Infektion anderer Zellen eine Rolle spielen. Sie haben auch ein weiteres Set von Guide RNAs für essentielle Teile von SARS-CoV-2 entworfen.

…wirkt sowohl gegen Influenza als auch gegen SARS-CoV-2-Infektion

Sodann haben die Forscher die Cas13a-mRNA mittels eines adaptierten Inhalators direkt in die Lunge von Tieren transferiert (dabei handelte es sich um ebensolche Inhalatoren, wie sie auch zur Abgabe von Medikamenten an die Lunge von Menschen verwendet werden). Waren die Mäuse mit Influenza infiziert, so baute Cas13a die Influenza-RNA in der Lunge ab und die Tiere erholten sich ohne erkennbare Nebenwirkungen. Die gleiche Strategie bei SARS-CoV-2-infizierten Hamstern limitierte die Fähigkeit des Virus, sich in Zellen zu vermehren, während sich die COVID-19-ähnlichen Symptome der Tiere verbesserten.

Abbildung 1. CRISPR/Cas13a, eine antivirale Genschere mit dem Potential diverse RNA-Viren (u.a. Influenza- und Coronaviren) im Lungengewebe zu zerstören.

Diese Ergebnisse zeigen erstmals, dass mRNA verwendet werden kann, um das Cas13a-Protein in lebendem Lungengewebe zu exprimieren und nicht nur in vitro in einer Zellkultur. Es wird auch erstmals demonstriert, dass das bakterielle Cas13a-Protein die Vermehrung von SARS-CoV-2 verlangsamt oder stoppt. Letzteres lässt hoffen, dass dieses CRISPR-System schnell angepasst werden kann, um jegliche Art neuer zukünftiger Coronaviren zu bekämpfen, welche für die Menschen gefährlich werden können. Abbildung 1.

Fazit

Nach Ansicht der Forscher hat die CRISPR/Cas13a Strategie das Potenzial, gegen die überwiegende Mehrheit (99 %) der im letzten Jahrhundert weltweit verbreiteten Grippestämme zu wirken. Gleichermaßen sollte die Strategie auch gegen die neuen und ansteckenden Varianten von SARS-CoV-2, die derzeit weltweit im Umlauf sind, wirksam sein. Zwar sind weitere Studien erforderlich, um die Sicherheit eines solchen antiviralen Ansatzes aufzuklären, bevor er noch am Menschen ausprobiert wird. Es ist jedoch klar, dass - wie in diesem Fall - Fortschritte in der Grundlagenforschung ein enormes Potenzial zur Bekämpfung aktueller und auch zukünftiger lebensbedrohender Viren der Atemwege erbringen können.


References:

[1] Blanchard EL, et al., Treatment of influenza and SARS-CoV-2 infections via mRNA-encoded Cas13a in rodents. Nat Biotechnol. 2021 Feb 3. [Published online ahead of print.]

[2] Freije CA et al., Programmable inhibition and detection of RNA viruses using Cas13Mol Cell. 2019 Dec 5;76(5):826-837.e11.

[3] Abbott TR,  et al., Development of CRISPR as an antiviral strategy to combat SARS-CoV-2 and influenza Cell. 2020 May 14;181(4):865-876.e12.


<p>*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. März 2021) im NIH Director’s Blog unter dem Titel: "CRISPR-Based Anti-Viral Therapy Could One Day Foil the Flu—and COVID-19"  https://directorsblog.nih.gov/2021/03/16/crispr-based-anti-viral-therapy-could-one-day-foil-the-flu-and-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).</p>


Weiterführende Links

NIH: COVID-19 Research

National Institute of Allergy and Infectious Diseases/NIH: Influenza:

Santangelo Lab Georgia Institute of Technology, Atlanta

CRISPR/Cas im ScienceBlog

Redaktion, 08.10.2020: Genom Editierung mittels CRISPR-Cas9 Technologie - Nobelpreis für Chemie 2020 an Emmanuelle Charpentier und Jennifer Doudna

Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Francis S. Collins, 2.2.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

inge Wed, 17.03.2021 - 19:11

Comments

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Do, 11.03.2021 — Roland Wengenmayr

Icon Chemie

 

Roland Wengenmayr Cellulose, eines der häufigsten organischen Polymere auf unserer Erde, liegt in Pflanzenfasern in Form von Nanokristallen vor. Isoliert besitzen diese Nanokristalle faszinierende Eigenschaften, die sie für diverseste Anwendungen in Betracht kommen lassen - von Hydrogelen als Basis für biologisch abbaubare Kosmetika,Verdickungsmittel und Verpackungsmaterial von Lebensmitteln bis hin zu Leichtbauteilen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr wirft einen Blick in ein Max-Planck-Institut, wo an Cellulose als Ausgangsmaterial für eine nachhaltige Nanotechnologie geforscht wird.*

Die Nanowelt hat ganz eigene, manchmal magisch anmutende Gesetze. Der Name kommt vom altgriechischen Wort nános für Zwerg. Nanoobjekte bemessen sich in Milliardstel Metern, Nanometer genannt. Die kleinsten von ihnen sind grob zehnmal größer als Atome. Die größten messen bis zu hundert Nanometer. Auf der Rangfolge der Größenskalen liegt die Nanowelt also oberhalb der Atome, aber unterhalb der Mikrowelt. Dort ist der Mikrometer, als ein Millionstel Meter, das passende Maß (Abbildung 1).

Abbildung 1. Die Nanowelt reicht ungefähr von einem bis 100 Nanometer. Die gezeigten Beispiele sind nach der Größe ihres Querschnitts einsortiert. © R. Wengenmayr; MPG

Nanopartikel in der Natur

In der Natur gibt es viele Nanopartikel, etwa kleine Viren oder Antikörper im Blut. Zudem setzen wir Menschen immer mehr künstliche Nanopartikel frei, zum Beispiel in Imprägniersprays oder Kosmetika. Silbernanopartikel werden in medizinischen Wundauflagen benutzt, weil sie Keime abtöten.

In der Nanowelt regiert vor allem ein Gesetz, das aus der Geometrie stammt: Je kleiner zum Beispiel eine Kugel ist, desto größer ist ihre Oberfläche im Verhältnis zum Volumen. Deshalb besitzen Nanopartikel eine verhältnismäßig riesige Oberfläche. Diese bietet der Chemie eine große Spielwiese für Reaktionen, die auf verschiedenen Wechselwirkungen basieren. Zum Beispiel können Nanopartikel aus Eisen so heftig mit Luftsauerstoff oxidieren, dass sie von selbst in Flammen aufgehen. Auch als Katalysatoren, die auf ihrer Oberfläche Reaktionen beschleunigen, eignen sich Nanopartikel besonders gut.

Dank ihrer Eigenschaften kann die Nanowelt eine Vielfalt neuer Anwendungen hervorbringen. Nanopartikel können wegen ihrer Reaktionsfreudigkeit aber auch zum gesundheitlichen Risiko werden. Diese Sorge wächst mit der Menge an künstlich freigesetzten Nanopartikeln. Genau hier setzt das Forschungsgebiet von Svitlana Filonenko an. Die Chemikerin leitet eine Gruppe am Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam, in der Abteilung des Direktors Markus Antonietti. Ihr Forschungsgebiet ist Nano-cellulose, die umweltverträglich und vielfältig einsetzbar ist.

Nachhaltige Cellulose für grüne Chemie

„Cellulose ist eines der häufigsten organischen Polymere auf unserem Planeten“, sagt Filonenko: „Und dieser Rohstoff wächst jedes Jahr nach!“ Schon ist sie bei der „grünen Chemie“ gelandet. Grüne Chemie soll umweltfreundliche Verfahren einsetzen, nachhaltige Rohstoffe verwenden und biologisch abbaubare Produkte hervorbringen. Dafür ist Cellulose ideal.

Cellulose begegnet uns im Alltag in vielfältiger Form, als Holz, Karton, Papier, Filter oder Kleiderstoffe aus Baumwolle und Viskose. Und wir essen sie, als Gemüse, Obst, Salat, aber auch in Form von lebensmittelchemischen Zusatzstoffen, etwa Verdickungsmittel.

Produziert wird Cellulose vor allem von Pflanzenzellen, aber auch von einigen Bakterien und sogar Tieren – die Manteltiere, zu denen die Seescheiden gehören.

Wie viele Naturmaterialien sind Pflanzenfasern komplex aufgebaut, die eigentliche Cellulose aber überraschend einfach. Ihr Grundbaustein ist das Traubenzucker-Molekül, die Glucose. Pflanzen produzieren es in der Photosynthese mit Hilfe von Sonnenlicht aus Wasser und CO2 (Kohlenstoffdioxid). Die Pflanzenzelle verknüpft die Glucose-Moleküle unter Einsatz eines Enzyms zu einer Polymerkette (Abbildung 2).

Abbildung 2- Cellulose ist wie eine Perlenkette aus einzelnen Bausteinen (Glucosemolekülen) aufgebaut, die sich immer wiederholen. Zwei Glucosemoleküle, die gegeneinander verdreht aneinandergeknüpft sind, bilden die kleinste Einheit des Polymers. Die grün gefärbten OH-Gruppen lassen sich chemisch modifizieren. Bild:© E. Jaekel, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0

Die Zelle produziert viele solcher Polymerketten gleichzeitig“, erklärt Filonenko. Daraus entsteht dann das eigentliche Forschungsobjekt der Chemikerin. Die Polymerketten werden schön ordentlich zu einem Kristall zusammengefügt. Kristalle zeichnen sich durch eine nahezu perfekte, dreidimensionale Anordnung ihrer Grundbausteine aus. Eigentlich sind Kristalle typisch für unbelebte Materie, doch auch lebende Organismen können welche herstellen. Allerdings sind Kristalle hart und oft spröde.

Wie kann daraus eine biegsame, zähe Pflanzenfaser entstehen?

Das verdankt sie einem Zusammenspiel mit weiteren Bestandteilen. Nachdem die Zelle den Cellulose-Kristall bis zu einer bestimmten Länge gebaut hat, fängt sie an, Fehler zu machen. „Diese Abschnitte sind amorph“, erklärt Filonenko. Amorph ist das Gegenteil kristalliner Ordnung. Wie in einer Perlenkette wechseln sich kristalline mit amorphen Abschnitten ab. In Letzteren können sich die Polymere gegeneinander verschieben, was die Fasern biegsam macht. Sie sind für Filonenkos Forschung auch wichtig, weil sich hier die Cellulose-Kristalle chemisch heraustrennen lassen.

Damit ist die Pflanzenfaser noch nicht fertig. Jetzt kommt ein anderes Biopolymer dazu: Lignin macht die Faser wasserfest. Reine Cellulose ist nämlich stark wasseranziehend, also hydrophil. Lignin hingegen ist wasserabweisend, hydrophob, und umhüllt das Cellulosepolymer. Außerdem sorgt das harte Lignin für die nötige Druckfestigkeit der Pflanzenzellwand. Allerdings lassen sich die wasserliebende Cellulose und das fettliebende Lignin nur schwer chemisch „verheiraten“. Dies übernimmt das dritte Element der Pflanzenzellwand, die Hemicellulose. Sie lagert sich um die Cellulosefibrille herum an und ermöglicht das Einbetten der Cellulosefaser in Lignin. Aber immer noch ist die Pflanzenfaser nicht fertig. Die eingebetteten Mikrofasern werden von der Pflanzenzelle nochmals zu einer Makrofaser gebündelt. Und mehrere Makrofasern bilden eine fertige Pflanzenfaser (Abbildung 3).

Abbildung 3. Vom Baum zum Cellulose-Nanokristall. Linkes Bild: Pflanzenfaser (rechts oben), Cellulosefaser und deren Aufbau bis zum Cellulose-Nanokristall. Rechtes Bild Die rot eingekreiste Struktur ist ein ungefähr 200 nm langer Cellulose-Nanokristall. (Links: © R. Wengenmayr / CC BY-NC-SA 4.0; Rechts: C2: © MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0 )

Nanowelt trifft auf Mikrowelt

„Die Cellulose-Kristalle sind ungefähr fünf bis zwanzig Nanometer dick und können bis zu 300 Nanometer lang sein“, erklärt Svitlana Filonenko. Die genauen Maße hängen vom erzeugenden Organismus ab. Damit gehören diese Kristallnadeln im Querschnitt zur Nanowelt, in ihrer Länge dagegen schon zur Mikrowelt.

Die langgestreckte Form der Cellulose-Nanokristalle sorgt für faszinierende Eigenschaften. Mechanisch sind sie enorm stabil, vergleichbar mit Stahl, haben Experimente gezeigt. Auf ihrer Oberfläche konzentriert sich elektrische Ladung. Damit ziehen sie Wassermoleküle stark an, denn diese Moleküle haben bei den Wasserstoffatomen einen positiven, beim Sauerstoff einen negativen elektrischen Pol. Das macht die Cellulose enorm hydrophil.

„Schon ein Anteil von nur zwei Prozent Nanocellulose in Wasser erzeugt ein sogenanntes Hydrogel“, sagt Filonenko (Abbildung 4). Die langen Kristallnadeln bilden ein sehr lockeres Netzwerk, in dessen Lücken sich viel Wasser ansammelt. Dieser extreme Wasseranteil ist zum Beispiel interessant für biologisch abbaubare Kosmetika, an denen die Chemikerin forscht. „Mehr Feuchtigkeit in einer Creme geht nicht“, sagt sie lachend. Kosmetika benötigen allerdings auch einen Fettanteil. Wasser und Öl sind aber nicht mischbar. Für den Mix müssen normalerweise Emulgatoren sorgen. Das sind Moleküle, die einen wasser- und einen fettliebenden, also lipophilen, Teil haben. Damit können sie Wasser und Öl zu einer Emulsion verbinden.

Abbildung 4. Dieses Hydrogel besteht aus 98 Prozent Wasser und zwei Prozent Cellulose-Nanokristallen. © Dr. Nieves Lopez Salas

Sogenannte Pickering-Emulsionen kommen ohne klassische Emulgatoren aus. Hier sorgen allein feine, feste Partikel für die Verbindung zwischen Wasser und Öl. Mit Cellulose-Nanokristallen funktioniert das sehr gut. Zum Glück befinden sich auf den langen Nanokristallen auch Abschnitte ohne elektrische Ladung, erklärt Filonenko. Hier können die Moleküle von Fetten und Ölen andocken. Die Potsdamer Chemiker versuchen zusätzlich, die Cellulose-Nanokristalle an der Oberfläche chemisch zu optimieren. Das soll für eine stabilere Verbindung zwischen Öl und Wasser sorgen. Mit solchen Pickering-Emulsionen ließen sich umweltfreundliche, biologisch abbaubare Kosmetika herstellen. Das ist ein wichtiges Thema, da heute täglich Kosmetika-Rückstände von Milliarden von Menschen in die Umwelt gelangen.

Biologisch abbaubare Lebensmittelverpackungen

Ein anderes Forschungsgebiet der Potsdamer sind Verdickungsmittel für Lebensmittel. Die Nanocellulose verspricht, besser verträglich als manche heute eingesetzten Lebensmittelzusatzstoffe zu sein.

Doch auch die Papierverpackungen von Lebensmitteln hat Filonenko im Blick: „Ich denke an die jüngsten Skandale um Spuren von Mineralöl in Lebensmitteln.“ Das Problem erwächst hier sogar aus der Nachhaltigkeit, denn die Verpackungen werden aus Altpapier gemacht. Das kommt aus vielen Quellen und kann verschmutzt sein. Um die Lebensmittel zu schützen, werden die Verpackungen daher innen mit einer Kunststoffschicht abgedichtet. Die ist aber nicht biologisch abbaubar. Filonenkos Team will bei dieser Beschichtung den Kunststoff durch Cellulose-Nanokristalle ersetzen. Nach dem Aufbringen einer Flüssigkeit legen sich beim Trocknen die langen Kristallnadeln dicht geordnet aneinander. Die Lücken zwischen ihnen sind zu klein, um noch unerwünschte Stoffe durchzulassen. Diese Schichten sind zudem ein Augenschmaus. „Sie schillern in allen Regenbogenfarben“, sagt die Chemikerin begeistert. Der Grund: Die Kristallnadeln sortieren sich zu in sich verschraubten Helixstrukturen, und diese Mikrostrukturen brechen das Licht in unterschiedlichen Farben, je nachdem, aus welchem Winkel man sie anschaut. Es ist derselbe physikalische Effekt, der Schmetterlingsflügel schillern lässt.

Filonenko ist von Cellulose-Nanokristalle auch begeistert, weil jeder Glucose-Baustein drei funktionelle Gruppen besitzt (grün in Abbildung 2): „An diese drei Zentren kann man verschiedene Moleküle binden, um die Cellulose-Nanokristalle zu modifizieren.“

Trotz dieser chemischen Flexibilität ist die Gewinnung der Nanokristalle bislang eine harte Nuss. Die Cellulosefasern, in denen sie stecken, sind weder in Wasser noch in organischen Lösungsmitteln löslich. Ohne Lösung sind aber chemische Reaktionen schwierig. Daher zerlegt das heute etablierte Verfahren die Fasern in Schwefelsäure, um die Nanokristalle herauszutrennen. Hydrolyse heißt die Prozedur. Schwefelsäure ist aber stark ätzend und gefährlich handzuhaben. Grüne Chemie will sie daher vermeiden, und Filonenkos Team forscht an einer schonenderen Methode für die Zukunft.

Eutektische Flüssigkeiten

Das Zauberwort heißt „stark eutektische Lösungsmittel“. Damit lassen sich die Nanokristalle vergleichsweise sanft aus den Cellulosefasern herauslösen. Zuerst muss Filonenko erklären, was ein Eutektikum ist: „Wenn man zwei oder mehr feste Komponenten mit bestimmten Eigenschaften mixt, sinkt die gemeinsame Schmelztemperatur auf einen Tiefpunkt, das Eutektikum.“

Sie verdeutlicht das Prinzip an einem Beispiel, mit dem sie kürzlich eine kanadische Chemieprofessorin verblüfft hat: Ahornsirup ist ein natürliches eutektisches Gemisch. Die zwei Hauptbestandteile des Sirups sind Apfelsäure und Zucker, genauer Saccharose und Fructose. Bei Zimmertemperatur sind alles feste Substanzen. Man mischt sie als Pulver und träufelt ein wenig Wasser darauf, um die Komponenten in Kontakt zu bringen. „Jetzt geschieht etwas Faszinierendes“, erklärt die Chemikerin: „Das Pulver wird immer feuchter, bis es sich in eine klare Flüssigkeit verwandelt.“ Das Wasser wirkt hier nicht als Lösungsmittel, denn davon gibt es viel zu wenig, um die Pulver aufzulösen. Stattdessen ist die Flüssigkeit eine Schmelze bei Zimmertemperatur.

Eine solche eutektische Flüssigkeit kann ein sehr gutes Lösungsmittel für bestimmte Stoffe sein. Dazu gehört die Cellulose, für die Filonenkos Team ein eutektisches Lösungsmittel entwickelt hat. Die Chemie ist allerdings komplizierter als beim Ahornsirup. Das Team kann auch noch keine Details verraten, weil die Arbeit erst in einem wissenschaftlichen Fachblatt publiziert werden muss. Esther Jaekel, eine Doktorandin in Filonenkos Gruppe, führt aber im Labor vor, was damit passiert. Als Rohmaterial testet sie gerade verschiedene cellulosehaltige Abfälle, darunter Faserreste aus der Papierproduktion, sogar Holzspäne. Je bräunlicher das Material ist, desto mehr Lignin und Hemicellulose enthält es. Zum Herauslösen der Nanokristalle wird es mit einer klaren, wässrigen Flüssigkeit gemischt. Das ist das bereits fertige eutektische Lösungsmittel aus zwei Komponenten. Es zersetzt die amorphen Verbindungen zwischen Cellulose-Kristallen, nur die Nanokristalle bleiben übrig.

In einigen Experimenten soll das eutektische Lösungsmittel die Cellulose-Nanokristalle modifizieren. Das passiert in einem kleinen Reaktor, der wie ein robuster Schnellkochtopf funktioniert. Darin wird die Mischung zum Beispiel bei 140 Grad Celsius und dem fünfzigfachen Atmosphärendruck für eine Stunde „gegart“. In dieser Zeit läuft die erwünschte Veränderung ab. Hinterher bekommen die Chemikerinnen eine bräunliche Flüssigkeit, wobei die braune Farbe durch Röststoffe wie beim Braten entsteht. Diese werden anschließend herausgewaschen. Das Ergebnis ist eine milchige Flüssigkeit, die ausschließlich fein verteilte Cellulose-Nanokristalle enthält. „Das ist ein stabiles Kolloid“, erklärt Jaekel, und damit kommt noch ein wichtiges Fachwort ins Spiel. Das Wort Kolloid leitet sich aus dem Altgriechischem ab und bedeutet so viel wie „leimartiges Aussehen“. Die Kolloidchemie, der sich Markus Antoniettis Abteilung im Institut widmet, basiert auf Nanopartikeln in Flüssigkeiten. Solche extrem feine Partikel setzen sich nicht mehr unten im Gefäß ab, wenn die Flüssigkeit länger steht. Die Wärmebewegung der Moleküle kickt die kleinen Partikel immer zurück in die Flüssigkeit.

Abbildung 5. Ein dünner Film aus Cellulose-Nanokristallen irisiert im Licht. © Dr. Nieves Lopez Salas

Aus dem Nanocellulose-Kolloid lässt sich zum Beispiel eine Pickering-Emulsion machen. Jaekel zeigt ein Fläschchen mit einer milchig-weißen Flüssigkeit: „Das ist eine Emulsion von Öl in Wasser, also im Prinzip Salatsauce.

Die Chemikerinnen gefriertrocknen auch die gewonnene Flüssigkeit mit den Nanokristallen. Das ergibt ein weißes, fluffiges Pulver. „Damit könnte man zum Beispiel Leichtbauteile herstellen“, sagt Jaekel. Dann zeigt sie getrocknete Filme aus reiner Nanocellulose. Besonders bei kleinen Kristallen sieht der Film ganz klar aus. Im Licht schillert er in allen Regenbogenfarben (Abbildung 5). Schließlich führt die Chemikerin ein Stück Altpapier vor, wie es für Lebensmittelverpackungen verwendet wird. Es ist mit den Cellulose-Nanokristallen beschichtet. Seit Wochen steht nun schon eine kleine Ölpfütze darauf, ohne durchzusickern. Das zeigt: Diese biologisch abbaubare Beschichtung könnte Lebensmittel vor Mineralölspuren schützen.

„Holz hat unsere Kultur geprägt“, sagt Svitlana Filonenko. Seit Jahrtausenden ist es Brenn- und Baustoff. Bedrucktes Papier begründete unsere Informationskultur. Im 19. Jahrhundert kam mit Zelluloid der erste Kunststoff auf, und mit ihm der Film als neues Medium. Nun könnte aus Cellulose eine nachhaltige Nanotechnologie entstehen. Abbildung 6. Das ist das Ziel der Potsdamer Forscherinnen.

Abbildung 6.Cellulose-Nanokristalle - Ausgangsstoff für nachhaltige Nanotechnologie. © AdobeStock /HN; catalby/istock

 


 


* Der Artikel ist erstmals unter dem Title: "Nachwachsende Nanowelt – Cellulose-Kristalle werden zum grünen Zukunftsmaterial" in TECHMAX 28 (Winter 2020) der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/344532/nanomaterialien und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde praktisch unverändert in den Blog übernommen.


 Weiterführende Links

Nanostrukturen im ScienceBlog

inge Wed, 10.03.2021 - 21:17

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Fr 05.03.2021.... Inge Schuster Inge Schuster Icon Politik und Gesellschaft

Die Vision für die Zukunft sieht Elektro-Autos auf den Straßen dominieren, deren Strom aus erneuerbaren Quellen kommt. Solche Fahrzeugen bieten viele Vorteile, lösen aber auch ein gewisses Maß an Skepsis aus. Zwar selten, aber dennoch nicht weniger beängstigend kann das Kernstück des Autos, die Lithium-Ionen-Batterie spontan - etwa beim Parken, beim Aufladen - in Brand geraten, der trotz enormer Mengen an Löschwasser nur sehr schwer zu löschen ist und tagelang andauern kann. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Die Bekämpfung solcher Brände steckt noch in den Kinderschuhen. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten.

Der bereits für alle uns spürbar gewordene Klimawandel verlangt eine rasche, effiziente und nachhaltige Reduzierung von Treibhausgasen, insbesondere von CO2, die durch den Ausstieg aus fossilen Brennstoffen und deren Ersatz durch erneuerbare Energieträger erfolgen soll. Ein derartiger elementarer Umbau des Energiesystem betrifft besonders den in vielen Ländern noch wachsenden Transportsektor, der derzeit zumindest in den OECD-Ländern mit 36 % der Endenergie der größte Energieverbraucher ist [1]. Abbildung 1.

Abbildung 1. Die CO2-Emissionen in der EU sind in den Sektoren Wohnen, Industrie und Landwirtschaft deutlich gesunken, nicht aber im Transportsektor. (Bild: Eric van der Heuvel (February 2020) :CO2 reductions in the transport sector in the EU-28 [2])

Aktuell sind weltweit auf den Straßen rund 1,42 Milliarden Fahrzeuge unterwegs (davon etwa 1,06 Milliarden PKWs), die noch zu 99 % von Verbrennungsmotoren angetrieben werden und damit zu den Hauptemittenten von CO2 gehören.

Es ist eine Vision für die Zukunft, dass elektrisch angetriebene Fahrzeuge dominieren, deren Strom natürlich aus erneuerbaren Quellen stammen soll.

E-Autos auf dem Vormarsch…

Um die Abhängigkeit des Verkehrs von fossilen Brennstoffen zu reduzieren und Klimaneutralität bis 2050 erreichen zu können, sind äußerst ambitionierte Maßnahmen nötig. Was Europa betrifft, so lag im Jahr 2019 der PKW-Bestand bei rund 330 Millionen Fahrzeugen [3], wovon 1,8 Millionen (0,5 %) E-Autos waren; 2020 stieg deren Anteil auf 1 % (s.u.). Nach einem neuen Strategiepapier will die EU nun bis 2030 mindestens 30 Millionen emissionsfreie PKWs auf Europas Straßen bringen und hofft damit ein Viertel der gesamten aus dem Verkehrssektor stammenden EU-Treibhausgasemissionen zu reduzieren; für den dazu nötigen Ausbau von Ladestationen , Wasserstofftankstellen, etc. sind entsprechende Finanzierungsmöglichkeiten vorgesehen [4]. Diverse Anreize für den Kauf von E-Autos gibt es bereits in praktisch allen EU-Staaten und im Zuge der während der Corona-Pandemie geschnürten Konjunkturpakete wurde diese erhöht. So können Käufer in Deutschland von Staat und Autoherstellern eine Umweltprämie von 9000 € für bis zu 40 000 € teure E-Autos erhalten. In Österreich gibt es eine Förderung von bis zu 5 000 € für Autos unter 60 000 € und zusätzliche Unterstützung für eine private Ladeinfrastruktur.

Es spricht auch sonst vieles für E-Autos. Abgesehen von der Unabhängigkeit von Erdölproduzenten, sind E-Autos im Betrieb umweltfreundlicher, da sie keine Emissionen von Abgasen verursachen und geräuscharm sind (ein Wohnen an vielbefahrenen Straßen gewinnt somit wieder an Wert). Die Unterhaltskosten - Stromkosten - sind prinzipiell günstiger als bei Verbrennern und ebenso die Wartungskosten, da viele der dort essentiellen Verschleißteile fehlen. Werden zumeist kürzere Strecken gefahren, erscheint überdies das bequeme (allerdings bei 11 kW Leistung lang dauernde) Home-Charging in der eigenen Garage oder an Ladesäulen von größeren Wohnbauten attraktiv (birgt aber Risiken, s.u.).

Die Anreize für den Kauf von Elektroautos und deren Vorteile zeigen Wirkung. Im Jahr 2020 waren weltweit von insgesamt 64 Millionen Neuzulassungen rund 3,24 Millionen Elektro-Autos - also circa 5 % [5]. Unter Elektro-Autos werden dabei - wie auch im gegenwärtigen Artikel - zumeist reine Batterie-E-Autos (die nur von einem Elektromotor angetrieben werden, wobei der Strom aus einer Traktionsbatterie kommt) und Plug-in-Hybride (PHEV, d.i. Fahrzeuge, die neben einem Elektromotor noch einen Verbrennungsmotor besitzen) zusammengefasst. Insbesondere Europa verzeichnete 2020 einen enormen Zuwachs (+ 137 %) und rangiert mit 1,4 Millionen neuen E-Fahrzeugen weltweit nun bereits knapp vor China, der vormaligen Nummer 1 der Weltrangliste. Mit einem Rekordwert von 328 000 E-Autos - 15,6 % der dort insgesamt zugelassenen PKW, - lag Deutschland bereits an dritter Stelle [5]. In Österreich war 2020 der Anteil der E-Autos - etwa 20 % aller Neuzulassungen - noch höher (laut Statistik Austria waren es rund 16 000 reine Batterie-Autos, 25 400 Benzin/Elektro- und 8 300 Diesel/Elektro-Hybride). Bei einem Bestand von insgesamt 5,09 Millionen PKW fallen damit 44 507 (0,9 %) auf Elektro-PKWs und 83 361 (1,7 %) auf Hybride.[6]

…derzeit aber noch ein Bruchteil des gesamten PKW-Bestands

Innerhalb der letzten 10 Jahre ist der weltweite Bestand an E-Autos zwar rasant - von rund 55 000 auf über 11 Millionen - gestiegen, macht aktuell aber doch erst rund 1 % der insgesamt 1,09 Milliarden PKWs aus. In Anbetracht des Plans der EU bis 2030 in Europa allein auf 30 Millionen E-PKWs zu kommen, sind dies ernüchternde Zahlen.

Viele Menschen zögern aber noch ein E-Auto zu kaufen.

Zu den Negativpunkten zählt zweifellos, dass - vor allem bei Modellen mit höherer Reichweite - die Kaufpreise noch wesentlich höher liegen als bei Verbrennern und es derzeit auch noch nicht ausreichend Ladestationen/Schnelladestationen gibt. Ein Problem sind auch die langen Ladezeiten. Viele Modelle können sehr hohe Ladeleistungen ja nicht verkraften, da der Akku (die Batterie) sonst überhitzen und Schaden nehmen könnte. (Allerdings dauert ein Aufladen bei 118 kW Ladeleistung, das u.a. verschiedene TESLA-Modelle erlauben, noch immerhin 35 min. (bei 80 %); bei 11 kW bis zu 7,5 h).

Schäden an der Batterie, die nicht durch Verkehrsunfälle, sondern in der Batterie selbst mehr oder weniger spontan - etwa beim Parken, beim Aufladen - entstehen und zur Entzündung/Explosion führen können, lösen ein gewisses Maß an Skepsis aus. Die Brandgefahr hat in letzter Zeit zu ausgedehnten Rückrufaktionen von großen und kleinen E-Autotypen mehrerer Hersteller (u.a. Ford, BMW, Opel, Hjundai, Nio, VW, Seat, Skoda Hjundai) geführt.

Von der Funktion der Lithium-Ionen-Batterie…

Vorweg eine grobe Beschreibung von Aufbau und Funktion der Lithium-Ionen-Batterie, eines wiederaufladbaren Energiespeichers (Akkumulators), der in der Elektromobilität Anwendung findet aber auch aus unserem Alltag - vom Handy, Notebook, Digitalkamera bis hin zum Staubsauger, Rasenmäher und  Heimspeicher für den aus Photovoltaik erzeugten Strom - nicht mehr wegzudenken ist. Die Erfolgsstory der Lithium-Ionen-Batterie begründet sich auf den Eigenschaften von Lithium, dem kleinsten und leichtesten Metall-Element, mit dem niedrigsten Atomgewicht und der höchsten elektrochemischen Aktivität. Dies machte es möglich immer mehr Energie, auf immer kleinerem Raum und leichterem Gewicht zu speichern.

Die Grundeinheit einer Batterie für E-Autos, die Lithium-Ionen-Batteriezelle besteht aus zwei ortsfesten Elektroden, der negativen Anode und der positiven Kathode, in einer nicht-wässrigen Ionen-leitenden Flüssigkeit (Elektrolyt), die Lithiumsalze enthält (ausführlich beschrieben in [7]). Eine Membran (Separator), die für die Ladungsträger - die positiv geladenen Lithiumionen (Li+) - durchlässig ist, trennt die Elektrodenräume und verhindert den direkten Kontakt zwischen den Elektroden und damit einen Kurzschluss. Abbildung 2.

Abbildung 2. Die Lithium-Ionen-Batterie. Links: die auf einer Kupferfolie mit Grafit (hellblau) beschichtete Anode, rechts: die Kathode mit Metalloxiden (grau) auf einer Aluminiumfolie. Lithium (gelb) ist als positiv geladene Ion (Li+) im Elektrolyt frei beweglich (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

Bei den Elektroden finden Dutzende unterschiedliche Aktivmaterialien Anwendung, welche Lithium in Form sogenannter Interkalationsverbindungen "einlagern". Bei der Kathode sind dies meistens Lithium-Metalloxide (mit variablen Anteilen von Kobalt-, Nickel-, Manganoxiden, Aluminium sogenannte NMC- oder NCA- Materialien), die auf einen Stromableiter (üblicherweise eine Aluminiumfolie) aufgebracht sind. Bei der Anode ist der zumeist aus einer Kupferfolie bestehende Stromableiter in der Regel mit Kohlenstoff (Grafit) beschichtet. Die Zusammensetzung der Elektroden bestimmt die Eigenschaften der Batterie wie Energiedichte, thermische Stabilität, Nennspannung (üblicherweise bei 3,7 Volt), speicherbare Energie und Lebensdauer, wobei deren jeweilige Optimierung auf Kosten einer der anderen Eigenschaften geht.

Der Elektrolyt besteht typischerweise aus wasserfreien, organischen Lösungsmitteln (Kohlensäure-dimethylester, -diethylester, Äthylencarbonat, etc.), die Lithiumsalze enthalten.

Beim Ladevorgang wird von außen eine Spannung angelegt und so ein Überschuss an Elektronen an der Anode erzeugt. Lithium löst sich von der Kathode, wo es in Metalloxiden interkaliert vorlag, wandert als Lithiumion (Li+) zur negativ geladenen Anode und lagert dort in die Grafitschicht ein. Beim Entladen werden Elektronen aus der Grafitschicht der Anode freigesetzt, die über den äußeren Stromkreis zur Kathode fließen, ebenso wie die Lithiumionen, die nun durch den Elektrolyten zurück zur Kathode wandern und in das Metalloxid einlagern. Die Elektroden bleiben dabei elektrisch neutral. Abbildung 2.

Die Antriebsbatterie (Traktionsbatterie) in einem E-Auto muss über einen großen Energieinhalt verfügen und setzt sich nun deshalb aus bis zu Tausenden solcher Zellen zusammen, die in Modulen und aus Modulen bestehenden Batteriepacks parallel (zur Erhöhung der Kapazität) und seriell (zur Erhöhung der Spannung) zusammengeschaltet sind. Beispielsweise enthält die 85 kW- Batterie des Tesla S-Modells 7617 Zellen in paraller/serieller Konfiguration (https://batteryuniversity.com/).

Um die Zellen im sicheren Betriebsbereich zu halten, wird ein Batteriemanagementsystem (BMS) eingesetzt, das den Ladezustand der einzelnen Zellen und des ganzen Systems kontrolliert und steuert und auch die Temperatur beim Laden und Entladen. Abbildung 3.

Abbildung 3. Schematischer Aufbau der Antriebsbatterie aus Tausenden einzelner, wie in Abb. 2 dargestellter Zellen. BMS: Batteriemanagementsystem. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

…zur Brandgefahr,…

Ebenso wie der Verbrennungsmotor liefert die Lithium-Ionen-Batterie die Energie für den Antrieb des Autos und gleichzeitig auch den Brennstoff für mögliche Brände. Die Batteriezelle enthält ja brennbare Substanzen - den Elektrolyten, die Grafitbeschichtung der Anode und die Membran des Separators -, dazu ist der Abstand zwischen den Elektroden gering und auf kleinem Raum wird sehr viel chemische Energie generiert. Kommt es zum Kurzschluss in einer Zelle, so kann dies zur Explosion und einem Brand führen, der unter Umständen nicht mehr kontrolliert werden kann, einem sogenannten "Thermal Runaway" (thermischen Durchgehen) .

Kurzschlüsse können durch äußere mechanische Einflüsse ausgelöst werden, beispielsweise durch Unfälle, welche die Batterie so schwer beschädigen, dass in den Zellen die Elektroden in Kontakt kommen und Kurzschlüsse verursachen. Die Beschädigung kann aber auch auf Grund eines Produktionsfehlers entstanden sein. Man sollte natürlich auch das Risiko eines Sabotageaktes nicht unerwähnt lassen.

Die Batterie kann sich aber auch von innen heraus selbst entzünden [7, 8].

  • Dies kann durch unsachgemäßes Überladen/Entladen geschehen, da die Zellen nur für eine bestimmte Aufnahme/Abgabe von Energie pro Zeiteinheit konzipiert sind. Beim Aufladen wird ja Lithium an der Anode abgelagert (s.o.); bei wiederholtem Aufladen können sich an einzelnen Punkten die Ablagerungen verstärken und astartige Auswüchse, sogenannte Dendriten bilden. Gelangen diese Dendriten an die Gegenelektrode, so kommt es zum Kurzschluss und die Zelle kann in Flammen aufgehen.
  • Fällt die Temperaturregulierung aus, und wird die Zelle überhitzt, so können interne Komponenten der Zelle sich zersetzen und dabei weitere Wärme erzeugen (dies ist der Fall bei der Grafit-Elektrolyt-Interphase (SEI), welche die Anode vor dem direkten Kontakt mit dem Elektrolyten schützt).

Im Prinzip sollten derartige Brände durch ein funktionierendes Batterie-Managementsystem im Keim verhindert werden können.

…dem Thermal Runaway…

Bei Temperaturen, die über dem normalen Arbeitsbereich liegen (in der Regel zwischen - 25oC und + 75oC) , treten praktisch gleichzeitig (d.i. im Bereich von Millisekunden) komplexe (elektro)chemische Reaktionen auf, die jeweils zusätzliche Wärme generieren und die Temperatur in der Zelle noch schneller aufheizen: Es sind dies Prozesse, die zwischen Anode und Elektrolyt ablaufen, es ist das Schmelzen des Separators bei 69oC, es kommt zu internen Kurzschlüssen, eine Zersetzung des Elektrolyten und Bildung von Flusssäure und reaktiven chemischen Produkten tritt ein und schließlich die Zersetzung der Kathode unter Freisetzung von Sauerstoff. Das Ganze ist eine Kettenreaktion - ein sogenannter Thermal Runaway -, als Folge kann die Zelle schließlich explosionsartig platzen und brennen. [7, 8]. Abbildung 4.

Abbildung 4. Wie eine beschädigte, überhitzte Lithium-Ionen Zelle sich selbst entzündet. Schematische Darstellung eines Thermal Runaway Prozesses in einer Lithium-Kobaltoxid/Grafit-Zelle. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by [7])

Hier beginnt nun das eigentliche Problem der Lithium-Ionen- Batterie. Da sie aus vielen Modulen und Batteriepacks besteht, bleibt der Thermal Runaway nicht auf eine Zelle beschränkt. Die Nachbarzellen werden nun auch überhitzt/beschädigt, die Kettenreaktion breitet sich von Zelle zu Zelle aus bis schlussendlich die ganze Hunderte-Kilo schwere Batterie plus die Brandlast des Autos Feuer gefangen haben.

…und dem enormen Problem einen derartigen Brand zu löschen,

Im Gegensatz zu Bränden von Verbrenner-Autos sind solche Batteriebrände nur sehr schwer zu löschen. Einerseits, weil die Batterie geschützt am Boden des Fahrzeugs und damit für die Brandbekämpfer schwer zugänglich angebracht ist. Andererseits, weil der Brand sich ja von Zelle zu Zelle fortfrisst und auch, wenn es offensichtlich gelungen ist das Feuer zu löschen, sich weitere Zellen entzünden und das Feuer wiederholt aufflackern lassen können. Für die Feuerwehr stellen solche Brände ein noch ungelöstes Problem dar. Abbildung 5.

Abbildung 5. Brand des E-Autos: kühlen, kühlen, kühlen - soferne überhaupt ausreichend Löschwasser verfügbar ist. (Symbolbild, Pixabay, gemeinfrei)

Es gibt nur die Möglichkeit das Feuer kontrolliert ausbrennen zu lassen und/oder die Batterie über Stunden/Tage effizient zu kühlen [9]. Bei großen Autos, wie dem Tesla S-Modell sind dazu 11 000 l Kühlwasser erforderlich, eine 6 - 8 mal größere Menge als Feuerwehrautos mit sich führen. Eine neue Möglichkeit besteht auch darin das brennende Auto in einem großen, mit Kühlwasser gefüllten Löschcontainer zu versenken.

…in Tiefgaragen ein noch völlig ungelöstes Problem

Solange ein Brand im Freien erfolgt oder es möglich ist das teilgelöschte Wrack ins Freie zu schleppen, kann es dort abbrennen. Allerdings kann es zur Selbstentzündung auch beim Parken in Garagen kommen, wo ein zusätzliches Risiko noch durch die Möglichkeit des Aufladens an Ladesäulen besteht. Dass dies nicht nur rein theoretisch eine Gefahr darstellt, zeigt eine- zweifellos unvollständige -Auflistung von rezenten, offensichtlich durch Selbstentzündung entstandenen Bränden beim Parken oder Aufladen; einige davon in Tiefgaragen.Tabelle 1.

Tabelle 1. Selbstentzündung von Lithium-Ionen-Batterien beim Parken oder Ladevorgang. Zusammenstellung von Beispielen aus [ 9] und [10]. ? bedeutet: nicht näher bezeichnete chinesische Hersteller

E-Autos der Type Kona EV waren in der letzten Zeit besonders oft von solchen Bränden betroffen - ein unglaublicher Imageverlust für den südkoreanischen Autohersteller Hyundai (Nummer 5 der globalen PKW-Herstellerliste). Hyundai hat daraufhin weltweit einen Rückruf von 82 000 Autos gestartet, um die Batterien auszutauschen.

Brände in Tiefgaragen bedeuten ein neues, völlig ungelöstes Problem. Überall - im verdichteten städtischen Wohnbereich ebenso wie in den im Zubetonierungsstatus befindlichen Stadträndern - entstehen Tiefgaragen. In vielen Fällen gibt es keine breitere Einfahrt; das Auto kann nur über einen Lift zu den dicht nebeneinander angeordneten, unterirdischen Stellplätzen gelangen. Dem "Luxus" mancher Bauten entsprechend gibt es Ladesäulen, an denen E-Autos "Feuer fangen" können. Aus solchen Garagen gibt es zwar einen schmalen Fluchtweg, aber keine Möglichkeit ein brennendes/partiell gelöschtes Wrack herauszuschleppen, um es im Freien/im Löschcontainer abbrennen zu lassen. Um die Brandausbreitung auf benachbarte Fahrzeuge zu unterbinden, muss also am Ort gekühlt werden, wobei für die lange Dauer der Brandbekämpfung enorm viel Wasser herangeschafft werden muss. Eine lange Branddauer und die damit verbundene Hitzeentwicklung kann sich natürlich auch auf den Beton und damit auf die Statik desr Tragwerks auswirken.

Dazu kommt, dass bei der Explosion/dem Brand Dämpfe und Rauch entstehen, die reaktive, z.T. hochgiftige Stoffe - Flusssäure (HF), freie Radikale, Schwermetallstäube (Kobaltoxid, Nickeloxid, Manganoxid) - enthalten (siehe Abbildung 4), welche Arbeit und Gesundheit der Feuerwehr enorm gefährden können. Diese Stoffe lagern sich an Wänden und Boden der Garage ab, welche nach dem Brand dekontaminiert/abgetragen werden müssen, finden sich aber auch sehr hohen Konzentrationen im Kühl- und Löschwasser. Es ist völlig ungeklärt wohin die enormen Mengen an kontaminiertem Wasser abfließen sollen.

Im Bewusstsein mit E-Autos in einer Tiefgarage ein nicht vertretbares Risiko einzugehen, hat vor wenigen Tagen die fränkische Stadt Kulmbach beschlossen E-Autos in Tiefgaragen zu verbieten: "Wir müssen mit dem arbeiten, was wir haben und die örtlichen Gegebenheiten ermöglichen es uns in keiner Weise, den Brand eines Lithium-Akkus in der Tiefgarage zu löschen oder zu kühlen." [11]

Fazit

Brennende E-Autos sind spektakulär, bei der derzeit geringen Dichte dieser Fahrzeuge und ihrem niedrigen Alter aber noch selten. Auch, wenn laufend Verbesserungen der Lithium-Ionen-Batterie und ihres Betriebsmanagements erfolgen, so wird mit der geplanten starken Zunahme der Elektroautos (deren zunehmender Brandlast und auch einsetzenden Alterung) sich auch das Risiko von Batteriebränden - Thermal Runaways - erhöhen, die ungleich schwerer zu löschen sind als es bei den Verbrennern der Fall ist. Die Brandbekämpfung von Batteriebränden steckt noch in den Kinderschuhen. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man dem Beispiel der Kulmbacher folgen und die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten. 


 [1] Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

[2] Eric van der Heuvel: CO2 reductions in the transport sector in the EU-28 (February 2020) [2]); https://ec.europa.eu/energy/sites/ener/files/documents/38._eric_van_der_heuvel.pdf. (Abgerufen am 3.3.2021)

[3] Statista: PKW Bestand in ausgewählten Europäoischen Länndern, https://de.statista.com/statistik/daten/studie/163405/umfrage/pkw-bestand-in-ausgewaehlten-europaeischen-laendern/ (Abgerufen am 3.3.2021)

[4 ]Elektro Auto News:   https://www.elektroauto-news.net/2020/eu-plant-mit-30-millionen-elektrofahrzeugen-bis-2030 (Abgerufen am 2.3.2021)

[5] EV Volumns.com: Global Plug-in Vehicle Sales Reached over 3,2 Million in 2020, https://www.ev-volumes.com/ (Abgerufen am 4.3.2021)

[6] Statistik Austria (2021): http://www.statistik.at/web_de/statistiken/energie_umwelt_innovation_mobilitaet/verkehr/strasse/kraftfahrzeuge_-_neuzulassungen/index.html (abgerufen am 2.3.2021)

[7] Mohammadmahdi Ghiji et al., A Review of Lithium-Ion Battery Fire Suppression. Energies 2020, 13, 5117. doi:10.3390/en13195117.

[8] P. Sun, R. Bisschop, H. Niu, X. Huang* (2020) A Review of Battery Fires in Electric Vehicles, Fire Technology, 56, Invited Review. https://doi.org/10.1007/s10694-019-00944-3

 

[9] Peter Ilg (29.November 2018) : Ein brennendes Elektroauto lässt sich nicht löschen. https://www.zeit.de/mobilitaet/2018-11/elektromobilitaet-elektroautos-motoren-feuerwehr-sicherheit (abgerufen am 4.3.2021)

[10] Wikipedia: Plug-in electric vehicle fire incidents (mit 129 Links, update am 23.2.2021). https://en.wikipedia.org/wiki/Plug-in_electric_vehicle_fire_incidents (abgerufen am 4.3.2021)

[11] Jens Meiners (25,02.2021): Im Zweifel für die Sicherheit - sind Tiefgaragen-Verbote für E-Autos richtig?https://www.focus.de/auto/news/tesla-und-co-muessen-draussen-bleiben-im-zweifel-fuer-die-sicherheit-sind-tiefgaragen-verbote-fuer-e-autos-richtig_id_13020719.html (abgerufen am 5.2.2021)


Weiterführende Links

Martin Seiwert und Stefan Hajek (28. Februar 2021): Brandgefahr fürs Elektroauto-Image https://www.wiwo.de/technologie/mobilitaet/rueckruf-bei-hyundai-brandgefahr-fuers-elektroauto-image/26957590.html  (abgerufen am 3.3.2021)

Die Li-ionen-Batterie. Wie funktioniert sie? nextmove, Video 11:34 min. (2019) https://www.youtube.com/watch?v=yYlNZqCJ9U4

Chemie-Nobelpreis für Entwicklung der Lithium-Ionen-Batterie. (2019). Video 7.33 min. https://www.youtube.com/watch?v=JhGelIC_CSM und https://www.nobelprize.org/uploads/2019/10/advanced-chemistryprize2019-2.pdf

Artikel im Scienceblog

mehrere Artikel zum Thema Elektromobilität sind unter dem Themenschwerpunkt Energie gelistet.

inge Fri, 05.03.2021 - 19:15

Comments

Die Studie konstatiert ganz klar:

"Of course, such a partially burnt wreck must be stored in a water basin or a special container so that it cannot reignite. But this is already known to the specialists and is being practiced".

Das Heranschaffen eines derartigen Containers  ist aber das Problem von Tiefgaragen, deren Zugang über den Autolift erfolgt.

Rita Bernhardt (not verified)

Tue, 18.05.2021 - 17:53

Ein sehr aufschlussreicher Beitrag

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Do, 25.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Weltweit haben sich bereits mehr als 112 Millionen Menschen mit dem Coronavirus infiziert, rund 2,5 Millionen sind daran gestorben. Diejenigen, die sich von einer COVID-19 Erkrankung wieder erholt haben, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Neue Ergebnisse weisen darauf hin, dass bei diesen Personen eine Einzeldosis Impfstoff 10- bis 20-mal so hohe Immunreaktionen auslöst wie bei zuvor nicht infizierte Personen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über diese Ergebnisse.*

Millionen Amerikaner haben jetzt Anspruch darauf sich mit den COVID-19-Vakzinen von Pfizer oder Moderna impfen zu lassen, und jeder sollte diese in Form von zwei Teilimpfungen erhalten. Die erste Dosis dieser mRNA-Impfstoffe trainiert das Immunsystem darauf, dass es das Spike-Protein auf der Oberfläche von SARS-CoV-2, dem COVID-19 verursachenden Virus, erkennt und attackiert. Die zweite Dosis, die einige Wochen später verabreicht wird, erhöht (boostet) die Menge an Antikörpern und bietet damit einen noch besseren Schutz.

Personen, die von einer COVID-19 Erkrankung wieder genesen sind, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Allerdings besitzen sie schon etwas an natürlicher Immunität - würde da nun eine Impfstoffdosis ausreichen? Oder brauchen sie noch zwei?

Zu dieser wichtigen Frage bietet eine kleine, von den NIH unterstützte Studie erste Daten [1]. Die als Vorabdruck auf medRxiv veröffentlichten Ergebnisse zeigen, dass bei einer Person, die bereits COVID-19 hatte, die Immunantwort auf die erste Impfstoffdosis gleich oder in einigen Fällen noch besser ist als die Reaktion auf die zweite Dosis bei einer Person, die kein COVID-19 hatte. Zwar braucht es hier noch viel mehr an Forschung (und ich schlage sicherlich keine Änderung der aktuellen Empfehlungen vor), doch die Ergebnisse lassen vermuten, dass eine Dosis für jemanden ausreicht, der mit SARS-CoV-2 infiziert war und bereits Antikörper gegen das Virus gebildet hat.

Diese Ergebnisse stammen von einem Forscherteam unter der Leitung von Florian Krammer und Viviana Simon von der Icahn School of Medicine am Mount Sinai in New York. Die Forscher kamen zu dem Schluss, dass bei Menschen, die als Folge einer COVID-19-Infektion bereits Antikörper produziert hatten, die erste Impfdosis in ähnlicher Weise wirken dürfte wie eine zweite bei jemandem wirkt, der das Virus zuvor noch nicht hatte. Tatsächlich gab es einige anekdotische Hinweise darauf, dass zuvor infizierte Personen nach ihren ersten Schüssen stärkere Anzeichen einer aktiven Immunantwort (Armschmerzen, Fieber, Schüttelfrost, Müdigkeit) zeigten als niemals infizierte Personen.

Was haben die Antikörper nun gezeigt? Um dies zu beantworten, untersuchten die Forscher 109 Personen, die eine erste Dosis von mRNA-Impfstoffen (von Pfizer oder Moderna) erhalten hatten. Das Ergebnis war, dass diejenigen, die noch nie mit SARS-CoV-2 infiziert waren, innerhalb von 9 bis 12 Tagen nach ihrer ersten Impfstoffdosis Antikörper in nur geringen Mengen generierten.

Bei 41 Personen, die vor der ersten Impfung positiv auf SARS-CoV-2-Antikörper getestet worden waren, sah die Immunantwort jedoch deutlich anders aus. Innerhalb weniger Tage nach Erhalt des Impfstoffs erzeugten sie hohe Mengen an Antikörpern. Über verschiedene Zeitintervalle verglichen hatten zuvor infizierte Personen 10- bis 20-mal so hohe Immunreaktionen wie nicht infizierte Personen. Nach der zweiten Impfstoffdosis passierte dasselbe. Bei vormals infizierten Menschen waren die Antikörperspiegel etwa zehnmal höher als bei den anderen.

Beide Impfstoffe wurden im Allgemeinen gut vertragen. Da ihr Immunsystem jedoch bereits auf Hochtouren war, tendierten zuvor infizierte Menschen nach der ersten Impfung zu mehr Symptomen wie etwa Schmerzen und Schwellungen an der Injektionsstelle. Sie berichteten auch häufiger über andere seltenere Symptome wie Müdigkeit, Fieber, Schüttelfrost, Kopfschmerzen, Muskelschmerzen und Gelenkschmerzen.

Auch wenn es manchmal anders scheint, so sind COVID-19 und die mRNA-Impfstoffe noch relativ neu. Die Forscher konnten noch nicht untersuchen, wie lange diese Impfstoffe Immunität gegen die Krankheit verleihen, die inzwischen mehr als 500.000 Amerikanern das Leben gekostet hat. Die vorliegenden Ergebnisse legen jedoch nahe, dass eine Einzeldosis der Pfizer- oder Moderna-Impfstoffe eine schnelle und starke Immunantwort bei Menschen, die sich bereits von COVID-19 erholt haben, hervorrufen kann.

Wenn weitere Studien diese Ergebnisse stützen, könnte die US-amerikanische Food and Drug Administration (FDA) entscheiden zu erwägen, ob eine Dosis für Personen ausreicht, die zuvor eine COVID-19-Infektion hatten. Ein solches Vorgehen wird in Frankreich bereits geprüft und würde, falls sie umgesetzt wird, dazu beitragen, die Versorgung mit Impfstoff zu strecken und mehr Menschen früher zu impfen. Für jede ernsthafte Prüfung dieser Option sind jedoch mehr Daten erforderlich. Die Entscheidung liegt auch bei den Fachberatern der FDA und der Centers for Disease Control and Prevention (CDC).

Im Moment ist das Wichtigste, was wir alle tun können, um diese schreckliche Pandemie in den Griff zu bekommen, ist unsere Masken tragen, unsere Hände waschen, unseren Abstand zu anderen wahren - und die Ärmel für den Impfstoff hochkrempeln sobald er uns zur Verfügung steht.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: Is One Vaccine Dose Enough After COVID-19 Infection? https://directorsblog.nih.gov/2021/02/23/is-one-dose-of-covid-19-vaccine-enough-after-covid-19-infection/ . Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

 


Weiterführende Links

COVID-19 Research (NIH) https://covid19.nih.gov/

Florian Krammer Laboratory https://labs.icahn.mssm.edu/krammerlab/dr-krammer/

Viviana Simon Laboratory https://labs.icahn.mssm.edu/simonlab/

inge Thu, 25.02.2021 - 01:34

Energie - der Grundstoff der Welt

Energie - der Grundstoff der Welt

Fr, 19.02.2021 — Redaktion

Redaktion

Icon Physik

Themenschwerpunkt Energie

Energie ist Ursprung aller Materie und auch das, was die Materie bewegt. Energieforschung und -Anwendung sind daher für unsere Welt von zentraler Bedeutung und beschäftigen Wissenschafter quer durch alle Disziplinen - Physiker, Chemiker, Geologen, Biologen, Techniker, etc., ebenso wie Wirtschafts- und Sozialwissenschafter. Mit dem bereits spürbaren Klimawandel steht Energie nun auch im Rampenlicht von Öffentlichkeit und Politik; das Ziel möglichst rasch fossile Energie durch erneuerbare Energie zu ersetzen, steht im Vordergrund. Energie ist auch im ScienceBlog von Anfang an eines der Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel findet sich nun in diesem Themenschwerpunkt.

Was versteht man überhaupt unter Energie?

Werner Heisenberg (1901 -1976), einer der bedeutendsten Physiker des 20. Jh, (Nobelpreis 1932) hat Energie so definiert: "Die Energie ist tatsächlich der Stoff, aus dem alle Elementarteilchen, alle Atome und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das Bewegende."

Der Begründer der Quantenphysik Max Planck (1858 – 1947, Nobelpreis 1918) hat Energie beschrieben mit der Fähigkeit eines Körpers äußere Wirkungen hervorzubringen.

Richard Feynman (1918 - 1988), ebenfalls einer der ganz großen Physiker des 20. Jahrhunderts (und Nobelpreisträger) hat konstatiert: "Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."

Auch, wenn wir, wie Feynman meint, nicht wissen was Energie ist, so sagt die etablierte kosmologische Schöpfungsgeschichte, dass sie am Beginn des unermesslich dichten und heißen Universums - also zur Zeit des Urknalls - bereits vorhanden war. (Abbildung 1). Energie wurde dann Ursprung aller Materie und blieb uns in Form von Energie und Masse erhalten.

UrknallAbbildung 1. Urknall-Modell: Entstehung und Expansion des Weltalls. Das anfänglich sehr dichte und heiße Universum enthielt im kosmischen Plasma Photonen, die vorerst an den geladenen Teilchen gestreut wurden, Nach der Abkühlung und Entstehung von Atomen konnten sich die Photonen nahezu ungehindert ausbreiten = Hintergrundstrahlung. Danach begann allmählich unter der Wirkung der Gravitation die Kondensation der Materie zu den Strukturen wie wir sie heute beobachten.

Wie Albert Einstein vor etwas mehr als einem Jahrhundert entdeckte, sind Energie (E) und Masse (m) ja nur zwei Seiten einer Medaille und können ineinander umgewandelt werden; dieses Naturgesetz wird durch die berühmte Formel E = mc2 ausgedrückt, wobei c eine Konstante ist und für die Lichtgeschwindigkeit steht. Einer derartigen Umwandlung von Masse in Energie - als Ergebnis einer Kernfusion - verdanken wir die Sonnenstrahlung: im Sonnenkern verschmelzen Wasserstoffkerne (Protonen) zu einem Heliumkern, der etwas weniger Masse hat als die ursprünglichen Protonen. Die Massendifferenz wird in Energie umgewandelt und abgestrahlt. Eine vollständige Umwandlung von Masse in Energie hat in der für die Nuklearmedizin sehr wichtigen Positronen-Emissions-Tomografie (PET) Anwendung gefunden: wenn das Elementarteilchen Elektron auf sein Antiteilchen, das Positron stößt (das von einem Radiopharmakon emittiert wird), werden beide Teilchen in einer sogenannten Vernichtungsstrahlung annihiliert und es können dafür zwei hochenergetischen Photonen detektiert werden, die die Position des Radionuklids im Körper anzeigen.

Landläufig versteht man unter Energie die Fähigkeit eines Systems, "Arbeit" zu verrichten, wobei "Arbeit" ein weit gefasster Begriff ist und besser als die Fähigkeit des Systems verstanden werden sollte, Veränderungen zu bewirken. Die Übertragung der Energie erfolgt über Kräfte, die auf das System einwirken. Energie wird indirekt, nämlich über diese "Arbeit" auch gemessen: Die Einheit 1 Joule (j) entspricht dabei der Energie, die bei einer Leistung (d.i. Energieumsatz pro Zeiteinheit) von einem Watt in einer Sekunde umgesetzt wird.

Energie schafft Veränderungen in unbelebter und belebter Welt

Energie ist nötig, um einen Körper zu bewegen, ihn zu verformen, zu erwärmen, um Wellen im Bereich des elektromagnetischen Spektrum zu erzeugen (von der kürzestwelligen Höhenstrahlung über den für den Menschen sichtbaren Bereich bis zu den niederfrequenten Wechselströmen), um elektrischen Strom fließen zu lassen oder um chemische Reaktionen ablaufen zu lassen.

In unserem Alltagsleben benötigen wir Energie aus physikalisch/chemischen Prozessen, um von einem Ort zum anderen zu gelangen, um Bedürfnisse des Wohnens zu befriedigen, um diverseste Wirtschaftsgüter zu produzieren und, um eine Vielfalt an Mitteln zur Kommunikation und Unterhaltung bereit zu stellen.

Um leben zu können brauchen wir, wie alle Lebewesen, externe Energie. Externe Energie bedeutet für Pflanzen, Algen und auch einige Bakterien Sonnenenergie. Um diese einzufangen, nutzen sie den Sonnenkollektor Chlorophyll und verwandeln mittels der sogenannten Photosynthese Lichtenergie in chemische Energie: das heißt, sie synthetisieren aus den ubiquitären, energiearmen Ausgangsstoffen CO2 und Wasser energiereiche Kohlehydrate und in weiterer Folge alle für Aufbau und Wachstum nötigen Stoffe - Proteine, Lipide, Nukleinsäuren und die Fülle an Intermediärmetaboliten. Abbildung 2.

Stoffkreislauf

Abbildung 2: Photosynthese und Stoffkreislauf  (modifiziert nach Amsel, Sheri: “Ecosystem Studies Activities.” Energy Flow in an Ecosystem.  https://www.exploringnature.org/)

Für uns und alle nicht Photosynthese-tauglichen Lebewesen besteht die externe Energie aus den durch Photosynthese entstandenen energiereichen Stoffen, die über die Nahrungskette zu unseren Lebensmitteln werden. Wir oxydieren ("verbrennen") diese energiereichen Stoffe schrittweise unter hohem Energiegewinn (in Form der metabolischen Energiewährung ATP) schlussendlich zu den energiearmen Ausgangsprodukten der Photosynthese CO2 und Wasser.

Diesen schrittweisen Prozess haben bereits in der Frühzeit bestimmte Bakterien entwickelt; es waren dies zelluläre Kraftwerke, die später als Mitochondrien in die Zellen höherer Lebewesen integriert wurden und nun über Citratcyclus und Atmungskette den Großteil der von den Zellen benötigten chemischen Energie liefern.

Energieerhaltungssatz, Energieumwandlung und Energieverbrauch

Energie charakterisiert den Zustand eines System, ist also eine sogenannte Zustandsgröße. Der 1. Hauptsatz der Thermodynamik (Energieerhaltungssatz) ist ein bewiesener, fundamentaler physikalischer Satz; er sagt aus, dass in einem geschlossenen System Energie weder verloren gehen noch erzeugt werden kann. Energie kann nur von einem Körper auf den anderen übertragen und von einer Form in die andere verwandelt werden.

Kinetische Energie (Bewegungsenergie), wie beispielsweise in der Windkraft, in den Gezeiten oder im fließenden Wasser, kann mittels Turbinen /Generatoren in elektrische Energie umgewandelt werden und diese wiederum in chemische, mechanische und thermische Energie. Potentielle Energie (Lageenergie), die ein System aus seiner Lage in einem Kraftfeld erhält (im Gravitationsfeld wie beispielsweise Wasser im Stausee, im elektrostatischen Feld von Kondensatoren, oder im magnetischen Feld) oder auch in der in Stoffen gespeicherten chemischen oder nuklearen Energie, wird ebenfalls in unterschiedliche Energieformen verwandelt.

Wenn Energie erhalten bleibt, wie kommt es aber zum Energieverbrauch?

Wird Energie von einem Körper zum anderen übertragen und oder von einer Form in die andere umgewandelt, so entsteht dabei immer etwas an Energie, die für uns nicht (direkt) nutzbar ist. Infolge von Reibung, Abstrahlung, Ohmschen Widerständen wird ein Teil der zu übertragenden Energie in Wärmeenergie verwandelt, die an die Umgebung abgegeben wird. Ein herausragendes Beispiel von ineffizienter Energiewandlung ist die nun nicht mehr verwendete Glühlampe, die Auer von Welsbach entwickelt hat. Diese nutzt nur 10 % der elektrischen Energie zur Erzeugung von Strahlung (d.i. den Glühdraht zum Leuchten zu bringen), die 90 % restliche Energie heizen Lampe und Umgebung auf. Verlorene thermische Energie verteilt sich (man denke an die Aufnahmen der infraroten Strahlung von Häusern) und wird schlussendlich als IR-Strahlung in den Weltraum emittiert.

Auch, wenn in Summe die übertragenen/umgewandelten Energien konstant geblieben sind, ist ein Verbrauch an nutzbarer Energie entstanden.

Energieverbrauch und Klimawandel

Wachsender Wohlstand einer in den letzten Jahrzehnten unverhältnismäßig stark gewachsenen Weltbevölkerung bedeutet natürlich höheren Energiebedarf. Nach wie vor stammt der bei weitem überwiegende Teil (85 %) der globalen Primärenergie noch aus fossilen Quellen. Abbildung 3. Die Umwandlung der chemischen Energie in diesen fossilen Brennstoffen hat mit dem Anstieg des Energieverbrauchs zu einem rasanten Anstieg der CO2-Emissionen in allen Sparten geführt, die wiederum kausal für den nun nicht mehr wegdiskutierbaren Klimawandel stehen.

Abbildung 3. Der globale Verbrauch von Primärenergie ist seit 1965 stetig gestiegen und speist sich zum überwiegenden Teil aus fossilen Energieträgern. Solar- und Windenergie spielen eine minimale Rolle. Primärenergie: Energie, die aus natürlich vorkommenden Energieformen/-quellen zur Verfügung steht. In einem mit Verlusten behafteten Umwandlungsprozess (z.B. Rohöl zu Benzin) entsteht daraus die Sekundärenergie/Endenergie. (Grafik modifiziert nach: BP Statistical Review of World Energy, 67th ed. June 2018)

Um atmosphärisches CO2 zu reduzieren, ist ein Umbau des Energiesystems unabdingbar - weg von fossiler Energie, hin zu erneuerbarer Energie, wobei hier die Erzeugung von elektrischer Energie durch Windkraft, Solarenergie, Wasserkraft und Biomasse im Vordergrund steht. Ob ein solcher Umbau allerdings rasch erfolgen kann, ist fraglich. Auch bei Akzeptanz durch politische Entscheidungsträger, vorhandener Finanzierung und Zustimmung der Bevölkerung fehlen nicht nur in Europa ausreichend große, für den Ausbau von Windkraft und Solarenergie geeignete Flächen.

Der Schlüssel für eine sofort wirksame globale CO2-Reduktionsstrategie ist Energieeinsparung: d.i. ohne Einbußen mit weniger Primärenergie auskommen, indem man den Energieverbrauch senkt, d.i. die Umwandlung zu nicht nutzbarer Energie reduziert. Dies ist u.a. möglich durch thermische Isolation, industrielle Verbesserungen, Wärmepumpen für Kühlung & Heizung, etc.

 


Energie - Themenschwerpunkt im ScienceBlog

Von Anfang an gehört Energie zu unseren Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energieumwandlung in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt "Energie" zusammengefasst. Derzeit sind die Artikel unter drei Themenkreisen in chronologische Reihenfolge gelistet.

Energie, Aufbau der Materie und technische Anwendungen

Francis S. Collins, 27.8.2020: Visualiserung des menschlichen Herz-Kreislaufsystems mittels Positronen-Emissions-Tomographie (PET)

Claudia Elisabeth Wulz, 18.1.2018: Die bedeutendsten Entdeckungen am CERN

Robert Rosner, 13.7.2017:Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Stefan W.Hell, 7.7.2017: Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Josef Pradler, 17.6.2016: Der Dunklen Materie auf der Spur

Manfred Jeitler, 21.2.2013: Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

Manfred Jeitler, 7.2.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

Michael Grätzel, 18.10.2012,Der Natur abgeschaut: Die Farbstoffsolarzelle

Peter Christian Aichelburg, 16.08.2012: Das Element Zufall in der Evolution

Energie und Leben

Inge Schuster, 10.10.2019: Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Antje Boetius, 13.05.2016: Mikrobiome extremer Tiefsee-Lebensräume

Peter Lemke, 30.10.2015: Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Gottfried Schatz, 08.11.2013: Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

Gottfried Schatz, 14.03.2013: Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

Gottfried Schatz, 01.11.2012: Grenzen des Ichs — Warum Bakterien wichtige Teile meines Körpers sind

Gottfried Schatz, 27.09.2012: Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

Energieformen, Energiewende

Georg Brasseur, 10.12. 2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität"

Anton Falkeis & Cornelia Falkeis-Senn, 30.01.2020: Nachhaltige Architektur im Klimawandel - das "Active Energy Building"

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Robert Schlögl,26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Robert Schlögl,22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Robert Schlögl,08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Robert Schlögl,18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Robert Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Robert Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog">

Robert Rosner, 20.12.2018: Als fossile Brennstoffe in Österreich Einzug hielten

IIASA, 08.02.2018: Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

IIASA, 11.03.2016: Saubere Energie könnte globale Wasserressourcen gefährden

IIASA, 08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Gerhard Glatzel, 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse

Gerhard Glatzel, 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 – Energiewende und Klimaschutz

Erich Rummich, 02.08.2012: Elektromobilität – Elektrostraßenfahrzeuge

Gottfried Schatz, 19.04.2012, Die lange Sicht - Wie Unwissen unsere Energiezukunft bedroht

Helmut Rauch, 04.08.2011: Ist die Kernenergie böse?

 

inge Fri, 19.02.2021 - 20:30

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Do, 11.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin In den letzten Tagen überstürzen sich die Pressemeldungen über neue Varianten von SARS-CoV-2 - dem Verursacher von COVID-19 -, die in anderen Teilen der Welt aufgetreten sind und auch bei uns bereits entdeckt werden. Insbesondere bei der erstmals in Südafrika identifizierten, mit B.1.351 bezeichneten Variante, wächst die Besorgnis inwieweit deren Mutationen dem Virus helfen könnten den derzeit aktuellen Behandlungen mit Antikörpern und hochwirksamen Impfstoffen zu entkommen. Francis S. Collins, ehem. Leiter des Human Genome Projects, ist langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben. Er berichtet über NIH-geförderte Untersuchungen, welche aus der Kartierung der Mutationen am Strukturmodell des viralen Spike-Proteins Aussagen zu Wirksamkeit von Antikörpern und Vakzinen ermöglichen.*

Im Laborversuch ist es bereits möglich vorherzusagen, welche Mutationen dem SARS-CoV-2 Virus dazu verhelfen werden, unseren Therapien und Impfstoffen zu entkommen, und sich sogar auf das Auftreten neuer Mutationen vorzubereiten, noch bevor diese auftreten. Eben dies hat eine NIH-finanzierte Studie gezeigt, die ursprünglich im November als bioRxiv-Vorabdruck erschien und kürzlich, von Experten begutachtet, in Science veröffentlicht wurde. In dieser Studie haben die Forscher alle möglichen Mutationen kartiert, die es SARS-CoV-2 ermöglichen würden, einer Behandlung mit drei verschiedenen monoklonalen Antikörpern zu widerstehen, welche für die Behandlung von COVID-19 entwickelt wurden [1].

Unter der Leitung von Jesse Bloom, Allison Greaney und Tyler Starr vom Fred Hutchinson Cancer Center in Seattle hat sich die Untersuchung auf die Schlüsselregion des Spike-Proteins, die sogenannte Rezeptorbindungsdomäne (RBD), konzentriert. Mit dieser RBD dockt das an der Virusoberfläche sitzende Protein an den ACE2-Rezeptor menschlicher Zellen an, um dann in die Zellen einzudringen und sie zu infizieren. Das macht die RBD zu einem Hauptangriffspunkt für Antikörper, die unser Körper erzeugt, um sich gegen das Virus zu verteidigen. Abbildung 1.

Abbildung 1. Die Rezeptorbindungsdomäne (grau) des Spike-Proteins mit Regionen, an die 4 unterschiedliche Antikörpertypen binden. Kryoelektronenmikroskopische Untersuchungen. Mit Sars-CoV-2 (oder anderen Erregern) infizierte Menschen generieren Tausende unterschiedliche Antikörper um den Eindringling abzuwehren. (Bild aus F.S.Collins https://directorsblog.nih.gov/2020/12/03/caught-on-camera-neutralizing-antibodies-interacting-with-sars-cov-2/credit:Christopher Barnes, California Institute of Technology, Pasadena)

Mutationen in der RBD…

Um herauszufinden, welche Mutationen einen positiven oder negativen Einfluss auf die Bindung der RBD an den Rezeptor ACE2 haben und /oder Antikörper daran hindern auf ihr Ziel am Spike-Protein zu treffen, haben die Forscher eine Methode namens Deep Mutational Scanning angewandt. Diese funktioniert folgendermaßen: Statt auf das Auftreten neuer Mutationen zu warten, haben die Forscher eine Bibliothek von RBD-Fragmenten generiert, von denen jedes eine Änderung in einem einzelnen Nukleotid-„Buchstaben“ enthielt und zum Austausch einer Aminosäure durch eine andere führte. Es stellt sich heraus, dass mehr als 3.800 solcher Mutationen möglich sind, und das Team von Bloom hat es geschafft, alle bis auf eine Handvoll dieser Versionen des RBD-Fragments herzustellen.

…und Auswirkungen auf Antikörper-Erkennung und -Bindung

Das Team hat dann mittels einer Standardmethode systematisch analysiert, wie jeder dieser Einzelbuchstaben die Fähigkeit von RBD veränderte, an ACE2 zu binden und menschliche Zellen zu infizieren. Sie haben auch bestimmt, wie sich diese Veränderungen auf die Erkennung und Bindung von drei verschiedenen therapeutischen Antikörpern an die virale RBD auswirkten. Zu diesen Antikörpern gehören zwei von Regeneron entwickelte Antikörper (REGN10933 und REGN10987), die gemeinsam als Cocktail die Genehmigung der Notfallanwendung zur Behandlung von COVID-19 erhalten hatten. Es wurde auch ein von Eli Lilly entwickelter Antikörper (LY-CoV016) untersucht, der sich derzeit in klinischen Phase-3-Studien zur Behandlung von COVID-19 befindet.

"Flucht"karten

Basierend auf den Ergebnissen haben die Forscher vier Mutationskartierungen erstellt (Abbildung 2), die darstellen, wie SARS-CoV-2 jedem der drei therapeutischen Antikörper, sowie dem REGN-COV2-Cocktail entkommen kann. Die meisten Mutationen, die es SARS-CoV-2 ermöglichen würden, der Behandlung zu entkommen, waren bei beiden Regeneron-Antikörpern verschieden. Dies ist ermutigend, da es darauf hinweist, dass das Virus wahrscheinlich mehr als eine Mutation benötigt, um gegen den REGN-COV2-Cocktail resistent zu werden. Es scheint jedoch einen Punkt zu geben, an dem eine einzelne Mutation es dem Virus ermöglichen könnte, der REGN-COV2-Behandlung zu widerstehen.

Abbildung. Die Rezeptorbindungsdomäne des Spike-Proteins, an die Antikörper (blass lila) gebunden sind. Diese „Fluchtkarte“ zeigt an, wo in der viralen RBD neue Mutationen die Antikörper am wahrscheinlichsten weniger wirksam machen (rot). Es zeigt auch Orte, an denen Mutationen die Antikörperbindung am wenigsten beeinflussen (weiß) und an denen Mutationen nicht fortbestehen können, weil sie die Funktionsfähigkeit der RBD beeinträchtigen würden (grau). (Bildnachweis: Nach TN Starr, Science, 2021 [1]).

Die Fluchtkarte für LY-CoV016 zeigte ebenfalls eine Reihe von Mutationen, die es dem Virus ermöglichen könnten, zu entkommen. Während einige dieser Änderungen die Infektionsfähigkeit des Virus beeinträchtigen könnten, schienen die meisten von ihnen mit geringem bis keinem Nachteil für die Reproduktion des Virus verbunden zu sein.

Evolution des Virus bei langdauernder Antikörperbehandlung

In welcher Beziehung stehen diese Labordaten zur realen Welt? Um diese Frage zu untersuchen, haben sich die Forscher mit Jonathan Li (Brigham and Women's Hospital, Boston) zusammengetan. Sie haben den Fall eines immungeschwächten Patienten angesehen, der ungewöhnlich lange an COVID-19 litt und 145 Tage lang mit dem Regeneron-Cocktail behandelt wurde, was dem Virus Zeit gab sich zu replizieren und neue Mutationen zu erwerben.

Die viralen Genomdaten des infizierten Patienten zeigten, dass die Mutationskarten tatsächlich verwendet werden können, um wahrscheinliche Wege der viralen Evolution vorherzusagen. Im Verlauf der Antikörperbehandlung zeigte SARS-CoV-2 Veränderungen in der Häufigkeit von fünf Mutationen, welche die Konformation des Spike-Proteins und seiner RBD verändern dürften. Basierend auf den neu erstellten "Flucht"karten lässt sich erwarten, dass drei dieser fünf Mutationen die Wirksamkeit von REGN10933 verringern und eine der beiden anderen die Bindung an den anderen Antikörper, REGN10987.

Die Forscher haben auch Daten aller bekannten zirkulierenden SARS-CoV-2-Varianten (bis 11. Januar 2021) untersucht, um Hinweise auf "Flucht"mutationen zu erhalten. Sie fanden heraus, dass es insbesondere in Teilen Europas und Südafrikas bereits eine beträchtliche Anzahl von Mutationen gibt, die das Potential haben der Antikörperbehandlung zu entkommen.

Ausblick

Es ist allerdings zu beachten, dass die "Flucht"Karten nur drei wichtige Antikörperbehandlungen widerspiegeln. Nach Blooms Aussagen wird das Team weiterhin Mutationskarten für andere vielversprechende therapeutische Antikörper erstellen. Man wird auch weiterhin untersuchen, wo Veränderungen des Virus es ermöglichen könnten, den vielfältigeren Antikörpern zu entkommen, die unser Immunsystem nach einer COVID-19-Infektion oder -Impfung produziert.

Wenn es auch möglich ist, dass einige COVID-19-Impfstoffe weniger Schutz gegen einige dieser neuen Varianten bieten - und die jüngsten Ergebnisse deuten darauf hin, dass der AstraZeneca-Impfstoff möglicherweise nicht viel Schutz gegen die südafrikanische Variante bietet -, geben die meisten anderen aktuellen Impfstoffe immer noch genügend Schutz, um einen schweren Verlauf, eine Krankenhauseinweisung und den Tod zu verhindern. Um SARS-CoV-2 daran zu hindern, dass es neue Wege findet, auf denen es unseren laufenden Anstrengungen zur Beendigung dieser schrecklichen Pandemie entkommt, besteht der beste Weg darin , alles zu verdoppeln, was wir tun können, um zu verhindern, dass sich das Virus überhaupt vermehrt und verbreitet.

Jetzt sollte uns alle das Auftreten dieser neuen Varianten anspornen, Schritte zu unternehmen, um die Ausbreitung von SARS-CoV-2 zu verlangsamen. Das bedeutet: eine Maske tragen, auf die Distanz achten, die Hände häufig waschen. Es bedeutet auch, die Ärmel hochzukrempeln, um sich impfen zu lassen, sobald sich die Gelegenheit ergibt.


[1] Prospective mapping of viral mutations that escape antibodies used to treat COVID-19. Starr TN, Greaney AJ, Addetia A, Hannon WW, Choudhary MC, Dingens AS, Li JZ, Bloom JD. Science. 2021 Jan 25:eabf9302.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: "Mapping Which Coronavirus Variants Will Resist Antibody Treatments " https://directorsblog.nih.gov/2021/02/09/mapping-which-coronavirus-variants-will-resist-antibody-treatments/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den Blog adaptiert. Abbildung 1 stammt aus einem früheren Artikel von FS Collins (zitiert), Abbildung 2 aus [1]. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog

 

Bloom Lab ((Fred Hutchinson Cancer Center, Seattle) https://research.fredhutch.org/bloom/en.html

 

inge Wed, 10.02.2021 - 23:59

Comments

Rita Bernhardt (not verified)

Thu, 18.02.2021 - 17:40

Ein sehr interessanter Beitrag. Ich gehe davon aus, dass die diskutierten Arbeiten auch Ausgangspunkt für die Herstellung veränderter (an Mutanten angepasster) Impfstoffe sein wird.

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Do 04.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Vorgestern ist der Zwischenbericht zu Wirksamkeit und Sicherheit des russischen Corona-Impfstoffes Gam-COVID-Vac ("Sputnik V") im Fachjournal Lancet erschienen und die Daten sind beindruckend [1]. In der noch laufenden klinischen Phase 3 Studie wurden rund 20 000 Probanden im Abstand von 21 Tagen mit 2 Serotypen des Adenovirus-basierten Vektor-Impfstoffs geimpft. Die Impfung zeigte über alle Altersgruppen (18 bis über 60 Jahre) hinweg Wirksamkeiten von 91,6 % und keine limitierenden Nebenwirkungen.

Seit März 2020 ist die Corona-Pandemie das Hauptthema im ScienceBlog. Anschliessend an eine kurze Darstellung der neuen Daten zu Sputnik V findet sich eine Liste der 25 bis jetzt erschienenen Artikel.

Wie im Falle der drei, bereits in der EU registrierten COVID-19 Vakzinen, konnte auch der Vektor-Impfstoff Sputnik V auf dem Boden langjähriger Expertise beschleunigt designt und entwickelt werden. Unter dem Leiter der aktuellen Studie Denis Y. Logunow (Gamaleya Nationales Forschungszentrum für Epidemiologie und Mikrobiologie, Moscow, Russia) war bereits ein Ebola-Impfstoff erfolgreich entwickelt und (in Russland) registriert worden und ein Impfstoff gegen das MERS-Coronavirus bis in die klinische Phase 2 gebracht.

Sputnik V

baut auf diesen Erfahrungen auf. Sputnik V basiert auf dem Prinzip eines modifizierten, nicht vermehrungsfähigen humanen Adenovirus, in den das kodierende Gen für das Spike-Protein eingeschleust wurde, dem Protein mit dem SARS-CoV-2 an die Wirtszellen andockt (siehe dazu [2]). Um eine robuste Immunantwort zu erhalten, werden 2 Dosen Sputnik im Abstand von 21 Tagen appliziert; die erste Dosis besteht aus dem modifizierten Adenovirus Typ 26 (rAd26-S) und die zweite, zur Steigerung ("Boosten") der Reaktion aus dem modifizierten Adenovirus Typ 5 (rAd5-S)). (Da die zweifache Impfung mit einem Vektor zum Aufbau einer massiven Immunantwort gegen Komponenten des Vektors selbst führen kann, welche die erwünschte Immunantwort gegen das Spike-Protein schwächen könnte, hofft man eine solche Reaktion mit zwei unterschiedlichen Vektoren zu minimieren.)

Die Phase 3-Studie

In der noch weiterlaufenden klinischen Phase 3 Studie - randomisiert, Plazebo-kontrolliert und doppelt-blind - wurden bis jetzt rund 20 000 freiwillige Probanden untersucht. 75 % der Probanden wurden dabei mit der Vakzine, 25 % mit dem Placebo geimpft. Die Probanden gehörten den Altersgruppen 18 - 30 Jahre, 31 - 40 Jahre, 41 - 50 Jahre, 51 - 60 Jahre und über 60 Jahre an. (Zur letzten Altersgruppe gehörten immerhin mehr als 2100 Probanden, rund 18 % waren 70 - 84 Jahre alt.)

Insgesamt litt ungefähr ein Viertel der Probanden unter Begleiterkrankungen, bei den über 60-Jährigen waren es mehr als 46% (Bluthochdruck, , koronare Herzerkrankungen, Adipositas, u.a.)

Der Schutzeffekt der Impfung gegen COVID-19 wurde ab etwa dem 18. Tag nach der ersten Sputnik-Dose evident.

Bei einer gleich guten Verträglichkeit, wie sie auch in den Untersuchungen mit den mRNA-Impfstoffen von Pfizer /BionTech und Moderna/NIAID und dem Vektor-Impfstoff von AstraZeneeca beobachtet wurde, erzielte Sputnik V ab dem 21. Tag nach der ersten Impfung eine sehr hohe Wirksamkeit von 91,6 % in allen Altersgruppen: COVID-19 wurde bei 62 (1•3%) der 4902 Personen in der Placebo-Gruppe und  bei 16 (0•1%) der 14 964 Personen in der Vakzine-Gruppe festgestellt. (In der Gruppe der über 60-Jährigen befanden sich immerhin 1611 Probanden in der Vakzine Gruppe und 533 in der Plazebogruppe: 2 COVID-19 Fälle wurden in der Vakzine-Gruppe, 8 in der Placebogruppe nachgewiesen.)

Fazit

Sputnik V scheint über alle Altersstufen hinweg verträglich und hochwirksam zu sein. Während für den wesentlich schwächer wirksamen, ebenfalls auf Adenoviren basierenden Impfstoff von AstraZeneca noch verlässliche Daten zur Wirksamkeit bei der älteren Bevölkerung (d.i. ab 55 Jahren) und bei Menschen mit Begleiterkrankungen - trotz Freigabe durch die EMA - fehlen, sind solche Daten in der Sputnik V Studie zweifelsfrei erhoben. Darüber hinaus zeichnet sich Sputnik V - im Vergleich zu den gleich exzellenten mRNA-Impfstoffen - durch hohe Stabilität und Lagerfähigkeit (in gefrorenem oder lyophilisiertem Zustand) aus.

Sputnik V ist somit eine wertvolle Bereicherung des Arsenals an Impfstoffen zur Eindämmung der COVID-19. Pandemie.


[1] D.Y.Logunow et al.,: Safety and efficacy of an rAd26 and rAd5 vector-based heterologous prime-boost COVID-19 vaccine: an interim analysis of a randomised controlled phase 3 trial in Russia. Published Online February 2, 2021 https://doi.org/10.1016/ S0140-6736(21)00234-8

[2] Inge Schuster, 22.01.2021: COVID-19-Impfstoffe - ein Update

 


Zur Corona-Pandemie bis jetzt erschienene Artikel im ScienceBlog

inge Thu, 04.02.2021 - 18:54

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Wie aktuell die Autorin ist, zeigt wieder einmal dieser Beitrag.
Es ist für mich beschämend, mit wieviel Kritik und gar Häme die Entwicklung und Testung des russischen Impfstoffs Sputnik V zuvor in Westeuropa (zumindest in Deutschland) begleitet wurde. Nun können wir vielleicht froh sein, wenn er in Dessau produziert werden kann, um uns danach zur Verfügung zu stehen und das europäische Portfolio zu füllen. Obige Kritiker sollten nachdenken und sich vielleicht auch hier und da entschuldigen.

Rita Berrnhardt

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Mo 01.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Am 29. Jänner 2021 hat die European Medicines Agency (EMA) die bedingte Zulassung des COVID-19 Impfstoffs von AstraZeneca/University Oxford empfohlen [1], die noch am selben Tag von der Europäischen Kommission (EC) erteilt wurde [2]. In der Praxis viel leichter anwendbar als die bereits zugelassenen mRNA-Impfstoffe und wesentlich billiger , ist der Impfstoff auch für entlegenere Regionen tauglich und für ärmere Gesundheitssysteme leistbar. Das Problem dabei: die eingereichten klinischen Studien weisen insgesamt nur einen geringen Anteil an Risiko-Probanden - also ältere und/oder vorerkrankte Personen auf, dennoch wurde der Impfstoff für alle Altersstufen ab 18 Jahren zugelassen. Diese, auf unzureichender Datenlage basierende Entscheidung spielt zweifellos Impfkritikern in die Hände.

Vor wenigen Tagen ist im ScienceBlog ein Artikel erschienen, der wesentliche Daten zu den klinischen Studien mit den drei COVID-19 Impfstoffen von Pfizer/BionTech, Moderna/NIAID und AstraZeneca/University Oxford zusammenfasst [3]. Der heutige Bericht beschäftigt sich im Wesentlichen mit der aktuellen Zulassung des AstraZeneca Impfstoffes (CHAdOx1 oder AZD1222) für alle EU-Bürger ab 18 Jahren trotz unzureichender Datenlage zur Wirksamkeit bei älteren und oder kranken Bevölkerungsgruppen (Details in [4] samt Appendix).

Was bedeutet bedingte Zulassung?

Bedingte Zulassungen sind in den EU-Rechtsvorschriften speziell für Notfälle im Bereich der öffentlichen Gesundheit vorgesehen. Ein Arzneimittel kann dann zugelassen werden, auch wenn noch nicht alle für eine normale Zulassung erforderlichen Daten vorliegen. Aus den vorhandenen Daten muss jedoch hervorgehen, dass der Nutzen der sofortigen Verfügbarkeit des Arzneimittels die Risiken im Zusammenhang mit der unvollständigen Datenlage deutlich überwiegt und es den EU-Standards entspricht. Nach der Erteilung einer bedingten Zulassung muss ein Unternehmen dann innerhalb bestimmter Fristen weitere Daten vorlegen, zum Beispiel aus laufenden oder neuen Studien, um zu belegen, dass der Nutzen die Risiken nach wie vor überwiegt [2].

Das Prinzip des Vektor-Impfstoffs

Wie bereits früher beschrieben handelt es sich dabei um einen sogenannten Vektor-Impfstoff, der auf der Immunantwort gegen das an der Oberfläche des SARS-CoV-2 Virus lokalisierte Spike-Protein beruht, mit dem das Virus an die Wirtszellen andockt und in diese eindringt [3]. Als Vektor dient ein im Menschen nicht vermehrungsfähiges (und für diesen damit ungefährliches) Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein (in einer nicht-spaltbaren, stabilisierten Form) eingeschleust ist. Wenn bei der Impfung der Vektor in die Wirtszellen eindringt, gelangt das Spike-Gen in den Zellkern und wird dort in seine mRNA übersetzt (transkribiert). Daraus wird dann im Zellsaft das Spike-Protein synthetisiert, welches das Immunsystem als fremd erkennt; es produziert spezifische Antikörper dagegen und aktiviert weiße Blutzellen (T-Zellen), die im Fall einer späteren Infektion mit SARS-CoV-2 das Virus attackieren und eliminieren. Auch im Fall der beiden bereits zugelassenen Impfstoffe von Pfizer/BionTech und Moderna/NIAID richtet sich die Immunantwort gegen das Spike-Protein, hier wird allerdings die für das Spike-Protein kodierende mRNA geschützt in Lipidpartikeln direkt eingesetzt.

Kein repräsentativer Querschnitt der Bevölkerung in klinischen Studien mit der AstraZeneca Vakzine

Bereits vom Beginn der Corona-Pandemie an war es offensichtlich, dass ältere Personen und/oder solche mit schwereren Grunderkrankungen (wie Herz-Kreislauferkrankungen, Diabetes, Asthma, etc...) ein erhöhtes Risiko haben an COVID-19 schwer zu erkranken. Während solche Risikogruppen in den klinischen Studien der mRNA-Impfstoffproduzenten Pfizer/BionTech und Moderna/NIAID voll berücksichtigt wurden (6000 und mehr Probanden wurden in der Altersklasse 65 - 74 Jahre und immerhin noch 1300 -1500 über 75-Jährige rekrutiert und bis über 46 % aller Probanden verzeichneten zum Teil schwere Begleiterkrankungen), war die Gruppe solcher Probanden in den AstraZeneca Studien klein [3]: In den von der EMA-Entscheidung berücksichtigen Studien in UK (COV002) und Brasilien (COV003) gab es gerade einmal 1074 Personen (jeweils zur Hälfte Vakzine- oder Placebo-Gruppe) im Alter von 56 - 69 Jahren und rund 440, die 70 Jahre und älter waren [3]. Für eine statistisch signifikante Evaluierung der Wirksamkeit in diesen Altersgruppen, waren diese Zahlen zweifellos zu klein. (In einer UK-Studie an ausschließlich 18 - 55-Jährigen mit insgesamt rund 2 700 Probanden war in der Placebo-Gruppe eine COVID-19-Inzidenz von 1,6 % nachgewiesen worden. Eine ähnliche Inzidenz in der Placebo-Gruppe der 56 - 69-Jährigen würde 8 - 9 Fällen ergeben und 3,5 in der Placebo Gruppe der 70+-Jährigen). Wie oben erwähnt wurden Personen mit schwereren Begleiterkrankungen nicht in die Studien aufgenommen (Ausschlusskriterien waren beispielsweise auch COPD, Asthma, Autoimmunerkrankungen, die chronische Einnahme von Blutverdünnern, Tumorbehandlungen).

Darüber hinaus gab es in diesen klinischen Studien eine Reihe an Ungereimtheiten wie versehentlich falsche Dosierungen, unterschiedliche Intervalle zwischen den einzelnen Dosen und eine Analyse, welche die Ergebnisse aus eigentlich nicht kompatiblen Studien einfach poolte [3].

Mit einer Wirksamkeit von rund 60 % übersteigt der AstraZeneca-Impfstoff den von der WHO geforderten Mindestwert von 50 %, liegt aber weit unter der Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna (um 94 % und das auch für die alte Bevölkerung) [3].

Die Entscheidung der EMA

Wie oben erwähnt hat die EMA den Einsatz des AstraZeneca-Impfstoffs ohne Altersobergrenze für alle Bürger ab 18 empfohlen. Allerdings hat sie darauf hingewiesen, dass es noch nicht genügend Daten gibt, um über die Wirksamkeit bei älteren Menschen (laut EMA "über 55 Jahre alte Personen") zu urteilen. Und fährt fort: "Allerdings erwartet man einen Schutz, da man in dieser Altersgruppe eine Immunantwort beobachtet und auf Erfahrungen mit anderen Impfstoffen fußt. Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann. Mehr Daten werden aus laufenden Studien erwartet, an denen ein höherer Anteil älterer Teilnehmer teilnimmt."

Die zitierte "beobachtete Immunantwort" leitet sich aus einer kleineren Phase 2/3 Studie her, in der Ramasamy et al. (University Oxford) Probanden unterschiedlichen Alters (18 bis über 70 Jahre) und ohne schwerere Erkrankungen auf die Entstehung neutralisierender Antikörper und aktivierter T-Zellantwort gegen das Spike-Protein untersuchten und solche auch in allen Altersgruppen fanden [5]. Dass mit zunehmendem Alter eine Schwächung des Immunsystems eintritt - die sogenannte Immunoseneszenz -, ist ein Faktum. Ob und in welchem Ausmaß die Präsenz neutralisierender Antikörper mit der Wirksamkeit gegen COVID-19 bei alten, gebrechlichen und oft auch an mehreren Krankheiten leidenden Menschen korreliert, muss erst klinisch bewiesen werden.

Die von Ramasamy et al., zitierten Erfahrungen mit anderen Vektor-Vakzinen gegen respiratorische RSV-Viren [5] beziehen sich jedenfalls auf kleine Studien an Impfstoffkandidaten, in denen ebenfalls nur auf Immunogenität - d.i, Antikörperbildung und T-Zellantwort - getestet wurde.

Es sollte vielleicht auch erwähnt werden, dass Vektor-Vakzinen eine Immunantwort nicht nur gegen das eingeschleuste Target, sondern auch gegen Komponenten (Proteine) des Vektors selbst erzeugen. Ob sich diese nun positiv oder negativ auf die Immunantwort gegen das Spike-Protein auswirken, ist fraglich. (Zu den Ausschlusskriterien an den Phase-3-Studien der AstraZeneca-Vakzine gehören jedenfalls andere Impfungen 30 Tage, resp. 7 Tage im Falle von Influenza oder Meningokokken, vor jeder Dosis des COVID-19 Impfstoffs. Appendix zu [4], p. 135).

Die Ansicht der EMA-Experten: "Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann." klingt merkwürdig, eher nach einer Umschreibung von: "wenn's nichts hilft wird's auch nicht schaden.

Fazit

Gerade für die prioritär vor COVID-19 zu schützenden Gruppen, der alten, gebrechlichen und/oder an schwereren Krankheiten leidenden Menschen fehlen ausreichende Wirksamkeitsdaten. Ein schwächeres Immunsystem in diesen Populationen könnte die bei Jüngeren (18 - 55 -Jährigen) bestimmte Wirksamkeit der AstraZeneca-Vakzine von 60 % auch unter das von der WHO geforderte Limit von 50 % bringen. Bis aus laufenden, weiteren Studien signifikante Ergebnisse zur Wirksamkeit an den vulnerablen Gruppen vorliegen, sollte man die Anwendung der Vakzine nur in der Altersgruppe 18 - 55 Jahren erwägen.

Die Zulassung für alle Altersstufen ab 18 Jahren konterkariert wohl auch das Vertrauen in ein wissenschaftlich-basiertes Vorgehen der EMA und bietet gleichzeitig den Impfgegnern Munition: zu schnell entwickelt, ohne ausreichende Daten zugelassen.


 [1] EMA recommends COVID-19 Vaccine AstraZeneca for authorisation in the EU (29.01.2021) https://www.ema.europa.eu/en/news/ema-recommends-covid-19-vaccine-astrazeneca-authorisation-eu

[2] Europäische Kommission erteilt dritte Zulassung für sicheren und wirksamen Impfstoff gegen COVID-19. Pressemitteilung. https://ec.europa.eu/commission/presscorner/detail/de/ip_21_306

[3] Inge Schuster, 22.01.2021: COVID-9-Impfstoffe - ein Update

[4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1

[5] M.N. Ramasamy et al., Safety and immunogenicity of ChAdOx1 nCoV-19 vaccine administered in a prime-boost regimen in young and old adults (COV002): a single-blind, randomised, controlled, phase 2/3 trial. Lancet 2020; 396: 1979–93

inge Mon, 01.02.2021 - 12:31

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Der Artikel zur Zulassung des AstraZeneca Impfstoffs trifft den Nagel auf den Kopf.
Die Autorin hat hier und im vorigen Beitrag klar die Vor- und Nachteile der verschiedenen Impfstoffe dargelegt.
Ihre Ausführungen sollten Pflichtlektüre der politischen Entscheidungsträger sein.
Ich bin froh, dass die deutsche Ständige Impfkommission Stiko den Impfstoff vorerst nur für jüngere Leute zugelassen hat.
Und wie die Autorin richtig bemerkt: es ist schade, dass durch die EMA Entscheidung Impfgegnern Argumente präsentiert werden.

Rita Bernhardt

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Do, 28.01.2021 IIASA

IIASAIcon Politik & Gesellschaft Trotz vergangener Warnungen vor einer Infektionskrankheit, die in eine "globale Katastrophe" münden könnte, ist die Welt von COVID-19 überrascht worden. Bereits In der Anfangsphase der Pandemie haben das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) eine IIASA-ISC-Consultative Science Platform geschaffen. Das Ziel war aus den Lehren der Pandemie Empfehlungen für strukturelle Transformationen abzuleiten, welche eine nachhaltigere und widerstandsfähigere Zukunft ermöglichen sollten. Eines der vier Themen der Plattform war die Stärkung der Wissenschaftssysteme, um damit eine effektivere Reaktion auf künftige globale Krisen zu gewährleisten. Der Report "Strengthening Science Systems" ist eben erschienen; der folgende Text enthält die übersetzte Zusammenfassung.*

Das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) haben auf ihrer Plattform IIASA-ISC Consultative Science Platform “Bouncing Forward Sustainably: Pathways to a post-COVID world”  wichtige Interessensvertreter aus den Bereichen Wissenschaft, Politik und Zivilgesellschaft zusammengebracht, um über systemische Ansätze zu vier Schlüsselthemen zu beraten, die eine langfristige Nachhaltigkeit und Widerstandsfähigkeit gegen globale Krisen gewährleisten sollen. Diese vier Themen betreffen i) eine verbesserte Governance der Nachhaltigkeit, ii) eine Stärkung der Wissenschaftssysteme, iii) neue Lösungen des Energieproblems und iv)Resiliente Ernährungssysteme.  Die Schirmherrschaft über diese Initiative hat der ehemalige UNO-Generalsekretär Ban-Ki-moon übernommen.

Die Empfehlungen der Plattform liegen nun in Form von Berichten vor (siehe Links) und wurden in einer virtuellen Veranstaltung (25. - 26. Jänner 2021) vorgestellt.

Der folgende Text ist die Zusammenfassung des Reports zur "Stärkung der Wissenschaftssysteme" (Abbildung 1).

Abbildung 1. Der Report: Strengthening Science Systems. Transformations within reach:Pathways to a sustainable and resilient world. (Jänner 2021).

Die Wissenschaft hat in der andauernden COVID-19-Krise eine zentrale Stellung eingenommen. Die Wissenschaft war gefordert, Lösungen auf einer sehr breiten Front anzubieten - nicht nur für die unmittelbaren gesundheitlichen Bedrohungen, sondern auch für die vielen sozialen und wirtschaftlichen Herausforderungen, die sich aus der Pandemie ergeben. Wissenschaftler aus verschiedenen Disziplinen haben schnell reagiert, indem sie ihre Forschung auf diese neuen Probleme umorientierten, und die COVID-19-Krise hat Zusammenarbeit und Kooperation zwischen Wissenschaftlern deutlich beschleunigt. Digitale Kommunikation wird weltweit in großem Maßstab angewandt, obwohl viele der Vorteile verloren gehen, die physische Besprechungen bieten, wie z. B. ein face-to-face Netzwerken oder spontane Unterhaltungen.

Die COVID-19-Krise hat das Funktionieren des Wissenschaftssystems beeinträchtigt...

Die Anpassung der Lehre in einem virtuellen Format hat zusätzlichen Druck auf Forscher an Universitäten ausgeübt und die für die Forschung zur Verfügung stehende Zeit reduziert. Arbeiten in Labors, Feldversuche und Expeditionen mussten verschoben oder abgesagt werden. Die Schließung von Kinderbetreuungseinrichtungen und anderen Dienste stellte zusätzliche Anforderungen an die Wissenschaftler. Indem sie ihre Familien unterstützten und betreuten, wurde die Zeit und Energie, die sie für die Forschung aufwenden konnten, weiter reduziert. COVID-19 hat offensichtlich auch bestehende Ungleichheiten in der Wissenschaft verschärft. Wissenschaftlerinnen und insbesondere solche mit kleinen Kindern haben eine erhebliche Reduktion der Zeit verzeichnet, in der sie sich der Forschung widmen konnten.

COVID-19 hat gezeigt, dass die Reaktion von Wissenschaftlern auf eine neue Krise durch Überlegungen hinsichtlich der Sicherheit ihres Arbeitsplatzes und ihres beruflichen Aufstiegs Grenzen erfährt. Dies ist besonders wichtig für Nachwuchswissenschaftler, deren zukünftige Beschäftigung entscheidend davon abhängt, dass ihre Arbeiten in Fachzeitschriften veröffentlicht werden. Es gibt kein System zur Anerkennung und Belohnung von Beiträgen zur Bewältigung einer dringlichen Krise wie COVID-19, und dies hindert Wissenschaftler erheblich daran, solche Forschungen durchzuführen. Finanzierungsanreize sind auch erforderlich, um Wissenschaftler zu ermutigen, ihre Forschung neu auszurichten, sich auf krisenbezogene Themen zu konzentrieren. Die Fördereinrichtungen haben allerdings nur begrenzte Möglichkeiten, neue Prioritäten festzulegen und die Finanzierung rasch an diese umzuleiten.

…einige Schwächen darin aufgezeigt und Trends beschleunigt

COVID-19 hat einige der Schwächen des Wissenschaftssystems aufgezeigt und eine Reihe von Trends beschleunigt. Die Verbreitung von Preprints als eine schnellere Möglichkeit, Wissen auf völlig offene Weise zu verbreiten, hat die Grenzen des Systems der Veröffentlichung in Fachzeitschriften und der Begutachtung durch Fachkollegen in ihren derzeitigen Formen deutlich gemacht. Es gab jedoch weit verbreitete Bedenken hinsichtlich der Qualität von Informationen, die ohne Peer Review öffentlich zugänglich gemacht wurden. In den frühen Phasen einer Krise sind Daten und Expertenwissen zu den Grundlagen des Phänomens natürlich sehr limitiert. Es ist daher entscheidend, vorhandenes Wissen effektiv nutzen zu können.

Das Wissenschaftssystem und die Forschungsplanung und Bewertung widmen derzeit wenig Aufmerksamkeit der Wichtigkeit, welche das Generieren von für zukünftige Krisen anwendbares Wissen haben kann.

Der Privatsektor bildet einen großen Teil des Forschungsökosystems. Auch wenn in vielen Bereichen eine effektive Zusammenarbeit zwischen öffentlich finanzierter Wissenschaft und privatwirtschaftlicher Wissenschaft besteht, ist viel mehr Zusammenarbeit erforderlich.

Diskussionen über Vertrauen in die Wissenschaft

Bereits seit langem gibt es Diskussionen über Vertrauen in die Wissenschaft und dessen mögliche Unterminierung. Mit dem Aufkommen von COVID-19 wurden diese Diskussionen beträchtlich intensivier. COVID-19 sieht sich einer erhöhten Flut falscher Nachrichten - fake news - gegenüber. Die Öffentlichkeit ist einem Tsunami an Fehlinformationen und Pseudowissenschaften ausgesetzt, die das Vertrauen in die Wissenschaft untergraben. Eine wichtige Lehre aus COVID-19 ist, dass eine Maßnahme mehr oder weniger effektiv gesetzt werden kann, je nachdem, wie viel Vertrauen die Öffentlichkeit in die Wissenschaft und in die Regierung hat.

COVID-19 hat die Wissenschaft ins Rampenlicht der öffentlichen Aufmerksamkeit gerückt und dabei das mangelnde Verständnis der Öffentlichkeit dafür aufgezeigt, wie Wissenschaft funktioniert und was Wissenschaft kann und was nicht. Viele Wissenschaftler betrachten die Wissenschaftskommunikation nicht als Teil ihrer Arbeit. Darüber hinaus legt das Leistungsbewertungssystem für Wissenschaftler sehr wenig Wert auf die Kommunikation wissenschaftlicher Erkenntnisse und Ergebnisse.

Die COVID-19-Pandemie hat es uns deutlich gezeigt: Krisen sind nicht zweidimensional. Zweifellos ist COVID-19 weitaus mehr als bloß ein medizinisches Problem; es gibt vielfache Auswirkungen auf Gesellschaft, Wirtschaft und Politik. Maßnahmen zur Bekämpfung von COVID-19 sollten daher mehrere wissenschaftliche Disziplinen einbeziehen. Berater-Gremien und Task Forces, die in das Design öffentlicher Maßnahmen für den Umgang mit COVID-19 involviert sind, setzen jedoch häufig nur ein begrenztes Spektrum an Fachwissen ein. Einem systembasierten Ansatz zur Bewältigung einer komplexen Krise wie COVID-19 wurde nicht ausreichend Priorität eingeräumt.

COVID-19 hat gezeigt, wie schwierig es für schlechtausgestattete und geringgeförderte Institutionen in Forschung und Beratung ist, auf plötzliche Bedrohungen flexibel zu reagieren. Für eine rasche und qualitativ erstklassige Reaktion sind starke und robuste Institutionen eine wesentliche Voraussetzung Es ist von entscheidender Bedeutung, dass Institutionen, die strategische Forschung betreiben und wissenschaftlich fundierte Maßnahmen zu globalen Risiken anbieten, angemessene, verlässliche und fortlaufende öffentliche Mittel erhalten.

COVID-19 hat die Bedeutung internationaler Zusammenarbeit klar aufgezeigt. Manche Länder mit wissenschaftlich sehr limitierten Kapazitäten konnten auf Erfahrungen anderer Länder und internationaler Organisationen zurückgreifen, um wirksame und zeitnahe politische Maßnahmen gegen COVID-19 zu entwickeln. In einigen Ländern gab es allerdings einen Gegentrend in Richtung "Nationalisierung der Wissenschaftssysteme".

Erforderliche Verbesserungen in drei Richtungen…

Die Analyse der COVID-19-Krise zeigt, dass Verbesserungen in drei Achsenrichtungen erforderlich sind, damit das Wissenschaftssystem effizienter auf zukünftige globale exogene Bedrohungen reagieren kann:

  • Erhöhte Agilität. Erstens muss die Fähigkeit des Wissenschaftssystems, schnell auf neu auftretende und sich schnell entwickelnde Probleme - ob auf nationaler oder internationaler Ebene - zu reagieren, erheblich verbessert werden.
  • Höhere Zuverlässigkeit. Das Wissenschaftssystem muss die Qualität seines Outputs weiter verbessern.
  • Höhere Relevanz. Das Wissenschaftssystem muss effektiver mit Politik und Öffentlichkeit verknüpft werden. Das Ziel ist es sicherzustellen, dass das Wissenschaftssystem auf allen drei Achsen gleichzeitig Fortschritte erzielt und eine neue Marke der Agilität, Zuverlässigkeit und Relevanz für die Gesellschaft erreicht.

…und Empfehlungen zu Transformationen im Wissenschaftssystem

Die gleichzeitige Verbesserung entlang aller drei Achsen bringt notwendigerweise viele Änderungen am bestehenden Wissenschaftssystem mit sich. Dementsprechend haben wir hier 38 Empfehlungen vorgelegt, die unter fünf miteinander verbundenen wesentlichen transformativen Änderungen wie folgt zusammengefasst sind (Abbildung 2):

Abbildung 2. Transformative Änderungen zur Stärkung der Wissenschaft, um effizienter auf zukünftige globale exogene Bedrohungen reagieren zu können

1. Stärkung der transdisziplinären Forschung und Vernetzung in Bezug auf kritische Risiken und Systemstabilität

Es sollte eine umfassendere Definition von globaler und nationaler Sicherheit zugrunde gelegt werden, die Naturkatastrophen und anthropogene Katastrophen als relevante Bedrohungen einschließt. Nationale und internationale Kapazitäten zu transdisziplinärer Erforschung kritischer Risiken und Systemstabilität (insbesondere wo diese sehr begrenzt ist), sollten verbessert werden. Um den Kapazitätsmangel auszugleichen, sollten Netzwerke und Mechanismen weiterentwickelt werden, über die Wissenschaftler Wissen aus anderen Ländern oder auf internationaler Ebene angesammeltes Wissen nutzen können. Um den wissenschaftlichen Fortschritt zu beschleunigen, sollten internationale Forschernetzwerke mit ergänzendem Fachwissen in wichtigen Risikobereichen gestärkt werden.

2. Gesteigerte Kapazität der Wissenschaft, um auf Krisen schnell mit Qualitätsforschung zu reagieren

Institutionen, die Risikoforschung betreiben, müssen entwickelt und aufrechterhalten werden. Die Möglichkeiten eines Systems von "Notfall"-Experten-Teams sollte geprüft werden, die als Reaktion auf eine Krise aktiviert werden können. Um die Forschung zu nicht vorhergesehenen und dringenden Herausforderungen zu finanzieren, muss ein System von leicht zugänglichen Förderungen eingerichtet werden. Das Bewertungssystem muss angepasst werden, um den Beitrag der Wissenschaftler zur Bewältigung von Krisen anzuerkennen. Besonderes Augenmerk sollte auf Anreize für junge Forscher gelegt werden. Die Entwicklung leicht wiederverwendbarer Forschungsmodelle und -daten sollte priorisiert und die Verwendung von Universal-Modellen erweitert werden. Es sollten neue Mechanismen zur Verbesserung der internationalen wissenschaftlichen Zusammenarbeit entwickelt werden, um rasch auf Krisen reagieren zu können. Es ist wichtig, in Krisenzeiten Standards guter wissenschaftlicher Praxis zu fördern und die Institutionen, die einen wissenschaftlichen Verhaltenskodex durchsetzen, erheblich zu stärken. Möglichkeiten zur Verbesserung der Zusammenarbeit zwischen Wissenschaft des öffentlichen und des privaten Sektors sollten untersucht werden. Der Privatsektor muss Anreize erhalten, Technologieplattformen zur Verfügung zu stellen und Daten und Wissen auszutauschen.

3. Verbesserung der Wissensverbreitung innerhalb des Wissenschaftssystems

Eine Reihe von Verbesserungen des Review-Systems von Publikationen sollten umgesetzt werden. Dazu gehören i) ein System zum schnellen Peer-Review von Preprints nach der Veröffentlichung; ii) eine Reihe von materiellen und immateriellen Anreizen für die Erstellung von Reviews; iii) die Möglichkeit einer offenen Kommunikation zwischen Autoren und Reviewern; iv) die Anpassung verschiedener Forschungskulturen und starke Peer-Review-Systeme für Daten. Zur Durchführung von Reviews sollten Schulungen für Wissenschaftler gefördert werden, insbesondere für Reviews in der interdisziplinären Forschung. Die Forscher sollten auch dazu angeregt werden, wissenschaftliche Übersichten und Artikel aus ihrer Perspektive zu erstellen, die vorhandenes, für eine Krise und ihre Auswirkungen relevantes Wissen zusammenfassen. Um den Zugang zu bestehender Forschung und die Navigation dort zu erleichtern, sollten Forscher Anreize erhalten, um Daten, Modelle und Computercodes offen und leicht zugänglich zu machen. Allgemeine Standards für Daten sowie die Verwendung von Open-Source-Software sollten gefördert werden. Man sollte ein System prüfen, wo Wissenschaftler die Zwischenprodukte der Forschung (Forschungsprotokolle, negative Ergebnisse usw.) zur Verfügung stellen. Ablagen für Daten und vorhandene Forschung sowie Plattformen, auf denen Forschung zu einem bestimmten Thema zusammengefasst wird, sollten entwickelt und verwendet werden. Die Effektivität von Algorithmen zur automatischen Synthese von Wissen und zu deren Kontrolle sollte untersucht werden.

4. Verbesserte Kommunikation wissenschaftlicher Erkenntnisse, gesteigertes Verständnis der Öffentlichkeit und erhöhtes Vertrauen in die Wissenschaft

Um der Öffentlichkeit verlässliche Informationen zu liefern, sollten leicht zugängliche Quellen der wissenschaftlichen Ergebnisse und Informationen geschaffen werden. Wissenschaftler sollten in der Vermittlung wissenschaftlicher Erkenntnisse geschult und motiviert werden und aktiver gegen Wissenschaftsleugner und Falschinformation eintreten. Die Kapazität und Integrität des Wissenschaftsjournalismus und der Wissenschaftsmedien sollten verbessert werden. Automatische Systeme zur Überprüfung wissenschaftlicher Fakten sollten entwickelt werden und weite Verbreitung finden. Aktives Engagement zwischen Wissenschaft und Bürgern sollte in geeigneten Forschungsphasen erleichtert werden, um die Relevanz und Legitimität der wissenschaftlichen Forschung zu verbessern. Die wissenschaftlichen Kenntnisse der Bürger sollte verbessert werden.

5. Verbesserung von Qualität und Effizienz an der Schnittstelle von Wissenschaft und Politik auf nationaler, regionaler und globaler Ebene

Es sollten robuste nationale und multinationale Institutionen entwickelt werden, die sich mit wissenschaftspolitischer Beratung befassen, ebenso wie eine wirksame Vernetzung zwischen diesen Institutionen. Die sozialen Auswirkungen der verschiedenen politischen Optionen müssen vor der Umsetzung bewertet werden, zusammen mit den wahrscheinlichen Reaktionen auf diese Optionen in verschiedenen Gemeinschaften und Interessengruppen. Die politischen Entscheidungsträger sollten die Möglichkeit haben, mit einer breiteren akademischen Gemeinschaft in Kontakt zu treten, um Fragen zu stellen und verschiedene Ratschläge zu integrieren. Wissenschaftliche Beratung sollte eine Vielzahl wissenschaftlicher Disziplinen einbeziehen. Ein systemischer Ansatz für die Politikberatung sollte gewählt werden. Die Regierungen sollten das gesamte Spektrum der angebotenen wissenschaftlichen Beratung berücksichtigen und die Gründe für die getroffenen Entscheidungen transparent machen.


*Der Blogartikel ist die von der Redaktion übersetzte und für den Blog gerinfügig adaptierte Executive Summary aus dem Report: E. Rovenskaya et al,: Strengthening Science Systems. Transformations within reach: Pathways to a sustainable and resilient world. Jänner 2021. https://council.science/wp-content/uploads/2020/06/IIASA-ISC-Reports-Science-Systems.pdf. Der Report steht unter einer cc-by Lizenz. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Links zu den Reports der IIASA-ISC-Consultative Science Platform

Srivastava, L., Echeverri, L. G., Schlegel, F., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Synthesis Report. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16818]

Mechler, R., Stevance, A.-S., Deubelli, T., Scolobig, A., Linnerooth-Bayer, J., Handmer, J., Irshaid, J., McBean, G., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Enhancing Governance for Sustainability. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16819]

Rovenskaya, E., Kaplan, D., & Sizov, S. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Strengthening Science Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16821]

Sperling, F., Havlik, P., Denis, M., Valin, H., Palazzo, A., Gaupp, F., & Visconti, P. (2020). Transformations within reach-Pathways to a sustainable and resilient world: Resilient Food Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16822]

Zakeri, B., Paulavets, K., Barreto-Gomez, L., Gomez Echeverri, L., Pachauri, S., Rogelj, J., Creutzig, F., Urge-Vorsatz, D., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Rethinking energy solutions: Energy demand and decentralized solutions. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16820]

inge Thu, 28.01.2021 - 01:42

COVID-9-Impfstoffe - ein Update

COVID-9-Impfstoffe - ein Update

Fr 22.01.2021.... Inge Schuster Inge SchusterIcon Medizin

Ein vor 8 Wochen erschienener ScienceBlog-Artikel hat einen Überblick über die rasante Entwicklung von COVID-19 Impfstoffen gegeben [1]. Zu diesem Zeitpunkt wurden bereits 58 Impfstoff-Kandidaten in der Klinik untersucht, 11 davon befanden sich in der entscheidenden Phase 3. Drei Kandidaten - von Pfizer/BioNTech, Moderna/NIAID und AstraZeneca/University Oxford - standen kurz vor der behördlichen Zulassung durch die FDA und EMA . Zu deren Wirksamkeit und Sicherheit erfuhr man - allerdings nur in Form von Presseaussendungen der produzierenden Unternehmen - phantastische Angaben. Seit Kurzem liegen nun die Ergebnisse der klinischen Studien in publizierter Form vor. Der folgende Artikel fasst wesentliche Daten zusammen.

Das vergangene Jahr 2020 wird als Jahr der Corona-Pandemie in die Geschichte eingehen, einer Pandemie, die sich mit rasantem Tempo über den gesamten Erdball, bis in die Antarktis hin, ausgebreitet hat und bereits mehr als 96 Millionen Menschen mit dem Virus infiziert und über 2 Millionen Todesfälle hervorgerufen hat (dashboard der John-Hopkins-University:  https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6be. Innerhalb kürzester Zeit hat das Virus das gewohnte Leben, die sozialen Kontakte lahmgelegt, die Wirtschaft auf ein Mindestmaß reduziert und Staaten, die Rettungsschirme für die stillgelegten Betriebe und das Heer an beschäftigungslosen Menschen aufspannten, bis in die dritte Generation hinein in Schulden gestürzt.

Wissenschaft, die erfolgreiche Waffe gegen COVID-19

Die bis dato nie gekannte Notsituation machte 2020 aber auch zu einem Jahr, welches die Wissenschaft zu einer bisher ungeahnten Hochform der globalen Zusammenarbeit auflaufen ließ. Wissenschafter aus den verschiedensten Disziplinen der Naturwissenschaften und der Medizin, aus akademischen Institutionen ebenso wie aus kommerziellen Unternehmen gingen globale Partnerschaften ein und tauschten freizügig ihre Forschungsergebnisse aus, welche eine Reihe von Verlagen temporär für jedermann öffentlich zugänglich machte. Auf der Suche nach dringendst benötigten Mitteln zu Prävention und Therapie der neuen Infektionskrankheit fanden die Forscher bei den puncto Wissenschaft ansonsten äußerst sparsamen Regierungen und internationalen Organisationen großzügige Unterstützung. Das in der Öffentlichkeit bisher wenig beachtete Fach der Virologie lieferte nun täglich Headlines in Presse und Unterhaltungsmedien.

Die Investition in die Wissenschaft hat zum Erfolg geführt. Aufbauend auf den Ergebnissen jahrelanger Grundlagenforschung wurde es möglich Impfstoffe schneller als erhofft zu designen und zu entwickeln. Derzeit befinden sich 291 Kandidaten in der Entwicklung, davon 221 in der präklinischen Entwicklung und bereits 70 in der klinischen Prüfung, in der Wirksamkeit und sichere Anwendung untersucht werden [2]. 20 Impfstoffkandidaten sind in der letzten, entscheidenden Phase 3  (COVID-19 vaccine tracker:  https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/)

Zwei dieser Impfstoffe - BNT162b2 von Pfizer/BioNTech und mRNA-1723 von Moderna/NIAID -, die das neue Prinzip der mRNA-Vakzinen realisieren, haben die US-Behörde für Lebens- und Arzneimittel (FDA) als Notfallzulassung und die Europäische Arzneimittel Agentur (EMA) als bedingte Zulassung bereits anerkannt. Die Entscheidung über die Zulassung eines dritten, auf dem Vektorprinzip beruhenden Impfstoffs ChAdOx1 von AstraZeneca/Oxford University (in UK bereits eine Notfallzulassung) wird in der EU Ende Jänner erfolgen. Der ungemein schnellen Entwicklung war es zuzuschreiben, dass man die phantastisch anmutenden Ergebnisse der klinischen Studien vorerst nur aus Pressemeldungen der Unternehmen vernehmen konnte [1]. Nun sind die Ergebnisse seit Kurzem publiziert und öffentlich zugänglich [2], [3], [4]. Im Folgenden sollen wesentliche Daten zu Wirksamkeit und Sicherheit der drei Impfstoffe zusammengefasst werden.

Wie funktionieren die 3 Impfstoffe?

Die mRNA-Impfstoffe

Sowohl der Pfizer/BioNTech-Impfstoff BNT162b2 ("Tozinameran") als auch der Moderna/NIAID-Impfstoff mRNA-1723 sind erste Vertreter einer neuen Technologie, der sogenannten mRNA-Impfstoffe. Diese enthalten nicht das (inaktivierte) Virus selbst oder Komponenten des Virus sondern nutzen die mRNA als Bauanleitung für Virus-Proteine, gegen die eine Immunantwort zu erwarten ist. Im konkreten Fall der beiden Impfstoffe ist es die Bauanleitung für das Spike-Protein, mit dem das Virus an die Wirtszellen andockt. Da die mRNA ein physikalisch, thermisch und biologisch sehr instabiles Molekül ist, würde sie - direkt injiziert - bereits abgebaut sein, bevor sie in die Körperzellen aufgenommen wird und dort in das Spike-Protein übersetzt werden kann. Um dies zu verhindern, wurden winzige Lipidkügelchen - Lipid-Nanopartikel - designt, in welchen die mRNA geschützt vorliegt und - in den Oberarmmuskel injiziert- die Aufnahme in die umliegenden Zellen ermöglicht wird. In den Zellen braucht die mRNA nicht in den Zellkern vorzudringen; sie verbleibt im Cytosol der Zelle und wird dort an den Ribosomen in das Spike-Protein übersetzt. Dieses Protein kann dann in seiner nativen Form an die Zelloberfläche gelangen und sezerniert werden. Es kann aber auch vom Abbauapparat der Zelle degradiert, in Form von Peptiden an der Zelloberfläche präsentiert werden, die dann von den Zellen des adaptiven Immunsystems als fremd erkannt werden und deren Reaktion auslösen. Diese Reaktion führt zur Bildung von Antikörpern und zur Aktivierung von T-Zellen (weißen Blutkörperchen) gegen den Fremdstoff. Die mRNA selbst ist kurzlebig und wird in den Zellen schnell abgebaut.

Eine kürzlich von der Royal Society of Chemistry herausgegebene Grafik fasst die Natur der mRNA-Vakzinen und ihre Wirkungsweise zusammen. Abbildung 1.

Abbildung 1. Was sind mRNA-Impfstoffe und wie wirken sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

Sowohl der Pfizer-Impfstoff als auch der Moderna-Impfstoff basieren auf der mRNA-Sequenz, die für das Spikeprotein kodiert und zwar (durch Austausch zweier Aminosäuren) in der stabilisierten Konformation, die dieses vor der Fusion mit der Zellmembran einnimmt (womit auch seine Immunogenität gesteigert wird).

Ein wesentlicher Unterschied der beiden Vakzinen besteht aber in der Zusammensetzung der Lipid-Nanopartikel und daraus resultierend in deren Stabilität. Während der unverdünnte Pfizer-Impfstoff bei Temperaturen von -80oC bis -60oC gelagert werden muss, nach der Verdünnung bei Raumtemperatur maximal 6 Stunden haltbar ist, nicht geschüttelt werden darf und vorsichtig pipettiert werden muss (um Scherkräfte zu vermeiden) und dazu möglichst dunkel gehalten werden sollte, ist der Moderna-Impfstoff wesentlich stabiler. Ungeöffnete Ampullen können bei Kühlschranktemperaturen bis zu 30 Tagen gelagert werden und bis zu 12 Stunden bei 8o - 25oC. Impfungen mit dem Pfizer-Impfstoff sind damit auf Impfzentren und mobile Teams, die in Pflegeeinrichtungen kommen, beschränkt .

Der Vektor-Impfstoff

Bei CHAdOx1 von AstraZeneca/Oxford University handelt es sich um einen sogenannten Vektorimpfstoff. Dieser basiert auf einem im Menschen nicht vermehrungsfähigen Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist. Bei der Impfung dringt der Vektor in einige Wirtszellen ein, das Spike-Gen gelangt in den Zellkern, wo es in seine mRNA und dann in das Spike Protein übersetzt wird, welches - ebenso wie im Fall der mRNA-Vakzinen - die Immunantwort auslöst. (Natürlich werden auch Teile des Vektorgenoms übersetzt und lösen ebenfalls eine Immunantwort aus.)

Abbildung 2 fasst Art und Wirkungsweise dieses Impfstofftyps zusammen.

Abbildung 2. Was sind Vektorimpfstoffe und wie funktionieren sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

ChAdOx1 ist Im Vergleich zu den mRNA-Impfstoffen wesentlich billiger (die EU hat angeblich um rund 1,8 €/Dosis geordert) und kann bei Kühlschranktemperaturen lange gelagert werden . Dies erleichtert die Lieferung und Anwendung auch in ländlichen Gebieten.

Zur Wirksamkeit der Impfstoffe

Die Ergebnisse der (noch laufenden) randomisierten Phase 3 Studien (Doppel-Blind, Impfstoff gegen Placebo) mit den beiden mRNA-Impfstoffen sind phantastisch [2, 3]. Geimpft wurden jeweils zwei Dosen, die im Abstand von drei Wochen (Pfizer) oder 4 Wochen (Moderna) verabreicht wurden. Bei den Probanden handelte es sich um Erwachsene im Alter von 16/18 - über 65 Jahren - etwa gleich viele Frauen und Männer - , darunter auch solche mit gesundheitlichen Risikofaktoren (inklusive HIV). Die Wirksamkeit wurde auf Grund des Auftretens von mindestens 2 charakteristischen COVID-19 Symptomen plus bestätigendem PCR-Test ermittelt.

Der Pfizer-Impfstoff

Rund 18 900 Probanden wurden jeweils für die mRNA-Gruppe (30 µg in Lipid-Nanopartikeln verpackt) und die Placebo-Gruppe rekrutiert, darunter auch eine Gruppe von jeweils rund 800 Personen, die 75 - 85 Jahre alt waren. Die Probanden erhielten 2 Dosen des Impfstoffs/Placebos im Abstand von 21 Tagen. Eine Analyse der COVID-19 Fälle, die nach der 1. Dosis auftraten, zeigt an, wann der Impfschutz zu wirken begann. Etwa 12 Tage nach der 1. Dosis begann die Inzidenz von COVID-19 in der mRNA-Gruppe(39 Fälle) stark abzuflachen, während sie in der Placebo-Gruppe (82 Fälle) linear weiter anstieg (Abbildung 3 oben). In der Woche nach der 2.Dosis wurden 2 Fälle in der mRNA-Gruppe und 21 Fälle in der Placebo-Gruppe beobachtet, in der darauffolgenden Zeit bis zum Ende der Beobachtung (105 Tage) 9/172 Fälle in mRNA-/Placebo-Gruppen. Über die Probanden gemittelt ergibt dies ein Wirksamkeit von rund 95 %.

Erfreulicherweise zeigte sich die sehr hohe Wirksamkeit in allen Altersstufen (bestimmt 7 Tage nach Dosis 2): 95,1 % bei den 16 - 64-Jährigen. 92,7 % bei den 65 - 74-Jährigen; bei den relativ kleinen Gruppen der über 75-Jährigen trat kein Fall in der mRNA-Gruppe auf, 5 Fälle dagegen in der Placebo-Gruppe.

Der Moderna-Impfstoff

wurde an Probanden im Alter von 18 - > 65 Jahren getestet; rund 14 600 erhielten die Vakzine (100 µg mRNA in Lipid-Nanopartikeln eingeschlossen), etwa ebenso viele Placebo [3]. Bereits 14 Tage nach der 1. Dosis konnte eine fast 70 % Reduktion der COVID-19 Fälle in der mRNA-geimpften Gruppe (5/16 COVID-19 Fälle) gegenüber der Placebo-Gruppe beobachtet werden. In den folgenden 2 Wochen bis zur Impfung der 2. Dosis gab es in der mRNA-Gruppe 2/37 Fälle, in den darauf folgenden 14 Tagen 0/19 Fälle und sodann bis zum derzeitigen Ende der Beobachtungszeit (25.November 2020; 120 Tage) 12/216 Fälle. Über alle Probanden gemittelt ergab dies ein Wirksamkeit von 94,1 %.

Nach Altersgruppen analysiert lag die Wirksamkeit bei Probanden unter 65 Jahren (rund 10 500) bei 95,6 %, bei der kleineren Gruppe der über 65-Jährigen (rund 3 500 ) bei 86,4 %.

Abbildung 3 vergleicht die Wirksamkeiten der beiden mRNA-Impfstoffe gemessen an der Inzidenz von COVID-19 Erkrankungen beginnend von der 1. Dosis über die 2. Dosis bis zum gegenwärtigen Ende der Beobachtungszeit.

Abbildung 3. Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. In beiden Fällen werden rund 95 % der Probanden durch die Impfung geschützt. Schwere COVID-19 Erkrankungen traten bei der Pfizer-Impfstoffstudie mit einer Ausnahme nur in der Placebo-Gruppe auf (schwarze Punkte), bei der Moderna-Impfstoffstudie gab es 30 schwere Erkrankungen ausschließlich in der Placebo-Gruppe. (Bilder für den Blog adaptiert aus [2 und 3], diese stehen unter einer cc-by-Lizenz)

Der Vektor-Impfstoff

Die publizierten Zwischenergebnisse stammen von rund 11 600 Probanden in England und Brasilien [4]. Der Vektorimpfstoff ChAdOx1 - ein nicht vermehrungsfähiger Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist - wurde in Standarddosen von 50 Milliarden Viruspartikeln angewandt, als Kontrolle fungierte anstelle einer Kochsalzlösung die Meningokokken-Vakzine MenACWY. Zum Unterschied zu den Studien mit den mRNA-Impfstoffen wurden hier ausschließlich gesunde Erwachsene rekrutiert, der überwiegende Teil (86,7 %) im Alter von 18 - 55 Jahren. Diese sollten jeweils 2 Standarddosen im Abstand von 28 Tagen erhalten; allerdings, sowohl die Dosierungen als auch das Impfintervall variierte.

Für eine der beiden in England laufenden Studien (mit kleinerer Probandenzahl, ausschließlich im Alter 18 - 55 Jahre) enthielten die Ampullen irrtümlich nur die Hälfte des Vektorimpfstoffs. AstraZeneca veränderte darauf das Studienprotokoll in der Form, dass die Probanden nach der 1. halben Dosis die Standarddosis als zweite Impfung erhielten. (Die Behörden stimmten zu.)

Im Vergleich zu den mRNA-Impfstoffen war die Wirksamkeit des Vektorimpfstoffs niedriger. Mehr als 14 Tage nach der zweiten Standarddosis wurde sowohl in der englischen als auch in der brasilianischen Studie eine COVID-19-Inzidenz von 0,6 % bei den mit ChAdOx1 behandelten Probanden gegenüber 1,6 % der mit dem Kontrollimpfstoff behandelten festgestellt, entsprechend einer Wirksamkeit von 62 %. Erstaunlicherweise erbrachte die oben erwähnte Studie mit zuerst halber Dosis und dann Standarddosis bei 3 COVID-19-Fällen gegenüber 30 Fällen in der Kontrollgruppe eine Wirksamkeit von 90 %.

AstraZeneca hat die Ergebnisse aus den 3 offensichtlich unterschiedlichen Studien gepoolt und ist daraus schlussendlich zu einer Wirksamkeit von 70 % gelangt. Wieweit ein solches Vorgehen lege artis ist, soll hier nicht beurteilt werden. AstraZeneca will jedenfalls der Frage nachgehen ob eine erst niedrigere Impfstoffdosis gefolgt von einer höheren tatsächlich zu einer besseren Wirksamkeit führt. Abbildung 4 zeigt die Inzidenz von COVID-19 Erkrankungen nach der Impfung mit ChAdOx1.

Abbildung 4. Kumulierte Inzidenz von symptomatischer COVID-19 Erkrankung. Links: nach der zweiten Dosis des Vektorimpfstoffs ChAdOx1, wobei die 1. Impfung mit der halben Dosis( LD) oder vollen Standarddosis (SD) , die 2. Impfung mit der Standarddosis erfolgt ist. Rechts: nach der ersten Dosis bei Probanden, die nur Standarddosen erhielten. Als Kontrolle fungierte die Meningokokken-Vakzine MenACWY. (Bild aus [4] Lancet. 2021 Jan 9; 397(10269): 99–111. Lizenz cc-by 4.0)

Nebenwirkungen

treten bei allen drei Impfstoffen auf und sind zum größten Teil mild oder moderat und vorübergehend.

Lokale Reaktionen an der Einstichstelle wie Schmerz, Rötung, Schwellung (Verhärtung) treten in der Gruppe der Geimpften wesentlich häufiger als in der Placebo/Kontrollgruppe und können auch als ein Anspringen der Immunantwort gesehen werden. Hier, in den Muskelzellen findet ja die Umsetzung der mRNA in das Spike-Protein statt, gegen welches das Immunsystem nun massiv auffahren soll! Die beiden mRNA-Vakzinen ebenso wie die Vektorvakzine können bei an die 80 % der Probanden solche Reaktionen hervorrufen. 

Allgemeine Nebenwirkungen wie Müdigkeit, Muskelschmerzen, Kopfschmerzen, Fieber, Schüttelfrost Übelkeit sind bei 30 - 60 % der Probanden etwa 24 Stunden nach beiden Impfdosen aufgetreten und haben im Durchschnitt einen Tag angehalten.

Lokale ebenso wie allgemeine Nebenwirkungen der mRNA-Impfstoffe waren bei jüngeren Probanden (d.i. 18 - 55 Jahre in der Pfizer-Studie und 18 - 65 Jahre in der Moderna-Studie) stärker ausgeprägt als bei älteren und nahmen von Dosis 1 zu Dosis 2 zu. Ein sehr ähnliches Bild - allerdings bei einer wesentlich kleineren Probandenzahl - zeigte sich auch mit dem Vektorimpfstoff von AstraZeneca (die bessere Verträglichkeit bei älteren Personen könnte vielleicht infolge einer schwächeren Immunantwort resultieren?).

Fazit

Alle drei Impfstoffe können vor COVID-19 schützen und haben zumeist milde bis moderate, vorübergehende Nebenwirkungen. Die beiden mRNA-Impfstoffe von Pfizer und Moderna weisen eine phänomenale Wirksamkeit von über 90 % auf, bei jungen und älteren gesunden Menschen und auch bei älteren Personen, die wegen u.a. Herzerkrankungen, Diabetes, Adipositas ein höheres Risiko haben an COVID-19 schwer zu erkranken. Ein nicht unerhebliches Problem des Pfizer-Impfstoffs ist seine Instabilität, die eine Anwendung nur in geeigneten Impfzentren zulässt.

Der Vektorimpfstoff von AstraZeneca ist zwar stabil und vergleichsweise sehr billig, aber weniger wirksam als die beiden anderen Vakzinen. Die Phase 3 Studie wirft auch eine Reihe Fragen auf, da dafür nur gesunde Personen rekrutiert wurden und der Anteil an älteren Menschen gering ist, also wenig über die Wirksamkeit in der vulnerablen Bevölkerung ausgesagt werden kann.

Wegen der kurzen Entwicklungsdauer ist zur Zeit noch Vieles unklar: u.a. wie lange der Impfschutz anhält, ob asymptomatische Infektionen mit SARS-CoV-2 und die Übertragung des Virus verhindert werden können, ob schwere seltene und/oder verzögerte Nebenwirkungen auftreten. Die Phase 3-Studien aller drei Impfstoffhersteller laufen weiter (insgesamt bis 24 Monate nach ihrem Beginn) und werden zusammen mit den nun millionenfach erfolgenden Impfungen diese Fragen voraussichtlich lösen können.


[1] I.Schuster, 28.11.2020: Impfstoffe zum Schutz vor COVID-19 - ein Überblick

[2] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[3] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389 [

4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1

inge Thu, 21.01.2021 - 23:37

Comments

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Fr, 15.01.2021 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Covid-19 Patienten weisen häufig neurologische Beschwerden auf, die neben Störungen des Geruchs- und Geschmacksinns u.a. zu Verwirrtheit und lähmender Müdigkeit führen und auch nach Abklingen der akuten Infektion lange bestehen bleiben können. Mit Hilfe von hochauflösender Magnetresonanztomographie haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) postmortales Hirngewebe von COVID-19 Patienten untersucht und Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten. Dafür, dass das Virus SARS-CoV-2 selbst in das Hirngewebe eingedrungen war, konnten sie allerdings keinen Hinweis finden. Francis Collins, Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff  mRNA-1723 designt und entwickelt haben, berichtet über diese Untersuchungen.*

COVID-19 ist zwar in erster Linie eine Erkrankung der Atemwege, kann aber auch zu neurologischen Problemen führen. Als erstes solcher Symptome dürfte der Verlust des Geruchs- und Geschmackssinns auftreten; manche Menschen können später auch mit Kopfschmerzen, lähmender Müdigkeit und Schwierigkeiten klar zu denken zu kämpfen haben, die manchmal als „Gehirnnebel“ ("Brain Fog") umschrieben werden. Bei all diesen Symptomen fragen sich Forscher, was genau das COVID-19 verursachende Coronavirus SARS-CoV-2, im menschlichen Gehirn bewirkt.

Auf der Suche nach Anhaltspunkten haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) nun die ersten eingehenden Untersuchungen an Gewebeproben von Gehirnen durchgeführt, die von verstorbenen COVID-19 Patienten stammten. Die Ergebnisse wurden im Fachjournal New England Journal of Medicine veröffentlicht und legen nahe, dass die vielen neurologischen Symptome von COVID-19 wahrscheinlich durch die weit ausufernde Entzündungsreaktion des Körpers auf die Infektion und die damit einhergehende Verletzung der Blutgefäße erklärt werden können und nicht auf Grund einer Infektion des Gehirngewebes selbst [1].

Unter der Leitung von Avindra Nath hat das NIH-Team postmortales Hirngewebe von 19 COVID-19 Patienten mit einem leistungsstarken Magnetresonanztomographen (MRT) untersucht (das bis zu zehnmal empfindlicher als ein übliches MRT-Gerät war).Es handelte sich dabei um Patienten, die zwischen 5 und 73 Jahre alt waren; einige von ihnen hatten bereits bestehende Erkrankungen wie Diabetes, Fettleibigkeit und Herz-Kreislauf-Erkrankungen.

Das Team konzentrierte sich auf die Riechkolben des Gehirns, die unsere Fähigkeit zu riechen steuern, und auf den Hirnstamm, der die Atmung und die Herzfrequenz reguliert. Basierend auf früheren Erkenntnissen nimmt man an, dass beide Regionen für COVID-19 sehr anfällig sind.

Tatsächlich zeigten die MRT-Bilder in beiden Regionen eine ungewöhnliche Anzahl heller Flecken, ein Merkmal einer Entzündung. Sie zeigten auch dunkle Flecken, die auf Blutungen hinweisen. Abbildung 1.

Abbildung 1. Magnetresonanz Mikroskopie des unteren Teils des Hirnstamms eines an COVID-19 verstorbenen Patienten. (Der gezeigte Ausschnitt misst etwa 20 x 15 mm ; Anm. Redn.) Die Pfeile markieren helle und dunkle Flecken, die auf Schäden an den Blutgefäßen hindeuten, jedoch ohne Anzeichen einer Infektion mit SARS-CoV-2 . (Credit: National Institute of Neurological Disorders and Stroke, NIH)

Ein genauerer Blick auf die hellen Flecken zeigte, dass winzige Blutgefäße in diesen Bereichen dünner als normal waren und in einigen Fällen Blutproteine in das Gehirn austreten ließen. Diese Durchlässigkeit schien offensichtlich eine Immunreaktion auszulösen, welche sich auf T-Zellen aus dem Blut und die Mikroglia des Gehirns erstreckte. Die dunklen Flecken zeigten ein anderes Muster mit undichten Gefäßen und Gerinnseln, aber ohne Anzeichen einer Immunreaktion.

Diese Ergebnisse sind zweifellos interessant, ebenso bemerkenswert ist aber auch das, was Nath und Kollegen in diesen Proben menschlichen Gehirns nicht gesehen haben. Sie konnten in den Proben keine Hinweise darauf finden, dass SARS-CoV-2 selbst in das Hirngewebe eingedrungen war. Tatsächlich lieferten mehrere Methoden zum Nachweis von genetischem Material oder von Proteinen des Virus negative Ergebnisse.

Die Ergebnisse sind besonders aufregend, da aufgrund von Studien an Mäusen Hinweise darauf vorliegen, dass SARS-CoV-2 die Blut-Hirn-Schranke passieren und in das Gehirn eindringen könnte. So hat ein kürzlich von NIH-finanzierten Forschern im Journal Nature Neurosciences veröffentlichter Bericht gezeigt, dass das virale Spike-Protein, wenn es Mäusen injiziert wurde, neben vielen anderen Organen leicht in das Gehirn gelangt ist [2].

Ein weiterer, kürzlich im Journal of Experimental Medicine veröffentlichter Bericht, in dem Gehirngewebe von Mäusen und Menschen untersucht wurde, legt nahe, dass SARS-CoV-2 tatsächlich das Zentralnervensystem einschließlich des Gehirns direkt infizieren kann [3]. Bei Autopsien von drei Personen, die an den Folgen von COVID-19 starben, stellten die vom NIH-geförderten Forscher Anzeichen von SARS-CoV-2 in Neuronen der Hirnrinde des Gehirns fest. Diese Arbeit wurde mit Hilfe der Immunhistochemie durchgeführt, einer mikroskopischen Methode bei der Antikörper verwendet werden, um an ein Zielprotein - in diesem Fall das Spike-Protein des Virus - zu binden.

Es ist klar, dass hier noch mehr Forschung erforderlich ist. Nath und Kollegen setzen ihre Untersuchungen fort, auf welche Weise COVID-19 auf das Gehirn einwirkt und die bei COVID-19-Patienten häufig auftretenden neurologischen Symptome auslöst. Während wir mehr über die vielen Wege erfahren, auf denen COVID-19 Verwüstungen im Körper anrichtet, wird das Verständnis der neurologischen Symptome entscheidend sein, um Menschen - einschließlich der Kranken mit dem sogenannten Long Covid (Langzeit-Covid ) Syndrom - auf dem Weg der Besserung von dieser schrecklichen Virusinfektion zu helfen.


[1] Microvascular Injury in the Brains of Patients with Covid-19. Lee MH, Perl DP, Nair G, Li W, Maric D, Murray H, Dodd SJ, Koretsky AP, Watts JA, Cheung V, Masliah E, Horkayne-Szakaly I, Jones R, Stram MN, Moncur J, Hefti M, Folkerth RD, Nath A. N Engl J Med. 2020 Dec 30.

[2] The S1 protein of SARS-CoV-2 crosses the blood-brain barrier in mice. Rhea EM, Logsdon AF, Hansen KM, Williams LM, Reed MJ, Baumann KK, Holden SJ, Raber J, Banks WA, Erickson MA. Nat Neurosci. 2020 Dec 16.

[3] Neuroinvasion of SARS-CoV-2 in human and mouse brain . Song E, Zhang C, Israelow B, et al. J Exp Med (2021) 218 (3): e20202135.


 * Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am14. Jänner 2021) im NIH Director’s Blog unter dem Titel: " Taking a Closer Look at COVID-19’s Effects on the Brain" https://directorsblog.nih.gov/2021/01/14/taking-a-closer-look-at-the-effects-of-covid-19-on-the-brain/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog

inge Thu, 14.01.2021 - 21:56

Comments

Covid (not verified)

Mon, 08.02.2021 - 11:24

Reinfection reports are as yet uncommon yet consistently developing around the globe, and they're likely underreported. Individuals can get COVID-19 twice. That is the arising agreement among wellbeing specialists who are becoming familiar with the likelihood that those who've recuperated from the Covid can get it once more.

Wer hat das Alphabet erfunden?

Wer hat das Alphabet erfunden?

Do, 07.01.2021 — Redaktion

Redaktion

Icon Politik & Gesellschaft

Neue Erkenntnisse weisen auf ein Paradoxon von historischem Ausmaß hin: Unser Schriftsystem wurde von Menschen entwickelt, die nicht lesen konnten! Die Anfänge unseres Alphabets finden sich auf der Halbinsel Sinai; es wurde offensichtlich von kanaanitischen Minenarbeitern erfunden. Lydia Wilson, wissenschaftliche Mitarbeiterin am Computerlabor der University of Cambridge, hat kürzlich die BBC-Serie "Die Geheime Geschichte des Schreibens" moderiert und in diesem Zusammenhang u.a. die Ägyptologin Orly Goldwasser interviewt. Wilson berichtet nun im Smithsonian Magazine über die Erfindung des Alphabets. *

Hunderte Jahre bevor Moses in der „großen und schrecklichen Wildnis“ der Sinai-Halbinsel wanderte, hat dieses zwischen Afrika und Asien liegende Wüstendreieck Abenteurer angezogen, verlockt von den reichen Mineralienvorkommen in den Felsen. Auf einer dieser Expeditionen vor etwa 4.000 Jahren trug es sich zu, dass eine unbekannte Person oder Gruppe einen mutigen Schritt unternahm, der sich im Nachhinein als revolutionär herausstellte. In die Wand einer Mine geritzt findet sich der allererste Ansatz zu etwas, das wir täglich anwenden: das Alphabet.

Das Fundstück, das auch 116 Jahre nach seiner Entdeckung noch weiter untersucht und neu ausgelegt wird, befindet sich auf einer, den Winden ausgesetzten Hochfläche in Ägypten namens Serabit el-Khadim, einem, selbst für Sinai-Verhältnisse abgelegenen Ort. Dieser war für die alten Ägypter allerdings nicht allzu schwer zu erreichen, wie die Existenz eines Tempels dort zeigt. Als ich (d.i. Lydia Wilson; Anm. Redn.) 2019 dort war, schaute ich von der Anhöhe auf die einsame, schöne Landschaft und stellte fest, dass ich die gleiche Ansicht sah, welche die Erfinder des Alphabets jeden Tag gesehen hatten. Abbildung 1.

Abbildung 1. Ausblick von Serabit el-Khadim, dem Zentrum des Türkisabbaus im alten Ägypten (Bild: Lydia Wilson)

Tempel der Hathor

Der aus dem natürlichen Felsen herausgehauene Tempel ist Hathor, der Göttin der Türkise (und anderer Dinge) geweiht. Stelen mit eingemeißelten Hieroglyphen säumen die Wege zum Schrein, wo archäologische Funde darauf hindeuten, dass es einst einen ausgedehnten Tempelkomplex gab. Abbildung 2. Etwa eine Meile südwestlich des Tempels liegt der Grund für all das alte Interesse an dieser Gegend: eingebettet in den Felsen finden sich Klumpen aus Türkis, einem Mineral, das die Wiedergeburt symbolisierte - ein wichtiges Motiv in der ägyptischen Kultur - und die Farbe, welche die Wände ihrer prunkvoll ausgestatteten Gräber schmückte. Die Türkisvorkommen waren der Grund, warum die ägyptische Oberschicht Expeditionen hierher schickte, ein Unternehmen, das um 2.800 v. Chr. begann und mehr als tausend Jahre andauerte. In der Hoffnung, eine reiche Ausbeute mit nach Hause zu nehmen, brachten die Expeditionen der Hathor Opfergaben dar.

Abbildung 2. Tempel der Hathor in Serabit el-Chadim (Bild von Redn. eingefügt; Quelle: Einsamer Schütze - Eigenes Werk, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=30087485)

Rosetta-Stein des Alphabets

1905 grub ein Ehepaar, die Ägyptologen Sir William und Hilda Flinders Petrie, den Tempel aus und wies dort Tausende von Votivgaben nach.  An der Wand einer Mine entdeckte das Paar merkwürdige Zeichen und fing dann an solche auch an anderen Stellen, an Wänden und kleinen Statuen, zu sehen. Einige Zeichen waren eindeutig mit Hieroglyphen verwandt, aber sie waren einfacher als die schöne ägyptische Bildschrift an den Wänden des Tempels. Die Petries erkannten bald, dass diese Zeichen ein Alphabet darstellten, auch wenn das Entschlüsseln der Buchstaben ein weiteres Jahrzehnt dauern würde und das Verfolgen des Ursprungs der Erfindung noch weitaus länger .

Viele von den Schätzen, die sie ausgegraben hatten, brachten die Flinders Petries nach London. Darunter war eine kleine Sphinx aus rotem Sandstein, die auf der Seite die gleiche Handvoll an Buchstaben zeigte, welche sie in den Minen gesehen hatten. Nachdem der Ägyptologe Sir Alan Gardiner die Beschriftungen zehn Jahre lang untersucht hatte, veröffentlichte er 1916 seine Transkription der Buchstaben und ihrer Übersetzung: Die Inschrift auf der kleinen Sphinx, geschrieben in einem semitischen Dialekt, lautete „Geliebte von Ba'alat“ und bezog sich auf die Kanaanitische Göttin, Gemahlin von Ba'al, dem mächtigen kanaanitischen Gott. Abbildung 3.

Abbildung 3. "Rosetta Stein des Alphabets" - so nennt Goldwasser die bei Serabit entdeckte Sphinx (British Museum)

"Für mich wiegt ihr Wert all das Gold in Ägypten auf", sagte die israelische Ägyptologin Orly Goldwasser über diese kleine Sphinx, als wir diese Ende 2018 im British Museum betrachteten. Goldwasser war nach London gekommen, um für eine BBC-Dokumentation über die Geschichte des Schreibens interviewt zu werden (Der Link zu dem BBC-Video findet sich im Anhang; Anm. Redn.). In dem hohen, mit Bücherschränken gesäumten Ägypten- und Sudan-Studienraum, der von den öffentlichen Sälen durch abgeschlossene Türen und Eisentreppen getrennt war, holte ein Kurator die Sphinx aus ihrer Box und stellte sie auf einen Tisch, an dem Goldwasser und ich (d.i. Lydia Wilson; Anm.Redn.) sie bestaunten. "Jedes Wort, das wir lesen und schreiben, hat damit begonnen." Goldwasser erklärte, wie die Arbeiter in den Minen des Sinai eine Hieroglyphe in einen Buchstaben verwandelt haben dürften: „Nennen Sie das Bild beim Namen, nehmen Sie davon nur den ersten Laut und vergessen Sie dann das Bild.“ So verhalf die Hieroglyphe für einen Ochsen, Aleph, dem Buchstaben "a" eine Form zu geben, während "b" von der Hieroglyphe für "Haus", bêt, abgeleitet wurde. Diese ersten beiden Zeichen gaben dem System seinen Namen: Alphabet. Einige Buchstaben wurden aus Hieroglyphen entlehnt, andere stammten aus dem Leben, bis alle Laute der Sprache, die sie sprachen, in schriftlicher Form dargestellt werden konnten.

Ägypten - das Amerika der alten Welt

Der Tempelkomplex gab detaillierte Hinweise auf die Menschen, die in den ägyptischen Türkisminen am Sinai gearbeitet haben. Die Stelen, die die Pfade säumen, haben jede Expedition aufgezeichnet, einschließlich der Namen und Jobs aller Personen, die auf dem Gelände gearbeitet haben. Die bürokratische Veranlagung der ägyptischen Gesellschaft liefert heute ein klares Bild von den Migranten, die vor vier Jahrtausenden nach Ägypten strömten, um Arbeit zu suchen. Ägypten war, wie Goldwasser es ausdrückt, „das Amerika der alten Welt“. Wir können darüber im Buch Genesis der Bibel lesen, als Jakob, „der im Land Kanaan wohnte“ - das heißt an der Küste der Levante östlich von Ägypten - nach Ägypten reiste, um sein Glück zu suchen. Zusammen mit Hirten wie Jakob haben andere Kanaaniter in Serabit, etwa 210 Meilen südöstlich von Memphis, dem Sitz der pharaonischen Machthaber, in den Minen für ägyptischen Eliten geschürft.

Religiöse Rituale spielten eine zentrale Rolle, um ausländische Arbeiter zum Schreibenlernen anzuregen. Nach einem Arbeitstag dürften die kanaanitischen Arbeiter die Rituale ihrer ägyptischen Kollegen im prachtvollen Tempelkomplex von Hathor beobachtet und sich über die Tausenden von Hieroglyphen gewundert haben, die verwendet wurden, um der Göttin Gaben zu opfern. Nach Goldwassers Ansicht waren sie jedoch nicht entmutigt, weil sie die Hieroglyphen um sie herum nicht lesen konnten. Stattdessen begannen sie, die Dinge auf ihre eigene Weise zu schreiben und erfanden ein einfacheres, vielseitigeres System für ihre eigenen religiösen Beschwörungen.

Das Alphabet blieb bis sechs Jahrhunderte oder länger nach seiner Erfindung auf die kulturelle Peripherie des Mittelmeers beschränkt; sichtbar nur in Worten, die in Gegenstände - Dolche, Töpferwaren - wie sie im gesamten Nahen Osten gefunden wurden, eingeritzt waren, nicht aber nicht in irgendeiner Schrift der Verwaltung oder der Literatur. Aber dann, um 1200 v. Chr. kam es zu großen politischen Umwälzungen, die als Zusammenbruch der späten Bronzezeit bekannt sind. Die großen Reiche des Nahen Ostens - das mykenische Reich in Griechenland, das hethitische Reich in der Türkei und das alte ägyptische Reich - lösten sich in Bürgerkriegen, Invasionen und Dürren auf. Mit dem Aufkommen kleinerer Stadtstaaten begannen die lokalen Machthaber, lokale Sprachen für ihre Regierung zu verwenden. Im Land Kanaan waren dies semitische Dialekte, die mit Alphabeten aus den Sinai-Minen niedergeschrieben wurden.

Die Phönizier

Die kanaanitischen Stadtstaaten blühten auf, und ein emsiger Seehandel verbreitete ihr Alphabet zusammen mit ihren Waren. Variationen des Alphabets - heute als phönizisch bekannt, vom griechischen Wort für die kanaanitische Region - wurden von der Türkei bis nach Spanien gefunden und sind bis heute in Form der von den Griechen und Römern verwendeten und weitergegebenen Buchstaben erhalten.

In dem Jahrhundert seit der Entdeckung dieser ersten eingeritzten Buchstaben in den Sinai-Minen herrschte der akademische Konsens vor, dass hochgebildete Menschen das Alphabet geschaffen haben müssten. Goldwassers Forschung kommt zum gegenteiligen Schluss. Sie argumentiert, dass es tatsächlich eine Gruppe ungebildeter kanaanitischer Bergleute war, die den Durchbruch geschafft haben, ohne Hieroglyphen und unfähig, ägyptisch zu sprechen, aber inspiriert von der Bildschrift, die sie um sich herum sahen. Nach dieser Sichtweise stammte eine der tiefgreifendsten und revolutionärsten intellektuellen Schöpfungen der Zivilisation nicht von einer gebildeten Elite, sondern von Analphabeten, die in der Geschichtschreibung normalerweise keinen Platz finden.

Pierre Tallet, ehemaliger Präsident der Französischen Gesellschaft für Ägyptologie, unterstützt Goldwassers Theorie: "Natürlich macht [die Theorie] Sinn, da klar ist, dass wer auch immer diese Inschriften auf dem Sinai schrieb, keine Hieroglyphen kannte", sagte er mir. "Und die Wörter, die sie schreiben, sind in einer semitischen Sprache, also müssen es Kanaaniter gewesen sein, von denen wir aus den ägyptischen Aufzeichnungen hier im Tempel wissen, dass sie da waren."

Es gibt allerdings Zweifler. Christopher Rollston, ein hebräischer Gelehrter an der George Washington University, argumentiert, dass die mysteriösen Schreiber wahrscheinlich Hieroglyphen kannten. "Es wäre unwahrscheinlich, dass Menschen, die nicht schreiben konnten, fähig oder verantwortlich gewesen wären, das Alphabet zu erfinden", sagt er. Dieser Einwand scheint jedoch weniger überzeugend als Goldwassers Version - wenn ägyptische Schreiber das Alphabet erfanden, warum war es dann sofort für ungefähr 600 Jahre aus ihren Schriften verschwunden?

Abgesehen davon dürfte - laut Goldwasser - die enge Verbindung zwischen Piktogrammen und Text überall um uns herum offensichtlich sein - in unserer Zeit in Form von Emojis . Sie verwendet Emojis großzügig in ihren E-Mails und Textnachrichten und argumentiert, dass sie ein soziales Bedürfnis erfüllen, das die alten Ägypter verstanden hätten. "Emojis haben der modernen Gesellschaft tatsächlich etwas Wichtiges gebracht: Wir spüren den Verlust von Bildern, wir sehnen uns nach ihnen und mit Emojis haben wir ein bisschen von den alten ägyptischen Spielen in unser Leben gebracht."


 *Der vorliegende Artikel von Lydia Wilson ist unter dem Titel "Who Invented the Alphabet?" in der Jänner/Feber Ausgabe des Smithsonian Magazine erschienen.  https://www.smithsonianmag.com/history/inventing-alphabet-180976520/ .Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und es wurden einige Untertitel und eine Abbildung (Abbildung 2) eingefügt.


Weiterführende Links

BBC Four - The Secret History of Writing (Presenter: Lydia Wilson), October 2020); Video 2:56:36. Wie die Erfindung des Schreibens die Welt, in der wir leben, geprägt hat, in drei aufeinander folgenden Teilen:  1. From Pictures to Words - 00:00 2. Words on a Page - 59:03 3. Changing the Script - 1:57:57. https://www.youtube.com/watch?v=B9mmojTDgDg

Smithsonian Institution (Smithsonian, https://www.si.edu/):  bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt.  Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home


 

inge Thu, 07.01.2021 - 00:49

2020

2020 mat Fri, 27.12.2019 - 10:04

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

Do, 31.12.2020 — Redaktion

RedaktionIcon Medizin Tests sind von entscheidender Bedeutung, um das Coronavirus zu diagnostizieren und seine Ausbreitung einzudämmen. Es gibt zwei Arten von Covid-19-Tests: solche, mit denen festgestellt werden soll, ob Sie jetzt an der Infektion leiden, oder solche, mit denen überprüft werden soll, ob Sie zuvor mit dem Krankheit verursachenden Virus - SARS-CoV-2 - infiziert wurden. Wie jedes andere Produkt weisen diese Tests unterschiedliche Genauigkeits- und Zuverlässigkeitsgrade auf und können verwendet werden, um unterschiedliche Ziele zu erreichen. Das EU Research and Innovation Magazine "Horizon" zeigt kritische Punkte auf.*

Wir brauchen Technologien, die schnell sind, genau sind, einen hohen Durchsatz erlauben und keine teuren, komplexen Laborgeräte oder das Fachwissen hochqualifizierter Mitarbeiter erfordern. Zur Zeit gibt es aber nichts, das all diese Kriterien erfüllt, sagt Professor Jon Deeks, ein Biostatistiker und Testexperte von der Universität Birmingham, UK. "Wir besitzen noch keinen derart perfekten Test, aber einige, die in manchen Aspekten gut sind, in anderen aber nicht."

Hier sind nun fünf Punkte, die man über Coronavirus-Tests wissen sollte:

1. Am gebräuchlichsten sind PCR- und Antigen-Tests; diese funktionieren aber auf unterschiedliche Weise

Um das Vorhandensein des Virus festzustellen suchen Antigentests nach Proteinen (Proteinfragmenten) auf seiner Oberfläche. PCR-Tests (Polymerasekettenreaktionen) wurden entwickelt, um genetisches Material des Virus - d.i. die RNA - festzustellen, welches die Anweisung zur Herstellung dieser Proteine enthält.

Als Probe benötigen beide Tests einen Abstrich aus dem tiefen Nasenraum (Abbildung 1) oder der hinteren Rachenwand. Ist das Ergebnis positiv, können aber beide Testarten keine Aussage treffen, ob man auch ansteckend ist. Und hier enden auch schon die Ähnlichkeiten.

Abbildung 1. Um einen optimalen Abstrich durch die Nase zu erhalten, muss das Wattestäbchen bis zur Hinterwand des Nasen/Rachenraums geführt werden. (Bild: Collecting a nasopharyngeal swab Clinical Specimen; US Center of Disease Control and Prevention (CDC); Screenshot. von der Redaktion eingefügt)

Im Falle des PCR-Tests wird die Probe an ein Labor geschickt, wo unter Verwendung spezieller Reagenzien die RNA des Virus in DNA (sogenannte c-DNA) umgeschrieben und - zur Identifizierung des Pathogens - in einer Serie von Kühl-und Erwärmungsschritten millionenfach vervielfacht wird. Dieser Prozess kann Stunden dauern, erfordert hochentwickelte Laborgeräte und ausgebildete Techniker; normalerweise wird jede Probe jeweils einzeln untersucht; allerdings gibt es Maschinen, die mehrere Proben gleichzeitig verarbeiten können. Der zeitaufwändige Prozess zahlt sich aus, da infizierte Personen mit fast 100% Präzision erkannt werden, sofern sich Viren in dem Abstrich befinden.

Im Gegensatz dazu funktionieren Antigentests - oft als Schnelltests bezeichnet -, indem die Abstrichs-Probe mit einer Lösung gemischt wird, die bestimmte virale Proteine freisetzt. Diese Mischung wird dann auf einen Papierstreifen aufgebracht, der einen maßgeschneiderten Antikörper für diese Proteine enthält, und diese bindet, falls sie vorhanden sind. Wie bei einem Schwangerschaftstest zu Hause spiegelt sich das Ergebnis als Bande auf dem Papierstreifen wider. Abbildung 2.

Abbildung 2. Der Antigentest-Kit (links). Der Nasen- oder Rachenabstrich wird mit der Testflüssigkeit vermischt auf einen Papierstreifen aufgetragen (Mitte) und kurz danach kann das Ergebnis abgelesen werden (rechts). (Quelle: Wikipedia dronepicr - Safe Corona Rapid Test Diagnostic; Lizenz cc-by-2.0. Bild von Redn. eingefügt.)

Dieser Prozess erfordert kein Labor und kann in bis zu 30 Minuten durchgeführt werden. Die Schnelligkeit geht jedoch zu Lasten der Empfindlichkeit. Obwohl diese Tests zuverlässig sind, wenn eine Person eine hohe Viruslast aufweist, sind sie weitaus anfälliger für falsch negative Ergebnisse, wenn jemand geringe Mengen des Virus im Körper hat.

2. Sensitivität und Spezifität sind Kriterien für die Brauchbarkeit eines Tests

Diese beiden Kriterien werden verwendet, um die Aussagekraft eines Tests zu bestimmen: "Wie gut erkennt dieser Test Krankheiten und wie gut erkennt er die Abwesenheit von Krankheiten", erklärt Prof. Deeks.

Die Sensitivität ist definiert als der Anteil an mit Covid-19 infizierten Personen, die korrekt ein positives Ergebnis erzielen, während die Spezifität der Anteil der nicht-infizierten Personen ist, welche der Test korrekt als negativ identifiziert.

Ein hochsensitiver Test weist im Allgemeinen eine niedrige Falsch-Negativ-Rate auf, birgt jedoch das Risiko von falsch-positiven Ergebnissen, wenn seine Spezifität nicht auf dem neuesten Stand ist. Auf der anderen Seite besteht bei einem hochspezifischen Test das Risiko von falsch negativen Ergebnissen, wenn die Sensitivität des Tests gering ist; im Allgemeinen wird es eine niedrige falsch positive Rate geben. PCR-Tests gelten als Goldstandard, da sie im Allgemeinen hochsensitiv und hochspezifisch sind.

3. Wenn es um Schnelltests geht, kann von entscheidender Bedeutung sein, wer den Test ausführt

Im Rahmen der Pläne der britischen Regierung zur Durchführung von Massenimpfungen wurde in Liverpool ein Antigentest namens Innova Lateral Flow Test eingeführt. Das Ziel war Arbeitnehmern damit die Rückkehr in die Büros zu ermöglichen und Familien ihre Angehörigen in Pflegeheimen wieder umarmen zu können, stellt Prof. Deeks fest.

Dieses Freitesten („Test to Enable“ -Strategie) schlug jedoch fehl; Wissenschaftler fanden heraus, dass in einer Population von Menschen, die zum überwiegenden Teil Symptome aufwiesen, die Sensitivität des Tests auf etwa 58% sank, wenn dieser von selbstgeschultem Personal durchgeführt wurde. Im Gegensatz dazu stieg die Sensitivität auf 73%, wenn der Test von qualifizierten Krankenschwestern ausgeführt wurde und auf 79%, wenn Laborwissenschaftler testeten. In einer Studie an asymptomatischen Menschen fiel die Sensitivität im Vergleich zu PCR-Tests auf etwa 49%.

"Man kann also von einem Trend sprechen, je erfahrener die Leute im Ausführen des Tests sind, desto weniger Fälle werden übersehen", sagt er. Es gibt einige Schritte, die sehr sorgfältig erfolgen müssen, wie beispielswise das genaue Ablesen. "Manchmal ist es schwer zu sagen, ob es sich um eine Bande oder um eine Verunreinigung handelt", sagt Prof. Deeks.

PCR-Tests werden im Labor durchgeführt, das Risiko für Fehler ist viel geringer, fügt er hinzu.

Die Produzenten versuchen auch Tests für zu Hause zu entwickeln. Angesichts der von uns gesammelten Erfahrungen, wie die Genauigkeit von Schnelltests davon abhängt, wer diese ausführt, ist dies ein Problem, meint Prof. Deeks.

"Wenn die Leute Tests einfacher durchführen können, werden mehr Leute getestet ... ich glaube aber nicht, dass wir den Test haben, um dies schon zu tun", sagt er. Und fügt hinzu, dass es keine guten Studien gibt, die untersuchen, welchen Nutzen diese zusätzlichen Tests haben würden, beispielsweise welche Auswirkungen wiederholte falsch-negative Ergebnisse auf das Verhalten haben könnten.

In einem am 18. Dezember veröffentlichten Proposal für gemeinsame Regeln bei Antigen-Schnelltests erklärte die Europäische Kommission, dass Antigen-Schnelltests von geschultem medizinischem Personal oder anderen geschulten Kräften durchgeführt werden sollten (1)

 4. Bevor Schnelltests genauer werden, sollten negative Testergebnisse nicht zur Förderung riskanter Aktivitäten dienen

Wenn ein Test wie der Innova-Test bis zur Hälfte der Fälle falsch liegt, kann man wirklich niemand als frei von dem Risiko betrachten infiziert zu sein oder die Infektion zu verbreiten, bemerkt Prof. Deeks.

"Man wird immer einen kleinen Prozentsatz an Leute haben, die bei allen Tests herausfallen", sagt Gary Keating, Chief Technology Officer von HiberGene, einem in Irland ansässigen Unternehmen, das einen Covid-19-Test vertreibt. Der Test verwendet die LAMP-Technologie, eine billige Alternative zur PCR-Technologie.

"Ich denke, es ist immer gefährlich, einen einzelnen diagnostischen Test isoliert durchzuführen und diesen als Grundlage zu verwenden, um eine sehr wichtige Entscheidung in Hinblick auf Gesundheit oder Lebensstil zu treffen", sagt Keating.

In großem Maßstab angewandt könnten solchen Ergebnisse zu einem falschen Sicherheitsgefühl führen, meint Prof. Deeks.

Regierungen sind daran interessiert, Schnelltests zu verwenden, da diese billiger sind und schneller für Kampagnen zur Massenimpfung eingesetzt werden können. Da sie jedoch hinsichtlich der Genauigkeit limitiert sind, ist es wichtig, negative Testergebnisse nicht dazu zu verwenden, um riskantere Aktivitäten wie das Treffen mit älteren oder schutzbedürftigen Angehörigen zu ermöglichen, sagt er.

Einige Länder, wie die Vereinigten Staaten, empfehlen einen PCR-Test, wenn Personen mit Symptomen mit einem Antigen-Schnelltest negativ getestet werden, um das Ergebnis zu bestätigen.

Wenn Schnelltests auch gut dazu geeignet sind, Menschen mit hoher Viruslast zu erfassen, so ist es noch nicht klar, bis zu welchem Grenzwert an Viren keine Ansteckung erfolgt. Bei Covid-19 weisen die Infizierten in der frühen Phase der Infektion einen Spitzenwert der Viruslast, aber die virale RNA kann Wochen oder sogar Monate lang bestehen bleiben. Abbildung 3.

Abbildung 3. Nachweis von SARS-CoV-2 mittels PCR-Test in Nasen-Abstrichen von Patienten mit mildem bis moderatem Krankheitsverlauf. 4 Wochen nach Einsetzen der Symptome trugen die Patienten noch rund 30 % der maximalen Virenlast. (Quelle: Dr Ai Tang Xiao - https://www.cdc.gov/coronavirus/2019-ncov/community/strategy-discontinue-isolation.html https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7. Lizenz cc-by 4.0. Das Bild wurde von der Readktion eingefügt.)

 

5. Antikörpertests könnten nützlich sein, um die Dauerhaftigkeit von Impfreaktionen zu messen

Antikörper sind Soldaten, die vom Immunsystem als Reaktion auf einen fremden Eind